無料ブログ「rentafree.net」の管理人ブログ

ブログエディターを更新しました

将来Firefoxで<menuitem>が使えなくなる可能性がある関係でブログエディターを更新しました。
ブログの記事編集ページで Ctrl+F5 を押すなどしてキャッシュを更新してください。

変更点1
コンテキストメニューで[元に戻す][やり直す]が出る場合、下に水平線を引くようにしました。
この2つのコマンドは履歴を独自に記録しているのでブラウザ標準コマンドとは結果が違います。
エディター機能でタグの編集が行われている状況でブラウザ標準のコマンドを使うと変な結果になるので注意。
Ctrl+ZとCtrl+Shift+Zはブラウザ標準のコマンドをキャンセルして独自の処理が行われます。(今回の更新以前から)

変更点2
<menuitem>が利用できない場合(Firefox以外)、[切り取り][コピー][削除]のコマンドを出すようにしました。
基本的にはブラウザコマンドを利用した場合と同じ結果になります。
<menuitem>が利用できる場合はブラウザ標準のコマンドがメニューにあると思いますので表示しません。
[貼り付け]コマンドはWEBページからクリップボードにアクセスできないので[貼り付け(テキスト)][貼り付け(HTML)]
のコマンドで<textarea>経由でないとできません。
<menuitem>が利用できる場合はブラウザ標準の[貼り付け]コマンドが利用できます。(ただし、アンドゥの履歴が飛ぶので注意。)
Ctrl+V Ctrl+C Ctrl+X などはブラウザ標準の動作になります。


Firefox以外でも右クリックから[切り取り][コピー][削除]が使えるようになった感じです。

更新Ping送信先を変更しました

http://blogsearch.google.co.jp/ping/RPC2
http://blogsearch.google.com/ping/RPC2
↑この2つのPing送信先がサービス終了?405 Method Not Allowedが返ってくるようなのですが、
結構な数のユーザーが送信先に設定している感じでしたので、一括で削除しました。

また、
http://api.my.yahoo.co.jp/RPC2
http://blog.goo.ne.jp/XMLRPC
↑これも以前から終わっていると思いますが設定している方がいるようでしたので消しました。

他にもエラーの返ってくる送信先を発見したら消していきます。

更新Pingは全く送らなくても、公式サイトの新着ブログ一覧経由でBOTは高確率で訪問してくるはずです。

アクセス解析のUserAgent分類処理を調整中

しばらくアクセス解析のUserAgent分類処理を調整します。

これまでSafariをバージョン分類していませんでしたが、概ねできるようにします。
ガラケー、ゲーム機、古いPCブラウザなどは一旦分類をやめてundefinedにします。ログを発見したら再度分類するかもです。
BOTはGoogleとBing以外は一旦全てBOTで分類します。
LWPはPerlに変更してpython-requestsをPythonで分類します。他のモジュールも発見したら言語単位で分類する感じにします。

とりあえず今のところそんな感じです。

アクセス解析の「検索エンジン」と「検索文字列」の項目消しました。

サービスを開始した頃はGoogle等の検索サイト経由でのアクセス時にリファラーから検索文字列が取得できていましたが、
昨今ではごく稀にしか取得できなくなっているので、アクセス解析から「検索エンジン」と「検索文字列」の項目を消しました。

「検索エンジン」の方はドメインを識別して分類できなくもないですが、「リンク元」の項目でリンク元ドメインでの分類ができるので要らないと判断しました。


また、「UserAgent」の項目の分類処理をちょっといじろうと思ってます。

IE8とIE7を非対応にしました。

.jsファイルの配信方法をちょっと変更したのですが、その際に旧式IE用のブログエディターを消しました。
今まではIE8とIE7でもブログエディターが一応利用できたのですが、エラーになります。

クロール除外ページの<head>にnoindex<meta>タグを挿入するようにしました

重複コンテンツをGoogleにインデックスされないようにするため、
http://ユーザードメイン/search/ (検索結果ページ)
http://ユーザードメイン/m/ (携帯用ページ)
http://ユーザードメイン/s/ (スマホ用ページ)
の3つをrobots.txtでクロール除外設定していましたが、
クロールを除外していてもインデックスされる場合があり、された場合にGoogleから警告がくるようなので、
上記のクロール除外URL接続時に<meta name='robots' content='noindex'>を出力するようにしました。

テンプレートの&$HEAD;部分に出力されるのでテンプレートが対応している必要があります。
Wikiも同様にrobots.txtのクロール除外ページに<meta>タグを出力するようにしました。

サイトマップ関連を修正しました

今朝行ったサイトマップの件数を1桁減らした件の関連ですが、
減らしてもまだ重かったので、処理の内容を変更しました。

応答自体はかえって遅くなると思うのですが、SQLクエリは軽くなるように変更しました。


[追記]
ソートに問題があったので再度修正しました。
ただし、修正後の処理にも同一秒に複数記事が投稿されている場合に同じURLが複数サイトマップに記載されてしまう可能性が考えられるという問題があります。
サイトマップに関しては専用にユニークなインデックスを作れば対応できそうではあるのですが、
個別記事ページの前後記事の取得処理にも同様に同一秒の投稿があると問題が生じる仕様になっており、そちらは後から日時の変更があり得る関係でやむを得ないので、
サイトマップの方も専用にインデックスを作るのは別の部分に処理コストが増えてしまうので、重複のありえる不完全な仕様で妥協します。

サイトマップの件数を変更しました

処理に時間がかかる場合があったので、ブログとWikiのサイトマップの件数を減らしました。

サイトマップの最大: 5000件 → 500件
サイトマップインデックスの最大: 10万件 → 1万件

1桁減らしました。