robots.txtに記載されるSitemapのschemeがhttpで固定されていました
ユーザードメインのrobots.txtにSitemapのアドレスが記載されますが、HTTPSの設定が「HTTPSが標準」か「HTTPSを強制」に設定されている場合はSitemapのURLはhttps://で始まるアドレスであるべきですが、http://から始まるアドレスで固定されていました。
「HTTPSが標準」か「HTTPSを強制」に設定されている場合はhttps://で始まるアドレスが記載されるように変更しました。
なお、
ユーザーサイトや各種Feedに関しては「HTTPSを強制」に設定されている場合にhttp://から始まるアドレスで接続しようとした場合はHTTP 301 Moved Permanentlyでリダイレクトとなり、
「HTTPSは無効」に設定されている場合にhttps://から始まるアドレスで接続しようとした場合はHTTP 404でエラーページが表示されますが、
robots.txtに関してはユーザードメインが有効な場合はhttp://でもhttps://でも表示されます。
あと、変更後にFirefoxで接続して確認しましたが、どうも対象ドメインのページがhttpsでキャッシュされている場合だと思うのですが、
http://でアドレスバーに入力して接続しようとしても自動的にhttps://のアドレスに接続してしまうみたいで確認が困難だった・・・
「HTTPSが標準」か「HTTPSを強制」に設定されている場合はhttps://で始まるアドレスが記載されるように変更しました。
なお、
ユーザーサイトや各種Feedに関しては「HTTPSを強制」に設定されている場合にhttp://から始まるアドレスで接続しようとした場合はHTTP 301 Moved Permanentlyでリダイレクトとなり、
「HTTPSは無効」に設定されている場合にhttps://から始まるアドレスで接続しようとした場合はHTTP 404でエラーページが表示されますが、
robots.txtに関してはユーザードメインが有効な場合はhttp://でもhttps://でも表示されます。
あと、変更後にFirefoxで接続して確認しましたが、どうも対象ドメインのページがhttpsでキャッシュされている場合だと思うのですが、
http://でアドレスバーに入力して接続しようとしても自動的にhttps://のアドレスに接続してしまうみたいで確認が困難だった・・・