この記事は約6分で読めます。
本文は約3854文字です
サーチコンソールでXMLサイトマップが読み込まれない!解決方法は?
サーチコンソールでXMLサイトマップが読み込まれていない感じです。
検索順位が上がらないのはこれがXMLサイトマップが読み込まれないからでしょうか?
Webサイトやブログを公開してアクセスが少ないことで悩む人がほとんどだと思います。アクセスが少ないことで継続するモチベーションが下がる人も多いかもしれません。
SEO対策をしっかり行うことで検索エンジン経由でのアクセスが見込めますが、SEO対策は時間がかかりますし、Google次第という部分が大きいです。
SEO対策の一つとしてXMLサイトマップを用意してGoogleに知らせる方法があります。
XMLサイトマップ自体は今では誰でも作っており用意すること自体にSEOの優位性はありません。
しかし、XMLサイトマップを用意していても、あるタイミングからGoogleサーチコンソールでXMLサイトマップが読み込まれなくなってしまうサイトが結構あります。
この記事では、XMLサイトマップが読み込まれていないかどうかの確認方法や読み込まれていない時の影響の確認方法についてご紹介します。
XMLサイトマップがSEO対策として重要なワケ
XMLサイトマップの役割は大きく2つです。
- 検索エンジンに対してサイト内の記事の存在を漏れなく伝える
- 記事の更新があった時にその記事を知らせる
サイト公開直後や検索エンジンから経由の訪問者がいない状態では、XMLサイトマップをサーチコンソールに登録することは、検索エンジンのサイトのクロールを助ける意味があります。
つまり、記事が検索エンジンに認識された時点でXMLサイトマップの1つ目の役割は終わっています。
次に、XMLサイトマップの別の役割として記事の更新を伝えるということがあります。サーチコンソールから新規の記事を公開した時にインデックスを依頼するという方法が従来から使われていますが、その方法の代わりにXMLサイトマップが使われるというものです。
XMLサイトマップに最終更新日を乗せることで、検索エンジンは前回のクロール移行に更新された記事を効率的に見つけることができます。
記事の数が数千を超える当たりから、XMLサイトマップをサーチコンソールでうまく認識しなくなることが多いです。
記事数の増加によりサーチコンソールでXMLサイトマップが読み込まれなくなる現象の特徴
検出URLが常に0のまま
これはよくある事例ですが、明確な解決方法がありません。
検出されたページの合計数がサイトマップと一致せず、変化しない
検出されたページの合計数がある時期から更新されないという事例もあります。最終読み込み日時もあるタイミングから変化しません。
読み込まれたサイトマップが表示されない
サイトマップ インデックスは正常に処理されました、と表示されるが、読み込まれたサイトマップにはサイトマップファイルの一覧が表示されない。
サーチコンソールでXMLサイトマップが正常に認識されているかどうかの確認方法
XMLサイトマップが認識されていない場合は以下のような症状がでます。
- URL検査をした時に参照元にサイトマップが出てこない
- サーチコンソールのページからインデックス状況をフィルタするメニューが使えない
このような状況であれば、サーチコンソール上は、XMLサイトマップは読み込まれていないと言っていいです。
サーチコンソールからサイトマップの読み取りを検査してみる
URL検査の入力欄にXMLサイトマップのURLを入力して、読み取り可能かチェックします。
読み取り可能であれば、XMLサイトマップは読み取ることは可能です。
URL検査の入力欄にXMLサイトマップのURLを入力すると、google botがXMLサイトマップへアクセスしていることをアクセスログで確認できるはずです。
Google botがXMLサイトマップを読み込むときにはXMLサイトマップへのアクセスログが残るというわけです。
サイトマップ登録時にGoogle botからアクセスがあるか?
サイトマップをサーチコンソールで登録した時に、URL検査と同じようにGoogle botが読み取りに来てくれればサイトマップは読み込まれるはずです。
しかし、サイトマップが正常に認識されていないサイトでは、サイトマップをサーチコンソールで登録した時にGoogle botのアクセスは発生していないはずです。
なぜ、Google botはXMLサイトマップにアクセスしないのか?
これは単純な理由で、Google botがそのサイトのXMLサイトマップの読み込みを意図的に止めているからだと思います。
XMLサイトマップはGoogle botに記事の存在と更新を伝え、記事をクロールしてもらうために用意しているものです。
もし、サーチコンソールで、Google botのクロール状況を確認して、クロール頻度が高ければ、Google botがXMLサイトマップは使わなくてもいいと判断されたサイトである可能性があります。
回避方法として、XMLサイトマップのファイル名を変えたり、ドメインを変えることでXMLサイトマップを正常に認識するようになったという話があります。
ですが、そのようにしても時間の経過とともにGoogle botはXMLサイトマップを読み込まなくなるでしょう。
XML sitempaファイルを読み込まないサイトの場合、sitemapファイルの形式に問題があるのではなく、サイト全体の属性からsitemapを読み込まないとGoogle側が決めているのですから、時間が経てば同じ結果に戻るはずです。
XML sitemapファイルの読み込みが不要だと判断されたサイトは、それ以降はXMLサイトマップは使われず、Google側のデータベースに記録されて管理されているということだと思います。
中古ドメインなどで現在ないハズの過去のサイトの記事へのクロールがなかなか止まらないのは、XMLサイトマップと関係なくクロールされている証拠であると言えます。
XMLサイトマップが読み込まれないから検索順位が下がることは無い
Googleのフォーラムで同様の話題が年がら年中取り上げられていることからも、サーチコンソールでXMLサイトマップを読み込まなくなる現象は珍しくありません。
少なくとも記事が検出されていれば、XMLサイトマップが無くても直接の影響はありません。
更新を伝える役割としてのXMLサイトマップは機能しないかもしれませんが、サイトのクロール頻度が高ければ問題は無いと思います。
検出⇒クロール⇒インデックス未登録の記事が大量にある場合、それはXMLサイトマップの問題ではなく、サイトの品質の問題です。
サイトの品質が低い場合、XMLサイトマップを正常に認識しても結果は変わらないでしょう。
サイトの品質を高めることで、Google botのクロール頻度も高まり、XMLサイトマップが認識されないことも気にならなくなると思います。
サーチコンソールを使ってない人はXMLサイトマップをどうやってGoogle botに伝えているのか?
ブラックハットSEOまでいかずともグレーなSEO対策をしている人はサーチコンソールにサイトを登録しないことがほとんどだと言います。
サーチコンソールを利用していないので、XMLサイトマップもサーチコンソールに登録していないわけです。
では、どうやってXMLサイトマップをGoogle bot認識させているかと言えば、robot.txtです。
robot.txtにXMLサイトマップの所在が正しく記載されていればそれ以上はすることはありません。
Google botはrobot.txtを読み取り、sitemapファイルの場所を知り、sitemapファイルを読み取ります。
まとめ
歴史の長いサイトで記事数が多い場合、サーチコンソールがXMLサイトマップを正常に認識しなくなることは珍しくありません。
Googleのアップデートで検索順位が落ちた時に、その原因をXMLサイトマップの読み込みが行われていないからではないか?と疑う気持ちもわかります。
ですが、XMLサイトマップを認識しないからと、無理やり認識させても、時間が経てばまた認識しなくなることがほとんどです。
結局は、Googleはサイトの内容によってXMLサイトマップを扱うかどうかを決めているようで、それ自体を変えることはできません。
もし、XMLサイトマップをGoogle botが読み取らなくなっても、インデックスしている記事数をサーチコンソール上で確認できるのであればGoogle botは記事をクロールしている。
サイトの品質が高ければ、Google botがクロールして記事を検出してくれるし、更新も見つけてくれる。
コメント