Google ウェブマスター ツールもGoogleのアカウントが必要だが、Googleのどのサービスも利用できるようになるので、アカウントのない人は新規登録すればいい。そして、Google ウェブマスター ツールにアクセスする。要領はYahoo! Site Explorerと同じである。「サイトを追加」し、サイトオーナーとして認証を受ける。ファイルかメタタグであることも同じだ。

「サイトマップ」というそのものズバリのタグがあるので、そこからXML版サイトマップを登録する。

なお、Googleのツールは非常に強力で、ロボット巡回の最終日が分かり、かつリンク切れページなども詳細にレポートしてくれる。インデックスから削除してほしいページも申請できる。まずは一度ぜひ、ご自分の目で確かめていただきたい。我々サイトオーナー以上に我がサイトの現状について知っているという有様である。
XML版サイトマップによるSEOとは
XML版サイトマップは、基本的に検索エンジンのロボットの巡回を促進を願う援助ツールである。これによって、インデックス済みのページからのリンクをたどるという過程を省略することができる。robots.txtの記述が第一弾であり、GoogleやYahoo!のツールを活用してさらにロボット巡回を促進するための手当てとする。
XML版サイトマップは、あくまでもロボットの巡回を促進するだけのSEO効果しかなく、インデックス追加を保証したり、これに記述されたページのPageRankを高めたり、まして検索順位をアップさせたりするような効果はない。しかし、ロボット巡回は検索エンジン対策のはじめの一歩であり、重要な一歩である。ロボットが来ないサイトやページには、検索エンジンからのユーザーの訪問もないのである。
ロボットはリンクをたどる。ロボット巡回を促進するために、まずWeb版サイトマップを設置する。さらにXML版サイトマップも用意し、robots.txtからXML版サイトマップに、そして記載したサイト内各ページにロボットを誘導する。GoogleやYahoo!のツールに登録することによって、もう一押しXML版サイトマップへのアクセスを促すのである。こうしてロボットがたどる何重ものルートを確保することが、SEOの強化となるのである。
SEO的「サイトマップ攻略術」前編はこちらから