SEOにおける内部対策は必要不可欠なインフラの整備
――なるほど。これらが欠けると、そもそもデパートとして成り立たないですね。
飯島:そうなんです。エレベーターの故障や店名の重複、また1フロアに複数カテゴリが混在していたりしたら、すごく不便ですよね。それらがまんべんなく整備されていないと、当然お客さんの足は遠のきます。
なので、SEOにおける内部構造とは、サイトを訪れたユーザーにわかりやすく快適なコンテンツを提供するための、欠かせないインフラなんです。目に見えてわかりやすいコンテンツ対策と違い、内部施策は裏側のソースコードをコツコツと改善していくものなので、多くの企業で軽視されがちでしたが、ようやく日本においてもその重要性が少しずつ認知され始め、先進企業を中心に本腰を入れた取り組みが始まっているところです。
――内部対策が重視される要因とは?
飯島:ひとつは、ページ数の急激な増加です。ウェブを閲覧する環境が多様化し、特にスマホの普及によりインターネットがより身近な存在になりました。すると検索エンジンの上位表示をめぐるウェブサイト同士の競争力が高まり、結果的に世の中のサイト数が増え、1サイトあたりのページ数が増え、1ページあたりの文字量が増えていきました。ページ数が増えてくると、サイト構成が複雑になり、コンテンツ間の関係が親子なのか並列なのか不明瞭になったり、見出しや中身の重複が発生したりします。その状態ではGoogleに適切に評価されず、本来獲得できたはずのトラフィックを大幅に落としてしまうことになるので、こうした課題を解決するためにも内部対策が有効です。
飯島:次に、Googleが”Webサイトを検索する”ものから“情報自体を検索する”ものに進化しつつあることが挙げられます。“検索ゼロ位”とも呼ばれる強調スニペット(質問と思われる検索クエリに対し、Google検索結果の最上部に最適なサイトを強調表示する仕組み)をはじめ、Googleしごと検索(Google for Jobs)やマップ表示(Google Map)、航空券検索(Googleフライト)など、検索結果だけでユーザーの知りたい情報を表示する取り組みがおこなわれております。
これらは自然検索で高いクリック率を見込めることはもちろん、近い将来主流になると言われている”音声検索”の結果にも反映されることもあり、こうした流れは今後ますます加速していくでしょう。そのため一層、サイト内の情報価値をGoogleに適切に伝えるためのテクニカルな施策の重要性が増しています。他に、UXやCX向上のためにJavaScriptが多用されるようになったことも、要因のひとつです。
最も難しい課題発見を担う「DeepCrawl」
――膨大なページ内、あるいはページ間の解析は目視では無理、というお話がありました。海外ではツール活用が進んでいるそうですが、御社が扱う「DeepCrawl」もそのひとつですよね。
大澤:そうですね。他にも多少、方向性や特徴の違う内部対策ツールはあるものの、今グローバルで導入が進む中で、英Written Byte社が提供する「DeepCrawl」は世界最高水準のツールです。GMO TECHでは昨年10月から国内独占販売をスタートしていて、競合はないと考えています。
急に順位が落ちたといった際にも、Googleのアルゴリズム変更が原因なのか、それとも他にあるのかすぐに分析できるので、打ち手の初動が速くなります。たとえば求人サイトや不動産系、ECなど、SEO流入の集客がダイレクトにPLに影響する業態ではインパクトが大きいと思います。
――「DeepCrawl」の機能の特徴をうかがえますか?
芳賀:主に5つあります。まず、解析の大幅な工数削減です。先ほどから挙がっていますが、目視では対応できない量のページを効率的に分析できることです。
2つ目は、解析のスケジューリングが自由に設定できること。
3つ目は、社内や外部パートナー企業とも共有できるタスク管理機能があること。インストール型ではなくSaaS型のツールで、SlackやChatworkともAPIで連携しているので、業務がとてもスムーズです。
4つ目は、JavaScriptのレンダリング機能があること。Googleから見て問題があるかどうかを自動で検出できます。目視ではJavaScriptのページの問題点を発見するのは難しいので、ぜひツールを有効活用していただきたいです。
そして5つ目は、本番環境にアップする前に、テスト環境で問題がないかを一通り確認できるようになっていることです。JavaScriptのレンダリングとテスト環境でのクローリングまでできるツールは、当社で把握している限り「DeepCrawl」だけですね。