AI検索ユーザーが増えた?AI推奨率が上がった?
では、そもそもAIの流入数やCV数はどのようなレバーによって増減するのでしょうか? KPI構造を分解してみると、以下のようになっています。
AI経由のCV(AICV)数が増えるためのレバーとしては、大きく分けて次の分類が可能です。
(1)AIが自社を言及する量が増える
- (1)‐a:ユーザーがAIと対話する量が増える
- (1)-b:自社に関するAIの推奨率が上がる
(2)AIの言及を見て実際にサービスに関心を持つユーザー数が増える
(3)関心を持ち、購買行動(CV)に至るユーザー数が増える
そのため、先ほどの「全体CV数の推移とそれにおけるAICV数比率」のデータでAICV数が増加している場合は、このいずれかのレバーが引けているということになります。
現時点で、一般的な観測環境のもとではこれらのレバーを正確に可視化することはできず、あくまでその結果としてのCV数を推定することしかできません。2026年2月にMicrosoftのBing Webmaster ToolsでCopilotの引用状況レポートが公開されるようになりました。この図でいうとCopilotにおける(1)がわかるようになったということです。クリック数は不明ですが、大きな一歩ではあります。GoogleやOpenAIが後に続いてくれることを祈るばかりです。
ただ、公式のデータが公開されずとも、一部のレバーに関しては条件付きでの計測が可能です。たとえば、(1)-b:「自社に関するAIの推奨率」「AI推奨順位」は、自社サービスが特に対策したいペルソナとニーズに対応するプロンプトを設計し、それを実際に対話型AIプロダクトに打ち込んだ際の結果を集計することで限定的な範囲での計測が可能です。その時の注意点として、データが歪まないように計測環境をしっかり整備することが重要です。
具体的なポイントをいくつかご説明しましょう。
- AIモードとAI Overviewsでは、Google検索の設定でシークレットモードを選択しておく
- パーソナライズの影響を排除する(ChatGPTではメモリオフ、Geminiではアクティビティ記録のオフ)
- 同じプロダクトでも複数のモデルがある場合は、ターゲットユーザーの最もメジャーな使い方で使用されるモデルで計測する
上記のようなポイントを押さえた環境で指標を計測した結果、以下のようなモニタリングセットを出すことができます。この表は空気清浄機を販売する会社における、ペルソナ別の調査プロンプトの例を示しています。「子育て世帯・アレルギー対策」層には自社製品が推奨され推奨順位も高い一方、「小型犬飼育・共働き」に対しては推奨されていない状況が明らかになっています。
| ペルソナ | 推奨有無 | 推奨順位 |
|---|---|---|
| 全体 | 60% | 平均2.8位 |
| 子育て世帯・アレルギー対策 | 100% | 平均1.6位 |
| 小型犬飼育・共働き | 20% | 平均4.0位 |
同じようなプロンプトでもペルソナによって聞き方も変わるので、自社のターゲットを整理した上でプロンプトを設定することが重要です。
また、対話型AIプロダクトでは毎回同じ回答が返ってくるわけではないので、1プロンプトあたり複数回の調査を行うことも重要でしょう(上の表では、わかりやすく1プロンプト1調査をした場合を想定しています)。
Speeeでは、(1)-bの内訳であるAI検索訪問率やAI言及採用率なども独自技術で取得しています。これらの指標を可視化することで、AI経由の流入数やCV数を増加させていく上で重要なレバーである自社推奨率を上げるための、PDCAを回す土台が整うのです。
「言及内容が思い通りかどうか」もAEOの重要な指標
AEOでは、単に推奨率・推奨順位が高いかどうかだけでなく、「AIに言ってほしいことを言わせられているか」「AIが間違ったことを言っていないか」という言及内容に関する指標も重要視されます。
特にAIはハルシネーションを起こすため、思いもよらない間違った情報をまるで正解かのように生成するケースもあります。このため、ある意味で推奨率を上げてアップサイドを作る以上に緊急度高く考えるべき領域ともいえるでしょう。我々は、「AIの言及内容の品質」はおおまかに以下の段階に分かれると考えています。

Lv.1の「間違ったことを言っていない」に関しては、まずは推奨率を出した時と同じやり方で、事前設定したプロンプトを整備された測定環境下で対話型AIプロダクトに打ち込み、目検で回答内容を確認するのが最も簡単でしょう。
一方で、それでは重要なプロンプトの調査はできますが、それ以外の範囲では漏れが生じてしまいます。AIが誤った言及をしているケースを網羅的に発見する方法はまだまだ開発中ですが、たとえば「自社の正解言及データをソースとしたAIエージェントに回答一覧を読み込ませ、矛盾点や正解ソースに含まれない内容を発見させる」といった手法は有効だといえるでしょう。
その逆で「言ってほしくないNG内容を一覧化して、そのNGリストと一致するものがないかを確認する」という手法を採用すると、特にリスクの大きい言及を排除することができます。
