AIが人間の代わりに「探して・選んで・購入する」――そんな未来が、すでに現実になりつつあります。
OpenAIの「ChatGPT Agentモード」では、ユーザーの代わりにAIが商品を探し、旅行を予約し、さらには仕事を見つけるなど、実際に行動を起こすことが可能になりました。
この記事では、Search Engine Landのレポートをもとに、100件以上のChatGPTエージェントによる実験結果から見えてきた最新のトレンドを紹介します。
AIが「検索の代行者」から「意思決定の実行者」へと進化する中で、私たちSEO担当者やサイト運営者は、これまで以上に「エージェントに読まれるサイト設計」を意識しなければなりません。
「AIエージェント時代」におけるSEOの本質とは何か?
この記事では、AIがどのように検索・比較・判断し、どんなサイトを選ぶのかを具体例とともに解説します。
AIエージェントはどう検索するのか
ChatGPTのエージェントモードでは、AIがユーザーの代わりに商品を探したり、レストランを予約したり、アパートを探したりといった行動を“自動で”行います。
つまり、AI自身がユーザーの「検索から意思決定までの一連の流れ」を引き受けるということです。
実験では、100件以上のプロンプトを使い、実際にAIが「検索・比較・予約」を行う様子を観察しました。
たとえば次のようなリクエストです。
- 「Pizza Hut large Hawaiian pizza order page(ピザハットのハワイアンピザ注文ページ)」
- 「Berlin Italian restaurant reservation Sept. 20, 2025, 7 p.m.(ベルリンのイタリアンレストランを9月20日19時に予約)」
- 「2-bedroom apartment for sale Beacon Hill Boston(ボストンのビーコンヒルで売り出し中の2LDK物件)」
- 「Senior digital marketing job London salary above £75,000(ロンドンのデジタルマーケ職 年収7.5万ポンド以上)」
TakumaAIは、これらの指示をもとに検索クエリを自動生成し、検索エンジンAPIを通じて情報を取得します。
注目すべき結果
| 項目 | 詳細 |
|---|---|
| 63%のケースでAIは最初の検索結果を選択 | “上位表示”の重要性はAI時代でも変わらないことが示されました。 |
| 92%のケースでBing Search APIを使用 | Bingの検索結果(SERP)と似てはいるものの、広告やリッチリザルトは含まれていません。 |
| 場合によってはGoogleやDuckDuckGoからも情報を取得 | どの検索エンジンを使うかはケースバイケースで、明確なルールは確認されませんでした。 |
つまり何が変わるのか
従来の検索エンジンでは、人間が結果を見て判断するという前提がありました。
しかし、ChatGPTエージェントは「探して・選んで・比較して・結論を出す」までを自動で行います。
SEOの本質も「ユーザーに選ばれる」から「AIに選ばれる」へと移行しています。
これまでのようにクリック率や滞在時間を最適化するだけでなく、AIが“最初に正解と認識する”構造や表現を作ることが新しい鍵になるでしょう。
AIエージェントはどうWebサイトを閲覧するのか
AIエージェントは、人間のようにブラウザでページを「見て」いるわけではありません。
その多くは、テキストベースの“リーディングモード”を使い、ページの構造とテキスト情報のみを解析しています。
46%のケースでは「テキストモード」で閲覧
実験によると、ChatGPTエージェントによるアクセスのうち、約46%がテキストモード(読み取り専用ブラウザ)で開始されていました。
このモードでは、ページが次のように“骨格だけ”で表示されます。
- 画像、CSS、JavaScript → 読み込まれない
- Schemaなどの構造化データ → 無視される
- ポップアップやオーバーレイ → すべて無視される
つまり、AIにとってあなたのサイトは「デザイン」ではなく、「情報の構造」として見られています。
開発者が意識すべきポイント
AIエージェントが実際に何を見ているかを体感するには、テキストベースブラウザ「Lynx」などで自分のサイトを確認するのがおすすめです。
視覚的なデザインではなく、構造的な情報の整理ができているかをチェックしましょう。
たとえば以下のような点を見直すと良いです。
| 項目 | 改善の方向性 |
|---|---|
| HTML構造 | 意味のあるセマンティックタグ(<article> <header> <nav>など)を使用 |
| テキスト情報 | 見出し(Hタグ)と本文で明確な階層を作る |
| JS依存部分 | 重要情報をJavaScript後出しにしない |
| Schema構造 | 装飾的ではなく“内容理解補助”として使用する |
SEO担当者の視点から見ると
この構造は、AIクローラー(ChatGPT、Perplexity、Geminiなど)がどの情報を拾いやすいかに直結します。
特にChatGPTエージェントは、「文脈」よりも「構造」を優先して理解しようとする傾向があるため、マークアップや文章構造の最適化が「新時代のSEO対策」となります。
「どう見せるか」よりも「どう伝えるか」──。
AIがページを読む時代では、美しいUIよりも、伝わるHTML構造が勝負の分かれ目です。
サイトの“エージェント対応度”を高める方法
ChatGPTエージェントが実際にWebサイトを訪問した際、63%が1クリックで離脱したというデータがあります。
その原因の多くは「AIがページを読み込めない」「想定外の挙動が起こる」など、技術的な要因によるものでした。
AIエージェントは、人間のように「少し待つ」「リロードする」ことをしません。
ページがスムーズに読み込めなければ、即座に離脱し、競合サイトへと移動します。
つまり「人間の離脱」よりも「AIの離脱」の方が速く・確実なのです。
よくある離脱原因とチェックポイント
| 主な離脱理由 | 内容 | 対策ポイント |
|---|---|---|
| 4XX / 5XX エラー | ページが存在しない・読み込み失敗 | サーバー監視、エラーログの自動通知 |
| 301リダイレクト | 意図しないURL転送 | canonicalとの整合性確認 |
| クロスサイト読み込み失敗 | 外部スクリプト・CDN障害 | 依存ライブラリの見直し |
| ページ速度 | ロードが遅い・JS過多 | Core Web Vitals最適化 |
| Botブロック / CAPTCHA | AIを人間と誤認 | 不要なBot制限を解除・ホワイトリスト方式を再検討 |
AIエージェントはタスク完了を目的としているため、一度アクセスが遮断されればすぐ別の経路に切り替えます。
そのため、旧来の「Bot排除ポリシー」は、今後コンバージョンの機会損失につながる可能性が高いです。
OpenAIによるBot識別の標準化は“まだ途中”
OpenAIは「Message Signatures」という新しい標準規格を導入し、CDN側でChatGPTエージェントを識別できるようにしています。
しかし、現時点(2025年10月時点)ではまだ完全に実装されておらず、Cloudflareのレポートでも他のAIエージェントは未対応とのこと。
そのため、現状では「このBotはChatGPTである」と自動で判別するのは難しく、アクセスログを確認してAI訪問を手動で検証するのが現実的です。
開発・運用チームへの実務アドバイス
SEOやマーケ担当者よりも、今後このテーマはDevOps(開発運用)チームとの連携が重要になります。
Jes Scholzは、次のように助言しています。
「“良いBotをホワイトリスト登録する”のではなく、“悪いBotをブラックリスト化する”べき」
AI時代には、エージェントや調査系Botが日々新しく生まれます。そのたびに個別で許可設定を行うのは非現実的。
むしろ、不正アクセスのみを排除し、正規AIを通す設計の方が、長期的に安定した集客につながります。
AIが訪問しても離脱しないサイト設計を
- 読み込みが遅い
- CAPTCHAで止まる
- リダイレクトが多い
- JSレンダリング依存
これらはいずれも、AIにとって致命的な離脱要因です。
ChatGPTエージェントがあなたのサイトにアクセスしたとき、きちんと目的(例:予約・購入・問い合わせ)まで完了できるか。



これを「AI体験(AX: Agent Experience)」としてチェックする時代が、すぐそこまで来ています。
エージェントとアナリティクス:AI時代の“計測不能ゾーン”が拡大する
AIエージェントがあなたのサイトを訪問しても、その動きが従来のアナリティクスでは正確に追えないという課題が浮き彫りになっています。
特にChatGPTエージェントの場合、アクセスの仕方によって「まったくトラッキングできない」ケースと「部分的に追える」ケースが存在します。
テキストブラウザでは“完全に不可視”
ChatGPTエージェントがテキストベースのブラウザを使ってページを読み取っているとき、GA4やタグマネージャーはまったく発火しません。
つまり、そのアクセスは「存在しなかった」ことになります。
ビジュアルブラウザでは78%がCookieを受け入れる
一方で、ChatGPTエージェントが“ビジュアルモード(通常ブラウザ表示)”に切り替わった場合、78%のケースでCookieを受け入れるという結果が出ています。
この場合、GA4などの計測ツールが発火し、アクセスやコンバージョンを記録できます。
ただし、このトラフィックは「人間の行動」ではなく「AIの行動」。そのため、滞在時間や直帰率などのエンゲージメント指標は意味を失います。
AIはページを“読む”のではなく、“解析して目的を達成する”ために動くからです。
今後のデータ分析で起きる変化
AIエージェントが普及すると、次のような現象が起こります。
| 変化 | 理由 |
|---|---|
| デスクトップトラフィックが急増 | ChatGPTはモバイルでもPCブラウザを使用 |
| Chrome比率の上昇 | ChatGPTのブラウザ基盤がChromium |
| 「Directトラフィック」の増加 | AIエージェント経由のアクセスがリファラなしで記録されるため |
結果として、私たちは“計測のバミューダトライアングル”に突入しつつあります。
- GA4 → ChatGPT経由のアクセスを区別できない
- Search Console → Bing経由なので記録されない
- Bing Webmaster Tools → API経由の検索を含まない
つまり、どのツールでもChatGPT経由のトラフィックを正確に測定できないのです。
ボットログが唯一のヒント
現在、唯一頼れるのはサーバーログ(bot log)。
ここに「AIエージェントのアクセスリクエスト」が記録されます。
ただし注意点として、1回のページ訪問でエージェントが複数のファイル(HTML・CSS・JSなど)をリクエストするため、ログ上の「リクエスト数」は実際の訪問数とは一致しません。
重要なのは、“数”ではなく“経路”。ログの中で「どのURLまで到達したか」を分析することで、AIがどの時点で離脱したか、どの要素で詰まったかを確認できます。
これからのSEOレポートに必要な視点
従来の「トラフィック分析」ではなく、これからは“AIエージェント行動分析”という視点が求められます。
たとえば…
- AIが商品ページで止まる → 情報構造の不足
- AIがフォームで離脱 → JS依存や入力設計の問題
- AIが完了ページに到達 → コンバージョン成功
もはやSEO担当者は「人間がどう見ているか」だけでなく、“AIがどう認識しているか”を解析できるアナリストになる必要があります。
エージェント時代への備え:AIが“顧客”になる世界にどう対応するか
AIエージェントが「人の代わりに検索し、選び、購入する」時代は、もう目前です。
この変化は、SEOやマーケティングのあり方を根本から揺るがします。
なぜなら、AIはもはや“ツール”ではなく、“顧客そのもの”になりつつあるからです。
オーガニックトラフィックの価値が変わる
これまでのSEOは、「ユーザーが検索 → サイトに訪問 → コンバージョン」という導線を前提にしていました。
しかしエージェントモードでは、その多くの工程がAIの内部で完結します。
つまり、検索結果のクリック数や滞在時間といった指標は、徐々に意味を失っていきます。
代わりに重要になるのは、AIが参照するデータベースやAPIに“選ばれる”設計です。
これにより、私たちの目標は「検索順位を上げる」から「AIの知識体系に取り込まれる」へと変わります。
“AIの記憶”にブランドを残す
ChatGPTなどのエージェントは、今後メモリ機能や長期学習を通じて、「どのブランドが信頼できるか」「どのサイトが安定して情報を提供しているか」を学習します。
そのため、SEO戦略も“ユーザー中心”から“AI中心”にシフトしなければなりません。
今から取り組むべきは次の3点です。
| 対策 | 目的 |
|---|---|
| 構造化データの最適化 | AIが理解・引用しやすい情報構造を作る |
| 一貫したブランドトーン | AIに“信頼できる発信者”として認識させる |
| 外部リンクとサイテーション強化 | エンティティ(存在)としての信頼度を上げる |
AIは「人気」ではなく「一貫性と信頼性」を学習します。
そのため、短期的なSEO施策よりも長期的な“ブランド信号”の蓄積が重要になります。
コンバージョン設計を“AIフレンドリー”に
AIがユーザーの代わりに予約・購入を行う世界では、フォーム入力・ログイン・支払いといったUI設計も、AIが操作しやすい構造であることが求められます。
たとえば…
- CAPTCHA(画像認証)を外す
- メールリンクではなくフォームを使用
- JavaScriptで隠されたボタンを避ける
- API経由で購入完了が検知できる構造を整える
AIが正しく完了画面(=コンバージョン)まで到達できるかどうかが、これからの「CVR(コンバージョン率)」を左右します。
“AIエージェント対策SEO”が次のフェーズへ
2025年以降、SEOは次の3段階に分かれると考えられます。
| フェーズ | 主な最適化対象 | キーワード |
|---|---|---|
| SEO 1.0 | 検索エンジン (Google/Bing) | SERP最適化 |
| SEO 2.0 | ユーザー体験 (UX/UI) | E-E-A-T・UX |
| SEO 3.0 | AIエージェント | AX(Agent Experience)・構造最適化 |
つまり、「AIが読み、判断し、行動する時代」のSEOでは、AX(Agent Experience)=エージェント体験の最適化こそが最前線となります。
AIを“敵”ではなく“新しい顧客”として捉える
エージェント時代の本質は、AIに人間の行動を“代替”させることではなく、AIを新しい顧客として扱うことにあります。
AIがあなたのサイトを訪れ、情報を理解し、「ここなら信頼できる」と判断して初めて、ユーザーへの推薦や購入代行が発生します。
そのため、これからのSEO戦略はこう変わります。
- AIが読み取れる情報設計を行う(構造化・文脈化)
- サイトのUXだけでなくAXを意識する
- トラフィックよりも“AIに認識されるブランド価値”を積み上げる
今後の数年で、SEOは「人間のための検索最適化」から「AIのための理解最適化」へと大きく舵を切ります。
AIエージェントが一般化すれば、検索結果ページを見ずに予約・購入が完結する世界が到来するでしょう。
それは恐ろしい変化でもありますが、同時にチャンスでもあります。
早期に「AIが読み取れるサイト構造」を作った者が、次の市場を独占します。
今こそ、“AIがあなたを選ぶ”ためのSEOを始めるべきタイミングです。










