トピック

AIが拡張する「ググる」体験 Google検索トップに聞く「AIモード検索」

AI Modeをはじめとして、Google 検索にAIが入っていく

基調講演の解説記事でも述べたが、今回のGoogle I/Oにおけるもっとも大きな発表は、「AI Mode(AIモード)の全面展開」だろう。

AI Modeは従来の検索とは大きく画面構成を変え、利用スタイルの変化も促す。いわゆるチャット型の生成AIサービスに近い形ではあるが、それでも核はあくまで「検索」。次世代の検索モードとして、同社はAI Modeの導入を進めている。

その背景にあるものはなんだろうか? そして、AI Mode導入で考えられる「ウェブの秩序変化」は現実のものになるのだろうか?

Googleで検索技術担当バイスプレジデントを務める、リズ・リード(Elizabeth Reid)氏に、Google I/Oの会場で話を聞いた。

Googleで検索技術担当バイスプレジデントを務める、リズ・リード氏

AI OverviewとAI Mode

少し前提となる部分をまとめておこう。

2年前のGoogle I/Oで、同社は検索内容をAIでまとめ直す「AI Overview(2023年当時はSGE)」を発表した。現在は日本でも一般提供されている。この技術はあくまで、AIで「検索結果の要約を表示するもの」。検索自体はこれまでのものと基本的には同じだ。

すでに日本でも使える「AI Overview」

それに対してAI Modeは、チャットから長い、自然な文章で検索を行なう。

英語でのAI Mode。Google検索に「AI Mode」ボタンが出てきて、大きなテキストボックスに情報を入力する

実は今の検索欄でも、キーワード「自然文での検索」はできるのだが、その結果として表示されるものが異なる。

要約+サイトのリストだったものが、文章でまとまったもの+まとめるために使ったウェブになり、さらに文章の中には、Googleマップやロケーションの評価なども表示される。

AI Modeでの検索結果。かなりしっかりした文章に加え、Googleマップの結果も加味される。右側には、まとめるために使われたウェブの情報が出る

AI Modeはかなり大胆に「生成AIを軸にネット検索を作り直したもの」と考えていいだろう。

Ask Search Anything

――Google I/Oでの発表の中でも、AI Modeは最も大きな変化だと感じます。検索技術に詳しくない人向けに、AI Modeと一般的な検索、他社が提供しているチャットベースの検索はどう違うのかを教えてください。

リード氏(以下敬称略):AI Modeは「本当にAIを使った検索体験」です。

核にあるのは「検索」であり、情報の質問を見つけること。ウェブ上でつながり、行動を起こし、より多くを探索できるようにすることです。

他のチャットボットと比較すると、多くは異なるユースケースに焦点を当てていると思います。AI Modeは検索であり、「寂しいから会話を楽しみに行く」場所ではありません。

我々はより「情報」に焦点を当てています。その結果として、良い質問を生み出す助けになります。

――他のチャットボットも、ウェブを検索する機能を持つようになっています。それでも、AI Modeとは大きく違うわけですね?

リード:今日の基調講演で「買い物」の例を挙げました。この使い方を見れば、多くの人が違いを納得すると思います。

AI Modeなら気に入るジャケットを簡単に見つけることができますが、単に見つけられるだけでなく、右側にあるショッピングサイトのページをクリックし、すぐに購入に繋げられます。

AI Modeによるエンド・ツー・エンドの体験では、幅広いウェブの情報につながることに重点を置いています。

買い物を目的に検索した例

――通常のAIベースのチャットボットとAI Modeの推論の違いについてお聞きしたいです。私の理解では、AI Modeは推論のためにウェブのデータだけでなく、Googleが持っている他のデータや、Googleマップなどの地理ベースのデータも使うはずです。その詳細について教えていただけますか?

リード:はい、AI Modeは、ウェブを理解するために、ウェブ検索とGoogleの持つデータの両方を使用します。ウェブサイトだけでなく、私たちが持っている追加のデータ、いわゆるナレッジグラフのようなものや、ショッピングに関する情報、Googleマップとローカルガイドなどのデータも併せて使っています。

さらに、スポーツや金融などのデータをビジュアルが豊富な形で可視化します。

それらをすべてまとめ、さらに深い情報としてウェブへのリンクを提示する形です。

「AI Mode」が「モード」である理由

――AI ModeとAI Overviewでは全く違う存在ですよね?

リード:ええ、AI Modeは、どちらかというと「AIを使ったエンド・ツー・エンドの体験」だと考えています。

AI OverviewとAI Modeの違いは、他の検索モードを例にするとわかりやすくなります。

例えば「画像モード」。

検索窓から「子犬」を検索すると子犬の画像が表示されます。他のウェブリンクと一緒に見ることもできるわけですが、「いや、私は子犬ばっかり見たいんだ」と思ったら、画像モードに切り替え、ずっとスクロールしていてもいい。

AI OverviewとAI Modeは、ある意味で似ていると考えることができます。

ほとんどの人は、まだ私たちの(これまでと同様の)コアな検索体験に来るでしょう。彼らはクエリ(質問)を発行し、AI Overviewを取得します。

そして、より深く掘り下げたい場合は、AI Modeに入るかもしれません。私たちはオプションを提供しているわけです。

そういう意味では、「画像」モードに「AIモード」は似たものと考えています。画像検索と画像検索としての画像モードは、画像ファースト体験のようなものです。

パーソナル・コンテクストで検索の質を向上

――AI Modeではパーソナル・コンテクストを利用する、と発表されました。そこではどのような情報が、どのように使われるのでしょうか?

リード:パーソナル・コンテクストの利用について、今日は2つの異なることをご説明しました。

つまり、「これまでの検索履歴を使うこと」と、「他のGoogleアプリに接続するためのオプションを与えること」についてです。

どちらも、AIによる検索の価値を高めるには有用です。

例えば、その人の好みや選択。いわゆるレコメンデーションに近い領域ですね。映画を探したり服を探したりするのに有用です。

東京でレストランを探したいとします。どこに食べに行けばいいのか、正解はありません。ですから、私の個人的な興味・好みが役立つわけです。

数年前に東京に行き、また近々訪れるとします。長い時間が経過していますから、前に行ったレストランは閉店しているかもしれない。

新しい場所を見つけたい場合、自分が行ったレストランの種類について情報があれば、検索の助けになります。

パーソナル・コンテクストの利用は本当に重要なもので、いろいろな利用オプションがあります。それを使ったレコメンデーションスタイルの検索は、よりあなたを助けてくれることでしょう。

どう質問すべきかを表現するにも必要ですよね。質問の表現方法を知らなかったり、考えつかなかったりすることもありますし。

――なるほど確かに。パーソナル・コンテクストがないと、自分が求めていることを反映した検索が難しいところはありますね。

リード:はい。私個人の話をしても、自分と娘とでは好みが違います。娘はアウトドアが好きなのですが、遊びに行く先を探すなら、その趣向を拾ってくれた方がありがたいですよね。

パーソナル・コンテクストは、検索を完全にコントロールしたいユーザーのためのものであり、彼らが本質的な価値を得る・見つけるためのものです。

AI検索でコンテンツへのリーチは増える? 減る?

――AI Modeのもう一つの側面についてお聞きしたいと思います。

AI Modeは要約された回答であり、AIと私とのコミュニケーションです。

その場合、ほとんどのユーザーは、AI Modeの回答から、オリジナルコンテンツのウェブサイトにジャンプしないと思います。

これはAIによる新しい変化だと思いますが、この種の問題についてどう思いますか? 私はウェブメディアの人間なので、ウェブメディアのページビューへの影響も気になります。

リード:私たちはAI Overviewをデザインした時から、「優れたウェブサイトをどのように紹介するか」について常に実験を続けてきました。

AI Overviewの展開からわかったのは、「AI Overviewの概要に掲載されているページは質が高い」ので、ウェブサイトへのクリック量が多いということ。結果として、人々はより多くの時間を費やしています。

ユーザーはオリジナルのサイトへ行かなくなるのではなく、検索で取得したページへとより多く移動するようになっています。

なぜなら、ユーザーは検索した内容について本当に興味があるからです。彼らはより深いところに興味を持っているので、検索先を見るようになるのです。

――AIの答えに満足してその先を見ない、とは言えないわけですね?

リード:はい。実際に我々に見えていているのは、人々が質問し、さらにそこから「もっと知りたい」と興味をそそられるようになっている、という現象です。

AI Overviewの導入により、人々はよりひんぱんに検索するようになっています。

以前から同じようなことは起きていた可能性がありますが、これまでの検索方法では「良い質問とその回答」につながらず、うまく機能していなかったのかもしれません。だから、「追加で質問」しなかったのでしょう。

そう考えると、「質問して終わり」とは言えないです。

――なるほど。関連して、自然文やGemini Liveのような画像を使った検索によって「複雑な検索が可能になった」ことは、Googleにどのような影響をもたらしているのでしょうか?

リード:皆、長い質問・難しい質問をするようになりました。

AI Overviewの利用量変化に関するグラフをご覧になりましたよね?

――はい。

基調講演で示された、AI Overviewの成長状況

リード:AI Overviewを導入し、すぐに質問が増えたわけではありません。しかし、時間の経過とともに利用が拡大し、成長し続けています。なぜなら「難しい質問をしても大丈夫、うまくいく」という体験をするからです。そしてさらに、より難しい質問をするようになる。

人々が「今の検索でなにが可能なのか」を理解するにつれて、AI Overviewでの学習行動が変化するのがわかってきました。

私たちは長い間、「検索サービスでは複雑な質問はできない」と思い込んできました。だから、この先、「もっといろんな内容を質問できる」と、知らしめていく必要があります。

AIの力で「情報検索における言語の壁」が崩れた

――確かに。検索の常識が変わっていることをちゃんと知ってもらう必要があります。

リード:同様に、AI Overview導入後にわかったことがあります。

特に面白いのは「言語が情報の壁になってはいない」という点です。

旅行先で検索したい情報は、あなたのよく知る言語ではないかもしれない。ですが、AI Overviewでは「あなたの母国語」で質問することができます。

母国語で検索しても、他の言語で書かれた関連するウェブページを探しに行き、その概要を母国語で教えてくれます。

その先をクリックしてより詳細なページへ移動した時には、Google翻訳が理解を助けてくれるでしょう。

――なるほど。その要素は、言語の壁を越える生成AIらしい。

リード:今までは、情報が書かれた言語を知らないと、質問をすることさえできませんでした。しかしAI Overviewでは、それらの境界を超越することができます。

これは本当にエキサイティングなことです。人々が言語に縛られずに情報にアクセスできるようになるわけですから。

同じことは他のケースでも通用します。

私は技術には精通していると思っていますが、医療にあまり詳しくありません。金融も同様です。

金融の質問や医療の質問をすると、医学雑誌や金融の専門情報が出てきます。なんだか知らない言葉ばかりで大変です(苦笑)。

しかし、今なら質問できます。AIが理解を助けてくれるからです。

このような現象は、AI Overviewだけでなく、AI Modeでも同様に発生します。AI Modeは言語を横断し、LLMの力を使い、より深く掘り下げていきます。

――すなわち、Googleの検索ビューはまだ成長しているということですか? 「Googleの検索量が減った」という主張がありますが、必ずしもそうはならない、と。

リード:はい、全体的な検索クエリは引き続き成長します。その上で、新しい体験によるアクセスも増えており、AI Overviewが特に成長を牽引していることもわかっています。だから、私たちの戦略に自信を持っています。

西田 宗千佳

1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。朝日新聞、読売新聞、日本経済新聞、AERA、週刊東洋経済、週刊現代、GetNavi、モノマガジンなどに寄稿する他、テレビ番組・雑誌などの監修も手がける。 近著に、「生成AIの核心」 (NHK出版新書)、「メタバース×ビジネス革命」( SBクリエイティブ)、「デジタルトランスフォーメーションで何が起きるのか」(講談社)などがある。
 メールマガジン「小寺・西田の『マンデーランチビュッフェ』」を小寺信良氏と共同で配信中。 Xは@mnishi41