Google、「Search Live」機能を正式発表─検索が「会話型UI」にシフト
- 桜井 未来
- 9 時間前
- 読了時間: 2分

米国で先行提供開始、カメラと音声で“話しかける検索”が可能に
米Googleは6月18日(現地時間)、公式ブログで、マートフォン向け検索に「Search Live」機能を導入したと発表した。これは、カメラと音声を組み合わせたリアルタイム対話型検索で、Gemini AIと対話するように情報を引き出すという、従来とは全く異なる検索体験を提供する。
使い方はシンプルだ。Googleアプリ(Android/iOS)を開くと、検索バー横に新しく表示される波形の「Live」ボタンが目に入る。これをタップすると、スマートフォンのカメラが起動し、視覚と音声を組み合わせた「AIモード」へと即座に切り替わる。この状態で、カメラで対象物を映しながらマイクに向かって話しかけることで、Geminiが質問の意図を即座に理解し、音声とビジュアルを使って回答してくれる。
たとえば、旅行の準備中にシワになりやすいリネンシャツをスーツケースに詰めようとしているとき、「どうしたらリネンがシワにならない?」とスマホに話しかけると、AIが「リネンは軽く丸めて、通気性のあるバッグに入れると良いですよ」とアドバイス。これに対してさらに「なるほど、それで代用品は何かある?」と続けて尋ねることも可能で、会話の流れを途切れさせずに知識を深めていける。
Geminiによる応答は、音声で返ってくるだけでなく、画面上にトランスクリプト(文字起こし)が表示され、関連情報のリンクや商品、画像といった追加要素も合わせて提示される。つまり、検索結果が「ページ一覧」ではなく、「対話とナビゲーションのハイブリッド」になっているのだ。
この機能は現在、米国でGoogle Labs の “AI Mode” 実験に参加登録しているユーザーに提供されており、日本をはじめとする他国での提供開始時期については、現時点では発表されていない。
参照サイト
Google The Keyword
Search Live: Talk, listen and explore in real time with AI Mode