Googleは2026年3月27日、AI搭載の対話型検索機能「Search Live」を日本で提供開始した。Android・iOSのGoogleアプリから利用可能で、音声やスマートフォンのカメラを使ったリアルタイム対話型検索を実現する。200カ国以上でのグローバル展開の一環として、日本市場でも利用が可能になった。
Google Search Live(出典:ITmedia AI+)
音声とカメラで「対話する検索」
Search Liveは、Googleアプリの検索バー下にある「Live」アイコンをタップすることで起動する。従来のテキスト入力に加え、音声による質問やスマートフォンカメラを使ったビジュアル検索をリアルタイムで行える。カメラを物体に向けると、映像コンテキストをもとにAIが対話形式で情報を提供する仕組みだ。
マルチターン対話で複雑な質問にも対応
Search Liveの大きな特徴は、会話の文脈を約2ターンにわたって維持できるマルチターン対話機能にある。ユーザーは一つの質問に対する回答を踏まえて、より深い質問やフォローアップを自然に行える。たとえば「この花は何?」と聞いた後に「育て方は?」と続けることで、前の文脈を保ったまま情報を得られる。
Search Liveの主な機能
機能 | 内容 |
|---|---|
音声検索 | ハンズフリーで質問・対話 |
カメラ検索 | リアルタイム映像からの物体認識・情報提供 |
マルチターン対話 | 約2ターンの文脈維持 |
対応プラットフォーム | Android・iOS(Googleアプリ) |
展開地域 | 200カ国以上 |
Gemini 3.1 Flash Liveが基盤技術
Search Liveの対話機能を支えているのは、同日発表されたGoogleの最新音声AIモデル「Gemini 3.1 Flash Live」だ。128Kトークンのコンテキストウィンドウと低レイテンシの応答性能を活かし、自然な会話フローを実現している。90言語以上に対応しており、日本語での音声対話もスムーズに処理される。
実世界の問題解決をAIがガイド
Googleは実用的なデモとして、カメラを使ったリアルタイムガイド機能を紹介している。医療機関の受診前に目の解剖学について調べたり、パーソナライズされた推薦を受けたりといった日常シーンでの活用が想定されている。
検索体験のAI化は各社が推進する分野であり、OpenAIのSearchGPTやMicrosoftのBing Chatとの競争が続いている。Googleは検索市場での圧倒的なシェアを背景に、音声・カメラというモバイルならではのインターフェースでAI検索を一歩先へ進めた形だ。ただし、マルチターンの文脈維持が約2ターンにとどまる点は、今後の改善余地として指摘されている。
参考:ITmedia AI+ / TechCrunch / Engadget

