Googleは2026年3月26日、音声とカメラを使ってリアルタイムに検索できるAIアシスタント機能「Search Live」を、200以上の国・地域および数十言語に拡大すると発表した。

Search Liveとは

Search Liveは、スマートフォンのカメラを物体に向けながら音声で質問すると、AIが音声で回答してくれる機能だ。たとえば棚を組み立てる方法を尋ねると、AIが手順を説明しながら関連するウェブリンクも提示する。2025年9月に米国で広く公開され、今回の発表で本格的にグローバル展開が始まった。

Gemini 3.1 Flash Liveが牽引

Googleはこのグローバル展開を支える技術として、新しい音声特化AIモデル「Gemini 3.1 Flash Live」を採用している。このモデルは「本質的に多言語対応(inherently multilingual)」と説明されており、応答速度の向上と「より自然で直感的な会話」を実現したとGoogleは述べている。

従来の多言語対応では言語ごとに個別モデルを用意するアプローチが一般的だったが、Gemini 3.1 Flash Liveは単一のモデルで多言語を扱う設計となっており、グローバル展開のコスト効率化にも貢献していると見られる。

使い方

Search LiveはAndroidおよびiOSのGoogleアプリから利用可能。検索バーの下にある「Live」ボタンをタップするか、Google Lensからアクセスできる。

Google翻訳のリアルタイム翻訳もiOSに対応

あわせてGoogleは、Google翻訳のリアルタイム音声翻訳機能をiOSに展開することも発表した。この機能はマイクで拾った音声をリアルタイムに翻訳し、イヤフォンから翻訳音声を流すというもの。日本を含むドイツ、スペイン、フランス、ナイジェリア、イタリア、英国、バングラデシュ、タイへの展開も予定されており、日本語ユーザーにとっても直接恩恵を受けやすいアップデートとなっている。

まとめ

Geminiモデルの進化を背景に、GoogleのAI検索体験は「テキスト入力」から「音声+カメラによるリアルタイム対話」へと急速にシフトしている。日本語対応の強化も含め、日常のあらゆる場面でAI検索がより身近になりそうだ。


元記事: Google’s ‘live’ AI search assistant can handle conversations in dozens more languages