Google Chromeがオンデバイス処理用のAIモデルとして4GBものストレージを使用していることが、一部のユーザーの間で話題になっている。しかしArs Technicaのライター Ryan Whitwam 氏が5月8日に報じたところによると、これは今始まったことではなく、2024年から続く慣行だという。
Chromeに搭載されるGemini Nano——何をしているのか
Chromeのデスクトップ版は、オンデバイスAI処理のためにGemini Nanoと呼ばれる大規模言語モデルをローカルストレージにダウンロードする。このモデルのサイズは約4GB。「Help Me Write(文章補助)」「タブ整理」「詐欺検出」といった機能を、クラウドではなく端末内で処理するために使われている。
Ars Technicaの報告によれば、Googleはどのマシンにモデルを展開するかをハードウェアスペック・アカウントの状態・訪問サイトのAPI利用状況など複数の条件で判断しているが、その基準はユーザーに開示されていない。「昨日突然4GBが消えた」と感じているユーザーの中には、実際には2024年から静かにモデルが動いていたケースもあるという。
海外レビューのポイント
Ars Technicaは、4GBというサイズ自体は必ずしも驚くべきことではないと指摘する。Chromeはインストール直後の段階で6〜8GBを消費し、キャッシュや拡張機能を含めると数ヶ月で10倍以上に膨らむことも珍しくない。その文脈では、AIモデルの4GBは相対的には小さい。
ただし、同記事が問題の本質として強調しているのは「ユーザーに選択肢が与えられていない」という点だ。オンデバイスAIはプライバシーの観点からメリットがあるが、「使いたくない人が自分で切る」設計は「使いたい人が自分でオンにする」設計とは根本的に異なる。Googleはデフォルトの力の大きさをよく知っているはずだ、とWhitwam氏は指摘している。
無効化する方法
ChromeのローカルAI機能とGemini Nanoモデルは手動で無効化できる。
- Chromeの設定を開く
- 「システム」タブを選択
- ローカルAI機能のトグルをオフにする
この操作でモデルが削除され、再ダウンロードも停止される。またArs Technicaによれば、ストレージが不足した場合はChromeが自動でモデルを削除する設計にもなっているという。
日本市場での注目点
日本のエントリー帯PCでは256GB・512GB SSDが一般的であり、4GBの確保は見過ごせないケースもある。法人環境でストレージを厳格に管理している場合は、グループポリシー等でChromeのAI機能を組織単位で制御する手段を検討する価値がある。
一方で、オンデバイス処理であることはプライバシーの観点からは一定のメリットをもたらす。クラウドにデータが送られないため、機密性の高い情報を扱う業務中でも送信リスクを抑えられる。「クラウドへのデータ送信を最小化したい」というニーズが根強い日本の法人市場では、アーキテクチャそのものの評価は分かれるところだろう。
筆者の見解
この件の本質は4GBというサイズではなく、「なぜ最初から確認を取らなかったのか」という設計判断にある。
オンデバイスAIという方向性そのものは正しい。クラウドに頼らず端末内で処理することは、プライバシーと応答速度の両面でメリットがある。しかし、ユーザーが選んでいない機能のために数GBを静かに確保するのは、「便利にしてあげた」ではなく「勝手に使った」だ。
Googleはデフォルト検索エンジンの座を守るために何十億ドルもの費用を払ってきた会社だ。デフォルトの力を誰よりもよく知っている企業が、「ユーザーはストレージの消費を気にしないだろう」と判断するのは、意図的な設計に見える。
AIを普及させたいなら、まずユーザーに選ばせることが出発点のはずだ。「使いたい人が自分でオンにする」設計にするだけで、こうした摩擦は生まれなかった。Chromeは今後もAI機能を増やしていくだろう。その都度ユーザーとの信頼を削らないよう、初期設定の哲学を見直してほしいと思う。
出典: この記事は Chrome’s 4GB AI model isn’t new, but you’re not wrong for being confused の内容をもとに、筆者の見解を加えて独自に執筆したものです。