米テクノロジーメディア「Engadget」および「The Information」の報道によると、Googleは米国防総省(DoD)との間で、同社AIモデルへの広範なアクセスを認める機密契約を締結した。契約の詳細は非公開となっているが、「あらゆる合法的な政府目的」での利用を許可する内容とされており、Googleには利用用途に対する拒否権が与えられていないことが明らかになっている。
なぜこの契約が注目されるか
AIの軍事利用に関する議論が加速する中、今回の契約はいくつかの点で業界の関心を集めている。
第一に、「拒否権なし」という条件の重さだ。Googleの匿名社内関係者によると、大量監視や自律型兵器への適用を禁止する条項は盛り込まれているものの、それを実際に守るかどうかはDoD側の判断に完全に委ねられているという。Engadgetはこの点について「結局のところ、米政府の言葉を信じるしかない」と辛辣に指摘している。
第二に、業界全体が同様の方向へ動きつつあるという点だ。すでにOpenAIとElon MuskのxAIが軍との機密AI契約を締結しており、Googleの参入によって主要プレーヤーの多くが米軍のAIエコシステムに組み込まれることになる。
社内からの反発——600人の公開書簡
TechRadarなどの報道によると、Googleの社員約600人がSundar Pichai CEOに宛てた公開書簡に署名し、今回のような軍との契約に反対の意を表明した。
「私たちが開発に携わっているテクノロジーの悪用によって、すでに人命が失われており、国内外で市民の自由が脅かされている」と書簡は訴え、AIシステムが権力を集中させ、かつミスを犯しうる存在であるとの認識を明示している。
GoogleのスポークスパーソンはReuters取材に対し、「商用モデルへのAPIアクセスを業界標準の慣行と条件で提供することは、国家安全保障を支援する責任ある方法だ」とコメントしつつ、適切な人間の監視なしに大量監視や自律型兵器へ使用されるべきではないという立場も改めて表明した。
他社の動向——Anthropicのケース
今回の契約の背景として注目されるのが、AnthropicがDoDとの交渉で「兵器・監視関連のセーフガードを外す」という政府の要求を拒否した件だ(Engadget報道)。この判断によりAnthropicは連邦調達から全面排除されるという結果を招いたとされている。
安全策を維持するために市場機会を失う選択と、拒否権なしの条件で契約に応じる選択——AIガバナンスをめぐって、各社の対応が鮮明に分かれている。
日本市場での注目点
日本においても防衛省や自衛隊がAI技術の導入を検討する動きがあり、今回の件は決して対岸の火事ではない。
- 政府AI調達の透明性: 米国では軍との契約条件をめぐる議論が公開の場で起きているが、日本では政府のAI調達における透明性の仕組みが整っていない。グローバル標準のガバナンス論議に追いつく必要がある
- クラウドベンダー依存リスク: 政府がAIをグローバルプラットフォームに依存する場合、契約条件の変更・サービス終了・政治的圧力によるリスクを想定しておく必要がある
- 企業のAI倫理体制: 軍事利用に限らず、AI利用における倫理的ガバナンス体制を整備していない日本企業は、グローバルなパートナーシップや調達の場で不利になっていく可能性がある
筆者の見解
AIが軍事・安全保障領域に組み込まれていく流れは、もはや「あるかないか」ではなく「どのように」の話になっている。Googleが言うように、完全に距離を置くよりも関与によって安全な利用を促進できるという考え方には一定の理がある。ただし、それが機能するには「政府が条項を守る」という前提が必要で、拒否権を持たない企業がその担保をどう取るのかは依然として不明確だ。
AIガバナンスの本質的な問いは「誰が最終的な使途をコントロールするか」に収束する。AIが人間の認知負荷を削減し、複雑な意思決定を支援する存在になるほど、その判断基準をどこに置くかという設計が重要度を増す。企業が自主的に倫理的制約を設けても、契約上の拒否権がなければ絵に描いた餅になりかねない。
今後、日本を含む各国政府がAI調達の際にどのような条件・監視体制を要求するか——この議論の行方を注視すべき時期に来ている。
出典: この記事は Google and the Pentagon sign classified deal to give the Department of Defense unfettered access to its AI models の内容をもとに、筆者の見解を加えて独自に執筆したものです。