OpenAIを巡る裁判でイーロン・マスク氏が行った宣誓証言が、AI業界の歴史を再び照らし出している。「AIが人類を滅ぼしても構わない」——かつての盟友・ラリー・ペイジ氏との間に生じた深刻な価値観の乖離が、OpenAI設立の真の動機だったとマスク氏は語る。単なる企業間の法廷争いを超えた、AIの本質的な倫理観を問う証言だ。

ペイジ氏との"決別"——AIは誰のためにあるのか

マスク氏の証言によれば、OpenAI共同設立の直接的なきっかけは、GoogleのラリーPage氏との一席の議論だったという。マスク氏がAIによる人類滅亡リスクを真剣に訴えたのに対し、ペイジ氏は「AIが生存できればそれでいい」と一蹴し、人間の生存を優先するマスク氏を「スペシスト(種差別主義者)」と呼んだとされる。

この二人はかつて非常に親密な関係にあった。Fortuneが2016年に選出した「秘密の親友ビジネスリーダー」にも名を連ね、マスク氏はペイジ氏のパロアルトの自宅に頻繁に泊まるほどの間柄だった。親交が決定的に崩れたのは、マスク氏が2015年にGoogleのAI研究者イリヤ・サツケバー氏をOpenAI設立に引き込んだことで、ペイジ氏が「裏切られた」と感じたことによる。

今回の証言は以前から伝えられていた話ではあるが、宣誓の下で述べられたのは初めてだ。

AI安全性論争の原点

この証言が重要なのは、AIを巡る最も根本的な問いを改めて浮き彫りにしているからだ。

「AIは人類のために存在するのか、それとも知性そのものの進化のために存在するのか」

OpenAI設立以降、AI安全性研究の中心的な命題であるこの問いは、各国のAI規制当局が取り組む「アライメント問題」の核心でもある。ペイジ氏の発言は極端に聞こえるかもしれないが、「AIが人類を超えた知性を持った時、人類をどう扱うか」という問いに対して実のある答えを持つ人は依然として少ない。

実務への影響——日本のIT現場が今考えるべきこと

AIツール導入時の価値観設計が問われる時代へ:生成AIを業務に組み込む際、単に「効率化できるか」だけでなく、「その判断軸に人間の価値観が反映されているか」を問うことが今後の標準になりつつある。EU AI法やISO/IEC 42001のようなAIガバナンスフレームワークが普及すれば、企業には「AIシステムの価値観設計」の説明責任が求められる。

AIエージェントの自律性と人間監督のバランス:業務自動化でAIエージェントを使う場面が増えているが、「どこまでAIに任せて、どこで人間が判断するか」の設計は今すぐ考えておくべきテーマだ。単なる技術論ではなく、組織としての価値観を問う経営課題でもある。

法的リスクの観点:今回の裁判は、AIの「ミッション」や「ガバナンス」の定義が法的争点になりうることを示した。AIを活用したサービスを提供する企業は、利用規約やAI倫理指針の整備を早急に進めるべきだろう。

筆者の見解

この裁判で改めて感じるのは、AI安全性の議論が「哲学的な話」から「経営と法律の話」に急速に移行しているという事実だ。

ペイジ氏とマスク氏の議論は、言い換えれば「AIを道具として設計するか、自律的な主体として設計するか」という問いでもある。現時点では実害が出るほどの自律性はまだないが、AIエージェントが実務で本格的に使われ始めた今、設計思想の差は確実に現れ始めている。

「何度も確認を求め続けるAI」と「目的を理解して自律的に動くAI」——どちらが本質的な価値を提供するかは、実際に使えば誰でも分かる。日本のIT現場でも、そろそろこの違いを肌で感じ始めている人が増えてきたはずだ。

マスク氏自身の言動が常に一貫しているとは言い難い。しかし「AIを人類のために設計する」という方向性は正しく、その立場が宣誓証言として歴史に刻まれたことの意義は小さくない。裁判の行方がどうなろうと、AI安全性の問いは産業全体が向き合い続けるテーマだ。今後数年でこの議論が形を変えながら各国の規制や企業のAI戦略に影響を与えていくことは間違いない。


出典: この記事は At his OpenAI trial, Musk relitigates an old friendship の内容をもとに、筆者の見解を加えて独自に執筆したものです。