米シカゴ大学の現役学生Owen Yingling氏が、ChatGPTをはじめとするLLM(大規模言語モデル)の蔓延が大学教育を根本から蝕んでいると訴える記事を発表した。「ゾンビ化(Zombification)」と呼ばれるこの現象は、一部の不正行為問題にとどまらず、知的成長の機会そのものを失わせる文化的危機だという。

UCLA卒業式の「1枚の写真」が示したもの

記事のきっかけとなったのは、UCLA(カリフォルニア大学ロサンゼルス校)の卒業式でChatGPTの画面を誇示する学生の写真だ。多くのメディアはこれを「AIを使った不正行為の問題」として報じた。しかしYingling氏は、そのような解釈は「違いの本質を見誤っている」と指摘する。

問題は単純な不正行為ではない。ChatGPTをはじめとするAIツールが大学という制度の「あらゆる部位」に浸透した結果、学習そのものが成立しなくなっているのだ。

持ち帰りと対面で40ポイント差——数字が示す実態

最も衝撃的な報告が、持ち帰り試験と対面試験の成績差だ。Yingling氏がTA(ティーチングアシスタント)を務めた論理学の授業では、両者の間に約40ポイントの差が生じていた。持ち帰り課題においてAIを全面的に活用している学生が多いことを如実に示している。

以前はLLMの回答精度が低く、AIを使っても70点台程度にしかなれなかった。しかし今やその状況は一変した。LLMの性能が急激に向上したことで、課題の種類によってはAIを使えばほぼ満点が取れてしまう。

「ビジネス経済学」から始まった感染の拡大

Yingling氏は、ChatGPT等のAI利用の蔓延を「癌」の進行に例える。最初は「局所的な腫瘍」として、厳格さを欠いたビジネス経済学の授業を中心に広がった。機械的な繰り返しが中心の問題セットは、LLMが最も得意とする形式だった。

この「腫瘍」は次第に転移しつつある。講義ノートすらAIで書かれているのではないかと感じさせる教授の存在も指摘されており、学生だけでなく教育者側にも波及している実態が浮かび上がる。

日本のIT・教育現場への示唆

この問題は日本とも無縁ではない。大学のレポートや卒業論文へのAI使用は日本でも広がりつつあるが、多くの大学は「禁止するか黙認するか」という二択で止まっており、AI時代における評価・育成の本質的な再設計には踏み込んでいない。

IT現場においても同じ構図がある。ChatGPTやCopilot等を使って作業を「こなせる」人は増えているが、技術的な理解が追いついていないと、障害発生時やシステム設計の局面での判断力が著しく低下する。AIが出した答えをそのまま流用する「ゾンビエンジニア」の増加は、日本のITインフラにとっても深刻なリスクだ。

実務での活用ポイント

  • 採用・評価方法の見直し: 持ち帰り課題よりも対面での技術対話やライブコーディングの比重を高めることが、AIが普及した時代の現実的な対応策となる
  • 「ファシリテーター型」人材の育成: AIを使いこなしつつ、その出力を批判的に評価できるスキルセットが実務で不可欠になっている。使えることと理解していることは別物
  • 社内研修・オンボーディングの再設計: 「AIで答えを出すスキル」と「なぜその答えが正しいかを説明するスキル」を明確に分けて育成する仕組みが必要
  • 課題設計の変革: ChatGPTに解かせやすい形式の課題(定型的な問題セット、持ち帰りレポート)は根本から見直す必要がある

筆者の見解

AIを積極的に使う立場から言うと、この問題の核心は「AIを使うこと」自体にあるのではなく、「考えることをAIに外注している」ことにある。

道具として使いこなすのと、ゾンビになるのは全く異なる。十分な理解を持つエンジニアがAIを使えば生産性は劇的に上がる。しかし何も理解していない状態でAIを使えば、何も理解しないまま成果物だけが出てくる。それが積み重なると、誰もシステムを本質的に理解していないという恐ろしい事態が生まれる。

「禁止すれば解決」という発想があるとすれば、それは間違いだ。禁止アプローチは必ず失敗する。重要なのは、AI存在下でも「自分の頭で考えた」という経験を積ませる場の設計だ。日本の教育機関も企業研修の現場も、この設計変更に早急に取り組む必要がある。

AIが人間の認知を代替しつつある今、「何をAIに任せて、何を自分で考えるか」の境界線を意識的に引けるかどうかが、これからのエンジニアの真価を決める。この問いから逃げた組織は、数年後に深刻なツケを払うことになるだろう。


出典: この記事は The AI zombification of universities の内容をもとに、筆者の見解を加えて独自に執筆したものです。