WikipediaがAI生成コンテンツを禁止——品質維持のための新方針
インターネット最大の百科事典Wikipediaが、AI(人工知能)を用いた記事の執筆・書き直しを公式に禁止する方針を発表した。この変更は先週末に英語版Wikipediaのガイドラインに追加されたもので、AI生成コンテンツがWikipediaのコアとなるコンテンツポリシーに反しやすいことが主な理由として挙げられている。
何が禁止され、何が許可されるのか
新ガイドラインでは、編集者がLLM(大規模言語モデル)を使える場面を明確に制限している。
禁止事項:
- AIによる記事の新規執筆
- AIによる既存記事の書き直し
引き続き許可される用途:
- 自分の文章への「基本的な校正提案」の取得(ただしAIが独自のコンテンツを追加しない場合に限る)
- 他言語版WikipediaからのAI補助翻訳(ただし元言語の正確性を確認できる十分な知識を編集者が持つ必要あり)
AI生成コンテンツとの戦いの背景
Wikipediaの編集者コミュニティは、ここ数ヶ月でAI生成記事の急増に悩まされてきた。対応策として、品質の低いAI執筆記事の「迅速削除」を可能にする新ポリシーをすでに導入。さらに「WikiProject AI Cleanup」というイニシアチブも立ち上げられ、AI生成コンテンツの特定・除去に取り組んでいる。
今回の方針変更は、編集者「Chaotic Enby」氏の提案に端を発し、長期にわたる編集者間の議論を経て「圧倒的な賛成多数」で可決された。ガイドラインは「LLMの明らかに問題のある使用を対象としながらも、適切と判断される用途には余地を残している」と説明している。
誤認防止にも言及
注目すべき点として、新ポリシーはAI検出に関する注意書きも含んでいる。「LLMと似た文体で書く人もいる可能性がある」として、編集者の制限を正当化するには文体や言語的な特徴だけでは不十分とした。記事の内容がコアポリシーに準拠しているかどうか、また対象の編集者の最近の編集履歴を総合的に判断するよう求めている。
日本語版への影響は?
今回の規制は現時点では英語版Wikipediaのみが対象だ。日本語版Wikipediaを含む他言語版への適用については明言されていないが、英語版の動向は他言語版コミュニティの議論にも影響を与えることが予想される。
AI生成コンテンツの質と信頼性をめぐる議論が世界的に高まる中、情報の正確性を根幹に置くWikipediaが明確な線引きを示したことは、他のオンラインプラットフォームにとっても一つの指標となりそうだ。