中国AI業界の競争が、また新たな局面に入った。北京を拠点とするZhipu AI(智谱AI)が、744〜754Bパラメータ規模の大規模言語モデル「GLM-5」をHugging Faceで公開した。注目すべきは性能の数字だけではない。学習に使用したGPUがHuawei製Ascend 910Bの10万基のみで、NVIDIAチップを一切使っていないという点だ。米国の対中半導体輸出規制が続く中、これは単なる技術的成果を超えた地政学的なインパクトを持つ。

NVIDIAに頼らない学習体制という事実

GLM-5の最大のポイントは、学習インフラにある。米国の輸出管理規則(EAR)によってNVIDIA製GPU入手が実質的に困難となった中国AI企業が、Huawei製のAIアクセラレータ「Ascend 910B」10万基規模のクラスタでフロンティア級モデルの学習を完了させた。

輸出規制を強化すればするほど代替インフラ開発が加速するという皮肉な構図は、今後も続くと考えておいた方がいい。AI半導体の多極化は既に始まっており、「GPUといえばNVIDIA一択」という前提が揺らぎつつある。

独自RLフレームワーク「Slime」とハルシネーション低減

GLM-5の学習には、Zhipu AI独自の強化学習(Reinforcement Learning)フレームワーク「Slime」が採用されている。このアプローチで達成したハルシネーション率は34%とされ、比較対象として示されたGPT-5.2の48%を下回る。

ハルシネーション率の低減は、エンタープライズ活用において長年の課題だ。数字の比較方法やベンチマーク設計の詳細は独立した検証が必要だが、「モデル自身が繰り返し自律的に判断を検証・修正するループ」で品質を高めるアプローチは、信頼できるAIを設計する上での本質的な方向性と合致している。

フロンティアモデルの地理的拡大

Zhipu AIはもともとGLM-4シリーズで中国語処理能力の高いモデルとして知られていたが、GLM-5はその規模と性能を大幅に引き上げた。Hugging Faceでの公開により、オープンな研究コミュニティがアクセスできる状態にある。DeepSeek R1の登場以降、中国発のオープンウェイトモデルへの注目は世界的に高まっており、GLM-5はその流れをさらに加速させる可能性がある。

日本のエンジニア・IT管理者にとっての意味

1. 「中国製LLMは性能が低い」という先入観を見直す時期 DeepSeek R1以降、中国発モデルの実力は急速に向上している。GLM-5は選択肢として真剣に評価する段階に来た。

2. オープンウェイトモデルの候補として Hugging Faceで公開されているため、オンプレミスや自社クラウド環境での検証が可能だ。データ主権やプライバシーの観点でオープンウェイトモデルを検討している企業にとって、評価対象の一つになり得る。

3. 導入前のリスク評価は必須 中国製モデルを業務利用する場合、情報漏洩リスクや安全保障上の懸念を事前に評価することは欠かせない。モデルの振る舞いと通信先の徹底した検証を前提条件とすべきだ。

4. 調達リスクの再評価 AI推論サービスの依存先を棚卸しする良い機会でもある。特定プロバイダへの集中リスクを把握し、代替選択肢を事前に整理しておくことが中長期的な安定運用につながる。

筆者の見解

GLM-5が示した最大のインパクトは、モデルの数値よりも「NVIDIAなしで最前線クラスのモデルを完成させた」という事実そのものだと思う。AI半導体の覇権争いは今後も続くが、中国が代替インフラの実用化でここまで来たことは、業界全体の前提を変える出来事として記憶しておく価値がある。

「Slime」による強化学習アプローチも興味深い。モデルが自律的に判断を繰り返し検証・修正するループ設計は、単なるベンチマーク最適化ではなく、実用的な信頼性を高めるための方向性として評価できる。

日本のIT現場では今後、「どのベンダーのモデルを使うか」より「どのモデルでも使いこなせる技術力があるか」の方が問われるようになると感じている。地政学的なサイドにベットするのではなく、変化に対応できる構造と人材を持っておくことが、これからの競争力の源泉になるはずだ。


出典: この記事は GLM-5: China’s First Public AI Company Ships a Frontier Model の内容をもとに、筆者の見解を加えて独自に執筆したものです。