中国製AIがオープンソース市場を席巻——Qwen 3.5の全貌
半年前、開発者にオープンソースLLMを尋ねれば「Llama一択、軽量ならMistral」という答えが返ってきた。中国製モデルは欧米の開発者コミュニティにほとんど存在感がなかった。その常識が2026年に入って大きく変わった。
AlibabaのQwen(通義千問)チームが2026年3月初旬までに全パラメータサイズのリリースを完了した「Qwen 3.5」ファミリーは、コーディング・数学・指示追従・長文推論といった実務直結のベンチマークで欧米のオープンソースモデルを上回る結果を出している。
3段階でリリースされた全ラインナップ
Qwen 3.5は2月〜3月にかけて3波に分けてリリースされた。
第1波(2月16日)——フラッグシップ
- Qwen3.5-397B-A17B:総パラメータ数397B、推論時に実際に活性化するのは17BのみというハイブリッドなMoE(Mixture-of-Experts)アーキテクチャを採用。Llama 4 MaverickやGPT-4oと正面から競合するモデル。
第2波(2月24日)——ミドルレンジ
- Qwen3.5-122B-A10B(MoE)
- Qwen3.5-35B-A3B(MoE)
- Qwen3.5-27B(Dense)
第3波(3月2日)——エッジ向け小型モデル
- Qwen3.5-9B / 4B / 2B / 0.8B:モバイルや組み込み環境向けに設計されており、MacBook上で5.5トークン/秒以上の速度で動作することが確認されている。
すべてのモデルがApache 2.0ライセンスで公開されており、商用利用も制限なく可能。
Qwen 3からの主な進化点
Qwen 3.5は単なるマイナーアップデートではない。注目すべき改善点は以下の通りだ。
- MoEアーキテクチャの拡大:35Bと122Bモデルもシリーズ化し、推論コストを大幅削減しながら品質を維持
- 思考モードの切り替え:すべてのモデルで「thinking(拡張推論あり)」と「non-thinking(高速応答)」をタスクに応じて切り替え可能
- エージェント機能の強化:関数呼び出し(Function Calling)、ツール利用、マルチステップ処理が大幅に改善
- 多言語対応:100以上の言語をサポートし、日本語を含むCJK(中国語・日本語・韓国語)での精度が特に高い。日本語ユーザーにとっては欧米モデルより実用的な場面も多いだろう
- 長文コンテキスト対応:大規模リポジトリ全体を横断したコード推論や文書解析に対応
中国製オープンソースAIが急加速している背景
Qwen 3.5は単独の出来事ではない。2025年後半から中国のAI開発は急加速しており、DeepSeek V3.2は推論タスクでGPT-5に匹敵するという評価も出ている。さらにHuaweiは米国製半導体に依存しない独自シリコンの開発を進めており、米国の輸出規制が想定ほどの足かせになっていないことが示されつつある。
Hugging Faceのダウンロードランキングでも、Qwenシリーズは2025年中頃から継続的に上位に入っており、開発者コミュニティへの浸透は着実に進んでいる。
オープンソースAIの競争は、MetaとMistralの2強から、QwenとDeepSeekを加えた4強へと移行した。日本の開発者にとっても、選択肢として中国製モデルを無視できない時代が到来している。
元記事: Qwen 3.5 vs Llama vs Mistral: China’s Open-Source AI Is Catching Up Faster Than You Think