Mistral 3登場——オープンソースAIの新時代へ

フランスのAIスタートアップMistralは、第3世代モデルファミリー「Mistral 3」を発表した。エッジ・ローカル向けの小型モデル3種(3B・8B・14B)と、フロンティア級の大規模モデル「Mistral Large 3」で構成され、すべてApache 2.0ライセンスで公開される。商用利用・改変・再配布が自由なオープンウェイトモデルとして、開発者コミュニティから大きな注目を集めている。

Mistral Large 3:675B MoEの実力

「Mistral Large 3」は、アクティブパラメータ41B・総パラメータ675BというMixture-of-Experts(MoE)アーキテクチャを採用したMistral初のMoE大規模モデルだ。NVIDIA製H200 GPU 3,000基を使ってスクラッチから学習されており、画像理解や英語・中国語以外の多言語会話において最高水準の性能を発揮するとされる。

性能面では、LMArenaリーダーボードのOSSノン推論モデル部門で2位(OSS全体では6位)を記録。GPT-5.2比で約92%の性能を約15%のコストで実現するというコスト効率の高さが特に注目される。ベースモデルとインストラクション・ファインチューニング済みモデルの両方が公開されており、推論特化バージョンも近日リリース予定だ。

NVIDIA・vLLM・Red Hatとの協業による推論最適化

Mistral Large 3は、NVIDIAのBlackwell世代向けアテンション・MoEカーネルをはじめ、TensorRT-LLMおよびSGLangによる低精度高速推論に対応している。NVFP4フォーマットのチェックポイントも提供され、Blackwell NVL72システムや単一の8×A100・8×H100ノードでもvLLMを使って効率的に動かせる。

プリフィル/デコードの分離サービングや投機的デコード(Speculative Decoding)のサポートも追加されており、長コンテキスト・高スループットなワークロードへの対応が強化されている。

Ministral 3:エッジAIの新基準

エッジ・ローカル向けの「Ministral 3」シリーズは3B・8B・14Bの3サイズ展開で、各サイズにベース・インストラクト・推論の3バリアントを用意。すべてのモデルが画像理解と多言語対応を標準搭載する。

NVIDIAのDGX Spark、RTX搭載PC・ノートPC、Jetsonデバイスといったエッジ環境への最適化も進められており、データセンターからロボティクスまで一貫した推論パスを提供する。OSS小型モデルの中でも最高水準のコストパフォーマンス比を実現するとMistralは主張している。

日本語対応への期待

多言語性能を強調している点は、英語・中国語以外の言語ユーザーにとって朗報だ。日本語を含む非英語圏での実運用での性能検証が今後の焦点となる。Apache 2.0ライセンスにより、日本企業や個人開発者も自社環境への組み込みや追加学習が容易に行えるため、オンプレミスAI活用の選択肢として有力な候補になりそうだ。


元記事: Introducing Mistral 3 — Including Large 3 (675B MoE)