MistralがSmall 4を公開——オープンソースAIの品質競争が新局面へ

フランスのAIスタートアップMistral AIは、最新のオープンソースモデル「Mistral Small 4」をApache 2.0ライセンスで公開した。推論(Reasoning)・マルチモーダル・命令追従(Instruction Following)という3つの主要機能を単一モデルに統合した点が最大の特徴だ。

Mixture-of-Experts構造で性能と効率を両立

Small 4は**MoE(Mixture-of-Experts)**アーキテクチャを採用している。MoEとは、入力に応じて複数の「専門家(エキスパート)」モジュールを選択的に活用する設計で、パラメータ数を増やしながらも推論時の計算コストを抑えられる。

Mistralによれば、Small 4は前モデルと比較して速度・スループット・レイテンシのいずれも大幅に改善しているという。商用利用を含む幅広いユースケースで自由に使えるApache 2.0ライセンスでの提供は、企業導入のハードルを下げる点でも注目される。

3機能の統合がもたらすインパクト

これまでオープンソースモデルは、推論特化・マルチモーダル対応・命令追従といった機能をそれぞれ別モデルで提供するケースが多かった。Small 4はこれらを1つのモデルで実現しており、開発者がユースケースごとにモデルを切り替える手間を省ける。

日本語を含む多言語対応の詳細は今後の情報公開が待たれるが、Mistralのモデルは従来から多言語性能に定評があり、日本の開発者コミュニティからの注目も高い。

オープンソースAIの品質競争が激化

MetaのLlamaシリーズやGoogleのGemmaシリーズと並び、Mistralはオープンソース大規模言語モデル(LLM)の主要プレイヤーとして存在感を高めている。Small 4の登場により、推論・マルチモーダル・命令追従を兼ね備えたオープンソースモデルの選択肢がさらに広がった形だ。

クローズドなAPIサービスに依存せず、自社インフラで高品質なLLMを運用したい国内企業にとっても、Small 4は有力な選択肢の一つとなりそうだ。

モデルの重みはHugging Face等のプラットフォームからダウンロード可能。詳細はMistral AIの公式アナウンスを参照されたい。


元記事: Mistral Releases Small 4: Open-Source MoE Model with Reasoning, Multimodal, and Instruction Following