MistralがSmall 4を公開——オープンソースAIの品質競争が新局面へ
フランスのAIスタートアップMistral AIは、最新のオープンソースモデル「Mistral Small 4」をApache 2.0ライセンスで公開した。推論(Reasoning)・マルチモーダル・命令追従(Instruction Following)という3つの主要機能を単一モデルに統合した点が最大の特徴だ。
Mixture-of-Experts構造で性能と効率を両立
Small 4は**MoE(Mixture-of-Experts)**アーキテクチャを採用している。MoEとは、入力に応じて複数の「専門家(エキスパート)」モジュールを選択的に活用する設計で、パラメータ数を増やしながらも推論時の計算コストを抑えられる。
Mistralによれば、Small 4は前モデルと比較して速度・スループット・レイテンシのいずれも大幅に改善しているという。商用利用を含む幅広いユースケースで自由に使えるApache 2.0ライセンスでの提供は、企業導入のハードルを下げる点でも注目される。
3機能の統合がもたらすインパクト
これまでオープンソースモデルは、推論特化・マルチモーダル対応・命令追従といった機能をそれぞれ別モデルで提供するケースが多かった。Small 4はこれらを1つのモデルで実現しており、開発者がユースケースごとにモデルを切り替える手間を省ける。
日本語を含む多言語対応の詳細は今後の情報公開が待たれるが、Mistralのモデルは従来から多言語性能に定評があり、日本の開発者コミュニティからの注目も高い。
オープンソースAIの品質競争が激化
MetaのLlamaシリーズやGoogleのGemmaシリーズと並び、Mistralはオープンソース大規模言語モデル(LLM)の主要プレイヤーとして存在感を高めている。Small 4の登場により、推論・マルチモーダル・命令追従を兼ね備えたオープンソースモデルの選択肢がさらに広がった形だ。
クローズドなAPIサービスに依存せず、自社インフラで高品質なLLMを運用したい国内企業にとっても、Small 4は有力な選択肢の一つとなりそうだ。
モデルの重みはHugging Face等のプラットフォームからダウンロード可能。詳細はMistral AIの公式アナウンスを参照されたい。