OpenAI、軽量推論モデル2種を投入——エージェントAI向けに最適化
OpenAIは3月17日、新たな軽量言語モデル「GPT-5.4 mini」と「GPT-5.4 nano」を正式にリリースした。両モデルは、AIエージェントが複数の小タスクを並列処理する「サブエージェント(subagent)」ワークフローへの組み込みを主な用途として設計されており、高いスループットと低レイテンシーを両立している点が特徴だ。
軽量化でも「考える力」は健在——Thinkingモード搭載
今回のモデルで注目すべきは、推論能力を高める「Thinking(思考)」機能が搭載されている点だ。これまでは上位モデルや有料プランのユーザー向けに提供されていたこの機能が、今回のリリースに伴いChatGPTの無料ユーザーにも開放された。
Thinkingモードは、モデルが回答を生成する前に内部で段階的な推論を行う仕組みで、複雑な質問や多段階の問題解決において精度を高める効果がある。Google DeepMindのGemini Thinkingや、Anthropicが推進するExtended Thinkingと同様のアプローチであり、各社が推論能力の民主化を競っている構図が鮮明になっている。
Deep Researchモードは3月26日に終了
リリースと同時に、既存の「Deep Research」モードが3月26日をもって廃止されることも発表された。Deep Researchは、複数ステップにわたるWeb検索と文書統合を自動で行う機能として注目を集めていたが、新モデルの登場によってその役割が刷新される形となる。
日本のユーザーや開発者にとっては、APIコストの低い軽量モデルが充実することで、チャットボット・社内ナレッジ検索・コード補完など多様な用途でのAI活用がより現実的になることが期待される。
「mini」と「nano」——何が違うのか
現時点での公式情報によると、GPT-5.4 miniは精度とスピードのバランスを重視した汎用サブエージェント向けモデルで、GPT-5.4 nanoはさらに軽量化を突き詰めた超高速処理向けモデルと位置付けられている。具体的なパラメータ数やベンチマーク比較については順次公開される見込みだ。
OpenAIは近年、大規模モデル(GPT-4oやo3)と小型高速モデルの二軸展開を加速させており、今回のリリースはその戦略の延長線上にある。AIエージェントの普及が進む中、推論コストの削減は開発者・企業双方にとって重要な課題であり、miniとnanoの投入はその解決策の一端を担う。
今後は、Microsoft Azure OpenAI ServiceやAmazon Bedrockなどのクラウドプラットフォームへの統合も予想され、日本企業が利用する既存の業務AIシステムへの組み込みも容易になりそうだ。