NVIDIA、GTC 2026 で Nemotron 3 Super を発表——エンタープライズ AI エージェントの選択肢が広がる
NVIDIA は GTC 2026 において、新たなオープンウェイト大規模言語モデル「Nemotron 3 Super」を発表した。総パラメータ数 120B(1200億)ながら、Mixture-of-Experts(MoE)アーキテクチャの採用によって推論時にアクティブとなるのは約 12B に留まる「ハイブリッド MoE」設計が特徴だ。
コーディング性能で業界トップ水準——SWE-Bench 60.47%
本モデルが特に注目を集めるのは、ソフトウェアエンジニアリングベンチマーク「SWE-Bench Verified」での 60.47% という高スコアだ。このベンチマークは GitHub の実際のイシューをモデルが自律的に修正できるかを評価するもので、AIエージェントのコーディング能力を測る指標として広く活用されている。アクティブパラメータが 12B 程度であることを踏まえると、計算効率と性能の両立という観点で極めて競争力の高い結果といえる。
1M トークンコンテキストウィンドウで長文書処理にも対応
Nemotron 3 Super はコンテキストウィンドウとして 100 万(1M)トークンをサポートする。長大なコードベースの解析や複数ドキュメントにまたがる推論が求められるエンタープライズ用途において、この仕様は実運用上の大きなアドバンテージとなる。
オープンウェイトで公開——商用利用を見据えた戦略
本モデルはオープンウェイト形式で公開されており、企業が自社インフラ上でファインチューニング・デプロイすることが可能だ。クローズドな API サービスへの依存を避けたいエンタープライズ企業にとって、データプライバシーやコスト管理の観点でも魅力的な選択肢となる。
NVIDIA はあわせて、Kubernetes コミュニティへの GPU 向け動的リソース割り当てドライバの寄贈も発表しており、企業が AI ワークロードを既存の Kubernetes 基盤上で効率よく運用できるよう OSS エコシステムの整備も進めている。
日本市場への影響
国内においても生成 AI の活用が本格化するなか、クラウドベンダー依存を低減しつつ高性能な AI エージェントを構築したい企業にとって、Nemotron 3 Super は有力な検討対象となりそうだ。特に金融・医療・製造といったデータの社内保持が求められる業界での採用が期待される。
モデルの詳細や利用条件については NVIDIA の公式サイトおよび Hugging Face のモデルページで確認できる。
元記事: NVIDIA Nemotron 3 Super: 120B-Parameter Open-Weight MoE Model Scores 60.47% on SWE-Bench