NVIDIAがGTC 2026で「Nemotron 3」ファミリーを公開——エージェントAI向けオープン基盤モデルの新展開
NVIDIAは2026年3月11日、米国サンノゼで開催中の「GTC 2026」にて、エージェントAIシステム向けの新しいオープンモデルファミリー「Nemotron 3」を発表した。同社にとって過去最も本格的なモデルリリースと位置づけられており、AIスタック全体への影響力拡大を明確に示す動きとして業界から注目されている。
ハイブリッドMoEによる圧倒的な効率性
今回の主力モデル「Nemotron 3 Super」は、総パラメータ数120Bながら、推論時に活性化されるパラメータは12Bにとどまる「ハイブリッド混合エキスパート(Hybrid MoE)」アーキテクチャを採用している。このアプローチにより、複雑なマルチエージェントワークロードを処理しながらもインフラコストを抑えることが可能となる。
ベンチマーク面では、ソフトウェアエンジニアリング評価指標「SWE-Bench Verified」で60.47%を達成。同規模の競合モデル(GPT-OSS-120B)と比較して約2.2倍のスループットを実現するという。
ファミリー構成は「Nano」「Super」「Ultra」の3サイズ展開。Nanoはすでに提供開始されており、SuperとUltraは2026年前半のリリースが予定されている。Nanoは前世代比で4倍のスループット向上を謳っており、複数モデルを並列実行するマルチエージェントパイプラインに最適化されている。
「真のオープンソース」——モデル重みだけでなく学習データも公開
Nemotron 3が業界標準的な「オープンソース」リリースと一線を画するのは、モデル重みだけでなく学習データセット・強化学習(RL)環境・ライブラリ一式を合わせて公開している点だ。NVIDIAのCEO、ジェンスン・ファン氏はGTCの壇上で次のように述べた。
「オープンイノベーションはAI進歩の土台だ。Nemotronを通じて、開発者が自らエージェントシステムを構築できる透明性と効率性を提供する。」 多くの「オープン」モデルがモデル単体の公開にとどまる中、Nemotron 3はエンドツーエンドの構築ツールキットとして機能する設計となっている。
クラウド・エンタープライズ双方での展開
クラウド展開では、Amazon Bedrockへのサーバーレス統合から開始し、Google Cloud、Microsoft Foundry(Azure)、CoreWeaveなどへの順次対応が予定されている。エンタープライズ向けにはNVIDIAのNIMマイクロサービスを通じてオンプレミスやプライベートクラウド環境への導入も可能だ。
すでにCouchbase、DataRobot、H2O.ai、JFrog、UiPathといったパートナー製品への統合も完了しており、これらのプラットフォーム利用者はカスタム統合作業なしでNemotron 3を活用できる。
次世代アーキテクチャ「Vera Rubin」も発表
GTCではNemotron 3と並行して、次世代AIスーパーコンピュータ基盤「Vera Rubin」も発表された。現行のBlackwellプラットフォームと比較して、推論トークンコストを最大10分の1に削減し、MoEモデルの学習に必要なGPU数を4分の1に抑えられるとしている。Anthropic、Meta、OpenAI、Mistral、xAIなど主要AIラボがRubinハードウェアでの学習を予定しており、2026年後半からCorWeaveを筆頭に提供開始される見込みだ。
ハードウェア企業からAIスタック全体へ
NVIDIAが競争力のあるオープンソースモデルファミリーを、学習データやRLライブラリまで含めてリリースしたことは、チップの販売にとどまらずAIスタック全体の主導権を握る意図を明確に示している。マルチエージェントアーキテクチャへの移行が加速する中、推論コストの削減と高スループットを両立したNemotron 3は、エージェントAI開発の中核を担う存在になり得る。
元記事: NVIDIA Nemotron 3 Super: 120B Hybrid MoE Model Built for Agentic AI Era