中国のAI研究機関DeepSeekが2026年4月24日、最新モデル「DeepSeek V4」のプレビュー版(Pro/Flash)をMITライセンスのオープンウェイトとして公開した。1.6兆パラメータのMixture-of-Experts(MoE)アーキテクチャに100万トークンのコンテキストウィンドウを搭載しながら、欧米クローズドモデルの約1/6という価格を実現。フロンティアモデルとの性能差は残るものの、コスト効率を重視する企業がエージェントやRAGワークロードに活用できる有力な選択肢として一気に注目を集めている。
アーキテクチャの概要
DeepSeek V4-ProはMoEアーキテクチャを採用し、総パラメータ数1.6兆(推論時の活性化パラメータは49B)という大規模モデルだ。軽量版のV4-Flashは284B総パラメータ・13B活性化で、同一アーキテクチャの安価バリアントとして提供される。両モデルとも100万トークンのコンテキストウィンドウを持ち、最大38万4,000トークンの出力が可能。Hugging Faceでホストされ、DeepSeekのAPIからもアクセスできる。
エンジニアリング面では新しいハイブリッドアテンション設計が核心にある。「Compressed Sparse Attention」「DeepSeek Sparse Attention」「Heavily Compressed Attention」を組み合わせた手法で、DeepSeek自身の発表によればV3.2比で推論FLOPs 73%削減・KVキャッシュメモリ90%削減を実現したという。ただしこれらの数値はベンダー自己申告であり、独立した第三者による検証はまだ行われていない点は念頭に置いておきたい。
価格と競合環境
V4-ProのAPIレートは入力100万トークンあたり$1.74、出力$3.48とされている。比較対象として、OpenAI GPT-5.5は入力$5.00・出力$30.00であり、出力コストに限れば約1/8という開きがある。
性能面ではDeepSeek自身のベンチマークによれば、V4-ProはGPT-5.2やGemini 3.0-Proを上回り、GPT-5.4やGemini 3.1-Proにやや届かないポジションにある。「最前線の3〜6ヶ月後方」という位置づけだ。汎用チャットや最高難度の推論では差が出るが、RAG・文書処理・エージェントのツール呼び出しといった多くの実務ユースケースでは十分な性能を発揮すると考えられる。
なお、中国のAIシーンはDeepSeek一強ではなくなっている。Qwen3、Kimi K2.5、GLM-5、MiniMax M2など複数の競合モデルが同価格帯でしのぎを削っており、オープン系フロンティアの競争は一段と激化している。
Huawei Ascendへの対応という地政学的意味
今回の特筆すべき点のひとつが、V4はNVIDIAシリコンで学習しつつ、推論をNVIDIA BlackwellエンドポイントとHuawei Ascendクラスターの両方で実行できる点だ。米国の輸出規制によりNVIDIA製GPUの中国への供給が制限されている状況で、DeepSeekが中国製アクセラレーターで実際に推論を稼働できることを示したことは象徴的な意味を持つ。
輸出規制という外圧が、逆説的に中国のAIスタックの自立を加速させる構図になっている。今後の各国AI政策・調達戦略にも影響を与えうる動きとして注目しておく価値がある。
実務への影響
日本のエンジニアやIT管理者にとって、V4リリースのポイントは以下の3つだ。
1. RAG・ドキュメント処理のコスト削減 100万トークンのコンテキストは、大量ドキュメントをまるごとモデルに渡すシナリオ(契約書解析・長大なログ処理・技術文書要約など)で直接活きる。欧米クローズドAPIと同等の処理を1/6程度のコストで回せるとすれば、PoC段階から本番展開への予算ハードルが大きく下がる。
2. オープンウェイトによる自社ホスティング MITライセンスで重みが公開されているため、クラウドAPIを使わず自社インフラに展開できる。データをAPIに送りたくない業種(医療・金融・公共)や、ガバナンス要件が厳しい環境では特に有力な選択肢になる。ただしV4-Proは1.6Tパラメータ級であるため、フル展開には相応のGPUインフラが必要だ。まずはV4-Flashで検証し、要件に応じてProに移行するアプローチが現実的だろう。
3. エージェントワークロードの試験台として AIエージェントが自律的にループで動き続ける仕組みを構築する場合、推論コストは積み重なる。コストが1/6になれば、同じ予算で約6倍のループ反復が可能になる計算だ。スループットを要するエージェント設計では、V4を基盤モデルとして評価する価値は十分にある。
筆者の見解
DeepSeek V4が示したのは「オープンウェイト×低コスト×大規模コンテキスト」の三拍子が同時に成立しつつあるという事実だ。フロンティアモデルとの性能差はまだ存在するが、その差は着実に縮まっており、多くの実務ユースケースにおいて「差が問題にならないレベル」に近づいてきている。
コスト競争の激化は日本のIT現場にも確実に波及する。「高価なAPIを使わないと高品質なAIは使えない」という思い込みは、もはや通用しない。重要なのはどのモデルを選ぶかではなく、自社のユースケースに合ったモデルをどう組み合わせ、どんな仕組みで回すか——設計力と運用力がAI活用の優劣を決める時代に入っている。
生産版V4のリリースが次の判断ポイントになるが、プレビュー段階でここまで整ったモデルであれば、正式版への期待も高い。コストとオープン性という武器を持つDeepSeekが、フロンティアとの距離をどこまで詰めてくるか、引き続き注目していきたい。
出典: この記事は DeepSeek V4 Ships with 1M Context Window and Open Weights at 1/6th the Cost の内容をもとに、筆者の見解を加えて独自に執筆したものです。