DeepSeek、2025年1月以来最大のモデル「V4」を発表

中国・杭州に拠点を置くAI研究機関DeepSeekが、新たな大規模言語モデル「DeepSeek V4」を公開した。2025年1月のリリース以来、約2か月ぶりとなるメジャーアップデートで、マルチモーダル対応が最大の特徴だ。

1兆パラメータ規模でテキスト・画像・動画に対応

V4はテキスト生成にとどまらず、画像および動画の生成にも対応したマルチモーダルモデルとして設計されている。パラメータ数は1兆(1 Trillion)規模に達し、前世代モデルから大幅にスケールアップされた。

これにより、単一モデルで複数のモダリティ(様式)を扱える汎用AIとしての活用が期待される。OpenAIの「GPT-4o」やGoogleの「Gemini 1.5 Pro」といったマルチモーダルモデルと競合する位置付けだ。

独自技術でメモリ効率と推論速度を大幅改善

大規模モデルの実用化における課題として常に挙げられるのが、推論時のメモリ消費と処理速度だ。DeepSeekはV4においてこれらの課題に対し、二つの独自技術で挑んでいる。

ひとつは階層型KVキャッシュ(Tiered KV Cache)。KV(Key-Value)キャッシュはトランスフォーマーモデルの推論を高速化するための仕組みだが、V4では優先度に応じてキャッシュを階層管理することでメモリ使用量を従来比40%削減した。

もうひとつはSparse FP8デコーディング。FP8(8ビット浮動小数点)形式で疎(スパース)な計算を行うことで、推論速度を1.8倍向上させている。

これらの最適化は、より少ないハードウェアリソースで大規模モデルを動かすことを可能にし、クラウドAPI提供コストの低減や、エッジデバイスへの展開可能性を広げるものだ。

中国製AIチップ向けに最適化、Huawei・Cambriconと協力

注目すべきは、V4がNVIDIA製GPUだけでなく、中国AI半導体大手の**Huawei(ファーウェイ)およびCambricon(カンブリコン)**の最新ハードウェアに最適化されている点だ。

米中の半導体規制が続く中、中国AI産業は国産チップへの依存度を高めており、DeepSeekがその代表格と協業することは業界的にも重要なシグナルといえる。日本市場においても、AI推論インフラの調達先多様化という観点から、この動向は注視する価値がある。

DeepSeekの台頭と今後の展望

DeepSeekはV3やR1モデルで高い性能を低コストで実現し、2025年初頭に世界的な注目を集めた。V4はその流れを受けてマルチモーダル領域へと踏み込む野心的なリリースであり、米国主要AIベンダーとの技術競争がさらに激化することは必至だ。

オープンソース志向を維持しつつ、国産チップとの連携強化という独自路線でどこまで存在感を示せるか、引き続き動向が注目される。


元記事: DeepSeek V4 Multimodal Model: 1 Trillion Parameters with 40% Memory Reduction via Tiered KV Cache