テンセント(Tencent Holdings)が2026年4月24日、新しいオープンソースAIモデル「Hy3 Preview」(Hunyuan 3 Preview)を公開した。AI部門の体制刷新後、初めての大型モデルリリースとなる。単にモデルを出しただけでなく、自社の主力チャットボット「元宝(Yuanbao)」の基盤モデルをDeepSeekから即座にHy3へ切り替えるという実践的なデプロイメントを同時に実施している点が注目に値する。

Hy3 Previewの技術仕様

Hy3 PreviewはMixture-of-Experts(MoE)アーキテクチャを採用した大規模言語モデルだ。主な仕様は以下のとおり:

  • 総パラメータ数: 2950億(295B)
  • アクティブパラメータ数: 210億(21B)
  • コンテキストウィンドウ: 2560億トークン(256K tokens)
  • ライセンス: オープンソース公開

MoEアーキテクチャの特徴は、推論時に全パラメータを使わず、入力に応じて適切な「専門家(Expert)」モジュールだけを活性化する点にある。2950億という総パラメータは圧倒的な規模だが、推論時に実際に動くのは210億パラメータ分に過ぎない。これにより、巨大モデルの知識を保ちながら推論コストを抑えるという実用面での合理性が生まれる。

256Kトークンのコンテキストウィンドウは、長大なドキュメント処理や複雑なコードベース解析において実用的な優位性をもたらす。企業システムのログ解析、法務文書の一括処理、大規模なコードリポジトリの参照といったユースケースで威力を発揮しうる。

なぜDeepSeekからの切り替えが重要か

今回のリリースで特筆すべきは、モデルの性能仕様そのものよりも「Yuanbaoの基盤をDeepSeekから自社技術に切り替えた」という事実だ。

テンセントはこれまで、自社チャットボットの基盤として競合他社であるDeepSeekのモデルを採用していた。これはビジネス的には合理的な判断だったが、戦略的には自社のAI競争力が問われる状況でもあった。今回の切り替えは、「自社モデルが実際のプロダクトで使える水準に到達した」という内部評価の表れとも読める。

また、AIの競争優位を「モデルの所有」に見出す戦略は、中国テック大手に共通するトレンドでもある。エコシステム全体(WeChat、Tencent Cloud、Yuanbao等)でモデルを内製・統合することで、データのフィードバックループと差別化を同時に実現しようとしている。

「ベンチマーク競争」から「プロダクト統合」へ

公式発表において、テンセントは新AI責任者のもとで「ベンチマークスコアよりも実際のプロダクトへの統合を優先する」戦略転換を明確に打ち出している。

これは重要なシグナルだ。ここ数年、AI業界はモデルの性能評価において、各種ベンチマーク(MMLU、HumanEval、MATHなど)のスコア競争が過熱していた。しかし、ベンチマーク上の数字が良くても、実際のプロダクトで役立つかどうかは別問題という認識が、主要プレイヤーの間で広まりつつある。

「実際に使える製品に組み込む」という方向への舵切りは、中国AI市場の競争激化と無縁ではない。ByteDance(Doubao)、百度(Ernie)、アリババ(Qwen)など、国内ライバルとの差を埋めるためには、モデル数値の優劣よりも、WeChat等のプラットフォームに深く統合された体験の質が問われるからだ。

実務への影響——日本のエンジニア・IT管理者に向けて

Hy3 PreviewはオープンソースとしてHugging Face等で公開されることが見込まれる。日本のエンジニアが実務で活用を検討する際のポイントをまとめる。

1. MoEモデルのデプロイ特性を把握する 総パラメータは2950億でも、実際の推論には210億分のリソースしか使わない。ただし、MoEはルーティング機構のオーバーヘッドがあるため、GPU/CPUメモリの要件や推論速度はアクティブパラメータ数だけで単純に計算できない。自社インフラへの展開前に、実際の推論コストをベンチマークすること。

2. 256Kコンテキストの活用場面を見極める 長文コンテキストは、社内規程集・契約書・コードベースの一括参照など、企業内のナレッジワーカー支援で真価を発揮する。ただし、長大なコンテキストは推論コストが高くなるため、全ての用途に適用するのではなく、ユースケース別に適切なウィンドウサイズを選択することが重要。

3. 中国発オープンソースモデルの利用ポリシーを確認する DeepSeekのケースで日本企業にも普及しつつある中国発オープンソースモデルだが、利用にあたってはライセンス条項の確認に加え、情報セキュリティポリシーとの整合性確認が必須だ。特に、機密データを含む社内ユースケースへの適用前に、セキュリティ部門との合意を取ること。

4. エコシステム統合という視点で読む Hy3単体の性能よりも、「テンセントのエコシステム全体に統合されたAI」という文脈で理解することが大切。WeChat AIエージェントなど、テンセントプラットフォームと連携するシステムを開発・評価する際は、基盤モデルの変更がAPIの挙動や出力品質に影響を与える可能性がある。

筆者の見解

今回のテンセントの発表で印象的だったのは、モデル仕様の数値よりも「プロダクト統合優先」という戦略宣言だ。ここに、AI開発の現在地を端的に示すメッセージが含まれていると思う。

モデル単体で評価する時代は終わりつつある。重要なのは、そのモデルが実際のユーザー体験にどう組み込まれ、継続的に使われ続ける仕組みになっているかだ。AIの本当の価値は、単発の応答精度ではなく、ユーザーのワークフローに深く埋め込まれた「自律的に動き続ける仕組み」にある——そう考えると、テンセントの今回の方向性は正しいと思う。

一方、テンセントが本当に目指しているのは、LLMそのものの品質競争を超えた「エコシステム全体のAI化」だろう。WeChat AIエージェント、Yuanbaoの強化、そして今回のHy3展開は、その布石として読める。WeChatが日常コミュニケーションと経済活動のインフラである中国において、このエコシステム戦略は強力な競争優位につながりうる。

日本のIT現場においても、「良いモデルを選ぶ」という発想から「どうシステムに統合し、継続的に活用し続けるか」という発想への転換が求められている。Hy3 Previewが示したのは、AIの競争軸がモデル性能から「実装力」と「エコシステム力」に移行しつつあるという事実だ。この流れを読んで、自社のAI導入戦略を再点検する機会にしてほしい。


出典: この記事は Tech Brief (April 24): Tencent Unveils First Major AI Model Update Under New Leadership | Caixin Global の内容をもとに、筆者の見解を加えて独自に執筆したものです。