楽天AI 3.0、DeepSeek V3との関連が浮上——ライセンス問題で波紋
楽天グループは2026年3月17日、約7000億パラメータの大規模言語モデル(LLM)「Rakuten AI 3.0」を公開した。経済産業省のAI開発支援プログラム「GENIAC」のバックアップを受け、「国内最大・最強クラスのLLM」として大きく打ち出された同モデルだが、公開からわずか1日で予期せぬ論争の的となった。
Hugging Faceの設定ファイルに「DeepSeek V3派生」の記述
オープンソースコミュニティの開発者たちは、Hugging Face上に公開されたモデルの設定ファイルに「アーキテクチャはDeepSeek V3に由来する」という記述を発見した。楽天のプレスリリースには中国のDeepSeekへの言及はなく、「オープンソースコミュニティの成果を取り入れた」という説明にとどまっていた。
さらに問題視されたのがライセンスの扱いだ。DeepSeek V3はMITライセンスで公開されており、再配布時に元のライセンス表記を保持することが求められる。しかし公開当初のコードパッケージにはその表記が含まれておらず、指摘を受けた後に「NOTICE」というファイル名で追加された。楽天側は本モデルをApache 2.0ライセンスでオープンソース公開すると説明しているが、MITライセンスとの整合性について疑問の声が上がっている。
アーキテクチャの一致——671億 vs 700億パラメータ
技術的な観点からも関連を示す状況証拠がある。Rakuten AI 3.0のアーキテクチャはMixture of Experts(MoE)方式で、総パラメータ数約7000億・アクティブパラメータ約370億という構成は、DeepSeek V3の6710億総パラメータ・370億アクティブという仕様と高い類似性を持つ。
楽天のChief AI Officer(CAO)を務めるTing Cai氏は「データ、エンジニアリング、革新的なアーキテクチャを大規模に組み合わせた驚くべき成果」と述べた。同氏はGoogleやApple、Microsoftでの勤務経験を持つベテランのAI研究者だ。
日本のAI開発に潜む構造的課題
今回の騒動は、日本のAI開発が抱える構造的な問題を浮き彫りにした。日経新聞の報道によると、日本企業が公開した有力モデルの上位10件のうち6件が、DeepSeekまたはアリババのQwenをベースにした二次開発品だという。
コスト効率の高い中国発アーキテクチャを活用することは開発期間や費用の圧縮につながる一方、帰属表示や出所の透明性が不十分だと公的信頼を損ない、ベンダーとの関係にも影響を及ぼしかねない。特に国費(GENIAC補助金)を受けて「海外プラットフォーム依存からの脱却」を掲げるプロジェクトにとっては、その矛盾が際立つ。
能力だけでなく「信頼性」が問われる時代へ
今回の一件は、生成AI競争の次の段階を示すシグナルとも言える。ベンチマークスコアや性能だけでなく、透明性のある帰属表示・一貫したライセンス運用・再現性の確保が、国産LLMの信頼を左右する時代になりつつある。政府支援を受けたAIプロジェクトにおいては特に、情報開示の在り方が今後の業界標準を形成していく可能性がある。
元記事: Rakuten AI 3.0 linked to DeepSeek V3, licensing questioned in Japan