単一GPUで60秒動画を生成——オープンソース動画AIの新基準「Helios」登場

ByteDance(ByteDance Research)、北京大学、デザインツール大手Canvaの共同研究チームが、大規模動画生成モデル「Helios」をオープンソースで公開した。ライセンスはApache 2.0で、商用利用も含めて自由に活用できる。

技術的な特徴

Heliosは140億(14B)パラメータを持つ自己回帰型拡散モデル(Autoregressive Diffusion Model)で構成されている。自己回帰型と拡散モデルを組み合わせたハイブリッドアーキテクチャにより、長尺・高品質な動画生成を実現している。

最大の特徴は、単一のNVIDIA H100 GPU上で動作する点だ。生成可能な動画は最大1,440フレーム(24FPSで約60秒相当)で、推論速度は19.5FPS。つまり、60秒の動画を約74秒で生成できる計算になる。

従来の高品質動画生成モデルの多くは複数の高性能GPUを必要としており、個人・中小企業での活用が難しかった。Heliosはその壁を大きく下げることになる。

オープンソース化の流れが加速

動画生成AIは2024年〜2025年にかけてSora(OpenAI)やVeo(Google)など商用クローズドモデルが注目を集めてきたが、2026年に入ってオープンソースモデルの品質が急速に向上している。

Heliosの公開はその流れをさらに加速させるものとして注目される。Apache 2.0ライセンスで提供されることで、研究者・開発者がモデルを自由に改変・再配布・商用利用できる点も重要だ。日本国内でも、映像制作・広告・エンタメ分野での活用が期待される。

日本での活用可能性

日本では映像コンテンツの制作コスト削減や、SNS向けの短尺動画の自動生成ニーズが高まっている。H100 GPUはクラウドサービス(AWS、Azure、GCP等)でも利用可能なため、自前で高額なハードウェアを用意しなくてもHeliosを試せる環境は整っている。

モデルの重みやコードはHugging FaceおよびGitHubで公開されており、技術的なハードルも比較的低い。動画生成AIの民主化という観点で、Heliosは2026年前半の重要なマイルストーンといえるだろう。


元記事: Helios: Open-Source 14B Autoregressive Diffusion Model Generates 60-Second Videos on Single H100