Intelは2026年2月23日、オープンソースのAI推論ツールキット「OpenVINO」の2026年初メジャーリリースとなるOpenVINO 2026.0を公開した。大規模言語モデル(LLM)サポートの拡充、Intel NPU(Core Ultraシリーズ向け)のハンドリング改善、CPU/NPU/GPU横断での推論最適化強化が主な見どころだ。
新たにサポートされたLLMモデル
CPU・GPU実行向けには以下のモデルが新たに追加された。
- GPT-OSS-20B(OpenAI製オープンウェイトモデル)
- MiniCPM-V-4_5-8B
- MiniCPM-o-2.6
GPT-OSS-20BについてはOpenVINOの正式サポートが今回まで遅れていた点が業界的にも注目されていたが、今バージョンでついに対応が完了した。
NPU向けの小規模モデルとしては以下が追加されている。
- MiniCPM-o-2.6
- Qwen2.5-1B-Instruct
- Qwen3-Embedding-0.6B
- Qwen-2.5-coder-0.5B
Qwenシリーズはアリババが開発する中国発の高性能LLMファミリーで、小型・軽量モデルの充実度が評価されている。NPUでのオンデバイス推論に向いたサイズ感であり、今回の追加は実用的な意義が大きい。
OpenVINO GenAIの機能強化
生成AI向けコンポーネントOpenVINO GenAIにも複数の改善が加わった。
- ワードレベルのタイムスタンプ対応:音声認識・字幕生成の精度が向上し、OpenAIのWhisperやFasterWhisperと同等の機能水準に近づいた
- MoE(Mixture of Experts)LLM向けint4データウェア重み圧縮:3D MatMulに対応し、メモリ帯域幅の削減と精度の両立を実現
- VLMパイプライン(Visual Language Model)サポート:エージェントAIフレームワークとの統合が容易になった
- NPUでのSpeculative Decoding対応:生成速度の向上が期待できる
Core Ultra NPUとのコンパイラ統合
ハードウェア面では、Intel Core UltraシリーズのNPUサポートが強化された。NPUプラグインにコンパイラが統合され、OEMドライバの更新を待たずに「事前コンパイル(AOT)」および「オンデバイスコンパイル」が可能になった。Intelはこれを「単一の出荷可能パッケージで、統合の摩擦を減らしタイム・トゥ・バリューを加速する」と説明している。
Core Ultraを搭載したノートPCやミニPCを使う開発者にとって、ドライバ依存が薄れることはローカルAI開発の敷居を大きく下げる改善点だ。
まとめ
OpenVINO 2026.0は、Intelが自社ハードウェア上でのAI推論エコシステムを着実に強化していることを示すリリースだ。特にNPU活用とLLMサポートの拡充は、クラウドに頼らないオンデバイスAIの実用化を後押しする。ソースコードおよびバイナリはGitHubから入手可能。
元記事: Intel Releases OpenVINO 2026 With Improved NPU Handling, Expanded LLM Support