Intelは2026年2月23日、オープンソースのAI推論ツールキット「OpenVINO」の2026年初メジャーリリースとなるOpenVINO 2026.0を公開した。大規模言語モデル(LLM)サポートの拡充、Intel NPU(Core Ultraシリーズ向け)のハンドリング改善、CPU/NPU/GPU横断での推論最適化強化が主な見どころだ。

新たにサポートされたLLMモデル

CPU・GPU実行向けには以下のモデルが新たに追加された。

  • GPT-OSS-20B(OpenAI製オープンウェイトモデル)
  • MiniCPM-V-4_5-8B
  • MiniCPM-o-2.6

GPT-OSS-20BについてはOpenVINOの正式サポートが今回まで遅れていた点が業界的にも注目されていたが、今バージョンでついに対応が完了した。

NPU向けの小規模モデルとしては以下が追加されている。

  • MiniCPM-o-2.6
  • Qwen2.5-1B-Instruct
  • Qwen3-Embedding-0.6B
  • Qwen-2.5-coder-0.5B

Qwenシリーズはアリババが開発する中国発の高性能LLMファミリーで、小型・軽量モデルの充実度が評価されている。NPUでのオンデバイス推論に向いたサイズ感であり、今回の追加は実用的な意義が大きい。

OpenVINO GenAIの機能強化

生成AI向けコンポーネントOpenVINO GenAIにも複数の改善が加わった。

  • ワードレベルのタイムスタンプ対応:音声認識・字幕生成の精度が向上し、OpenAIのWhisperやFasterWhisperと同等の機能水準に近づいた
  • MoE(Mixture of Experts)LLM向けint4データウェア重み圧縮:3D MatMulに対応し、メモリ帯域幅の削減と精度の両立を実現
  • VLMパイプライン(Visual Language Model)サポート:エージェントAIフレームワークとの統合が容易になった
  • NPUでのSpeculative Decoding対応:生成速度の向上が期待できる

Core Ultra NPUとのコンパイラ統合

ハードウェア面では、Intel Core UltraシリーズのNPUサポートが強化された。NPUプラグインにコンパイラが統合され、OEMドライバの更新を待たずに「事前コンパイル(AOT)」および「オンデバイスコンパイル」が可能になった。Intelはこれを「単一の出荷可能パッケージで、統合の摩擦を減らしタイム・トゥ・バリューを加速する」と説明している。

Core Ultraを搭載したノートPCやミニPCを使う開発者にとって、ドライバ依存が薄れることはローカルAI開発の敷居を大きく下げる改善点だ。

まとめ

OpenVINO 2026.0は、Intelが自社ハードウェア上でのAI推論エコシステムを着実に強化していることを示すリリースだ。特にNPU活用とLLMサポートの拡充は、クラウドに頼らないオンデバイスAIの実用化を後押しする。ソースコードおよびバイナリはGitHubから入手可能。


元記事: Intel Releases OpenVINO 2026 With Improved NPU Handling, Expanded LLM Support