CERNが「シリコンに焼き込んだAI」でLHCデータの選別を実現

欧州原子核研究機構(CERN)は、大型ハドロン衝突型加速器(LHC)が生成する膨大なデータをリアルタイムで選別するために、FPGA(フィールドプログラマブルゲートアレイ)やASIC(特定用途向け集積回路)に直接実装した超小型AIモデルを活用していることが明らかになった。

LHCが生み出す「前代未聞」のデータ量

LHCでは27キロメートルのリング内を光速に近い速度で飛び交う陽子ビームが、約25ナノ秒ごとに交差する。衝突が発生するたびに検出器は数メガバイトの生データを取得するため、ピーク時には毎秒数百テラバイト——年間にして約40,000エクサバイトというデータストリームが生まれる。これは現在のインターネット全体のおよそ4分の1に相当する規模だ。

この全データを保存・処理することは現在の技術では物理的に不可能であり、CERNは衝突イベントのうちわずか**0.02%**だけを選別して保存している。残り99.98%は即座に、そして永久に破棄される。

50ナノ秒以内に判断する「レベル1トリガー」

最初かつ最も重要な選別段階は「Level-1トリガー」と呼ばれ、約1,000台のFPGAで構成されている。これらのチップ上で動作する専用アルゴリズムAXOL1TLが、50ナノ秒未満という超低遅延で各衝突イベントの科学的価値を評価し、保存すべきかどうかを判断する。

GPUやTPUといった汎用AIアーキテクチャでは、この遅延要件を満たすことができない。そのためCERNは、モデルをシリコン上に直接「焼き込む」アプローチを選択した。

オープンソースツール「HLS4ML」が橋渡し

CERNのAIモデルは、オープンソースツールHLS4MLを使ってコンパイルされる。HLS4MLはPyTorchやTensorFlowで書かれた機械学習モデルを、FPGAやASICに合成可能なC++コードへ変換するツールだ。これにより、クラウドや汎用GPUサーバーを経由せず、検出器の「エッジ」で直接推論を実行できる。

モデル自体はChatGPTのような大規模言語モデルとは対極に位置する——パラメータ数を極限まで削減し、特定の物理シグナルの識別だけに特化した超コンパクトな設計だ。

エッジAIの究極形態

IoTデバイスや自動車向けの「エッジAI」推論が注目を集めている昨今、CERNの取り組みはその究極の形態といえる。マイクロ秒・ナノ秒単位の応答が求められる環境では、ソフトウェアとクラウドの組み合わせは根本的に機能しない——ハードウェアにロジックを直接埋め込むことが唯一の解となる。

CERNのこのアプローチは、粒子物理学の枠を超えて、金融取引の高頻度処理やリアルタイム医療診断など、極限の低遅延が求められる分野への応用可能性も示唆している。


元記事: CERN uses ultra-compact AI models on FPGAs for real-time LHC data filtering