AIモデルの開発・カスタマイズといえば「NVIDIA GPU+CUDA」という方程式が長らく当然視されてきた。しかし、AMD ROCmプラットフォームを使った医療向けQAモデルのファインチューニング事例が、その前提を静かに、しかし確実に揺さぶっている。

そもそも何が起きたのか

Hugging Face上で開催されたAMD Developer Hackathonにおいて、参加チームが「MedQA」——医療・臨床知識に特化した質問応答タスク——向けのAIモデルをAMD ROCm環境で構築した。ベースモデルはAlibaba製のQwen3、チューニング手法はLoRA(Low-Rank Adaptation)。成果物はHK2184/medqa-qwen3-loraとしてHugging Faceに公開されている。

注目すべきは「医療AIを作った」という点よりも、「CUDA(NVIDIA独自のGPUコンピューティング基盤)を一切使わずに、実用的なLLMファインチューニングを完遂した」という点だ。

AMD ROCmとは何か

ROCm(Radeon Open Compute)は、AMDが提供するオープンソースのGPUコンピューティングプラットフォームだ。PyTorchやTensorFlowなど主要フレームワークの多くがROCm対応を進めており、コードレベルではCUDA向けのコードをほぼそのまま動かせるケースも増えている。

歴史的にAMD GPUはゲーミング市場では存在感があったものの、AI/ML開発の文脈では「CUDAエコシステムの壁」に阻まれてきた。ライブラリの対応状況、ドライバの安定性、コミュニティのノウハウ蓄積——あらゆる面でNVIDIAに後れを取っていた。それが近年、急速にギャップが埋まりつつある。

LoRA×医療ドメインの組み合わせが持つ意味

LoRAはモデル全体を再学習せず、少数の追加パラメータだけを学習する手法だ。必要なGPUメモリと計算量を劇的に削減できるため、フルファインチューニングが難しい環境——例えばAMD GPUのような「ハイエンドNVIDIA以外の選択肢」——でも現実的な時間・コストで動く。

医療QAというドメインは、汎用LLMがそのまま使えない典型例でもある。診断支援・薬剤情報・臨床プロトコルといった専門知識は、一般的なWebテキストで学習したモデルでは精度が出にくい。だからこそドメイン特化のファインチューニングに価値がある。

今回の事例はその2つを組み合わせた:「コスト効率の高い手法(LoRA)」×「エコシステムが広がりつつある非CUDA環境(ROCm)」。これが示すのは「医療AIを作るのにH100を何枚も積んだクラスターは必ずしも要らない」という事実だ。

実務への影響——日本のエンジニア・IT管理者に伝えたいこと

1. GPU調達の選択肢を今すぐ再評価せよ

NVIDIA GPUは引き続き供給逼迫と価格高騰が続いている。クラウド上のA100/H100インスタンスも需要集中でコストが上がり続けている。ROCm対応が実用レベルに達してきた今、オンプレやクラウドでAMD GPUを選択肢に入れない理由はなくなりつつある。Azure・AWS・GCPいずれもAMD GPU搭載インスタンスを提供している。

2. LoRAをまだ使っていないチームは今すぐ試すべき

フルファインチューニングはコストと専門知識のハードルが高い。LoRAであれば、数GBクラスのVRAMでも動き、Hugging Face PEFTライブラリで実装できる。自社業務に特化したモデルを作りたいなら、まずLoRAから入るのが現実解だ。

3. 医療・法律・金融などの規制業種こそドメイン特化が効く

汎用LLMの精度に不満を感じているなら、それはモデルの限界ではなく「ドメイン知識が足りていない」ことが原因の可能性が高い。社内ナレッジや業務マニュアルでファインチューニングするアプローチを検討する価値がある。

4. オープンソースモデル(Qwen3など)の実力を侮るな

今回使われたQwen3はAlibaba製のオープンモデルだ。GPT-4oやClaudeといったクローズドモデルを使わなくても、ファインチューニング次第で専門ドメインでは十分な性能が出ることを示している。コスト・プライバシー・カスタマイズ自由度のバランスで判断すべき局面が増えている。

筆者の見解

「AI開発=NVIDIA CUDA」という認識は、今もエンジニアの間に根強く残っている。しかしそれはすでに「過去の常識」になりつつある。

ハードウェアエコシステムの多様化は、AIの民主化にとって本質的に重要だ。特定のベンダーのGPUがなければモデルを作れないという状況は、技術的にも経済的にも持続可能ではない。ROCmの成熟はその変化を加速させる。

医療AIというドメイン選択も示唆深い。医療は「精度が命」であり、汎用モデルへの丸投げが許されない領域だ。日本のヘルスケア・製薬・医療機器業界でも、こうした「CUDA不要のドメイン特化ファインチューニング」が技術的に現実解になってきたことは、実務担当者に知っておいてほしい事実だ。

同時に冷静に見ておきたいのは、ROCmがCUDAと完全に同等かといえばまだ差がある点だ。エッジケースでのドライバ問題やライブラリ互換性の課題は残る。「使えるケースが増えた」と「完全に置き換えられる」は違う。実際に試してみて、ワークロードごとに判断する姿勢が必要だ。

情報を追いかけることより、実際に手を動かして自分のユースケースで検証することの方が価値がある。今回の事例はその出発点として十分に参考になる。


出典: この記事は MedQA: Fine-Tuning a Clinical AI on AMD ROCm — No CUDA Required の内容をもとに、筆者の見解を加えて独自に執筆したものです。