GPT-4.1登場!高性能、コンテキストサイズ8倍、価格2割減!

この記事の内容

  • OpenAIの新モデル「GPT-4.1」がAPIとして公開され、コーディング性能・長文処理・価格の3点で大幅に強化されました
  • コンテキストウィンドウが最大100万トークンとなり、GPT-4oの約8倍に拡大しています
  • GPT-4.1、GPT-4.1 mini、GPT-4.1 nanoの3モデルで構成され、用途に応じた使い分けが可能です
  • Azure AI FoundryやGitHub Developersですでに利用可能で、デプロイ手順は非常にシンプルです
  • GPT-4oと比較して約26%安く、性能が上がりながらもコストが下がっています

GPT-4.1とは

OpenAIが「Introducing GPT-4.1 in the API」として発表した新しいモデルです。現時点ではAPIのみでの提供となっており、ChatGPTからは利用できません。なお、ChatGPTでは「4.5(研究プレビュー)」が利用できますが、GPT-4.1はそれとは別系統のモデルです。

ナンバリングについては「4.5の次が4.1?」と戸惑う方もいるかもしれませんが、実際にナンバリングの見直しが検討されているという話もあります。


3つの主な強化ポイント

1. コーディング性能の向上

GPT-4.1はコーディングタスクにおいて大幅なスコア向上を実現しています。

  • GPT-4oと比較: 21.4%向上
  • GPT-4.5と比較: 26.6%向上
  • O3 miniと比較しても上回るスコアを記録

APIとしての提供から始まっていることからも、特に開発者向けのモデルとして位置づけられていることがわかります。

2. 指示への追従性の向上

ユーザーや開発者からの指示により正確に従うよう改善されています。エージェント的な利用シナリオでも安定したパフォーマンスが期待できます。

3. ロングコンテキストへの対応

今回の発表で最も注目すべき点の一つが、コンテキストウィンドウの大幅拡大です。

モデル最大コンテキストサイズ
GPT-4(旧)128,000トークン
GPT-4.11,000,000トークン(100万)

旧GPT-4の約8倍となる100万トークンのコンテキストを処理できるようになりました。長大なドキュメントや大規模なコードベースを一度に扱えるため、AIエージェントの用途にも非常に適しています。


GPT-4.1ファミリーの構成

GPT-4.1には3つのモデルが用意されており、用途に応じて使い分けることができます。

モデル特徴
GPT-4.1最も高性能。精度重視の用途に
GPT-4.1 mini4.1よりやや性能は落ちるが、応答速度が向上
GPT-4.1 nano最も高速。処理速度重視の用途に

賢さを重視するなら4.1、速度重視ならnanoというように、要件に合わせた選択が可能です。


Azure AI FoundryでのGPT-4.1デプロイ手順

GPT-4.1はすでにAzure AI Foundry(旧Azure OpenAI)でも利用可能になっています。デプロイ手順は従来モデルと変わりません。

デプロイ手順

  1. Azure AI Foundryのポータルにアクセスします
  2. 「デプロイ」メニューを開きます
  3. モデルのデプロイから「gpt-4.1」または「gpt-4.1-nano」を選択します
  4. リージョン(例:Sweden Central)とデプロイ設定を確認してデプロイします

コードの変更はモデル名だけ

既存のコードを流用する場合、変更が必要なのはモデル名(デプロイメント名)の部分だけです。

# 変更前
model = "gpt-4o"

# 変更後
model = "gpt-4.1"

エンドポイントのURLやAPIキーはそのまま利用できます。これにより、新しいモデルへの移行コストは非常に小さく抑えられます。


VS Code(Cline / GitHub Copilot)での活用

ClineでGPT-4.1を使う設定

VS CodeのAIエクステンション「Cline」でも、OpenAI互換モードを使ってGPT-4.1を利用できます。

  1. ClineのプロバイダーをOpenAI Compatibleに変更します
  2. Base URLにAzure AI FoundryのターゲットURLを設定します
  3. APIキーを貼り付けます
  4. Model IDに gpt-4.1 を入力します
  5. APIバージョンを設定して保存します

設定完了後、Clineのチャットで確認のメッセージを送信して応答が返れば設定成功です。

GitHub Copilotでの利用

VS CodeのGitHub Copilotでもエージェントモード、エディットモード、通常チャットそれぞれでGPT-4.1が選択可能になっています。100万トークンのコンテキストウィンドウが活きる場面では、特に大きなパフォーマンス向上が期待できます。


価格(GPT-4oとの比較)

GPT-4.1はGPT-4oと比較して約26%安価になっています。性能が向上しながらもコストが下がっているため、APIを利用しているユーザーにとっては切り替えるメリットが非常に大きいといえます。

なお、コンテキストサイズが異なるため単純比較に限界はありますが、基本的に「より高性能でより安い」という位置づけです。


まとめ

GPT-4.1はコーディング性能・コンテキストサイズ・価格のすべてにおいてGPT-4oを上回る新モデルです。特に最大100万トークンというコンテキストウィンドウの拡大はAIエージェント用途において大きな強みとなります。

移行の手間はほぼなく、モデル名を書き換えるだけで既存のコードが動作します。現時点ではAPIのみの提供ですが、API経由でOpenAIモデルを利用している方はすぐにでも切り替えを検討してみてください。Azure AI FoundryやGitHub CopilotなどのMicrosoftサービスでも既に利用可能になっており、日常の開発環境をそのままパワーアップできます。