Azure OpenAI入門基礎講座 Part2 - モデル展開
この記事の内容
- Azure OpenAI サービスのリソース作成手順を解説します
- リージョン選択の重要性と、モデルごとの対応リージョンの調べ方を説明します
- Azure OpenAI Studio を使ったモデルデプロイの手順を紹介します
- 標準デプロイとグローバル標準デプロイの違いについて解説します
- トークンレート制限やデプロイ名の設定ポイントも取り上げます
はじめに
この記事は Azure OpenAI 入門シリーズの第2弾です。前回(Part1)では Azure OpenAI の利用申請について扱いました。今回は申請が通ったことを前提として、実際にサービスおよびモデルの展開(デプロイ)を行う手順を解説します。
全体の流れを整理すると、次のようになります。
- Azure サブスクリプション上に Azure OpenAI サービスを作成する
- 作成したサービスに対して モデル(GPT-4、GPT-3.5 Turbo など)をデプロイする
Azure OpenAI サービスのリソース作成
Azure ポータルでの操作
Azure 管理ポータルにアクセスし、検索バーで「Azure OpenAI」と入力してサービスを選択します。すでに利用している環境がある場合はリソースが表示されますが、ここでは新規作成として進めます。
「作成」を選択したら、通常の Azure リソースと同様に以下の項目を設定します。
- リソースグループ: 任意のリソースグループを選択または新規作成します
- リージョン: 後述する通り、非常に重要な選択肢です
- 名前: 任意のリソース名を入力します(例:
ebisuopenai) - 価格レベル: 現時点では「Standard S0」のみ選択可能です(従量課金)
ネットワーク設定
ネットワークの設定では、以下の3つの選択肢があります。
| 選択肢 | 内容 |
|---|---|
| すべてのネットワーク | インターネット経由でどこからでもアクセス可能 |
| 選択したネットワークとプライベートエンドポイント | Azure 上の特定のサブネットからのアクセスのみ許可 |
| 無効(プライベートエンドポイントのみ) | 後からプライベートエンドポイントを作成して利用 |
セキュリティ要件が厳しい組織では下2つを選択しますが、今回の入門手順では「すべてのネットワーク」を選択して進めます。
リージョン選択の重要性
Azure OpenAI においてリージョン選択は、他のサービス以上に重要です。すべてのモデルがすべてのリージョンで利用できるわけではないためです。
モデルごとの対応リージョンを確認する
利用可能なモデルとリージョンの組み合わせは、Microsoft の公式ドキュメントで確認できます。「Azure OpenAI リージョン モデル」などのキーワードで検索すると、モデルごとの対応リージョン一覧ページが見つかります。
例として、GPT-4 の対応状況を確認すると次のようになっています。
- East US(米国東部): 利用可能 ✅
- East US 2(米国東部2): 利用可能 ✅
- Australia East(オーストラリア東部): 利用不可 ❌
- Japan East(東日本): GPT-4 Vision Preview のみ利用可能、その他のGPT-4モデルは利用不可 ❌
また、画像生成モデルの DALL-E 3 を利用したい場合は、以下のリージョンでのみ展開できます。
- 米国東部(East US)
- オーストラリア東部(Australia East)
- スウェーデン中部(Sweden Central)
推奨リージョン
GPT-4 と DALL-E 3 の両方を使いたい場合、現時点では East US(米国東部) を選択するのが最も選択肢が広くなります。
ただし、組織によってはデータを日本リージョン内に限定しなければならないケースもあります。その場合、現時点では利用できないモデルがある点に注意が必要です。リージョンとモデルの対応状況は今後も変化していくため、最新の公式情報を確認するようにしてください。
モデルのデプロイ
Azure OpenAI サービスのリソースを作成しただけでは、モデルはまだ使えません。次に、そのサービスに対してモデルをデプロイする必要があります。
Azure OpenAI Studio へのアクセス
モデルのデプロイ機能は Azure OpenAI Studio に移動しています。Azure ポータルのリソース画面から「Azure OpenAI Studio に移動」を選択してアクセスします。
Azure OpenAI Studio と Azure AI Studio の違い
この時点で、よく似た名前のスタジオが2つ存在することに気づきます。
| スタジオ | 特徴 |
|---|---|
| Azure OpenAI Studio | Azure OpenAI のサービスのみを管理する専用スタジオ |
| Azure AI Studio | Azure の AI サービス群を組み合わせて活用するための統合スタジオ |
どちらからでもモデルのデプロイは可能です。Azure AI Studio の方が新しく、Microsoft としても移行を推奨している方向性にありますが、現時点では DALL-E 関連など Azure OpenAI Studio の方が操作しやすい機能もあります。このシリーズでは、まず Azure OpenAI Studio を使って解説を進めます。
GPT-4 のデプロイ手順
Azure OpenAI Studio の「デプロイ」メニューから「新しいデプロイを作成」を選択します。
モデルの選択では、デプロイしたいモデル(例:gpt-4)を選びます。
モデルバージョンは、「自動更新」を選択しておくと、新しいバージョンが利用可能になった際に自動で更新されるため、基本的にはこちらを推奨します。バージョンを明示的に固定した場合、そのバージョンが廃止されたときにサービスが利用できなくなるリスクがあります。
デプロイの種類では、以下の2つから選択します。
| 種類 | 特徴 |
|---|---|
| 標準(Standard) | 指定リージョン内でデータを処理。データの所在地が保証される |
| グローバル標準(Global Standard) | 世界中のリージョンに分散して処理。スループットが高くなりやすい |
データを特定のリージョン(日本など)に限定したい場合は「標準」を選択してください。データの所在地にこだわりがない場合は「グローバル標準」を選ぶとスループット面で有利になります。なお、どちらを選択しても応答の内容自体には影響しません。
デプロイ名は後からプログラム内でも参照するため、分かりやすい名前を付けることを推奨します。モデル名と同じ名前(例:gpt-4)にするのも一つの方法です。
**トークンレート制限(1分あたりのトークン数)**は、1分間にどれだけのトークン処理をさばけるかの上限値です。高い値を設定するほど性能は上がりますが、その分コストも増加します。テスト用途であれば小さい値(例:10,000 程度)で十分です。
設定が完了したら「作成」を選択します。デプロイはすぐに完了します。
GPT-3.5 Turbo のデプロイ
同様の手順で GPT-3.5 Turbo もデプロイできます。モデルによってデプロイの種類や選択肢が異なる場合があります。例えば GPT-3.5 Turbo では「標準」のみ選択可能なケースもあります。また、「動的クォータを使用する」オプションが選択できる場合があり、これを有効にするとクォータに余裕がある場合に自動的に上限を調整してくれます。
まとめ
今回は Azure OpenAI サービスのリソース作成と、モデルのデプロイ手順を解説しました。
- Azure OpenAI サービスのリソース作成には、通常の Azure リソースと同様にリソースグループや価格レベルを設定します
- リージョン選択が非常に重要です。使いたいモデルが対応しているリージョンを事前に公式ドキュメントで確認してください。GPT-4 と DALL-E 3 を両方使いたい場合、現時点では East US(米国東部)が適しています
- サービス作成後は Azure OpenAI Studio からモデルをデプロイします
- デプロイの種類(標準/グローバル標準)は、データの所在地要件とスループットのニーズに応じて選択します
- モデルバージョンは「自動更新」を設定しておくと、廃止によるトラブルを回避できます
次回は、展開したモデルを実際に使ってみるところを解説していく予定です。引き続き本シリーズをご覧ください。