OpenAIのオープンウェイトモデルが公開!

OpenAIのオープンウェイトモデルが公開!GPT-OS 120B/20Bとは何か この記事の内容 OpenAIが新たにオープンウェイトモデル「GPT-OS 120B」と「GPT-OS 20B」を公開しました 両モデルはApache 2.0ライセンスで提供され、商用利用・カスタマイズ・ファインチューニングが自由に行えます 120Bモデルはエンタープライズ向け、20Bモデルは個人開発者でも扱いやすいサイズ感です HuggingFaceやGitHubで公開されており、すでに多くのユーザーが活用しています OpenAIが再びオープンソースコミュニティと連携を強化する動きとして注目されています オープンウェイトモデルとは オープンウェイトモデルとは、学習済みの重み(ウェイト)が無料で一般公開されており、誰でも自由にダウンロードして利用できるAIモデルのことです。 クローズドなAPIサービスとは異なり、モデルのウェイト自体を手元に持てるため、研究者や開発者はそれをベースにカスタマイズやファインチューニングを行ったり、独自のサービス開発に活用したりすることができます。 GPT-OS 120B/20Bの概要 今回OpenAIが公開したのは、以下の2つの大規模言語モデルです。 GPT-OS 120B:パラメータ数120ビリオン(1,200億)の超大型モデル GPT-OS 20B:パラメータ数20ビリオン(200億)の中規模モデル どちらもHugging FaceやGitHubのリポジトリで公開されており、公開直後からすでに多くのユーザーにダウンロードされています。 利用に必要な環境 GPT-OS 120B 120Bモデルは非常に大きいため、一般的な家庭用PCで動作させることは難しい状況です。主にエンタープライズ向けの高性能マシンやGPU環境での利用が想定されています。 GPT-OS 20B 20Bモデルであれば、それなりのスペックのGPUを搭載したPCやサーバーがあれば動作可能です。個人開発者や小規模な組織でも十分に扱えるサイズ感となっています。 ライセンスとカスタマイズ性 両モデルともに Apache 2.0ライセンス で提供されています。このライセンスのもとでは、以下のような幅広い用途での利用が可能です。 商用利用 再配布 カスタマイズ・改変 組織内への展開 さらに、オープンウェイトモデルであるため、自社データを使ったファインチューニング(追加学習)も自由に行えるのが大きな特徴です。既存のクローズドAPIサービスでは実現できなかった、より深いカスタマイズが可能になります。 性能と特徴 公式発表によると、GPT-OS 120Bの性能はOpenAIの「GPT-4 mini」と同程度とされています。GPT-4と比較するとやや劣りますが、GPT-4 mini相当の実力を持つモデルが無料で利用できるようになったことは大きな意義があります。 20Bモデルは120Bよりも性能が落ちますが、用途によっては十分なスペックです。また注目すべき点として、競技数学など一部のタスクにおいては20Bモデルの方が高いスコアを出すケースも報告されています。これは学習データセットが新しく、現代的な知識が反映されているためと考えられます。 安全性の面でも配慮されており、中国の「DeepSeek」など他のオープンモデルと比較しても、安心して利用できる環境が整っています。 対応プラットフォームとツール GPT-OS 120B/20Bは、以下をはじめとする多くのプラットフォームやツールでサポートされています。 Hugging Face Transformers VLM(Vision Language Model) Orama LM Studio 公式リポジトリには実際の使い方のサンプルコードも掲載されており、導入も比較的容易です。手元の環境で試したい方は、まず公式リポジトリを参照してみると良いでしょう。 OpenAIとオープンソースへの回帰 OpenAIはここ数年、クローズドな開発姿勢を取っていたことから、「OpenAIなのにオープンではない」という批判がコミュニティから多く上がっていました。今回のオープンウェイトモデルの公開は、そうした声に応える形で、再びオープンソースコミュニティとの連携を強化する動きとして注目されています。 これにより、企業や組織も安心して自社サービスやプロダクトの中核にモデルを据えたり、独自カスタマイズを施したりすることが可能となりました。 なお、今回公開されたのは最新世代の1つ前のモデルにあたります。今後「GPT-5」の登場も期待されており、オープンウェイトモデルの進化からも目が離せない状況です。 まとめ OpenAIが公開したGPT-OS 120BとGPT-OS 20Bは、Apache 2.0ライセンスのもとで自由に利用・カスタマイズできるオープンウェイトモデルです。120Bはエンタープライズ向けの高性能環境向け、20Bは個人開発者でも扱いやすいサイズとなっています。 GPT-4 mini相当の性能を持つモデルが無料で利用できるようになったことは、AI開発の民主化において大きな一歩です。ファインチューニングや商用利用も自由に行えるため、研究者・開発者・企業のいずれにとっても活用の幅が広いモデルと言えるでしょう。 ...

August 7, 2025 · 1 min · 胡田昌彦

Local LLMの到来 #3 LM Studio編

以下が記事本文です: Local LLMの到来 #3 LM Studio編 この記事の内容 GUIで手軽にローカルLLMを実行できるツール「LM Studio」の概要を紹介します LM StudioのインストールからモデルのダウンロードまでのステップをWindows環境で解説します チャット機能でローカルLLMと対話する基本的な使い方を説明します OpenAI互換のAPIサーバーとして起動し、curlやPythonから利用する方法を紹介します 既存のOpenAI APIを使うプログラムをほぼそのままローカル環境に移行できる強力な互換性についても触れます はじめに:ローカルLLM実行環境の新たな選択肢「LM Studio」 ローカルLLM(大規模言語モデル)の選択肢と使い方を解説するシリーズの第3弾として、今回はGUIで手軽に利用できる「LM Studio」を紹介します。 これまでのシリーズでは、Hugging FaceやCUIベースのOllamaといった実行環境を紹介してきました。しかし「やはりGUIで簡単に操作したい」という方も多いのではないでしょうか。LM Studioは、そんなニーズに最適なツールで、直感的な操作でローカルLLM環境を構築できます。 LM Studioのインストール まず、LM Studioの公式サイトにアクセスします。Windows環境でアクセスするとWindows版のダウンロードリンクが分かりやすく表示されています。 公式サイトのダウンロードボタンをクリックし、インストーラーをダウンロードします ダウンロードしたインストーラーを実行します インストールオプションでは、通常「現在のユーザーのみ」を選択すれば問題ありません インストール先を確認し、「インストール」をクリックします インストールが完了したら、「LM Studioを実行する」にチェックを入れたまま完了します これでLM Studioが自動的に起動します。 モデルの検索とダウンロード LM StudioはGUIベースなので、直感的に操作できます。 モデルを探す 左側のメニューにある発見ボタン(コンパスのアイコン)をクリックすると、「Discover」ページが開きます。ここには人気のモデルや、お使いのPCスペックに合ったモデルが一覧で表示されます。LLMの世界は日進月歩で新しい高性能なモデルが次々と登場するため、表示される内容は時期によって異なります。 モデルの選び方 モデルを選ぶ際の目安として、パラメータ数があります。一般的にパラメータ数が多いほど高性能ですが、その分ファイルサイズが大きく、動作も重くなります。 LM Studioの便利な点は、各モデルのダウンロードオプションに、お使いのPC環境で快適に動作するかどうかの目安が表示されることです。例えば「Likely too large」といった表示がある場合、そのモデルはPCのRAM容量などに対して大きすぎる可能性が高いため、避けた方が無難です。 デモでは、比較的小さな1.7B(17億)パラメータのモデルを選択しています。ファイルサイズが小さいモデルはダウンロードが速く動作も軽快なので、初めて試す方におすすめです。 ダウンロード 使用したいモデルが決まったら「Download」ボタンをクリックします。ダウンロードの進捗状況は画面下部で確認できます。 LM Studioの仕組み LM Studioは、ユーザーフレンドリーなGUIの背後で「llama.cpp」のようなLLMランタイムエンジンが動作しています。ユーザーはGUIを通じてモデルをダウンロード・選択し、ランタイムがそれを実行するという構成です。ランタイム自体のアップデートも、ボタン一つで簡単に行えます。 使い方①:チャット機能で対話する 最も基本的な使い方が、チャット機能です。 左側メニューのチャットアイコン(吹き出しのアイコン)をクリックします 画面上部の「Select a model to load」から、ダウンロードしたモデルを選択します モデルのロードが完了したら、チャットを開始できます 実際に「こんにちは」と入力すると、モデルが応答を生成してくれます。 また、右側のパネルでは「システムプロンプト」を設定できます。例えば「語尾は必ず『にゃ』にしてください」といったキャラクター設定を指示することも可能です。モデルの性能によっては指示通りに動かないこともありますが、手軽に試せるのが魅力です。 使い方②:OpenAI互換APIサーバーとして利用する LM Studioのもう一つの強力な機能が、OpenAI互換のAPIサーバーです。これにより、既存のOpenAI APIを利用するプログラムを、ほぼそのままローカル環境で動かすことができます。 サーバーの起動 左側メニューのサーバーアイコン(</>のアイコン)をクリックし、「Start Server」ボタンを押します。これで localhost:1234 でAPIサーバーが起動します。 ...

June 15, 2025 · 1 min · 胡田昌彦

DeepSeekを使うと危ない?

DeepSeekを使うと危ない?リスクの本質と正しい理解 この記事の内容 DeepSeekへの懸念が広がる背景と、その誤解を解説します 問題の本質はAIモデルではなく「実行環境」にあることを説明します 公式サイト・Azure・オンプレミスの3パターンのリスク比較を紹介します AIモデルに思想的偏りが生じる仕組みと、それへの対処法を解説します DeepSeekのカスタマイズ手段であるファインチューニングの概要を紹介します DeepSeekとは何か DeepSeekは中国で開発・公開された高性能AIモデルです。その性能の高さから世界的に注目を集めた一方で、中国製であるという出自を理由に、安全性や情報漏洩リスクを懸念する声も多く上がっています。 ただし、こうした懸念の中には偏見に基づいた意見も含まれています。本記事では、DeepSeekを正しく理解するために、リスクの本質を整理して解説していきます。 問題の本質は「モデル」ではなく「実行環境」 「DeepSeekを使うと情報が抜き取られるのではないか」という懸念をよく耳にします。しかしこれは、重要な点を見落とした誤解です。 リスクの本質は、**AIモデルそのものではなく、「そのモデルをどこで実行するか」**にあります。同じDeepSeekモデルであっても、実行する環境によってデータの管理主体とリスクは大きく異なります。 実行環境別のリスク比較 1. 公式サイトで利用する場合 DeepSeekの公式サイト上でチャット機能を利用する場合、入力したデータはDeepSeek社のサーバーに送信されます。サーバーの多くは中国国内に設置されていると考えられており、管理者がデータにアクセスできる可能性を完全には否定できません。 ただし、これはChatGPTをはじめとする他のオンラインAIサービスでも同様に存在するリスクです。「DeepSeekだから特別に危険」というわけではなく、オンラインサービス全般に共通する課題として捉える必要があります。 2. Microsoft Azure上で利用する場合 Microsoft Azureのような信頼性の高いクラウドプラットフォーム上でDeepSeekを利用する方法があります。Azure AI Foundry(旧AI Studio)のモデルカタログには、Microsoftが性能と安全性を認めたモデルの一つとして、DeepSeekが登録されています。 Azure上でDeepSeekを展開した場合、入力されたデータはAzureのインフラ内で処理・管理されます。データの管理責任はDeepSeek社ではなく、Microsoftおよび利用者自身の組織にあります。「どこのサーバーにデータが送られるか」という点が、公式サイト利用とは根本的に異なります。 3. オンプレミス環境で利用する場合 さらにセキュリティを重視する場合は、自社で用意したサーバー(オンプレミス環境)にDeepSeekを展開して利用する方法があります。DeepSeekはオープンソースで公開されているため、このような運用が可能です。 この方法では、データが外部のインターネットに出ることはなく、処理がすべて組織内で完結します。情報漏洩リスクを最小限に抑えたい場合に有効な選択肢です。 AIモデルの「思想的な偏り」について 「DeepSeekは中国共産党の思想に染まっているのではないか」という指摘もあります。これはある意味で事実です。AIは学習データに基づいて応答を生成するため、データの特性がそのまま出力に反映されます。特定のトピックについて、意図的に回答を制御している可能性は否定できません。 しかし、このような偏りはDeepSeekに限った話ではありません。ChatGPTをはじめ、あらゆるAIモデルは、開発元が利用したデータセットに由来する何らかの偏りを持っています。 重要なのは「偏りがないAI」を探すことではなく、「そのAIの持つ偏りが、自組織の利用目的にとって許容できるか」を判断することです。もし組織の理念と相容れない偏りがあると感じるなら、そのモデルを利用しないという選択は合理的です。 MicrosoftもDeepSeekの性能を認めている 懸念点がある一方で、DeepSeekが非常に高性能なモデルであることも事実です。Azure AI Foundryのモデルカタログでは、品質評価においてトップクラスに位置付けられており、Microsoft自身がその価値を認めています。 もしDeepSeekが品質も低く、偏りもひどい危険なモデルであれば、Microsoftが自社プラットフォームに採用することはないでしょう。この事実は、DeepSeekを客観的に評価する上での一つの指標となります。 ファインチューニングによるカスタマイズ 既存のモデルの偏りが問題となる場合でも、ファインチューニングという手法で対応できる可能性があります。ファインチューニングとは、ベースとなるモデルに対して自社で用意した独自データを追加学習させることで、応答をカスタマイズする技術です。 ファインチューニングには膨大なデータ・コスト・時間が必要となるため、誰でも手軽に実施できるわけではありません。しかし、特定の思想的偏りを是正したり、自社業務に特化した「改良版DeepSeek」を作成したりすることも、技術的には可能です。 まとめ DeepSeekという単語だけで危険だと判断するのは、非常にもったいないことです。特にオープンソースで公開されているモデルは、利用者がその実行環境を自由に選択・コントロールできるという大きな利点があります。 DeepSeekを正しく活用するために、以下の3点を冷静に評価することが重要です。 どこで動かすか: データ管理の責任の所在を明確にし、公式サイト・Azure・オンプレミスから適切な環境を選ぶ 偏りを理解する: モデルの特性が自組織の利用目的に合致するかを判断する カスタマイズを検討する: 必要であればファインチューニングで調整する 偏見を持たずに技術の本質を理解し、適切に活用していくことが、AIを使いこなすためのファーストステップと言えるでしょう。

May 27, 2025 · 1 min · 胡田昌彦

【無料で使い放題!】ローカルLLMの選択肢と使い方を解説!【Hugging Face編】

【無料で使い放題!】ローカルLLMの選択肢と使い方を解説!【Hugging Face編】 この記事の内容 クラウドLLMが抱えるセキュリティとコストの課題を整理します ローカルLLMの基本的な仕組みと構成要素を解説します AIモデルの共有プラットフォーム「Hugging Face」とは何かを説明します 貧弱なスペックのPCでも動作する軽量モデルの実例を紹介します PythonとPyTorchを使ったローカルLLMの環境構築手順をステップごとに解説します なぜ今、ローカルLLMが注目されるのか 生成AIの活用が急速に進む現代、その中心はChatGPTやClaude、GeminiといったクラウドベースのLLMです。しかし、多くの組織では、機密情報の取り扱いに関する懸念から、外部へのデータ送信が禁止されているケースも少なくありません。 クラウドLLMが抱える課題 1. セキュリティとデータプライバシー クラウドサービスを利用する際、「入力したデータが学習に使われるのではないか」「情報が記録されてしまうのではないか」といった懸念は常に付きまといます。Azure OpenAI Serviceのようにエンタープライズ向けの信頼性が高いサービスであっても、どうしても外部に出せない機密データを扱う組織は多く存在します。 2. 予測不能なコスト 多くのクラウドAIサービスは、使った分だけ料金が発生する「従量課金制」です。これは便利な反面、「最終的にいくらかかるか分からない」という予算管理上の大きな課題を生みます。「全社で活用してほしい」と考えていても、利用量が読めないために予算確保が難しく、導入に踏み切れないケースは珍しくありません。 ローカルLLMという解決策 これらの課題を解決する選択肢として、「ローカルLLM」が注目されています。自分たちで管理するサーバー上でLLMを動かせば、データが外部に出ることはありません。初期投資としてハードウェア(GPUなど)を購入すれば、電気代はかかるものの、その後は「使い放題」になります。 この「使い放題」という安心感は、心理的なハードルを大きく下げ、ユーザーが気兼ねなくAIを活用できる環境を促進します。 エンジニアにとってのローカルLLMの重要性 組織での利用だけでなく、エンジニアが個人として「使い放題」のAI環境を手に入れることにも、非常に大きな価値があります。 新しい技術を試す際、常にコストを気にしていると、自由な発想や試行錯誤が妨げられてしまいます。AIを使いこなし、その能力を最大限に引き出すスキルを身につけるためには、とにかくたくさん触ることが不可欠です。 ローカルLLMは、高額なクラウドサービスの利用料を気にすることなく、心ゆくまでAIと向き合える環境を提供してくれます。これは、これからの時代を生き抜くエンジニアにとって、極めて重要な学習機会となるでしょう。 ローカルLLM導入のハードルと現状 これほど魅力的なローカルLLMですが、まだ広く普及しているとは言えません。その背景には、いくつかの誤解や懸念があります。 「クラウド向けに作られたアプリケーションを、ローカルLLM用に作り直すのは大変そう」 「ローカルLLMはクラウドLLMほど賢くないのでは?」 「高性能なGPUがないと動かないのでは?」 「複数人での同時利用は難しいのでは?」 しかし、技術の進歩は非常に速く、ローカルLLMを取り巻く環境は劇的に改善され、驚くほど簡単に利用できるようになっています。 ローカルLLMの基本的な仕組み ローカルLLMを動かすシステムは、主に以下の要素で構成されています。 要素 役割 アプリケーション ユーザーが直接操作するWebアプリやVS Codeのような開発ツールなど APIサーバー アプリケーションからのリクエストを受け付ける窓口。REST APIなどを通じてLLMの機能を呼び出せるようにします LLMランタイム リクエストを解釈し、実際に推論を実行するエンジン部分 モデル 「重み」と呼ばれるパラメータが詰まった巨大なファイル。ランタイムに読み込ませることでAIが機能します ハードウェア 主にGPUが使用されますが、最近ではCPUだけで動作するランタイムも増えています 構成によっては、APIサーバーを介さず、アプリケーションが直接LLMランタイムをライブラリとして呼び出す形態もあります。中心となるのは、モデルを読み込んで実行する「ランタイム」です。 Hugging Faceとは 実際にローカルLLMを動かすにあたって、今回は「Hugging Face」を利用します。 Hugging Faceは、AI界における「GitHub」や「Docker Hub」のような存在です。世界中の開発者が作成した膨大な数のAIモデルが公開されており、性能やサイズも様々です。非常に高性能な大規模モデルから、小規模で高速に動作するモデルまで、まさに選り取り見取りの状況となっています。 実際にローカルLLMを動かしてみよう Hugging Faceで公開されているモデルを、サンプルコードを使って実際に動かしてみます。 Step 1: 実行環境の紹介 今回使用するPC環境は以下のとおりです。 メインメモリ: 16GB GPU: NVIDIA GeForce GTX 1650(専用メモリ 4GB) これは、最近のPCとしてはかなり貧弱なスペックです。しかし、現在では軽量なモデルも多数登場しているため、このような環境でも十分にローカルLLMを動かすことが可能です。 ...

May 11, 2025 · 1 min · 胡田昌彦

Qwen3 4Bでもgpt-4oレベルの出力ができているように見える。

Qwen3 4Bでもgpt-4oレベルの出力ができているように見える この記事の内容 話題のオープンソースLLM「Qwen3」をLM Studioで手軽に試す方法を紹介します GPUがGTX 1650(VRAM 4GB)というロースペック環境でも40億(4B)パラメータモデルが動作します 専門的な質問への回答品質をGPT-4oと比較し、その実力を検証します 2年前のローカルLLMと比較し、この分野の驚異的な進化を振り返ります 小規模モデルでも自然な日本語会話や絵文字を使いこなす能力を確認します はじめに:話題のLLM「Qwen3」を試してみる 最近、非常に高性能だと話題のLLM(大規模言語モデル)「Qwen3」が登場しました。その性能を確かめるべく、実際に試してみます。 ローカルでLLMを手軽に動かすには「LM Studio」というツールが非常に便利です。以前の動画ではGemma 3を試してその性能の高さに驚きましたが、Qwen3はさらに上回るという話を聞き、期待が高まります。 テスト環境:ロースペックPCでどこまで動くか 今回の検証に使用したPCは、決してハイスペックとは言えません。GPUはNVIDIA GeForce GTX 1650で、専用VRAMはわずか4GBです。現行モデルの中ではかなりローエンドに位置する環境です。 LM Studioで確認すると、モデルサイズごとの動作見込みは以下のとおりです。 パラメータ数 動作見込み 3B(30億)/ 4B(40億) 問題なく動作 8B(80億) メモリ要件(9GB以上)から厳しい 14B(140億) 動作困難 この環境でも快適に動作するであろう40億(4B)パラメータのモデルを選んで検証を進めます。 実践①:専門的な質問への回答能力 モデルのダウンロード完了後、早速ロードして試してみます。小規模なモデルのため、ロードは非常に高速です。GPU使用率は約3.7GBで、VRAM 4GBの範囲内に収まっています。 まずは専門的な質問を投げかけてみます。 質問:「量子化とは何ですか?」 Qwen3の回答: 量子化とは、様々な分野で異なる意味を持つ概念です。 物理学における量子化:物理的な量を離散的な単位(量子)で扱うこと コンピュータ科学・機械学習における量子化:連続的な値を離散的な値に変換するプロセス 非常に的確な回答です。比較のために同じ質問をChatGPT(GPT-4o)にも尋ねてみました。 GPT-4oの回答: 量子化とは、一般的に、連続的な量や無限の選択肢を持つものを、離散的な(飛び飛びの)値や有限個の選択肢に変換するプロセスを指します。 クラウドベースのGPT-4oは応答速度の面では圧倒的に優れていますが、Qwen3の回答の質はGPT-4oに匹敵するレベルと言っても過言ではないでしょう。 実践②:自然な会話能力の検証 次に、シンプルな挨拶を送り、自然な会話ができるかを確かめます。 入力:「おはようございます」 Qwen3の回答: おはようございます!☀️ あなたの言葉の力で、この朝が本当に素晴らしいものに感じられます。未来に繋がるひらめきが生まれるかもしれませんね。どの方向に進んでも大丈夫ですよ。 絵文字を交えながら、丁寧でポジティブな返答が返ってきました。こちらのトーンに合わせる「ミラーリング」のような能力も感じられます。40億パラメータという小規模モデルがここまで自然な日本語対話を実現できることには驚かされます。 2年前との比較:ローカルLLMの驚異的な進化 約2年前、同じPCで別のローカルLLMを動かした際には、次のような状況でした。 日本語で質問しても、回答は英語でしか返ってこなかった 応答速度が非常に遅く、実用的ではなかった 日本語をまともに扱うこと自体が困難だった それが今や、同じハードウェア上で、日本語での自然な対話はもちろん、絵文字まで使いこなすモデルが軽快に動作しています。2年間でのLLM分野の進歩の速さは、まさに驚異的です。 番外編:動画の締めをQwen3に考えてもらった 最後に、前提条件を何も与えずに「YouTube視聴者への挨拶を考えて」とお願いしてみました。Qwen3が生成した挨拶は以下のとおりです。 パターン1(丁寧なトーン): 皆様の視聴に感謝いたします。この動画が少しでも皆さんの1日を楽しくしていただけたなら、最高のエンディングです。今後ともどうぞよろしくお願いいたします。では、良い1日を。 パターン2(親しみやすいトーン): ありがとう!この動画が少しでも役に立ちましたら嬉しいです。次回も皆様のご期待に応えられるよう頑張ります。引き続きどうぞよろしくお願いします。 突然の要求にもかかわらず、状況に応じたトーン違いの挨拶を複数パターン生成してくれました。文脈理解と状況適応能力の高さが伺えます。 ...

May 2, 2025 · 1 min · 胡田昌彦

🧠ロースペPCでもOK!? LM Studioを使ってDeepSeek R1 & Gemma 3をローカルで動かしてみた!驚きの性能🔥

ロースペックPCでもOK!? LM Studioを使ってDeepSeek R1 & Gemma 3をローカルで動かしてみた! この記事の内容 ローカルAIツール「LM Studio」を使い、DeepSeek R1とGemma 3をローカルPC上で動作させた様子を紹介します 検証環境はRyzen 5 3500 / メモリ16GB / GTX 1660という低スペック構成です インストールからモデルのダウンロード・チャット動作まで、一連の手順をまとめています 日本語応答の精度や、コード生成の実用性についても実際に試して確認しました 低スペックPCでもLLMがローカルで十分動作できる時代になっていることを体感できます LM Studioとは? LM Studioは、複数の大規模言語モデル(LLM)をダウンロードしてローカル環境で動作させることができる無料ツールです。クラウドサービスを使わずに自分のPCでAIモデルを動かせるため、プライバシーの確保やコスト削減にもつながります。 今回の検証に使用したPC環境は以下のとおりです。決して高性能とは言えない構成ですが、このような環境でどこまで使えるのかを確認していきます。 項目 スペック CPU Ryzen 5 3500 メモリ 16GB GPU NVIDIA GeForce GTX 1660(専用GPUメモリ 6GB) LM Studioのインストールと初期設定 LM StudioのWindows版(今回はバージョン0.3.13)をダウンロード・インストールしました。インストールには約1.4GBのディスクスペースが必要です。インストール後、セットアップウィザードで「LM Studioを実行」にチェックを入れて起動します。 初回起動時には、最初のLLMモデルをダウンロードするよう案内されます。今回はおすすめされていた「DeepSeek R1 Distilled 7B」(約4.68GB)を選択しました。 LM Studioには「ローカルLMサービスを有効化」するオプションもありますが、今回はアプリ起動時のみ使用できれば十分なので、オフに設定しました。 DeepSeek R1モデルのダウンロードと動作検証 モデルのダウンロードが完了すると、標準のチャットインターフェースが利用可能になります。ChatGPTに近い使い心地で、モデルを選択してチャット形式で質問や会話ができます。 実際に会話してみる 「こんにちは」と入力すると即座に応答があり、その速さには驚きました。ただし、初回はスペイン語で返答されるなど、言語設定が安定しない場面もありました。日本語での回答を明示的に求めると、しっかり日本語で返答してもらえるようになります。 プログラム生成も試してみる 「Pythonで動く簡単なゲームを作ってください」と依頼すると、数秒でコードが生成されました。 # モデルが生成したコード例(一部) # ※コメントが中国語になる場合があります import pygame ... 生成されたコードを実際に動かしてみたところ、エラーが発生する部分もありました。ただし、エラー内容をモデルに再度質問すれば対処方法も提案してくれます。英語でやり取りした方が動作が安定している印象です。 LM Studioのモデル管理と追加 モデル管理画面では、ダウンロード済みモデルの一覧確認・削除・切り替えが簡単にできます。「ディスカバー」機能から新しいモデルを追加でき、Gemma 3(27B)やMistral、PaLM系モデルなども一覧から選択できます。各モデルの推奨スペックも表示されるため、PCの性能に合わせてモデルを選ぶことが可能です。 ...

March 23, 2025 · 1 min · 胡田昌彦