ロースペックPCでもOK!? LM Studioを使ってDeepSeek R1 & Gemma 3をローカルで動かしてみた!

この記事の内容

  • ローカルAIツール「LM Studio」を使い、DeepSeek R1とGemma 3をローカルPC上で動作させた様子を紹介します
  • 検証環境はRyzen 5 3500 / メモリ16GB / GTX 1660という低スペック構成です
  • インストールからモデルのダウンロード・チャット動作まで、一連の手順をまとめています
  • 日本語応答の精度や、コード生成の実用性についても実際に試して確認しました
  • 低スペックPCでもLLMがローカルで十分動作できる時代になっていることを体感できます

LM Studioとは?

LM Studioは、複数の大規模言語モデル(LLM)をダウンロードしてローカル環境で動作させることができる無料ツールです。クラウドサービスを使わずに自分のPCでAIモデルを動かせるため、プライバシーの確保やコスト削減にもつながります。

今回の検証に使用したPC環境は以下のとおりです。決して高性能とは言えない構成ですが、このような環境でどこまで使えるのかを確認していきます。

項目スペック
CPURyzen 5 3500
メモリ16GB
GPUNVIDIA GeForce GTX 1660(専用GPUメモリ 6GB)

LM Studioのインストールと初期設定

LM StudioのWindows版(今回はバージョン0.3.13)をダウンロード・インストールしました。インストールには約1.4GBのディスクスペースが必要です。インストール後、セットアップウィザードで「LM Studioを実行」にチェックを入れて起動します。

初回起動時には、最初のLLMモデルをダウンロードするよう案内されます。今回はおすすめされていた「DeepSeek R1 Distilled 7B」(約4.68GB)を選択しました。

LM Studioには「ローカルLMサービスを有効化」するオプションもありますが、今回はアプリ起動時のみ使用できれば十分なので、オフに設定しました。


DeepSeek R1モデルのダウンロードと動作検証

モデルのダウンロードが完了すると、標準のチャットインターフェースが利用可能になります。ChatGPTに近い使い心地で、モデルを選択してチャット形式で質問や会話ができます。

実際に会話してみる

「こんにちは」と入力すると即座に応答があり、その速さには驚きました。ただし、初回はスペイン語で返答されるなど、言語設定が安定しない場面もありました。日本語での回答を明示的に求めると、しっかり日本語で返答してもらえるようになります。

プログラム生成も試してみる

「Pythonで動く簡単なゲームを作ってください」と依頼すると、数秒でコードが生成されました。

# モデルが生成したコード例(一部)
# ※コメントが中国語になる場合があります
import pygame
...

生成されたコードを実際に動かしてみたところ、エラーが発生する部分もありました。ただし、エラー内容をモデルに再度質問すれば対処方法も提案してくれます。英語でやり取りした方が動作が安定している印象です。


LM Studioのモデル管理と追加

モデル管理画面では、ダウンロード済みモデルの一覧確認・削除・切り替えが簡単にできます。「ディスカバー」機能から新しいモデルを追加でき、Gemma 3(27B)やMistral、PaLM系モデルなども一覧から選択できます。各モデルの推奨スペックも表示されるため、PCの性能に合わせてモデルを選ぶことが可能です。

今回はGemma 3(8.15GB)も追加でダウンロードし、問題なくロード・動作できることを確認しました。


専用GPUメモリーと共有GPUメモリーの違いをLLMに聞いてみた

LM Studio上で「Windowsのタスクマネージャーに表示される専用GPUメモリーと共有GPUメモリーの違い」について質問してみました。以下のように、分かりやすい日本語で解説してもらえました。

  • 専用GPUメモリー: GPUに搭載された物理的なメモリです。グラフィックカード専用で、他のプログラムとは共有されません
  • 共有GPUメモリー: システムメモリ(RAM)の一部をGPUが一時的に利用するものです。専用メモリが不足した場合に補助的に使用されます

同じ質問をChatGPTにも投げてみましたが、ほぼ同様の回答が返ってきました。LM Studioでも十分実用的なレベルの応答が得られることが確認できました。


低スペックPCでもLLMが使える時代に

1〜2年前は、同じPC環境で日本語の大規模言語モデルをローカルでまともに動かすのは難しい状況でした。しかし現在のLM Studioとコンパクトなモデルの進化によって、十分な速度と精度で応答してくれるようになっています。

高性能なGPUを搭載しているPCであれば、さらに大きなモデルもローカルで動作させられるでしょう。モデルの追加・削除やAPI連携による開発用途など、拡張性も高く、今後ますます面白い使い方が広がりそうです。


まとめ

  • LM Studioは、ローカル環境で複数のLLMを手軽に動かせる便利な無料ツールです
  • 低スペックPCでもコンパクトなモデルなら十分実用的に使えることが確認できました
  • モデルの管理・追加が簡単で、API連携による開発用途にも対応しています
  • 日本語応答も安定しており、実用レベルの性能が出ています

最新のAI関連技術に興味がある方は、ぜひLM Studioを試してみてはいかがでしょうか。