検索
連載

商用利用も無料、サーバに依存しないローカルAIを作る「LM Studio」入門Tech TIPS

ChatGPTやGeminiなどのLLM(大規模言語モデル)は、翻訳や企画案の相談、文章の要約などビジネスシーンでも大いに役立つツールとなっている。しかし、個人情報や社内情報などを扱いたい場合は、情報漏えいなどのセキュリティ面に不安を感じることも多い。そこで、商用利用も無料になったLM Studioをインストールして、ローカルLLMを実行してみよう。

PC用表示 関連情報
Share
Tweet
LINE
Hatena
「Tech TIPS」のインデックス

連載目次

対象:LM Studio(Windows 10/11)


無料で自分だけのAIを作る「LM Studio」入門
無料で自分だけのAIを作る「LM Studio」入門
ChatGPTやGeminiなどのLLM(大規模言語モデル)は、翻訳や企画案の相談、文章の要約などビジネスシーンでも大いに役立つツールとなっている。しかし、個人情報や社内情報などを扱いたい場合は、情報漏えいなどのセキュリティ面に不安を感じることも多い。そこで、商用利用も無料になったLM Studioをインストールして、ローカルLLMを実行してみよう。ローカルで実行するためセキュリティやコストの心配は不要だ。

 急速に進化した生成AI、特にChatGPTやGeminiに代表されるLLM(大規模言語モデル)は、翻訳や企画案の相談、文章の要約などビジネスシーンでも大いに役立つツールとなっている。

 しかし、無料版では制限が多く、一方で月額の使用料はいずれも20ドル程度と少し高い。また、個人情報や社内情報などを扱いたい場合は、情報漏えいなどのセキュリティ面に不安を感じる。こうした点から、積極的な生成AIの利用をためらっている人も多いのではないだろうか。

 このような不安がある人は、手元のWindows 10/11上でLLM(大規模言語モデル)を実行する「ローカルLLM」を試してみるとよい。ローカルでLLMが実行されるため、インターネット接続は不要で、利用料金もかからない(実行するLLMのライセンスには注意が必要)。本Tech TIPSではElement Labsの「LM Studio」というローカルLLMの実行ツール(推理フレームワーク)を取り上げる。

 その他の実行ツールについては、以下のTech TIPSを参照していただきたい。

 

企業ユーザーもLM Studioを無料で利用可能

 LM Studioは、ユーザーインタフェースが分かりやすく、ファイルの添付もサポートするなど、使いやすいLLMの実行ツールである。以前は、商用利用にはライセンス契約が必要で、それもElement Labsに問い合わせなければ料金が分からないというハードルの高いものであった。

 それが2025年7月8日に方針が変更され、商用利用においても無料で利用可能となり、企業ユーザーもライセンスを気にせずに利用できるようになった(Element LabsのBlog「LM Studio is free for use at work」)。詳細は「業務利用でも無料に Element LabsがローカルAIツールキット「LM Studio」の利用規約を変更」も参考にしてほしい。

商用利用も無料になったLM Studio
商用利用も無料になったLM Studio
2025年7月8日にライセンス方針が変更され、商用利用においても無料で利用可能となったとBlogで発表した(Element LabsのBlog「LM Studio is free for use at work」)。企業ユーザーもライセンスを気にせずに利用できるようになった。

LM Studioをインストールする

 インストーラーをダウンロードして、LM Studioをインストールしよう。以下のURLをWebブラウザで開くと、「LM Studio for」欄で対象OS(「Windows」)を、「running」欄でプラットフォーム(「x86」または「ARM64」)を、「version」欄でバージョン(原稿執筆時点では、「0.3.20」)を選択して、[Download LM Studio for Windows]ボタンをクリックすると、インストーラーがダウンロードできる。

 なお、LM StudioはWindows OSの他、macOS(Mシリーズのみ)とLinux(x86のみ)にも対応している。

 ダウンロードしたインストーラー(LM-Studio-0.3.20-4-x64.exe)を実行すると、インストールウィザードが起動するので、「使用するユーザー」やインストール先フォルダを選択して、[インストール]ボタンをクリックすると、LM Studioがインストールできる。

LM Studioをインストールする(1)
LM Studioをインストールする(1)
LM Studioのダウンロードページを開き、Windows OS向けのインストーラーをダウンロードする。Arm64版も用意されている。
LM Studioをインストールする(2)
LM Studioをインストールする(2)
ダウンロードしたインストーラーを実行すると、インストールウィザードが起動する。最初の画面で、コンピュータを使用している全てのユーザー用にインストールするか、現在のユーザー用にインストールするかが尋ねられる。通常は、「現在のユーザーのみにインストールする」を選択しておけばよい。
LM Studioをインストールする(3)
LM Studioをインストールする(3)
次の画面でインストール先のフォルダを選択する。デフォルトでは、[%LOCALAPPDATA%\Programs\LM Studio]フォルダにインストールされる。
LM Studioをインストールする(4)
LM Studioをインストールする(4)
[完了]ボタンをクリックすると、LM Studioがインストールされる。「LM Studioを実行」にチェックを入れておくと、インストール完了後、自動的にLM Studioが起動する。

LM Studioの初期設定

 インストールできたら、LM Studioを起動して初期設定をしていこう。LM Studioを起動すると、初期設定ウィザードが開くので、[Let's get started]ボタンをクリックする。次の「Choose your level」画面では、「User」「Power User」「Developer」の3段階でユーザーレベルが選択できる。後から変更できるので、デフォルトの「Power User」を選択しておけばよい。

 「Download your first local LLM」画面では、最初のローカルLLMモデルとして、Alibaba Cloudが開発した「qwen3-4b」のダウンロードが指示される。「qwen3-4b」を利用する場合は、[Download]ボタンをクリックする。他のLLMモデルを使いたい場合は、画面右上の[Skip →]をクリックして、ダウンロードをスキップすればよい。ここでは、他のLLMモデルをダウンロードするので、[Skip →]をクリックしておく。

 よくあるチャットAI(人工知能)に似た画面が表示されるはずだ。ただし、この時点ではLLMモデルが設定されていないので、チャットは実行できない。

LM Studioの初期設定を実行する(1)
LM Studioの初期設定を実行する(1)
初回起動時のみこのセットアップウィザードが起動する。[Let's get started]ボタンをクリックする。
LM Studioの初期設定を実行する(2)
LM Studioの初期設定を実行する(2)
「Choose your level」画面では、「User」「Power User」「Developer」の3段階でユーザーレベルが選択できる。後から変更できるので、デフォルトの「Power User」を選択しておけばよい。
LM Studioの初期設定を実行する(3)
LM Studioの初期設定を実行する(3)
「qwen3-4b」のダウンロードが指示される。「qwen3-4b」を利用する場合は、[Download]ボタンをクリックする。他のLLMモデルを使いたい場合は、画面右上の[Skip →]をクリックして、ダウンロードをスキップする。
LM Studioの初期設定を実行する(4)
LM Studioの初期設定を実行する(4)
LM Studioの入力画面が表示される。前の画面で[Skip]を実行した場合は、LLMモデルが読み込まれていないため、チャットの入力ボックスに指示を入力しても、回答は得られない。LLMモデルを読み込むためには、左メニューの[Discover]アイコンをクリックする。

LM StudioにLLMモデルをダウンロードする

 そこで、LM StudioにLLMモデルをダウンロードして設定しよう。

 LM Studioのいい点は、LLMモデルが簡単に設定可能な点にある。画面左側メニューの[Discover]アイコンをクリックすると、[Misson Control]ダイアログが開く。ここの左ペインでLLMモデルを選択して、[Download]ボタンをクリックするだけでLLMモデルのダウンロードとLM Studioへの読み込みが完了する。

 また、ここにないLLMモデルであっても、「Hugging Face」で公開されているGGUF(GPT-Generated Unified Format)モデルを、URLを指定することでダウンロードならびにLM Studioへの読み込みが可能だ。

 試しに楽天グループが開発したLLMモデル「RakutenAI-7B」をGGUFフォーマットに変換した「RakutenAI-7B-gguf」をダウンロードして使ってみる。このモデルは日本語処理が強化されているとのことだ。

 「Misson Control」ダイアログの[Model Search]タブを開き、ダイアログ上部の入力ボックスに以下のURLを入力する。「RakutenAI-7B-gguf」が見つかるので、ダイアログ右下の[Download]ボタンをクリックする。[Downloads]ダイアログが開き、LLMモデルのダウンロードが開始される。ダウンロードが完了すると、「Download Completed!」と表示されるので、[Load Model]ボタンをクリックして、LM Studioに読み込ませる(ロードする)。[Download]ダイアログは、右上の[×]アイコンをクリックして閉じてしまって構わない。

 LLMモデルがLM Studioに読み込まれると、LM Studioの画面上部にLLMモデル名が表示される。複数のLLMモデルを読み込んでいる場合は、ここのプルダウンリストでLLMモデルの切り替えが可能だ。

 試しに「富士山の高さは?」と聞いてみた。「富士山の高さは、3776メートルです」という単純なものを期待していたのだが、富士山の高さを測る方法などかなり冗舌な回答が得られた。

LM StudioにLLMモデルをダウンロードする(1)
LM StudioにLLMモデルをダウンロードする(1)
左メニューの[Discover]アイコンをクリックすると、Misson Control]ダイアログが開く。ここの左ペインでLLMモデルを選択して、[Download]ボタンをクリックするだけでLLMモデルのダウンロードとLM Studioへの読み込みが完了する。「Hugging Face」で公開されているGGUFモデルを、URLを指定することで、ダウンロードすることも可能だ。
LM StudioにLLMモデルをダウンロードする(2)
LM StudioにLLMモデルをダウンロードする(2)
ダウンロードが完了したら、[Load Model]ボタンをクリックする。[Downloads]ダイアログは閉じてしまって構わない。
LM StudioにLLMモデルをダウンロードする(3)
LM StudioにLLMモデルをダウンロードする(3)
LLMモデルが読み込まれた後、入力ボックスに指示を入力すると回答が得られるようになる。

 もう1つGoogleが開発した「Gemma-3n-en4b」も試してみよう。「Gemma-3n-en4b」は、LM StudioのLLMモデルの一覧に含まれているので、検索入力ボックスに「Gemma」と入力すれば、簡単に見つかるはずだ。

 「RakutenAI-7B-gguf」と同様、ダウンロードして、LM Studioに読み込ませる。試しに「Gemma-3n-en4b」にも「富士山の高さは?」と聞いてみた。「Gemma-3n-en4b」の場合は、下画面のように「富士山の高さは 3,776.24メートル です。……」と比較的シンプルな回答だった。

「Gemma-3n-en4b」を読み込んで指示を入力する
「Gemma-3n-en4b」を読み込んで指示を入力する
「Gemma-3n-en4b」は、LLM StudioのLLMモデルの一覧にあるので、検索で簡単に見つけることが可能だ。「Gemma-3n-en4b」を読み込んで、指示を入力してみた。

 このようにLLMモデルによって、質問に対する回答は大きく異なるので、幾つか試してみて、用途や好みに合わせて選ぶとよい。個人的には「Gemma-3n-en4b」の正確性が高く、日本語処理に向いていると感じた。

LM StudioではLLMモデルの細かな設定も可能

 LM Studioでは、画面右上の[Show Settings]アイコンをクリックすると、LLMモデルの細かな設定が可能なサイドパネルが開く。サイドパネルの[Model]タブを開き、「Settings」欄を開くと、「Temperature(モデルが次に選ぶ単語や文字の確率分布を制御するパラメーター)」を変更できる。また、「Sampling」欄では「Top K Sampling」や「Top P Sampling」といったモデルが単語や文字を選択する際のサンプリングに使う値が調整できる。

LLMモデルの設定を変更する
LLMモデルの設定を変更する
LM Studioの右上にある[Show Settings]アイコンをクリックすると、サイドパネルが開く。サイドパネルの[Model]タブでは、「Temperature」や「Top K Sampling」「Top P Sampling」といったLLMモデルのパラメーターが調整できる。

 意外な回答を得たい場合や逆にゆらぎの少ない回答にしたい場合、これらの値を調整するとよい。ただ、あまり値を変更し過ぎると、まともな回答が得られなくなる可能性があるので注意してほしい(変更する前にデフォルトの値を記録しておくとよい)。

こんなこともできる? ローカルLLM活用事例

 LM StudioによるローカルLLMでは、利用回数の制限がないため気軽に翻訳や要約を実行できる。英語の長文を読むのが苦手や面倒といった場合、ファイルを「Send a message to the model」と書かれた入力ボックスにドラッグ&ドロップして、「日本語に翻訳して」「日本語で要約して」と指示するだけで、日本語に翻訳したり、日本語の要約が出力されたりする。

 URLを指定して、日本語の要約を得ることもできるので、例えばElement LabsのBlog「LM Studio is free for use at work」のURLを入力ボックスにコピーして、「を日本語で要約して」と指示すれば、「LM Studio の『Free for Work』ライセンスに関するブログ記事の要約」といったタイトルで英文のBlogの内容を要約して、箇条書きで出力してくれる。素早く英文の内容を把握したいときに便利だ。

URLを指定して日本語の要約を得る(1)
URLを指定して日本語の要約を得る(1)
Element LabsのBlog「LM Studio is free for use at work」のURLを入力ボックスにコピーして、「を日本語で要約して」と指示してみる。このようにLM Studioでは、URLをLLMモデルに渡すことができる。
URLを指定して日本語の要約を得る(2)
URLを指定して日本語の要約を得る(2)
「LM Studio の『Free for Work』ライセンスに関するブログ記事の要約」といったタイトルで英文のBlogの内容を要約して、箇条書きで出力してくれる。

 また、ローカルLLMは外部にデータを送ることがないため、個人情報や社内の機密情報を扱う場合にも安心して利用できる。個人情報を含むメールを作成してもらったり、契約書の誤字脱字をチェックしてもらったりすることも可能だ。ただし、生成AIのため出力された結果については自身で必ず確認する必要がある。

 また、Tech TIPS「【Excel】一筋縄ではいかない『姓』と『名』を自動で分離する方法」で取り上げている名前を「姓」と「名」に分離するといった処理も、ローカルLLMを使えば簡単できる。ローカルLLMなので、個人情報が漏えいする心配もない。

名前の「姓」と「名」を分離する(1)
名前の「姓」と「名」を分離する(1)
「名前」の一覧が記載されたテキストファイルを用意する。この名前を「姓」と「名」に分離してみよう。
名前の「姓」と「名」を分離する(2)
名前の「姓」と「名」を分離する(2)
テキストファイルを添付し、「名前を『姓』と『名』に分けて、間に半角スペースを入れて出力して」と指示を入力する。LM Studioでは、テキストファイルやPDFファイルなどを添付して、そのファイルに対して指示を実行させることも可能だ。
名前の「姓」と「名」を分離する(3)
名前の「姓」と「名」を分離する(3)
「姓 名」の形式で分離された氏名が出力される。なお、サンプル画面で使用している名前は、「テストデータ・ジェネレータ」を使って出力したダミーデータである。

自分のPCが生成AIの拠点になる

 このようにLM Studioを使えば、誰でも手軽にローカルLLMが実行できる。LLMモデルは日進月歩で進化しており、日本語の出力も違和感がほぼないまでになっている。

 日々の作業で、少し面倒な作業があったらローカルLLMで処理可能か試してみるとよいだろう。

 半年前では正しく処理できなかった住所の都道府県、市町村の分割も、「Gemma-3n-en4b」では難なくこなしてくれた。このようにLLMモデルの進化は著しいので、いろいろな処理を試してみるとよい。意外な用途に使えることに気付くだろう。

ローカルLLMで住所を分離してみる(1)
ローカルLLMで住所を分離してみる(1)
住所を、都道府県、市区町村、それ以下の住所に分離して、CSV形式で出力するように指示してみた。なお、サンプル画面で使用している住所は、「テストデータ・ジェネレータ」を使って出力したダミーデータである。
ローカルLLMで住所を分離してみる(2)
ローカルLLMで住所を分離してみる(2)
画面のように比較的指示通りに住所が分離できている。Microsoft Excelの関数などでは難しい処理も、ローカルLLMを利用することで簡単に処理可能だ。

 さあ、LM Studioをインストールして、自分だけの生成AIを動かしてみよう。

Copyright© Digital Advantage Corp. All Rights Reserved.