LM Studio
Description:
オープンソースのモデルをHugging Faceから手軽にダウンロードし、GUIで対話やローカルAPIサーバー化ができるデスクトップアプリケーション
URL: https://lmstudio.ai/
GitHub:
Tags:
Updated:
2026/01/28
- ・ 直感的なGUI: コマンド操作が苦手な方でも、検索・ダウンロード・チャットまでを馴染みのあるUIで完結可能。
- ・ Hugging Face 統合: アプリ内から Hugging Face 上の膨大なモデルを検索し、PCのスペックに適したフォーマット(GGUF等)を選択してダウンロード可能。
- ・ ハードウェアアクセラレーション: GPU(NVIDIA/AMD/Apple Silicon)の能力を最大限に引き出す設定がGUI上で簡単に行え、高速な推論を実現。
- ・ ローカルAPIサーバー機能: 起動しているモデルをOpenAI互換のAPIエンドポイントとして公開でき、ローカル開発中の他のアプリから簡単にAIを呼び出し可能。
- ・ ローカル環境でのAIチャット: ChatGPTのような操作感で、プライバシーを完全に守りながらオフラインでAIと対話。
- ・ 複数モデルの性能比較: 同じプロンプトに対して、異なるモデル(Llama, Mistral, DeepSeek等)がどのような回答をするかを容易に比較。
- ・ ドキュメントとの対話 (RAG): ローカルにあるドキュメントファイルを読み込ませ、その情報に基づいて質問に回答させる。
- ・ AIアプリ開発のデバッグ: OpenAI SDK を使用した自作アプリの接続先をローカルの LM Studio に向けることで、コストを抑えて開発・テストを実行。
構築・初期設定
Section titled “構築・初期設定”インストール
Section titled “インストール”macOS, Windows, Linux 向けに提供されています。
- lmstudio.ai にアクセスします。
- お使いのOSに合わせたボタンをクリックしてインストーラーをダウンロードします。
- ダウンロードしたファイルを実行し、インストールを完了させます。
モデルのセットアップ
Section titled “モデルのセットアップ”- アプリを起動し、左側の検索アイコン(虫眼鏡)をクリックします。
- 「Llama 3」や「Mistral」のようにモデル名を検索します。
- 一覧からモデルを選び、お使いのPCのメモリ容量に合ったサイズ(Q4_K_M 等を推奨)のファイルをダウンロードします。
チャットの開始
Section titled “チャットの開始”- 左側のチャットアイコンをクリックします。
- 上部のモデル選択メニューから、ダウンロードしたモデルを選びます。
- モデルがロードされたら、下部の入力欄から対話を開始できます。