Skip to content

LM Studio

Description:
オープンソースのモデルをHugging Faceから手軽にダウンロードし、GUIで対話やローカルAPIサーバー化ができるデスクトップアプリケーション
Updated:
2026/01/28
  • 直感的なGUI: コマンド操作が苦手な方でも、検索・ダウンロード・チャットまでを馴染みのあるUIで完結可能。
  • Hugging Face 統合: アプリ内から Hugging Face 上の膨大なモデルを検索し、PCのスペックに適したフォーマット(GGUF等)を選択してダウンロード可能。
  • ハードウェアアクセラレーション: GPU(NVIDIA/AMD/Apple Silicon)の能力を最大限に引き出す設定がGUI上で簡単に行え、高速な推論を実現。
  • ローカルAPIサーバー機能: 起動しているモデルをOpenAI互換のAPIエンドポイントとして公開でき、ローカル開発中の他のアプリから簡単にAIを呼び出し可能。
  • ローカル環境でのAIチャット: ChatGPTのような操作感で、プライバシーを完全に守りながらオフラインでAIと対話。
  • 複数モデルの性能比較: 同じプロンプトに対して、異なるモデル(Llama, Mistral, DeepSeek等)がどのような回答をするかを容易に比較。
  • ドキュメントとの対話 (RAG): ローカルにあるドキュメントファイルを読み込ませ、その情報に基づいて質問に回答させる。
  • AIアプリ開発のデバッグ: OpenAI SDK を使用した自作アプリの接続先をローカルの LM Studio に向けることで、コストを抑えて開発・テストを実行。

macOS, Windows, Linux 向けに提供されています。

  1. lmstudio.ai にアクセスします。
  2. お使いのOSに合わせたボタンをクリックしてインストーラーをダウンロードします。
  3. ダウンロードしたファイルを実行し、インストールを完了させます。

  1. アプリを起動し、左側の検索アイコン(虫眼鏡)をクリックします。
  2. 「Llama 3」や「Mistral」のようにモデル名を検索します。
  3. 一覧からモデルを選び、お使いのPCのメモリ容量に合ったサイズ(Q4_K_M 等を推奨)のファイルをダウンロードします。
  1. 左側のチャットアイコンをクリックします。
  2. 上部のモデル選択メニューから、ダウンロードしたモデルを選びます。
  3. モデルがロードされたら、下部の入力欄から対話を開始できます。