Skip to content

Ollama

Description:
Llama, Mistral, Gemma などの大規模言語モデルをローカル環境で手軽に実行し、プライバシーを保ちつつAIを活用できるオープンソースツール
Updated:
2026/01/28
  • 完全ローカル実行: 高性能なAIモデルをご自身のPC内で動作させるため、インターネット接続が不要で、機密情報の漏洩を防ぐことが可能。
  • 手軽なモデル管理: ollama pull コマンド一つで、Llama 3, Mistral, Gemma などの主要なオープンソースモデルをダウンロード・更新可能。
  • 軽量な起動システム: バックグラウンドでサーバーが待機し、必要な時にリソースを最小限に抑えつつ高速にモデルをロード。
  • 豊富なライブラリ・API: Python, JS のライブラリに加え、OpenAI互換のAPIエンドポイントを提供し、外部アプリ(Open WebUI等)との連携も容易。
  • セキュアなコード開発: 社外に出せないプロジェクトのソースコードを読み込ませ、ローカル環境のみで修正案や解説を依頼。
  • オフラインでの情報整理: ネットの繋がらない環境でも、AIを使って文章の要約やアイデア出しを実行。
  • AIサービスの検証: 様々なオープンソースモデルの挙動を低コストで比較・検証し、最適なモデルを選定。
  • ローカルRAG(検索拡張生成): 自身のドキュメントファイルをAIに読み込ませ、その知識に基づいた回答を得るシステムの基盤として利用。

各プラットフォームに合わせたインストーラーが提供されています。

  • Windows / macOS 公式サイトからインストーラーをダウンロードし、画面の指示に従ってインストールしてください。

  • Linux (一括インストールコマンド)

curl -fsSL https://ollama.com/install.sh | sh

ターミナルで以下のコマンドを実行し、バージョンが表示されれば成功です。

ollama -v

まずは利用したいモデル(例: llama3)をダウンロードし、同時に対話を開始します。

ollama run llama3

対話画面が表示されれば、通常のチャット形式でAIに質問できます。

  • モデルの検索とダウンロード: ollama pull <model>
  • インストール済みのモデル一覧表示: ollama list
  • 実行中モデルの停止(アンロード): ollama stop <model>
  • 不要なモデルの削除: ollama rm <model>