Skip to content

Dify

Description:
LLMアプリの開発から運用までを一貫してサポートし、RAGやエージェントを視覚的に構築できるオープンソースのLLMOpsプラットフォーム
Updated:
2026/01/28
  • 直感的なワークフロー・オーケストレーション: プログラミング知識が少なくても、ドラッグ&ドロップで複雑なAIの推論フローを構築可能。
  • 強力なRAG(検索拡張生成)エンジン: 自身のドキュメントファイルをアップロードするだけで、AIがその知識に基づいて回答する機能を簡単に実装。
  • 自律型エージェントの構築: Google検索やコード実行などのツールを使えるAIエージェントを、UI上の設定だけで作成可能。
  • 多彩なLLMへの対応: OpenAI, Anthropic, Google, Hugging Face などの主要プロバイダに加え、ローカルLLMとの連携もサポート。
  • LLMOps機能: アプリの実行ログ、ユーザーのフィードバック、トークン消費量などを詳細に追跡・分析可能。
  • 社内情報のQ&Aボット: マニュアルや規約などのPDFを読み込ませ、社員からの質問に正確に答えるボットを作成。
  • AI搭載のコンテンツ作成ツール: 特定の文体やルールに基づいた記事生成ワークフローを自動化。
  • 業務自動化エージェント: メスの調査やデータの加工、レポート作成を行う自律型タスク遂行エージェント。
  • プロトタイプの高速開発: Backend-as-a-Service (BaaS) 機能を活用し、フロントエンドからAPIで呼び出すだけのAIアプリを迅速に構築。

インストール (Dockerを使用したセルフホスト)

Section titled “インストール (Dockerを使用したセルフホスト)”

最も一般的な導入方法は Docker Compose を使用することです。

  1. リポジトリをクローンします。
git clone https://github.com/langgenius/dify.git
  1. docker ディレクトリへ移動し、環境設定ファイルをコピーします。
cd dify/docker
cp .env.example .env
  1. コンテナを起動します。
docker compose up -d
  1. ブラウザで http://localhost (デフォルト)にアクセスします。
  2. 管理者のアカウントを作成し、ログインします。
  3. 「設定」から利用するLLM(OpenAIキー等)を登録します。

  • アプリケーションの作成: 「最初から作成」を選び、チャットボットやワークフローなどの種類を選択。
  • プロンプトの設定: AIへの指示(System Prompt)や変数を定義。
  • コンテキストの追加: 「知識(Knowledge)」メニューからファイルをアップロードし、RAGを構成。
  • 公開と統合: 完成したアプリを公開し、埋め込みコードやAPIとして利用。