Skip to content

Qwen Code

Description:
Alibaba Groupが開発した、オープンソースで最高峰の性能を誇るコード特化型大規模言語モデル (LLM) シリーズ
Updated:
2026/01/28
  • オープンソース最高峰の性能: 数多くのベンチマークで GPT-4o や Claude 3.5 Sonnet に匹敵、あるいは凌駕するコード生成能力を実現。
  • ローカル実行可能: Ollama や LM Studio 等を用いることで、オフラインのローカル環境で機密性の高いコードを安全に扱える。
  • 多言語・多タスク対応: 92種類以上のプログラミング言語に対応し、コード補完、バグ修正、テスト生成などを高い精度で実行。
  • 軽量モデルの充実: 0.5B から 32B まで多様なサイズが用意されており、手元の PC スペックに合わせた最適なモデルを選択可能。
  • セキュアな開発環境: 外部にコードを送信できない環境で、ローカル LLM としてコード生成を支援。
  • IDE 連携(Continue等): VSCode や JetBrains などの拡張機能と組み合わせ、自分専用の爆速補完サーバーとして活用。
  • プログラミング学習の壁打ち: 手元の環境で無制限に(トークン代を気にせず)コードについて質問や相談を行う。

Qwen モデルをローカルで動かすには、 Ollama を使用するのが最も簡単です。

  1. Ollama の導入: Ollama 公式からインストーラーをダウンロードして実行します。
  2. Qwen モデルのプル: ターミナルで以下のコマンドを実行します。
    # 定番の 7B モデル (バランス重視)
    ollama run qwen2.5-coder:7b
    
    # 低スペックPC向け
    ollama run qwen2.5-coder:1.5b

モデルをプルした後は、そのままターミナルでチャット形式の指示が可能です。

ollama run qwen2.5-coder:7b "Rust でディレクトリ一覧を取得するコードを書いて"

AiderAntigravity 等の AI CLI ツールから、ローカルの Qwen モデルをバックエンドとして指定することで、強力なエージェント型開発が可能になります。