/ ディレクトリ / プレイグラウンド / Zen MCP Server
● コミュニティ BeehiveInnovations 🔑 自分のキーが必要

Zen MCP Server

作者 BeehiveInnovations · BeehiveInnovations/zen-mcp-server

マルチLLMオーケストレーションMCP — タスクの途中でGemini・OpenAI o3・Grok・OpenRouter・Ollamaに問い合わせて回答をマージできる。

Zen MCPはClaudeにchatthinkdeepcodereviewdebugconsensusprecommitツールを提供し、それぞれが裏で別のモデルにルーティングできます。Claudeをオーケストレーターとして使いながら、重い思考処理をGemini Proに、コードレビューをo3に、高速なルックアップをローカルOllamaに委譲できます。1つのプロバイダーではカバーできないマルチモデルワークフロー向けに設計されています。

なぜ使うのか

主な機能

ライブデモ

実際の動作

zen-mcp-server.replay ▶ 準備完了
0/0

インストール

クライアントを選択

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config を開く。保存後、アプリを再起動。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor は Claude Desktop と同じ mcpServers スキーマを使用。プロジェクト設定はグローバルより優先。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cline サイドバーの MCP Servers アイコンをクリックし、"Edit Configuration" を選択。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Claude Desktop と同じ形式。Windsurf を再起動して反映。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue はマップではなくサーバーオブジェクトの配列を使用。

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

context_servers に追加。保存時に Zed がホットリロード。

claude mcp add zen-mcp-server -- uvx zen-mcp-server

ワンライナー。claude mcp list で確認、claude mcp remove で削除。

ユースケース

実用的な使い方: Zen MCP Server

難しいアーキテクチャ上の決断に3つの異なるモデルからコンセンサスを得る

👤 重要な判断を下すテックリード ⏱ ~20 min intermediate

使うタイミング: Claudeだけの意見では単一の視点に偏る感覚があり、多様な見解が欲しいとき。

前提条件
  • 少なくとも2つの代替プロバイダーのAPIキー — GEMINI_API_KEY・OPENAI_API_KEY・OPENROUTER_API_KEY を設定する
フロー
  1. 質問を整理する
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ コピーしました
    → 両モデルが回答し、Claudeが回答間の差異を要約する
  2. 意見の相違点を掘り下げる
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ コピーしました
    → モデルごとの反論パス
  3. 統合する
    Give me a final recommendation with the strongest argument from each side surfaced.✓ コピーしました
    → マージされた意思決定ドキュメント

結果: クロスモデルのエビデンスで裏付けられた、説明可能なアーキテクチャ上の判断。

注意点
  • モデルが異なる方向でAPIの仕様を幻覚し、偽のコンセンサスが生まれる — 事実に関する主張は必ず実際のドキュメントやソースで検証する
組み合わせ: context7 · git-mcp-idosal

Gemini Proでthinkdeepを使ってClaudeが実行する前に計画を立てる

👤 大規模タスクでClaudeの計画能力の限界に達する開発者 ⏱ ~40 min intermediate

使うタイミング: タスクが大きすぎて、拡張思考でもスレッドを維持できないとき。

フロー
  1. 概要を引き渡す
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ コピーしました
    → Geminiからの長大な計画が構造化ドキュメントとして返される
  2. 計画を批評する
    Now you (Claude) review that plan. What's missing? What's risky?✓ コピーしました
    → ギャップ分析
  3. ステップ1を実行する
    Implement the first phase of the plan in this repo.✓ コピーしました
    → 実際の編集が行われる

結果: 2つのモデルが形に合意したため、信頼できる計画。

組み合わせ: desktop-commander-mcp

コードを書いたモデルとは別のモデルでzen.codereviewを実行する

👤 対立的なレビューを求めるソロ開発者 ⏱ ~25 min intermediate

使うタイミング: Claudeと一緒に機能を作り込んで、別のモデルのフレッシュな視点で確認したいとき。

フロー
  1. diffを準備する
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ コピーしました
    → ファイルごとに整理されたレビューコメント
  2. 採用または却下する
    Show me each suggestion. Apply only the ones I approve.✓ コピーしました
    → 提案ごとの承認・却下プロンプト

結果: 異なる事前知識を持つモデルによるコードレビュー。

組み合わせ: git-mcp-idosal

組み合わせ

他のMCPと組み合わせて10倍の力を

zen-mcp-server + desktop-commander-mcp

Geminiで計画し、Claude+desktop-commanderで実行する

thinkdeep the migration → desktop-commander to apply step 1✓ コピーしました
zen-mcp-server + git-mcp-idosal

gitmcpでリポジトリを取得し、zenとo3でコードレビューする

Codereview the PR diff from owner/repo using o3 — second opinion.✓ コピーしました

ツール

このMCPが提供する機能

ツール入力呼び出すタイミングコスト
chat prompt, model?, continuation_id? 代替モデルへの一般的な質問に使用 1 API call to chosen model
thinkdeep problem, model? 難しい問題の計画立案に使用 Heavy — uses thinking budget
codereview files[], model? フレッシュな視点でのPRレビューに使用 1 API call
debug error, context, model? Claudeが解決できないバグで詰まったときに使用 1 API call
consensus question, models[] 重要な意思決定に使用 N API calls
precommit diff, model? コミット前の最終確認に使用 1 API call

コストと制限

運用コスト

APIクォータ
プロバイダーごとに課金。それぞれ別々に支払う
呼び出しあたりのトークン
ツールによって可変 — thinkdeepは30k token超になることがある
金額
サーバーは無料。各LLMプロバイダーに直接支払う
ヒント
カジュアルなチャットにはDEFAULT_MODEL=ollama:llama3.1を設定し、必要なときだけ有料にエスカレートする

セキュリティ

権限、シークレット、影響範囲

最小スコープ: outbound:llm-providers
認証情報の保管: プロバイダーキーはEnv varで管理
データ送信先: 設定したプロバイダー

トラブルシューティング

よくあるエラーと対処法

モデルが利用できない

そのプロバイダーのEnv varを確認する。設定済みのプロバイダーのみ表示される

確認: List zen tools — model defaults appear there
Continuation IDが失われる

各ツールがcontinuation_idを返す。クロスモデルのコンテキストを維持するために渡し続ける

thinkdeepでコストが暴走する

Env varにMAX_THINKING_TOKENSを設定する。デフォルトは高い値になっていることがある

代替案

Zen MCP Server 他との比較

代替案代わりに使う場面トレードオフ
context-mode-mcpマルチモデルルーティングではなくコンテキストの整形が必要なとき解決する問題が異なる
Direct OpenAI/Gemini MCPsオーケストレーションではなく1つの代替モデルだけが必要なときセレモニーが少ないが、consensus/thinkdeepのワークフローはない

その他

リソース

📖 GitHub の公式 README を読む

🐙 オープンな issue を見る

🔍 400以上のMCPサーバーとSkillsを見る