/ 目錄 / 演練場 / Zen MCP Server
● 社群 BeehiveInnovations 🔑 需要你的金鑰

Zen MCP Server

作者 BeehiveInnovations · BeehiveInnovations/zen-mcp-server

多 LLM 協調 MCP——讓 Claude 在任務進行中諮詢 Gemini、OpenAI o3、Grok、OpenRouter 或 Ollama,並合併它們的答案。

Zen MCP 給予 Claude chatthinkdeepcodereviewdebugconsensusprecommit 工具——每個工具都可在幕後路由到不同的模型。讓你以 Claude 作為協調者,同時將繁重的思考委派給 Gemini Pro、程式碼審查委派給 o3,或快速查找委派給本地 Ollama。專為單一供應商無法涵蓋的多模型工作流程而建。

為什麼要用

核心特性

即時演示

實際使用效果

zen-mcp-server.replay ▶ 就緒
0/0

安裝

選擇你的客戶端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

開啟 Claude Desktop → Settings → Developer → Edit Config。儲存後重啟應用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor 使用與 Claude Desktop 相同的 mcpServers 格式。專案級設定優先於全域。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

點擊 Cline 側欄中的 MCP Servers 圖示,然後選 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

格式與 Claude Desktop 相同。重啟 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue 使用伺服器物件陣列,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

加入 context_servers。Zed 儲存後熱重載。

claude mcp add zen-mcp-server -- uvx zen-mcp-server

一行命令搞定。用 claude mcp list 驗證,claude mcp remove 移除。

使用場景

實戰用法: Zen MCP Server

從 3 個不同模型獲取對困難架構決策的共識

👤 做高風險決策的技術主管 ⏱ ~20 min intermediate

何時使用: 純 Claude 的意見感覺像是單一觀點;你想要多樣性。

前置條件
  • 至少 2 個替代供應商的 API 金鑰 — 設定 GEMINI_API_KEY、OPENAI_API_KEY、OPENROUTER_API_KEY
步驟
  1. 構思問題
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ 已複製
    → 兩個模型都回應;Claude 摘要答案間的差異
  2. 深入研究分歧點
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ 已複製
    → 每個模型的反駁輪次
  3. 綜合結論
    Give me a final recommendation with the strongest argument from each side surfaced.✓ 已複製
    → 合併決策文件

結果: 一個可以用跨模型證據支撐的架構決策。

注意事項
  • 模型以不同方式幻想 API 細節——形成虛假共識 — 事實聲明務必對照實際文件/原始碼驗證
搭配使用: context7 · git-mcp-idosal

在 Claude 執行前使用 Gemini Pro 的 thinkdeep 規劃

👤 在龐大任務上達到 Claude 規劃上限的開發者 ⏱ ~40 min intermediate

何時使用: 任務太龐大,即使延伸思考也難以掌握全局。

步驟
  1. 移交任務說明
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ 已複製
    → Gemini 提供的長篇計畫,以結構化文件回傳
  2. 批判計畫
    Now you (Claude) review that plan. What's missing? What's risky?✓ 已複製
    → 缺口分析
  3. 執行第一步
    Implement the first phase of the plan in this repo.✓ 已複製
    → 實際編輯

結果: 因兩個模型都同意形狀而值得信任的計畫。

搭配使用: desktop-commander-mcp

用與撰寫程式碼不同的模型執行 zen.codereview

👤 想要對抗性審查的獨立開發者 ⏱ ~25 min intermediate

何時使用: 你用 Claude 感覺完成了一個功能,想要一雙新鮮的眼睛(另一個模型)來審查。

步驟
  1. 整理差異
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ 已複製
    → 按檔案整理的審查意見
  2. 套用或拒絕
    Show me each suggestion. Apply only the ones I approve.✓ 已複製
    → 每條建議的接受/拒絕提示

結果: 由具有不同先驗的模型審查的程式碼。

搭配使用: git-mcp-idosal

組合

與其他 MCP 搭配,撬動十倍槓桿

zen-mcp-server + desktop-commander-mcp

用 Gemini 規劃,用 Claude+desktop-commander 執行

zen-mcp-server + git-mcp-idosal

透過 gitmcp 取得程式庫,再用 zen+o3 進行程式碼審查

工具

此 MCP 暴露的能力

工具輸入參數何時呼叫成本
chat prompt, model?, continuation_id? 向替代模型進行一般問答 1 API call to chosen model
thinkdeep problem, model? 規劃困難問題 Heavy — uses thinking budget
codereview files[], model? 新鮮視角的 PR 審查 1 API call
debug error, context, model? 卡在 Claude 看不到的 bug 上 1 API call
consensus question, models[] 高風險決策 N API calls
precommit diff, model? 提交前的最終檢查 1 API call

成本與限制

運行它的成本

API 配額
按供應商計費;你向每個供應商分別付費
每次呼叫 Token 數
因工具而異——thinkdeep 可能超過 30k
費用
伺服器免費;直接向每個 LLM 供應商付費
提示
設定 DEFAULT_MODEL=ollama:llama3.1 用於日常對話,只在需要時升級到付費模型

安全

權限、密鑰、影響範圍

最小權限: outbound:llm-providers
憑證儲存: 供應商金鑰存於環境變數
資料出站: 你所設定的任何供應商

故障排查

常見錯誤與修復

模型不可用

檢查該供應商的環境變數;只有已設定的供應商才會出現

驗證: 列出 zen 工具——模型預設值顯示在那裡
Continuation ID 遺失

每個工具回傳一個 continuation_id;傳回它以保持跨模型上下文

thinkdeep 費用失控

在環境變數中設定 MAX_THINKING_TOKENS;預設值可能很高

替代方案

Zen MCP Server 對比其他方案

替代方案何時用它替代權衡
context-mode-mcp你想要上下文整形,而非多模型路由不同的問題
Direct OpenAI/Gemini MCPs你只需要一個替代模型,而非協調儀式感較少,但沒有 consensus/thinkdeep 工作流程

更多

資源

📖 閱讀 GitHub 上的官方 README

🐙 查看未解決的 issue

🔍 瀏覽全部 400+ MCP 伺服器和 Skills