/ Каталог / Песочница / Zen MCP Server
● Сообщество BeehiveInnovations 🔑 Нужен свой ключ

Zen MCP Server

автор BeehiveInnovations · BeehiveInnovations/zen-mcp-server

MCP для оркестрации нескольких LLM — позвольте Claude консультироваться с Gemini, OpenAI o3, Grok, OpenRouter или Ollama в середине задачи и объединять их ответы.

Zen MCP даёт Claude инструменты chat, thinkdeep, codereview, debug, consensus и precommit — каждый может в фоне маршрутизировать запросы к разным моделям. Позволяет использовать Claude как оркестратор, делегируя тяжёлые размышления Gemini Pro, ревью кода — o3, а быстрые запросы — локальному Ollama. Создан для многомодельных рабочих процессов, которые один провайдер не покрывает.

Зачем использовать

Ключевые функции

Живое демо

Как выглядит на практике

zen-mcp-server.replay ▶ готово
0/0

Установка

Выберите клиент

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Откройте Claude Desktop → Settings → Developer → Edit Config. Перезапустите после сохранения.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor использует ту же схему mcpServers, что и Claude Desktop. Конфиг проекта приоритетнее глобального.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Щёлкните значок MCP Servers на боковой панели Cline, затем "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Тот же формат, что и Claude Desktop. Перезапустите Windsurf для применения.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue использует массив объектов серверов, а не map.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

Добавьте в context_servers. Zed перезагружается автоматически.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

Однострочная команда. Проверить: claude mcp list. Удалить: claude mcp remove.

Сценарии использования

Реальные сценарии: Zen MCP Server

Получите консенсус от 3 разных моделей по сложному архитектурному решению

👤 Tech leads, принимающие высокорисковые решения ⏱ ~20 min intermediate

Когда использовать: Мнение только Claude кажется единственной точкой зрения; вы хотите разнообразия.

Предварительные требования
  • API-ключи минимум 2 альтернативных провайдеров — Задайте GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY
Поток
  1. Формулировка вопроса
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ Скопировано
    → Обе модели отвечают, Claude суммирует различия между ответами
  2. Углубление в разногласие
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ Скопировано
    → Проход с возражениями по каждой модели
  3. Синтез
    Give me a final recommendation with the strongest argument from each side surfaced.✓ Скопировано
    → Итоговый документ с решением

Итог: Архитектурное решение, которое можно защитить с помощью кросс-модельных доказательств.

Подводные камни
  • Модели по-разному галлюцинируют API-детали — ложный консенсус — Всегда проверяйте по реальной документации/исходнику для фактических утверждений
Сочетать с: context7 · git-mcp-idosal

Используйте thinkdeep с Gemini Pro для планирования перед выполнением Claude

👤 Разработчики, упирающиеся в предел планирования Claude на огромных задачах ⏱ ~40 min intermediate

Когда использовать: Задача настолько велика, что даже расширенное мышление теряет нить.

Поток
  1. Передача брифа
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ Скопировано
    → Подробный план от Gemini, возвращённый как структурированный документ
  2. Критика плана
    Now you (Claude) review that plan. What's missing? What's risky?✓ Скопировано
    → Анализ пробелов
  3. Выполнение шага 1
    Implement the first phase of the plan in this repo.✓ Скопировано
    → Реальные правки

Итог: Планы, которым вы доверяете, потому что две модели согласились с их структурой.

Сочетать с: desktop-commander-mcp

Запустите zen.codereview от другой модели, чем той, что писала код

👤 Соло-разработчики, которым нужен adversarial ревью ⏱ ~25 min intermediate

Когда использовать: Вы написали фичу с Claude и хотите свежий взгляд (другой модели).

Поток
  1. Подготовка diff
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ Скопировано
    → Комментарии ревью, сгруппированные по файлам
  2. Принять или отклонить
    Show me each suggestion. Apply only the ones I approve.✓ Скопировано
    → Промпт принятия/отклонения для каждого предложения

Итог: Код, проверенный моделью с другими априорными знаниями.

Сочетать с: git-mcp-idosal

Комбинации

Сочетайте с другими MCP — эффект x10

zen-mcp-server + desktop-commander-mcp

Планирование с Gemini, выполнение с Claude+desktop-commander

thinkdeep the migration → desktop-commander to apply step 1✓ Скопировано
zen-mcp-server + git-mcp-idosal

Получить репозиторий через gitmcp, ревью кода через zen с o3

Codereview the PR diff from owner/repo using o3 — second opinion.✓ Скопировано

Инструменты

Что предоставляет этот MCP

ИнструментВходные данныеКогда вызыватьСтоимость
chat prompt, model?, continuation_id? Общие вопросы к альтернативной модели 1 API-вызов к выбранной модели
thinkdeep problem, model? Планирование сложных проблем Высокая — использует бюджет мышления
codereview files[], model? Ревью PR свежим взглядом 1 API-вызов
debug error, context, model? Застряли на баге, который Claude не видит 1 API-вызов
consensus question, models[] Высокорисковые решения N API-вызовов
precommit diff, model? Финальная проверка перед коммитом 1 API-вызов

Стоимость и лимиты

Во что обходится

Квота API
У каждого провайдера своя; платите каждому отдельно
Токенов на вызов
Варьируется по инструменту — thinkdeep может потребовать 30k+
Деньги
Сервер бесплатный; платите каждому LLM-провайдеру напрямую
Совет
Задайте DEFAULT_MODEL=ollama:llama3.1 для обычного чата, эскалируйте до платного только при необходимости

Безопасность

Права, секреты, радиус поражения

Минимальные скоупы: outbound:llm-providers
Хранение учётных данных: Ключи провайдеров в переменных среды
Исходящий трафик: Те провайдеры, которые вы настроили

Устранение неполадок

Частые ошибки и исправления

Model not available

Проверьте переменную среды для этого провайдера; только настроенные провайдеры отображаются

Проверить: Выведите список инструментов zen — там появятся дефолтные модели
Continuation ID lost

Каждый инструмент возвращает continuation_id; передавайте его обратно для сохранения кросс-модельного контекста

Cost runaway on thinkdeep

Задайте MAX_THINKING_TOKENS в env; значение по умолчанию может быть высоким

Альтернативы

Zen MCP Server в сравнении

АльтернативаКогда использоватьКомпромисс
context-mode-mcpВам нужно формирование контекста, а не маршрутизация по моделямДругая задача
Direct OpenAI/Gemini MCPsВам нужна только одна альтернативная модель, а не оркестрацияМеньше накладных расходов, но нет рабочих процессов consensus/thinkdeep

Ещё

Ресурсы

📖 Читать официальный README на GitHub

🐙 Открытые задачи

🔍 Все 400+ MCP-серверов и Skills