/ Diretório / Playground / Zen MCP Server
● Comunidade BeehiveInnovations 🔑 Requer sua chave

Zen MCP Server

por BeehiveInnovations · BeehiveInnovations/zen-mcp-server

MCP de orquestração multi-LLM — deixe o Claude consultar Gemini, OpenAI o3, Grok, OpenRouter ou Ollama durante uma tarefa e mesclar as respostas.

Zen MCP dá ao Claude as ferramentas chat, thinkdeep, codereview, debug, consensus e precommit — cada uma podendo rotear para modelos diferentes nos bastidores. Permite usar o Claude como orquestrador enquanto delega raciocínio pesado ao Gemini Pro, revisão de código ao o3 ou buscas rápidas a um Ollama local. Criado para fluxos de trabalho multi-modelo que um único provedor não consegue cobrir.

Por que usar

Principais recursos

Demo ao vivo

Como fica na prática

zen-mcp-server.replay ▶ pronto
0/0

Instalar

Escolha seu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Abra Claude Desktop → Settings → Developer → Edit Config. Reinicie após salvar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor usa o mesmo esquema mcpServers que o Claude Desktop. Config de projeto vence a global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Clique no ícone MCP Servers na barra lateral do Cline, depois "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Mesmo formato do Claude Desktop. Reinicie o Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

O Continue usa um array de objetos de servidor em vez de um map.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

Adicione em context_servers. Zed recarrega automaticamente ao salvar.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

Uma linha só. Verifique com claude mcp list. Remova com claude mcp remove.

Casos de uso

Usos do mundo real: Zen MCP Server

Obter consenso de 3 modelos diferentes em uma decisão arquitetural difícil

👤 Tech leads tomando decisões de alto impacto ⏱ ~20 min intermediate

Quando usar: As opiniões puras do Claude parecem um único ponto de vista; você quer diversidade.

Pré-requisitos
  • API keys de pelo menos 2 provedores alternativos — Defina GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY
Fluxo
  1. Formular a questão
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ Copiado
    → Ambos os modelos respondem; o Claude resume as diferenças entre as respostas
  2. Aprofundar no ponto de divergência
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ Copiado
    → Passagem de refutação por modelo
  3. Sintetizar
    Give me a final recommendation with the strongest argument from each side surfaced.✓ Copiado
    → Documento de decisão mesclado

Resultado: Uma decisão arquitetural que você pode defender com evidências de múltiplos modelos.

Armadilhas
  • Modelos alucinam quirks de API de formas diferentes — falso consenso — Sempre verifique com a documentação/fonte real para afirmações factuais
Combine com: context7 · git-mcp-idosal

Usar thinkdeep com Gemini Pro para planejar antes do Claude executar

👤 Devs que atingem o teto de planejamento do Claude em tarefas enormes ⏱ ~40 min intermediate

Quando usar: A tarefa é tão grande que mesmo o extended thinking perde o fio da meada.

Fluxo
  1. Passar o briefing
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ Copiado
    → Plano longo do Gemini, retornado como documento estruturado
  2. Criticar o plano
    Now you (Claude) review that plan. What's missing? What's risky?✓ Copiado
    → Análise de lacunas
  3. Executar o passo 1
    Implement the first phase of the plan in this repo.✓ Copiado
    → Edições reais

Resultado: Planos nos quais você confia porque dois modelos concordaram sobre a forma.

Executar zen.codereview com um modelo diferente do que escreveu o código

👤 Devs solo que querem revisão adversarial ⏱ ~25 min intermediate

Quando usar: Você criou uma feature com o Claude e quer um par de olhos diferente (outro modelo).

Fluxo
  1. Preparar o diff
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ Copiado
    → Comentários de revisão organizados por arquivo
  2. Aplicar ou rejeitar
    Show me each suggestion. Apply only the ones I approve.✓ Copiado
    → Prompt de aceitar/rejeitar por sugestão

Resultado: Código revisado por um modelo com premissas diferentes.

Combine com: git-mcp-idosal

Combinações

Combine com outros MCPs para 10× de alavancagem

zen-mcp-server + desktop-commander-mcp

Planejar com Gemini, executar com Claude+desktop-commander

thinkdeep the migration → desktop-commander to apply step 1✓ Copiado
zen-mcp-server + git-mcp-idosal

Buscar repositório via gitmcp, revisar código via zen com o3

Codereview the PR diff from owner/repo using o3 — second opinion.✓ Copiado

Ferramentas

O que este MCP expõe

FerramentaEntradasQuando chamarCusto
chat prompt, model?, continuation_id? Q&A geral com modelo alternativo 1 chamada de API ao modelo escolhido
thinkdeep problem, model? Planejamento de problemas difíceis Pesado — usa orçamento de raciocínio
codereview files[], model? Revisão de PR com olhos frescos 1 chamada de API
debug error, context, model? Travado em um bug que o Claude não consegue ver 1 chamada de API
consensus question, models[] Decisões de alto impacto N chamadas de API
precommit diff, model? Verificação final antes do commit 1 chamada de API

Custo e limites

O que custa rodar

Cota de API
Por provedor; você paga cada um separadamente
Tokens por chamada
Variável por ferramenta — thinkdeep pode atingir 30k+ tokens
Monetário
Servidor gratuito; pague cada provedor de LLM diretamente
Dica
Defina DEFAULT_MODEL=ollama:llama3.1 para chats casuais, escale para provedores pagos apenas quando necessário

Segurança

Permissões, segredos, alcance

Escopos mínimos: outbound:llm-providers
Armazenamento de credenciais: Chaves de provedores em variáveis de ambiente
Saída de dados: Qualquer provedor que você configurar

Solução de problemas

Erros comuns e correções

Modelo não disponível

Verifique a variável de ambiente daquele provedor; apenas provedores configurados aparecem

Verificar: Liste as ferramentas zen — os padrões de modelo aparecem lá
ID de continuação perdido

Cada ferramenta retorna um continuation_id; passe-o de volta para manter o contexto entre modelos

Custo fora de controle no thinkdeep

Defina MAX_THINKING_TOKENS no ambiente; o padrão pode ser alto

Alternativas

Zen MCP Server vs. outros

AlternativaQuando usarTroca
context-mode-mcpVocê quer formatação de contexto, não roteamento multi-modeloProblema diferente
MCPs diretos do OpenAI/GeminiVocê precisa de apenas um modelo alternativo, não de orquestraçãoMenos cerimônia, mas sem workflows de consensus/thinkdeep

Mais

Recursos

📖 Leia o README oficial no GitHub

🐙 Ver issues abertas

🔍 Ver todos os 400+ servidores MCP e Skills