/ Directorio / Playground / Zen MCP Server
● Comunidad BeehiveInnovations 🔑 Requiere tu clave

Zen MCP Server

por BeehiveInnovations · BeehiveInnovations/zen-mcp-server

MCP de orquestación multi-LLM — permite a Claude consultar Gemini, OpenAI o3, Grok, OpenRouter u Ollama en medio de una tarea y combinar sus respuestas.

Zen MCP le da a Claude las herramientas chat, thinkdeep, codereview, debug, consensus y precommit — cada una puede enrutar a distintos modelos entre bastidores. Permite usar Claude como orquestador mientras delega el razonamiento pesado a Gemini Pro, la revisión de código a o3 o las consultas rápidas a un Ollama local. Diseñado para flujos de trabajo multi-modelo que un solo proveedor no puede cubrir.

Por qué usarlo

Características clave

Demo en vivo

Cómo se ve en la práctica

zen-mcp-server.replay ▶ listo
0/0

Instalar

Elige tu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Abre Claude Desktop → Settings → Developer → Edit Config. Reinicia después de guardar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor usa el mismo esquema mcpServers que Claude Desktop. La configuración del proyecto prevalece sobre la global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Haz clic en el icono MCP Servers de la barra lateral de Cline y luego en "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Mismo formato que Claude Desktop. Reinicia Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue usa un array de objetos de servidor en lugar de un mapa.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

Añádelo a context_servers. Zed recarga en caliente al guardar.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

Un solo comando. Verifica con claude mcp list. Quita con claude mcp remove.

Casos de uso

Usos del mundo real: Zen MCP Server

Obtener consenso de 3 modelos distintos sobre una decisión arquitectónica difícil

👤 Tech leads tomando decisiones de alto impacto ⏱ ~20 min intermediate

Cuándo usarlo: Las opiniones puras de Claude se sienten como un único punto de vista; quieres diversidad.

Requisitos previos
  • API keys para al menos 2 proveedores alternativos — Configura GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY
Flujo
  1. Formular la pregunta
    Usa zen.consensus. Pregunta: ¿debemos mover nuestra cola de Redis a NATS Jetstream? Stakes: 50M msgs/día, 99.99% de uptime. Pregunta a Gemini Pro y o3.✓ Copiado
    → Ambos modelos responden, Claude resume las diferencias entre las respuestas
  2. Profundizar en el desacuerdo
    ¿Dónde discrepan? Usa zen.chat para refutar el punto más débil de cada modelo.✓ Copiado
    → Pase de rebate por modelo
  3. Sintetizar
    Dame una recomendación final con el argumento más sólido de cada lado.✓ Copiado
    → Documento de decisión combinado

Resultado: Una decisión arquitectónica que puedes defender con evidencia de múltiples modelos.

Errores comunes
  • Los modelos alucinan particularidades de API de forma diferente — falso consenso — Siempre verifica con la documentación/fuente real las afirmaciones de hechos
Combinar con: context7 · git-mcp-idosal

Usar thinkdeep con Gemini Pro para planificar antes de que Claude ejecute

👤 Desarrolladores que alcanzan el límite de planificación de Claude en tareas enormes ⏱ ~40 min intermediate

Cuándo usarlo: La tarea es tan grande que incluso el extended thinking pierde el hilo.

Flujo
  1. Delegar el encargo
    Usa zen.thinkdeep con gemini-2.5-pro. Planifica la migración del monolito a 3 microservicios. Identifica todos los riesgos de secuenciación.✓ Copiado
    → Plan extenso de Gemini, devuelto como documento estructurado
  2. Criticar el plan
    Ahora tú (Claude) revisa ese plan. ¿Qué falta? ¿Qué es arriesgado?✓ Copiado
    → Análisis de brechas
  3. Ejecutar el paso 1
    Implementa la primera fase del plan en este repositorio.✓ Copiado
    → Ediciones reales

Resultado: Planes en los que confías porque dos modelos acordaron la forma.

Combinar con: desktop-commander-mcp

Ejecutar zen.codereview desde un modelo diferente al que escribió el código

👤 Desarrolladores en solitario que quieren una revisión adversarial ⏱ ~25 min intermediate

Cuándo usarlo: Desarrollaste una función con Claude y quieres ojos frescos de otro modelo.

Flujo
  1. Preparar el diff
    Guarda el diff de la rama actual. Pásalo a zen.codereview con o3.✓ Copiado
    → Comentarios de revisión organizados por archivo
  2. Aplicar o rechazar
    Muéstrame cada sugerencia. Aplica solo las que yo apruebe.✓ Copiado
    → Prompt de aceptar/rechazar por sugerencia

Resultado: Código revisado por un modelo con priors diferentes.

Combinar con: git-mcp-idosal

Combinaciones

Combínalo con otros MCPs para multiplicar por 10

zen-mcp-server + desktop-commander-mcp

Planificar con Gemini, ejecutar con Claude + desktop-commander

zen-mcp-server + git-mcp-idosal

Obtener el repo con gitmcp, hacer codereview con zen usando o3

Herramientas

Lo que expone este MCP

HerramientaEntradasCuándo llamarCoste
chat prompt, model?, continuation_id? Preguntas y respuestas generales a un modelo alternativo 1 llamada API al modelo elegido
thinkdeep problem, model? Planificar problemas difíciles Alto — usa el presupuesto de thinking
codereview files[], model? Revisión de PR con ojos frescos 1 llamada API
debug error, context, model? Atascado en un bug que Claude no puede ver 1 llamada API
consensus question, models[] Decisiones de alto impacto N llamadas API
precommit diff, model? Verificación final antes del commit 1 llamada API

Coste y límites

Lo que cuesta ejecutarlo

Cuota de API
Por proveedor; pagas a cada uno por separado
Tokens por llamada
Variable por herramienta — thinkdeep puede superar los 30k
Monetario
Servidor gratuito; pagas directamente a cada proveedor LLM
Consejo
Configura DEFAULT_MODEL=ollama:llama3.1 para chat casual, escala a pagos solo cuando sea necesario

Seguridad

Permisos, secretos, alcance

Ámbitos mínimos: outbound:llm-providers
Almacenamiento de credenciales: Claves de proveedores en variables de entorno
Salida de datos: Los proveedores que configures

Resolución de problemas

Errores comunes y soluciones

Modelo no disponible

Verifica la variable de entorno de ese proveedor; solo los proveedores configurados aparecen

Verificar: Lista las herramientas de zen — los valores predeterminados de modelos aparecen ahí
ID de continuación perdido

Cada herramienta devuelve un continuation_id; pásalo de nuevo para mantener el contexto entre modelos

Desbordamiento de costos en thinkdeep

Configura MAX_THINKING_TOKENS en el entorno; el valor por defecto puede ser alto

Alternativas

Zen MCP Server vs otros

AlternativaCuándo usarlaContrapartida
context-mode-mcpQuieres moldear el contexto, no enrutar entre múltiples modelosProblema diferente
MCPs directos de OpenAI/GeminiSolo necesitas un modelo alternativo, no orquestaciónMenos ceremonia pero sin flujos de consensus/thinkdeep

Más

Recursos

📖 Lee el README oficial en GitHub

🐙 Ver issues abiertas

🔍 Ver todos los 400+ servidores MCP y Skills