/ Annuaire / Playground / Zen MCP Server
● Communauté BeehiveInnovations 🔑 Nécessite votre clé

Zen MCP Server

par BeehiveInnovations · BeehiveInnovations/zen-mcp-server

MCP d'orchestration multi-LLM — laissez Claude consulter Gemini, OpenAI o3, Grok, OpenRouter ou Ollama en cours de tâche et fusionner leurs réponses.

Zen MCP donne à Claude un outil chat, thinkdeep, codereview, debug, consensus et precommit — chacun pouvant router vers différents modèles en coulisses. Permet d'utiliser Claude comme orchestrateur tout en déléguant la réflexion lourde à Gemini Pro, la revue de code à o3 ou les recherches rapides à un Ollama local. Conçu pour les workflows multi-modèles qu'un seul fournisseur ne peut pas couvrir.

Pourquoi l'utiliser

Fonctionnalités clés

Démo en direct

Aperçu en pratique

zen-mcp-server.replay ▶ prêt
0/0

Installer

Choisissez votre client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Ouvrez Claude Desktop → Settings → Developer → Edit Config. Redémarrez après avoir enregistré.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor utilise le même schéma mcpServers que Claude Desktop. La config projet l'emporte sur la globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cliquez sur l'icône MCP Servers dans la barre latérale Cline, puis "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Même format que Claude Desktop. Redémarrez Windsurf pour appliquer.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue utilise un tableau d'objets serveur plutôt qu'une map.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

Ajoutez dans context_servers. Zed recharge à chaud à la sauvegarde.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

Une seule ligne. Vérifiez avec claude mcp list. Supprimez avec claude mcp remove.

Cas d'usage

Usages concrets : Zen MCP Server

Obtenir un consensus de 3 modèles différents sur une décision architecturale difficile

👤 Responsables techniques prenant des décisions à forts enjeux ⏱ ~20 min intermediate

Quand l'utiliser : Les opinions purement Claude semblent un point de vue unique ; vous voulez de la diversité.

Prérequis
  • Clés API pour au moins 2 fournisseurs alternatifs — Définissez GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY
Déroulement
  1. Formuler la question
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ Copié
    → Les deux modèles répondent, Claude résume les différences entre les réponses
  2. Approfondir le désaccord
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ Copié
    → Phase de réfutation par modèle
  3. Synthétiser
    Give me a final recommendation with the strongest argument from each side surfaced.✓ Copié
    → Document de décision fusionné

Résultat : Une décision architecturale que vous pouvez défendre avec des preuves cross-modèles.

Pièges
  • Les modèles hallucinent différemment les quirks d'API — faux consensus — Vérifiez toujours avec les docs/sources réelles pour les affirmations factuelles
Combiner avec : context7 · git-mcp-idosal

Utiliser thinkdeep avec Gemini Pro pour planifier avant que Claude n'exécute

👤 Développeurs qui atteignent le plafond de planification de Claude sur de grandes tâches ⏱ ~40 min intermediate

Quand l'utiliser : La tâche est si grande que même la réflexion étendue perd le fil.

Déroulement
  1. Transmettre le brief
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ Copié
    → Long plan de Gemini, retourné comme document structuré
  2. Critiquer le plan
    Now you (Claude) review that plan. What's missing? What's risky?✓ Copié
    → Analyse des lacunes
  3. Exécuter l'étape 1
    Implement the first phase of the plan in this repo.✓ Copié
    → Vraies modifications

Résultat : Des plans en lesquels vous avez confiance parce que deux modèles se sont accordés sur la forme.

Combiner avec : desktop-commander-mcp

Lancer zen.codereview depuis un modèle différent de celui qui a écrit le code

👤 Développeurs solo qui veulent une revue contradictoire ⏱ ~25 min intermediate

Quand l'utiliser : Vous avez codé une fonctionnalité avec Claude et voulez un regard neuf (autre modèle).

Déroulement
  1. Préparer le diff
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ Copié
    → Commentaires de revue organisés par fichier
  2. Appliquer ou rejeter
    Show me each suggestion. Apply only the ones I approve.✓ Copié
    → Invite accepter/rejeter par suggestion

Résultat : Code revu par un modèle avec des priors différents.

Combiner avec : git-mcp-idosal

Combinaisons

Associez-le à d'autres MCPs pour un effet X10

zen-mcp-server + desktop-commander-mcp

Planifier avec Gemini, exécuter avec Claude+desktop-commander

thinkdeep the migration → desktop-commander to apply step 1✓ Copié
zen-mcp-server + git-mcp-idosal

Récupérer le dépôt via gitmcp, codereview via zen avec o3

Codereview the PR diff from owner/repo using o3 — second opinion.✓ Copié

Outils

Ce que ce MCP expose

OutilEntréesQuand appelerCoût
chat prompt, model?, continuation_id? Q&R général vers un modèle alternatif 1 API call to chosen model
thinkdeep problem, model? Planification de problèmes difficiles Élevé — utilise le budget de réflexion
codereview files[], model? Revue PR avec regard neuf 1 API call
debug error, context, model? Bloqué sur un bug que Claude ne voit pas 1 API call
consensus question, models[] Décisions à forts enjeux N API calls
precommit diff, model? Vérification finale avant commit 1 API call

Coût et limites

Coût d'exécution

Quota d'API
Par fournisseur ; vous payez chacun séparément
Tokens par appel
Variable selon l'outil — thinkdeep peut atteindre 30k+
Monétaire
Serveur gratuit ; payez directement chaque fournisseur LLM
Astuce
Définissez DEFAULT_MODEL=ollama:llama3.1 pour le chat casual, escaladez vers le payant seulement en cas de besoin

Sécurité

Permissions, secrets, portée

Portées minimales : outbound:llm-providers
Stockage des identifiants : Clés fournisseurs en variables d'environnement
Sortie de données : Les fournisseur(s) que vous configurez

Dépannage

Erreurs courantes et correctifs

Modèle non disponible

Vérifiez la variable d'env pour ce fournisseur ; seuls les fournisseurs configurés apparaissent

Vérifier : List zen tools — model defaults appear there
ID de continuation perdu

Chaque outil retourne un continuation_id ; renvoyez-le pour maintenir le contexte cross-modèle

Dérive de coût sur thinkdeep

Définissez MAX_THINKING_TOKENS dans l'env ; la valeur par défaut peut être élevée

Alternatives

Zen MCP Server vs autres

AlternativeQuand l'utiliserCompromis
context-mode-mcpVous voulez façonner le contexte, pas du routage multi-modèleProblème différent
Direct OpenAI/Gemini MCPsVous n'avez besoin que d'un seul modèle alternatif, pas d'orchestrationMoins de cérémonie mais pas de workflows consensus/thinkdeep

Plus

Ressources

📖 Lire le README officiel sur GitHub

🐙 Voir les issues ouvertes

🔍 Parcourir les 400+ serveurs MCP et Skills