/ Verzeichnis / Playground / Zen MCP Server
● Community BeehiveInnovations 🔑 Eigener Schlüssel nötig

Zen MCP Server

von BeehiveInnovations · BeehiveInnovations/zen-mcp-server

Multi-LLM-Orchestrierungs-MCP — Claude kann während einer Aufgabe Gemini, OpenAI o3, Grok, OpenRouter oder Ollama konsultieren und deren Antworten zusammenführen.

Zen MCP gibt Claude die Tools chat, thinkdeep, codereview, debug, consensus und precommit — jedes kann intern auf verschiedene Modelle routen. Damit kann Claude als Orchestrator fungieren, während schwieriges Denken an Gemini Pro, Code-Review an o3 oder schnelle Abfragen an ein lokales Ollama delegiert werden. Entwickelt für Multi-Modell-Workflows, die ein einzelner Anbieter nicht abdecken kann.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

zen-mcp-server.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: Zen MCP Server

Konsens von 3 verschiedenen Modellen zu einer schwierigen Architekturentscheidung einholen

👤 Tech Leads bei wichtigen Entscheidungen ⏱ ~20 min intermediate

Wann einsetzen: Reine Claude-Meinungen fühlen sich wie ein einziger Standpunkt an; du möchtest Vielfalt.

Voraussetzungen
  • API-Keys für mindestens 2 alternative Provider — GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY setzen
Ablauf
  1. Frage formulieren
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ Kopiert
    → Beide Modelle antworten, Claude fasst Unterschiede zusammen
  2. In die Meinungsverschiedenheit eintauchen
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ Kopiert
    → Pro-Modell Gegenargument-Durchgang
  3. Synthetisieren
    Give me a final recommendation with the strongest argument from each side surfaced.✓ Kopiert
    → Zusammengeführtes Entscheidungsdokument

Ergebnis: Eine Architekturentscheidung, die du mit modell-übergreifenden Belegen verteidigen kannst.

Fallstricke
  • Modelle halluzinieren API-Eigenheiten unterschiedlich — falscher Konsens — Für faktische Behauptungen immer mit echten Dokumenten/Quellen verifizieren
Kombinieren mit: context7 · git-mcp-idosal

thinkdeep mit Gemini Pro für die Planung verwenden bevor Claude ausführt

👤 Entwickler, die an Claudes Planungsgrenze bei riesigen Aufgaben stoßen ⏱ ~40 min intermediate

Wann einsetzen: Aufgabe ist so groß, dass sogar erweitertes Denken den Faden verliert.

Ablauf
  1. Aufgabe übergeben
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ Kopiert
    → Langer Plan von Gemini, zurückgegeben als strukturiertes Dokument
  2. Plan kritisieren
    Now you (Claude) review that plan. What's missing? What's risky?✓ Kopiert
    → Lückenanalyse
  3. Schritt 1 ausführen
    Implement the first phase of the plan in this repo.✓ Kopiert
    → Echte Bearbeitungen

Ergebnis: Pläne, denen du vertraust weil zwei Modelle der Form zugestimmt haben.

Kombinieren mit: desktop-commander-mcp

zen.codereview von einem anderen Modell als dem ausführen, das den Code geschrieben hat

👤 Solo-Entwickler, die adversariales Review wollen ⏱ ~25 min intermediate

Wann einsetzen: Du hast ein Feature mit Claude erstellt und möchtest ein frisches Augenpaar (anderes Modell).

Ablauf
  1. Diff vorbereiten
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ Kopiert
    → Review-Kommentare nach Datei organisiert
  2. Akzeptieren oder ablehnen
    Show me each suggestion. Apply only the ones I approve.✓ Kopiert
    → Pro-Vorschlag Akzeptieren/Ablehnen-Prompt

Ergebnis: Code von einem Modell mit anderen Vorannahmen geprüft.

Kombinieren mit: git-mcp-idosal

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

zen-mcp-server + desktop-commander-mcp

Mit Gemini planen, mit Claude+desktop-commander ausführen

zen-mcp-server + git-mcp-idosal

Repository via gitmcp abrufen, codereview via zen mit o3

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
chat prompt, model?, continuation_id? Allgemeines Q&A an alternatives Modell 1 API-Aufruf an das gewählte Modell
thinkdeep problem, model? Schwierige Probleme planen Intensiv — nutzt Thinking-Budget
codereview files[], model? Unvoreingenommenes PR-Review 1 API-Aufruf
debug error, context, model? Bei einem Bug feststecken den Claude nicht sieht 1 API-Aufruf
consensus question, models[] Wichtige Entscheidungen N API-Aufrufe
precommit diff, model? Letzte Prüfung vor dem Commit 1 API-Aufruf

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Pro Provider; du zahlst jeden separat
Tokens pro Aufruf
Variabel nach Tool — thinkdeep kann 30k+ erreichen
Kosten in €
Kostenloser Server; jeden LLM-Provider direkt bezahlen
Tipp
DEFAULT_MODEL=ollama:llama3.1 für Alltagsgespräche setzen, nur bei Bedarf auf bezahlte Modelle eskalieren

Sicherheit

Rechte, Secrets, Reichweite

Minimale Scopes: outbound:llm-providers
Credential-Speicherung: Provider-Keys in Umgebungsvariablen
Datenabfluss: Welche Provider auch immer konfiguriert sind

Fehlerbehebung

Häufige Fehler und Lösungen

Modell nicht verfügbar

Umgebungsvariable für diesen Provider prüfen; nur konfigurierte Provider erscheinen

Prüfen: Zen-Tools auflisten — Modell-Standardwerte erscheinen dort
Continuation-ID verloren

Jedes Tool gibt eine continuation_id zurück; diese zurückgeben um modell-übergreifenden Kontext zu erhalten

Kostenüberlauf bei thinkdeep

MAX_THINKING_TOKENS in Umgebungsvariable setzen; Standard kann hoch sein

Alternativen

Zen MCP Server vs. andere

AlternativeWann stattdessenKompromiss
context-mode-mcpDu möchtest Kontext-Gestaltung, nicht Multi-Modell-RoutingAnderes Problem
Direct OpenAI/Gemini MCPsDu brauchst nur ein alternatives Modell, keine OrchestrierungWeniger Aufwand aber keine consensus/thinkdeep-Workflows

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen