/ 디렉터리 / 플레이그라운드 / Zen MCP Server
● 커뮤니티 BeehiveInnovations 🔑 본인 키 필요

Zen MCP Server

제작: BeehiveInnovations · BeehiveInnovations/zen-mcp-server

멀티 LLM 오케스트레이션 MCP — 작업 도중 Claude가 Gemini, OpenAI o3, Grok, OpenRouter, 또는 Ollama와 협의하고 답변을 통합.

Zen MCP는 Claude에게 chat, thinkdeep, codereview, debug, consensus, precommit 도구를 제공합니다 — 각각 내부적으로 다른 모델로 라우팅할 수 있습니다. Claude를 오케스트레이터로 사용하면서 무거운 사고는 Gemini Pro에, 코드 리뷰는 o3에, 빠른 조회는 로컬 Ollama에 위임할 수 있습니다. 한 프로바이더가 커버할 수 없는 멀티 모델 워크플로우를 위해 만들어졌습니다.

왜 쓰나요

핵심 기능

라이브 데모

실제 사용 모습

zen-mcp-server.replay ▶ 준비됨
0/0

설치

클라이언트 선택

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config 열기. 저장 후 앱 재시작.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cursor는 Claude Desktop과 동일한 mcpServers 스키마 사용. 프로젝트 설정이 전역보다 우선.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Cline 사이드바의 MCP Servers 아이콘 클릭 후 "Edit Configuration" 선택.

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "zen-mcp-server": {
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  }
}

Claude Desktop과 같은 형식. Windsurf 재시작 후 적용.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "zen-mcp-server",
      "command": "uvx",
      "args": [
        "zen-mcp-server"
      ]
    }
  ]
}

Continue는 맵이 아닌 서버 오브젝트 배열 사용.

~/.config/zed/settings.json
{
  "context_servers": {
    "zen-mcp-server": {
      "command": {
        "path": "uvx",
        "args": [
          "zen-mcp-server"
        ]
      }
    }
  }
}

context_servers에 추가. 저장 시 Zed가 핫 리로드.

claude mcp add zen-mcp-server -- uvx zen-mcp-server

한 줄 명령. claude mcp list로 확인, claude mcp remove로 제거.

사용 사례

실전 활용법: Zen MCP Server

어려운 아키텍처 결정에 대해 3가지 다른 모델의 합의 도출

👤 중요한 결정을 내리는 기술 리드 ⏱ ~20 min intermediate

언제 쓸까: Claude의 단독 의견이 하나의 관점처럼 느껴지고 다양성이 필요할 때.

사전 조건
  • 최소 2개의 대안 프로바이더 API 키 — GEMINI_API_KEY, OPENAI_API_KEY, OPENROUTER_API_KEY 설정
흐름
  1. 질문 구성
    Use zen.consensus. Question: should we move our queue from Redis to NATS Jetstream? Stakes: 50M msgs/day, 99.99% uptime. Ask Gemini Pro and o3.✓ 복사됨
    → 두 모델이 응답하고, Claude가 답변 간 차이를 요약
  2. 의견 불일치 부분 심층 분석
    Where do they disagree? Use zen.chat to push back on each model's weakest point.✓ 복사됨
    → 모델별 반박 패스
  3. 통합
    Give me a final recommendation with the strongest argument from each side surfaced.✓ 복사됨
    → 통합된 결정 문서

결과: 크로스 모델 근거로 방어할 수 있는 아키텍처 결정.

함정
  • 모델들이 API 특이사항을 서로 다르게 환각 — 거짓 합의 — 사실 주장에 대해서는 항상 실제 문서/소스로 검증
함께 쓰기: context7 · git-mcp-idosal

Claude 실행 전 Gemini Pro로 thinkdeep을 사용해 계획 수립

👤 방대한 작업에서 Claude의 플래닝 한계에 부딪히는 개발자 ⏱ ~40 min intermediate

언제 쓸까: 작업이 너무 크고 확장된 사고도 맥락을 잃을 때.

흐름
  1. 브리핑 전달
    Use zen.thinkdeep with gemini-2.5-pro. Plan the migration from monolith to 3 microservices. Identify all sequencing risks.✓ 복사됨
    → Gemini의 긴 계획, 구조화된 문서로 반환
  2. 계획 비판
    Now you (Claude) review that plan. What's missing? What's risky?✓ 복사됨
    → 갭 분석
  3. 1단계 실행
    Implement the first phase of the plan in this repo.✓ 복사됨
    → 실제 편집

결과: 두 모델이 형태에 동의했기 때문에 신뢰할 수 있는 계획.

함께 쓰기: desktop-commander-mcp

코드를 작성한 모델과 다른 모델로 zen.codereview 실행

👤 적대적 리뷰를 원하는 솔로 개발자 ⏱ ~25 min intermediate

언제 쓸까: Claude와 함께 기능을 구현하고 다른 관점(다른 모델)의 검토를 원할 때.

흐름
  1. diff 준비
    Save the current branch's diff. Pass it to zen.codereview with o3.✓ 복사됨
    → 파일별로 정리된 리뷰 주석
  2. 적용 또는 거부
    Show me each suggestion. Apply only the ones I approve.✓ 복사됨
    → 제안별 수락/거부 프롬프트

결과: 다른 사전 지식을 가진 모델이 리뷰한 코드.

함께 쓰기: git-mcp-idosal

조합

다른 MCP와 조합해 10배 효율

zen-mcp-server + desktop-commander-mcp

Gemini로 플래닝, Claude+desktop-commander로 실행

thinkdeep the migration → desktop-commander to apply step 1✓ 복사됨
zen-mcp-server + git-mcp-idosal

gitmcp로 레포 가져오기, zen으로 o3 코드 리뷰

Codereview the PR diff from owner/repo using o3 — second opinion.✓ 복사됨

도구

이 MCP가 노출하는 것

도구입력언제 호출비용
chat prompt, model?, continuation_id? 대안 모델에 대한 일반 Q&A 1 API call to chosen model
thinkdeep problem, model? 어려운 문제 플래닝 Heavy — uses thinking budget
codereview files[], model? 새로운 시각의 PR 리뷰 1 API call
debug error, context, model? Claude가 볼 수 없는 버그에 막혔을 때 1 API call
consensus question, models[] 중요한 결정 시 N API calls
precommit diff, model? 커밋 전 최종 확인 1 API call

비용 및 제한

운영 비용

API 쿼터
프로바이더별; 각각 별도로 비용 지불
호출당 토큰
도구별 가변 — thinkdeep은 30k+ 토큰 가능
금액
무료 서버; 각 LLM 프로바이더에 직접 비용 지불
캐주얼 채팅에는 DEFAULT_MODEL=ollama:llama3.1 설정, 필요할 때만 유료로 에스컬레이션

보안

권한, 시크릿, 파급범위

최소 스코프: outbound:llm-providers
자격 증명 저장: 프로바이더 키를 환경 변수에 저장
데이터 외부 송신: 설정한 프로바이더로 전송

문제 해결

자주 발생하는 오류와 해결

모델을 사용할 수 없음

해당 프로바이더의 환경 변수 확인; 설정된 프로바이더만 표시됨

확인: List zen tools — model defaults appear there
continuation ID 손실

각 도구는 continuation_id를 반환함; 크로스 모델 컨텍스트 유지를 위해 다시 전달

thinkdeep에서 비용 폭주

환경 변수에 MAX_THINKING_TOKENS 설정; 기본값이 높을 수 있음

대안

Zen MCP Server 다른 것과 비교

대안언제 쓰나단점/장점
context-mode-mcp멀티 모델 라우팅이 아닌 컨텍스트 조정이 필요할 때다른 문제 해결
Direct OpenAI/Gemini MCPs오케스트레이션이 아닌 단일 대안 모델만 필요할 때절차는 적지만 consensus/thinkdeep 워크플로우 없음

더 보기

리소스

📖 GitHub에서 공식 README 읽기

🐙 열린 이슈 보기

🔍 400+ MCP 서버 및 Skills 전체 보기