/ Verzeichnis / Playground / Tavily MCP
● Offiziell tavily-ai 🔑 Eigener Schlüssel nötig

Tavily MCP

von tavily-ai · tavily-ai/tavily-mcp

Tavily MCP bietet Ihrem Agenten Websuche, Seitenextraktion, Sitemap und Crawling – bereits für LLMs formatiert, sodass Sie keine Token für Scraping-Markup verschwenden.

Tavily ist eine Such-API, die für KI-Agenten entwickelt wurde: Antworten werden als sauberer Text mit Quellen zurückgegeben, nicht als 50 KB HTML. Der MCP-Server stellt vier Tools zur Verfügung (Suchen, Extrahieren, Kartieren, Crawlen), die Sie zu echten Forschungsworkflows zusammenstellen können. Erfordert einen kostenlosen API-Schlüssel von tavily.com. Funktioniert sofort in Claude Desktop, Cursor, Windsurf, Claude Code – Installation über npx.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

tavily-mcp.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "tavily-mcp",
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "tavily-mcp": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "tavily-mcp@latest"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add tavily-mcp -- npx -y tavily-mcp@latest

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: Tavily MCP

Beantworten Sie eine Frage zu etwas, das nach der Modellabschaltung passiert ist

👤 Jeder, der Claude mit Fragen nutzt, die neue Informationen benötigen ⏱ ~5 min beginner

Wann einsetzen: Sie fragen nach einer Veröffentlichung im Jahr 2026, einem aktuellen CVE, einer neuen Preisseite oder dem heutigen Markt – das Modell weiß es nicht und muss nachsehen.

Voraussetzungen
  • Tavily-API-Schlüssel — Melden Sie sich bei tavily.com an (kostenloses Kontingent = 1.000 Anrufe/Monat)
  • Tavily MCP installiert — Fügen Sie den obigen Konfigurationsblock in die MCP-Einstellungen Ihres Clients ein
Ablauf
  1. Fragen Sie direkt nach
    Was hat Anthropic diesen Monat in Claude Sonnet 4.7 ausgeliefert? Verwenden Sie Tavily, um die Ankündigung zu finden und mit Quellen zusammenzufassen.✓ Kopiert
    → Der Agent ruft tavily_search auf und gibt eine Zusammenfassung mit verknüpften Quellen zurück
  2. Informieren Sie sich über eine Quelle
    Die zweite Quelle sieht am aussagekräftigsten aus – verwenden Sie tavily_extract, um den vollständigen Text abzurufen und die genaue Zeile über das Kontextfenster zu zitieren.✓ Kopiert
    → Direktes Zitat mit URL + Absatznummer

Ergebnis: Aktuelle, zitierte Antwort in einem Zug – kein manuelles Googeln.

Fallstricke
  • Die Suche ergab zuerst SEO-Müll — Site-Hinweise hinzufügen: „... von anthropic.com oder dem offiziellen Blog von anthropic“
  • Zusammenfassungen weichen von Quellen ab — Erfordern Sie direkte Anführungszeichen – „umschreiben, aber Zahlen, Daten und Namen genau beibehalten“
Kombinieren mit: filesystem · memory

Führen Sie in einer Sitzung einen Scan eines Konkurrenzprodukts durch

👤 PMs, Gründer, Vermarkter ⏱ ~30 min intermediate

Wann einsetzen: Sie benötigen bis zum Ende des Tages ein einseitiges Briefing über jeden Mitbewerber für eine bestimmte Feature-Kategorie.

Ablauf
  1. Entdecken Sie Konkurrenten
    Finden Sie mit Tavily die 8 besten Produkte, die mit uns im Bereich „KI-natives CRM für KMU“ konkurrieren. Geben Sie jeweils Name, URL, Einzeiler und Gründungsjahr zurück.✓ Kopiert
    → Strukturierte 8-zeilige Tabelle mit Quelllinks
  2. Ordnen Sie jeden Standort zu
    tavily_map für jeden Mitbewerber dessen Website, um die Preis- und Funktionsseiten zu finden. Geben Sie die URLs zurück.✓ Kopiert
    → 2 URLs pro Teilnehmer
  3. Preise extrahieren
    tavily_extrahieren Sie jede Preisseite und erstellen Sie ein Vergleichsraster: Planname, monatlicher Preis, die drei wichtigsten Unterscheidungsmerkmale.✓ Kopiert
    → Sauberes Gitter; Zellen geben die URL der Preisseite an

Ergebnis: Ein teilbares Briefing mit Quellen – bereit für eine PMM-Folie in 30 Minuten.

Fallstricke
  • Preisgestaltung JS-gerendert und extrahiert fehlt es — Greifen Sie mit render=on auf tavily_crawl zurück oder rufen Sie direkt die /pricing-Sitemap auf
Kombinieren mit: filesystem

Schreiben Sie ein Tutorial mit live verifizierten Links

👤 Technische Redakteure, DevRel ⏱ ~25 min intermediate

Wann einsetzen: Sie veröffentlichen eine Anleitung und jeder externe Link muss heute zum richtigen Inhalt führen.

Ablauf
  1. Sammeln Sie Kandidatenreferenten
    Finden Sie mit tavily_search die Top 5 der kanonischen Dokumentseiten für „OAuth 2.1 PKCE Flow“. Bevorzugen Sie RFCs und Herstellerdokumente gegenüber Blogs.✓ Kopiert
    → 5 URLs mit jeweils einer kurzen Begründung
  2. Überprüfen Sie jedes einzelne
    tavily_extract jede URL. Stellen Sie bei jedem sicher, dass die Seite immer noch PKCE abdeckt, und markieren Sie alle, die umgeleitet oder veraltet aussehen.✓ Kopiert
    → Live-Urteil pro URL
  3. Im Entwurf einbetten
    Schreiben Sie meinen Tutorialentwurf um, um nur die überprüften URLs zu zitieren, mit Ankertext, der mit der tatsächlichen Überschrift der Seite übereinstimmt.✓ Kopiert
    → Aktualisierter Entwurf; Jeder Linktext entspricht der tatsächlichen Seitenüberschrift

Ergebnis: Veröffentlichtes Tutorial ohne tote Links und präzisem Ankertext.

Kombinieren mit: filesystem

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

tavily-mcp + filesystem

Search, extract into disk, then analyze locally without re-fetching

Search Tavily for recent OWASP top-10 sources, extract them, save to /research/owasp/, then compare the content offline.✓ Kopiert
tavily-mcp + memory

Build a research journal that persists between sessions

For each Tavily search, save a one-line note and the URLs to memory under 'project:acme'. Next session, reuse.✓ Kopiert
tavily-mcp + context7

Tavily for web context + Context7 for library docs — don't confuse them

Use Context7 for docs questions; Tavily for news, blog posts, and anything not in library indexes.✓ Kopiert

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
tavily_search query: str, max_results?: int, search_depth?: 'basic'|'advanced', include_domains?: str[] Primary tool — one query, LLM-ready snippets with URLs 1 API call
tavily_extract urls: str[], extract_depth?: 'basic'|'advanced' You already have a URL and want clean text — no HTML, no ads 1 API call per URL
tavily_map url: str, max_depth?: int, categories?: str[] Discover a site's structure — useful before extract/crawl 1 API call
tavily_crawl url: str, max_depth?: int, limit?: int, instructions?: str Broad ingest of a small site or doc section — expensive, prefer extract when you already know the URLs Multiple API calls (one per page)

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Free tier = 1,000 API calls/month; scaling plans from $30/mo
Tokens pro Aufruf
Returns ~500–5000 tokens of clean content — much less than raw HTML would
Kosten in €
Free tier covers individual daily use; heavy workflows need paid
Tipp
Prefer tavily_search over tavily_crawl — search is one call, crawl is N. Only crawl when you truly need breadth.

Sicherheit

Rechte, Secrets, Reichweite

Credential-Speicherung: TAVILY_API_KEY in env var (set in the MCP config's env block)
Datenabfluss: Queries and URLs you pass are sent to api.tavily.com. Don't paste proprietary info into the query string.

Fehlerbehebung

Häufige Fehler und Lösungen

401 Unauthorized

Double-check TAVILY_API_KEY in your MCP config. The env block lives inside the server config, not at top level.

Prüfen: Call any Tavily tool; if the error persists, rotate the key in tavily.com dashboard
Empty results despite a real query

Switch search_depth from 'basic' to 'advanced' for niche topics; add include_domains to bias toward authoritative sources

Prüfen: Repeat with search_depth: 'advanced'
tavily_extract returns paywalled gibberish

Tavily follows robots.txt and respects paywalls. For paywalled content, note it's unreachable — don't try to bypass.

429 Rate limit

Free tier = 60 RPM. Space out calls, or upgrade at tavily.com. The MCP auto-backs-off once, then surfaces the error.

Prüfen: Check usage in tavily.com dashboard

Alternativen

Tavily MCP vs. andere

AlternativeWann stattdessenKompromiss
exa-mcp-serverYou want Exa's neural/embedding-style search and similarityDifferent result quality on different query types; both are LLM-tuned
fetchYou have the URL and just want HTML → markdown, no searchNo search; no structured extract; you handle the URL discovery
perplexity-askYou want a research-level answer synthesized by Perplexity, not raw resultsHigher latency, higher cost, less composable — it's one big tool
firecrawl-mcp-serverYou need heavy crawling or JS rendering as a core workflowPricier; overkill for one-off lookups

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen