/ Annuaire / Playground / Tavily MCP
● Officiel tavily-ai 🔑 Nécessite votre clé

Tavily MCP

par tavily-ai · tavily-ai/tavily-mcp

Tavily MCP offre à votre agent une recherche sur le Web, un extrait de page, un plan du site et une exploration – déjà formatés pour les LLM afin que vous ne gaspilliez pas de jetons avec du balisage récupéré.

Tavily est une API de recherche conçue pour les agents IA : les réponses reviennent sous forme de texte clair avec les sources, et non 50 Ko de HTML. Le serveur MCP expose quatre outils (recherche, extraction, cartographie, exploration) que vous pouvez intégrer dans de véritables flux de travail de recherche. Nécessite une clé API gratuite de tavily.com. Fonctionne immédiatement dans Claude Desktop, Cursor, Windsurf, Claude Code — installez via npx.

Pourquoi l'utiliser

Fonctionnalités clés

Démo en direct

Aperçu en pratique

tavily-mcp.replay ▶ prêt
0/0

Installer

Choisissez votre client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Ouvrez Claude Desktop → Settings → Developer → Edit Config. Redémarrez après avoir enregistré.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Cursor utilise le même schéma mcpServers que Claude Desktop. La config projet l'emporte sur la globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Cliquez sur l'icône MCP Servers dans la barre latérale Cline, puis "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "tavily-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ],
      "env": {
        "TAVILY_API_KEY": "tvly-..."
      }
    }
  }
}

Même format que Claude Desktop. Redémarrez Windsurf pour appliquer.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "tavily-mcp",
      "command": "npx",
      "args": [
        "-y",
        "tavily-mcp@latest"
      ]
    }
  ]
}

Continue utilise un tableau d'objets serveur plutôt qu'une map.

~/.config/zed/settings.json
{
  "context_servers": {
    "tavily-mcp": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "tavily-mcp@latest"
        ]
      }
    }
  }
}

Ajoutez dans context_servers. Zed recharge à chaud à la sauvegarde.

claude mcp add tavily-mcp -- npx -y tavily-mcp@latest

Une seule ligne. Vérifiez avec claude mcp list. Supprimez avec claude mcp remove.

Cas d'usage

Usages concrets : Tavily MCP

Répondez à une question sur quelque chose qui s'est produit après la coupure du modèle

👤 Toute personne utilisant Claude avec des questions nécessitant de nouvelles informations ⏱ ~5 min beginner

Quand l'utiliser : Vous posez des questions sur une version 2026, un CVE récent, une nouvelle page de tarification ou le marché actuel – le modèle ne le sait pas et doit aller chercher.

Prérequis
  • Clé API Tavily — Inscrivez-vous sur tavily.com (niveau gratuit = 1 000 appels/mois)
  • Tavily MCP installé — Collez le bloc de configuration ci-dessus dans les paramètres MCP de votre client
Déroulement
  1. Demandez directement
    Qu'a livré Anthropic dans Claude Sonnet 4.7 ce mois-ci ? Utilisez Tavily pour trouver l'annonce et résumer avec les sources.✓ Copié
    → L'agent appelle tavily_search, renvoie un résumé avec les sources liées
  2. Explorez une seule source
    La deuxième source semble faire le plus autorité : utilisez tavily_extract pour extraire son texte intégral et citer la ligne exacte concernant la fenêtre contextuelle.✓ Copié
    → Citation directe avec URL + numéro de paragraphe

Résultat : Réponse actuelle et citée en un seul tour - pas de recherche manuelle sur Google.

Pièges
  • La recherche a renvoyé des indésirables SEO en premier — Ajoutez des indices sur le site : « ... depuis anthropic.com ou le blog officiel d'anthropic »
  • Les résumés dérivent des sources — Exiger des guillemets directs – « paraphraser mais conserver exactement les nombres, les dates et les noms »
Combiner avec : filesystem · memory

Effectuez une analyse des produits concurrents en une seule session

👤 PM, fondateurs, spécialistes du marketing ⏱ ~30 min intermediate

Quand l'utiliser : Vous avez besoin d'un briefing d'une page sur chaque concurrent pour une catégorie de fonctionnalités donnée d'ici la fin de la journée.

Déroulement
  1. Découvrez les concurrents
    Grâce à Tavily, trouvez les 8 meilleurs produits concurrents dans le domaine « CRM natif IA pour PME ». Pour chacun, renvoyez le nom, l’URL, l’année de création.✓ Copié
    → Tableau structuré à 8 lignes avec liens sources
  2. Cartographier chaque site
    Pour chaque concurrent, tavily_map leur site pour trouver leurs pages de tarifs et de fonctionnalités. Renvoyez les URL.✓ Copié
    → 2 URL par concurrent
  3. Extraire les prix
    tavily_extraire chaque page de tarification et créer une grille de comparaison : nom du forfait, prix mensuel, 3 principaux différenciateurs.✓ Copié
    → Grille propre ; les cellules citent l'URL de la page de tarification

Résultat : Un brief partageable avec les sources — prêt pour une diapositive PMM en 30 minutes.

Pièges
  • Le prix du rendu JS et de l'extrait le manque — Revenez à tavily_crawl avec render=on, ou accédez directement au plan du site /pricing
Combiner avec : filesystem

Écrivez un tutoriel avec des liens vérifiés en direct

👤 Rédacteurs techniques, DevRel ⏱ ~25 min intermediate

Quand l'utiliser : Vous publiez un mode d'emploi et chaque lien externe doit aboutir aujourd'hui au bon contenu.

Déroulement
  1. Recueillir les références des candidats
    À l'aide de tavily_search, recherchez les 5 principales pages de documentation canonique pour « OAuth 2.1 PKCE flow ». Préférez les RFC et les documents des fournisseurs aux blogs.✓ Copié
    → 5 URL avec une courte justification chacune
  2. Vérifiez chacun
    tavily_extract chaque URL. Pour chacun, confirmez que la page couvre toujours PKCE et signalez celles qui semblent redirigées ou obsolètes.✓ Copié
    → Verdict en direct par URL
  3. Intégrer dans le brouillon
    Rewrite my draft tutorial to cite only the verified URLs, with anchor text that matches the page's actual heading.✓ Copié
    → Updated draft; every link text matches the real page heading

Résultat : Tutoriel publié avec zéro lien mort et un texte d'ancrage précis.

Combiner avec : filesystem

Combinaisons

Associez-le à d'autres MCPs pour un effet X10

tavily-mcp + filesystem

Search, extract into disk, then analyze locally without re-fetching

Search Tavily for recent OWASP top-10 sources, extract them, save to /research/owasp/, then compare the content offline.✓ Copié
tavily-mcp + memory

Build a research journal that persists between sessions

For each Tavily search, save a one-line note and the URLs to memory under 'project:acme'. Next session, reuse.✓ Copié
tavily-mcp + context7

Tavily for web context + Context7 for library docs — don't confuse them

Use Context7 for docs questions; Tavily for news, blog posts, and anything not in library indexes.✓ Copié

Outils

Ce que ce MCP expose

OutilEntréesQuand appelerCoût
tavily_search query: str, max_results?: int, search_depth?: 'basic'|'advanced', include_domains?: str[] Primary tool — one query, LLM-ready snippets with URLs 1 API call
tavily_extract urls: str[], extract_depth?: 'basic'|'advanced' You already have a URL and want clean text — no HTML, no ads 1 API call per URL
tavily_map url: str, max_depth?: int, categories?: str[] Discover a site's structure — useful before extract/crawl 1 API call
tavily_crawl url: str, max_depth?: int, limit?: int, instructions?: str Broad ingest of a small site or doc section — expensive, prefer extract when you already know the URLs Multiple API calls (one per page)

Coût et limites

Coût d'exécution

Quota d'API
Free tier = 1,000 API calls/month; scaling plans from $30/mo
Tokens par appel
Returns ~500–5000 tokens of clean content — much less than raw HTML would
Monétaire
Free tier covers individual daily use; heavy workflows need paid
Astuce
Prefer tavily_search over tavily_crawl — search is one call, crawl is N. Only crawl when you truly need breadth.

Sécurité

Permissions, secrets, portée

Stockage des identifiants : TAVILY_API_KEY in env var (set in the MCP config's env block)
Sortie de données : Queries and URLs you pass are sent to api.tavily.com. Don't paste proprietary info into the query string.

Dépannage

Erreurs courantes et correctifs

401 Unauthorized

Double-check TAVILY_API_KEY in your MCP config. The env block lives inside the server config, not at top level.

Vérifier : Call any Tavily tool; if the error persists, rotate the key in tavily.com dashboard
Empty results despite a real query

Switch search_depth from 'basic' to 'advanced' for niche topics; add include_domains to bias toward authoritative sources

Vérifier : Repeat with search_depth: 'advanced'
tavily_extract returns paywalled gibberish

Tavily follows robots.txt and respects paywalls. For paywalled content, note it's unreachable — don't try to bypass.

429 Rate limit

Free tier = 60 RPM. Space out calls, or upgrade at tavily.com. The MCP auto-backs-off once, then surfaces the error.

Vérifier : Check usage in tavily.com dashboard

Alternatives

Tavily MCP vs autres

AlternativeQuand l'utiliserCompromis
exa-mcp-serverYou want Exa's neural/embedding-style search and similarityDifferent result quality on different query types; both are LLM-tuned
fetchYou have the URL and just want HTML → markdown, no searchNo search; no structured extract; you handle the URL discovery
perplexity-askYou want a research-level answer synthesized by Perplexity, not raw resultsHigher latency, higher cost, less composable — it's one big tool
firecrawl-mcp-serverYou need heavy crawling or JS rendering as a core workflowPricier; overkill for one-off lookups

Plus

Ressources

📖 Lire le README officiel sur GitHub

🐙 Voir les issues ouvertes

🔍 Parcourir les 400+ serveurs MCP et Skills