/ Annuaire / Playground / Mastering LangGraph Agent Skill
● Communauté SpillwaveSolutions ⚡ Instantané

Mastering LangGraph Agent Skill

par SpillwaveSolutions · SpillwaveSolutions/mastering-langgraph-agent-skill

Maîtrise de LangGraph à portée de main - huit modèles de production (ReAct, routage, points de contrôle, HITL, superviseur, essaim, déploiement, débogage) + plus de 150 liens doc, en tant que compétence Claude.

mastering-langgraph-agent-skill regroupe neuf guides de référence pour LangGraph en Python dans une compétence compatible Claude : agents utilisant des outils, pipelines de routage conditionnel, mémoire sauvegardée par pointeur de contrôle, interruptions humaines dans la boucle, modèles multi-agents superviseur et essaim, déploiement de la plate-forme Docker/LangGraph, débogage du voyage dans le temps et traçage LangSmith. Installer via Skilz ; travaille avec Claude Code et d’autres clients Agent Skill Standard.

Pourquoi l'utiliser

Fonctionnalités clés

Démo en direct

Aperçu en pratique

mastering-langgraph-skill.replay ▶ prêt
0/0

Installer

Choisissez votre client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Ouvrez Claude Desktop → Settings → Developer → Edit Config. Redémarrez après avoir enregistré.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Cursor utilise le même schéma mcpServers que Claude Desktop. La config projet l'emporte sur la globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Cliquez sur l'icône MCP Servers dans la barre latérale Cline, puis "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Même format que Claude Desktop. Redémarrez Windsurf pour appliquer.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "mastering-langgraph-skill",
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ]
    }
  ]
}

Continue utilise un tableau d'objets serveur plutôt qu'une map.

~/.config/zed/settings.json
{
  "context_servers": {
    "mastering-langgraph-skill": {
      "command": {
        "path": "pip",
        "args": [
          "install",
          "skilz",
          "&&",
          "skilz",
          "install",
          "-g",
          "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
        ]
      }
    }
  }
}

Ajoutez dans context_servers. Zed recharge à chaud à la sauvegarde.

claude mcp add mastering-langgraph-skill -- pip install skilz && skilz install -g https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill

Une seule ligne. Vérifiez avec claude mcp list. Supprimez avec claude mcp remove.

Cas d'usage

Usages concrets : Mastering LangGraph Agent Skill

Échafauder un outil utilisant l'agent ReAct avec un point de contrôle

👤 Les développeurs Python démarrent un nouveau projet LangGraph ⏱ ~45 min intermediate

Quand l'utiliser : Vous voulez un agent de boucle d'outils fonctionnel comme point de départ, pas un énième cahier vierge.

Prérequis
  • Python 3.10+ et pip — pyenv ou système Python
  • LangGraph + noyau LangChain — pip installer langgraph langchain-core
Déroulement
  1. Installer la compétence
    pip install Skilz && Skilz install -g https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill✓ Copié
    → La compétence apparaît dans ~/.claude/skills/
  2. Demandez l'échafaudage ReAct
    Échafaudez un agent ReAct avec deux outils (recherche + calculatrice) et un point de contrôle MemorySaver.✓ Copié
    → Code exécutable avec graphique, outils et point de contrôle câblés
  3. Courez et traversez
    Exécutez-le avec thread_id='thread-1' et montrez-moi l'état à chaque étape.✓ Copié
    → Les instantanés d'état par étape confirment que la boucle fonctionne

Résultat : Un agent en cours d'exécution que vous pouvez étendre au lieu de repartir de zéro.

Pièges
  • Utiliser InMemorySaver en production — Passez au point de contrôle Postgres avant l'expédition ; le guide couvre l'échange
Combiner avec : fastmcp

Créez un pipeline en plusieurs étapes avec un routage conditionnel

👤 Les ingénieurs backend remplacent les chaînes ad hoc par des graphiques tapés ⏱ ~60 min intermediate

Quand l'utiliser : Votre flux de travail comporte des branches (classifier → itinéraire → spécialiser → finaliser) et vous souhaitez un état explicite.

Déroulement
  1. Décrire les succursales
    Rédigez un LangGraph pour : classer l'intention → acheminer vers le résumé ou les questions et réponses → finaliser avec des citations.✓ Copié
    → Diagramme graphique et code ; bords conditionnels explicites
  2. Ajouter des points de contrôle
    Ajoutez un point de contrôle pour reprendre le travail à mi-chemin.✓ Copié
    → L'état persistait entre les invocations

Résultat : Un pipeline typé pouvant être testé et repris.

Pièges
  • Traiter chaque nœud comme un appel LLM — Les nœuds Python purs non LLM sont souvent plus clairs et moins chers
Combiner avec : langsmith-fetch-skill

Pause pour l'approbation humaine avant une action risquée

👤 Équipes exécutant des agents sur des systèmes de production ⏱ ~30 min intermediate

Quand l'utiliser : L’agent est sur le point de dépenser de l’argent, d’envoyer un e-mail à quelqu’un ou de changer d’état – vous voulez un point de contrôle humain.

Déroulement
  1. Ajouter un nœud d'interruption
    Insérez une interruption d'approbation humaine avant le nœud « send_email » ; montrer comment reprendre.✓ Copié
    → interruption_avant le câblage + effacement de l'API de reprise
  2. Tester les chemins d'approbation et de rejet
    Écrivez un script qui teste à la fois les flux d'approbation et de rejet.✓ Copié
    → Deux voies exercées proprement

Résultat : Les humains franchissent l’étape risquée ; les actions approuvées se déroulent jusqu'à leur terme.

Pièges
  • Oublier de conserver l'état pendant l'interruption — Les interruptions nécessitent un point de contrôle ; sans ça, la pause ne sert à rien
Combiner avec : linear

Concevoir une configuration multi-agents superviseur ou essaim

👤 Architectes évaluant des modèles multi-agents ⏱ ~90 min advanced

Quand l'utiliser : Un seul agent devient confus ou trop gros ; vous envisagez des modèles d'orchestration.

Déroulement
  1. Parcourez les compromis
    Comparez le superviseur et l'essaim pour une équipe de chercheurs + codeurs + réviseurs.✓ Copié
    → Avantages/inconvénients clairs ; quand choisir chacun
  2. Pioche et échafaudage
    Échafaudez le modèle choisi avec les trois agents.✓ Copié
    → Code exécutable avec logique de routage/transfert

Résultat : Un choix de principe de modèle multi-agent avec code en cours d’exécution.

Pièges
  • Adoption de plusieurs agents avant qu'un seul agent ait été débogué — Démarrer un agent unique ; divisez-vous uniquement lorsque vous atteignez des limites concrètes

Faites passer un LangGraph de l'ordinateur portable à la production

👤 Caractéristiques des agents maritimes des ingénieurs ⏱ ~60 min advanced

Quand l'utiliser : Vous disposez d'un graphique fonctionnel et avez besoin d'un véritable plan de déploiement.

Déroulement
  1. Choisissez la cible de déploiement
    Comparez Docker + LangGraph Platform et auto-hébergé ; recommander pour une petite équipe.✓ Copié
    → Recommandation concrète avec des compromis coûts/opérations
  2. Traçage des fils
    Ajoutez le traçage LangSmith avec la portée du projet.✓ Copié
    → Traces visibles dans LangSmith avec le nom de projet approprié

Résultat : Un chemin de déploiement que vous pouvez montrer à une équipe de plateforme.

Combiner avec : cloud-run

Combinaisons

Associez-le à d'autres MCPs pour un effet X10

mastering-langgraph-skill + fastmcp

Enveloppez votre LangGraph en tant que serveur MCP pour que d'autres agents puissent le consommer

Exposez le graphique actuel en tant qu'outil MCP via fastmcp.✓ Copié
mastering-langgraph-skill + langsmith-fetch-skill

Récupérez les traces pour le débogage et réinjectez-les dans la conversation

Obtenez les 10 dernières traces pour le projet « agent de production » et les modèles de défaillance de surface.✓ Copié
mastering-langgraph-skill + server-mas-sequential-thinking

Combinez des modèles de pensée séquentielle multi-agents avec l'orchestration LangGraph

Mappez le graphique de votre superviseur sur un modèle MAS à pensée séquentielle.✓ Copié

Outils

Ce que ce MCP expose

OutilEntréesQuand appelerCoût
skill: mastering-langgraph natural-language LangGraph questions and tasks Chaque fois que vous créez ou déboguez un LangGraph 0

Coût et limites

Coût d'exécution

Quota d'API
Aucun pour la compétence ; votre fournisseur LLM facture les appels sous-jacents
Tokens par appel
Cela dépend des sections que les compétences chargent – ​​les questions étroites restent petites
Monétaire
Compétence gratuite ; les frais du fournisseur (OpenAI/Anthropic/etc.) s'appliquent
Astuce
Posez des questions ciblées « comment puis-je <X> dans LangGraph ». Le vaste « apprenez-moi LangGraph » contient d'énormes sections de référence.

Sécurité

Permissions, secrets, portée

Stockage des identifiants : Aucun dans la compétence ; vos propres informations d'identification LLM et outils restent dans votre gestionnaire d'environnement/secret
Sortie de données : Le contenu des compétences est local. Toute sortie provient du code que vous exécutez (appels d'outils, LangSmith).

Dépannage

Erreurs courantes et correctifs

L'installation de Skilz échoue avec « dépôt introuvable »

Utilisez l'indicateur -g avec l'URL GitHub complète, et non le chemin court SkillzWave, si la place de marché n'est pas configurée.

Vérifier : pip show skilz && skilz list -g
Le code graphique s'exécute localement mais s'interrompt lors du déploiement

Habituellement, choix du point de contrôle : InMemorySaver ne survivra pas à un redémarrage. Basculez vers Postgres ou Redis selon la section de déploiement.

Vérifier : Inspect the checkpointer type in your code
Traces LangSmith manquantes

Définissez LANGSMITH_API_KEY et LANGCHAIN_PROJECT avant d'appeler le graphique.

Vérifier : echo $LANGSMITH_API_KEY | head -c 5

Alternatives

Mastering LangGraph Agent Skill vs autres

AlternativeQuand l'utiliserCompromis
mcp-agentVous souhaitez des modèles d'agent natifs MCP plutôt que LangGraphCadre différent, écosystème différent
server-mas-sequential-thinkingVous voulez un serveur de pensée séquentielle multi-agents prêt à l'emploiMoins flexible que la construction dans LangGraph
agent-langchainjsVous êtes sur JS/TS, pas sur PythonCible linguistique différente

Plus

Ressources

📖 Lire le README officiel sur GitHub

🐙 Voir les issues ouvertes

🔍 Parcourir les 400+ serveurs MCP et Skills