/ Verzeichnis / Playground / Mastering LangGraph Agent Skill
● Community SpillwaveSolutions ⚡ Sofort

Mastering LangGraph Agent Skill

von SpillwaveSolutions · SpillwaveSolutions/mastering-langgraph-agent-skill

LangGraph-Flüssigkeit auf Abruf – acht Produktionsmuster (ReAct, Routing, Checkpoints, HITL, Supervisor, Swarm, Deploy, Debug) + 150+ Dokumentlinks, als Claude-Skill.

mastering-langgraph-agent-skill bündelt neun Referenzhandbücher für LangGraph in Python in einem Claude-kompatiblen Skill – Tool-verwendende Agenten, bedingte Routing-Pipelines, Checkpointer-gestützter Speicher, Human-in-the-Loop-Interrupts, Supervisor- und Swarm-Multi-Agent-Muster, Docker/LangGraph-Plattformbereitstellung, Zeitreise-Debugging und LangSmith-Tracing. Installation über Skillz; Funktioniert mit Claude Code und anderen Agent Skill Standard-Kunden.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

mastering-langgraph-skill.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "mastering-langgraph-skill": {
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ],
      "_inferred": false
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "mastering-langgraph-skill",
      "command": "pip",
      "args": [
        "install",
        "skilz",
        "&&",
        "skilz",
        "install",
        "-g",
        "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "mastering-langgraph-skill": {
      "command": {
        "path": "pip",
        "args": [
          "install",
          "skilz",
          "&&",
          "skilz",
          "install",
          "-g",
          "https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add mastering-langgraph-skill -- pip install skilz && skilz install -g https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: Mastering LangGraph Agent Skill

Erstellen Sie ein Gerüst für einen ReAct-Agenten, der ein Tool verwendet, mit einem Prüfpunkt

👤 Python-Entwickler starten ein neues LangGraph-Projekt ⏱ ~45 min intermediate

Wann einsetzen: Sie möchten einen funktionierenden Tool-Loop-Agenten als Ausgangspunkt und nicht noch ein weiteres leeres Notizbuch.

Voraussetzungen
  • Python 3.10+ und pip — pyenv oder System-Python
  • LangGraph + LangChain-Kern — pip install langgraph langchain-core
Ablauf
  1. Installieren Sie den Skill
    pip install skilz && skilz install -g https://github.com/SpillwaveSolutions/mastering-langgraph-agent-skill✓ Kopiert
    → Fertigkeit erscheint in ~/.claude/skills/
  2. Fragen Sie nach dem ReAct-Gerüst
    Erstellen Sie ein Gerüst für einen ReAct-Agenten mit zwei Tools (Suche + Rechner) und einem MemorySaver-Checkpointer.✓ Kopiert
    → Ausführbarer Code mit verkabeltem Diagramm, Tools und Checkpointer
  3. Laufen und durchschreiten
    Führen Sie es mit thread_id='thread-1' aus und zeigen Sie mir den Status bei jedem Schritt.✓ Kopiert
    → Status-Snapshots pro Schritt bestätigen, dass die Schleife funktioniert

Ergebnis: Ein laufender Agent, den Sie erweitern können, anstatt bei Null zu beginnen.

Fallstricke
  • Verwendung von InMemorySaver in der Produktion — Wechseln Sie vor dem Versand zum Postgres-Checkpointer. Der Leitfaden deckt den Tausch ab
Kombinieren mit: fastmcp

Erstellen Sie eine mehrstufige Pipeline mit bedingtem Routing

👤 Backend-Ingenieure ersetzen Ad-hoc-Ketten durch typisierte Diagramme ⏱ ~60 min intermediate

Wann einsetzen: Ihr Workflow verfügt über Verzweigungen (Klassifizieren → Weiterleiten → Spezialisieren → Abschließen) und Sie möchten einen expliziten Status.

Ablauf
  1. Beschreiben Sie die Zweige
    Entwerfen Sie einen LangGraph für: Absicht klassifizieren → Weiterleitung an Zusammenfassung oder Fragen und Antworten → Abschluss mit Zitaten.✓ Kopiert
    → Diagramm und Code; explizite bedingte Kanten
  2. Checkpointing hinzufügen
    Fügen Sie einen Prüfpunkt hinzu, damit die Arbeit mitten im Prozess fortgesetzt wird.✓ Kopiert
    → Der Zustand blieb zwischen den Aufrufen bestehen

Ergebnis: Eine typisierte Pipeline, die testbar und fortsetzbar ist.

Fallstricke
  • Jeder Knoten wird als LLM-Aufruf behandelt — Reine Nicht-LLM-Python-Knoten sind oft klarer und günstiger
Kombinieren mit: langsmith-fetch-skill

Warten Sie vor einer riskanten Aktion auf die menschliche Zustimmung

👤 Teams führen Agenten gegen Produktionssysteme aus ⏱ ~30 min intermediate

Wann einsetzen: Der Agent ist im Begriff, Geld auszugeben, jemandem eine E-Mail zu senden oder den Status zu ändern – Sie möchten einen menschlichen Kontrollpunkt.

Ablauf
  1. Fügen Sie einen Interrupt-Knoten hinzu
    Fügen Sie vor dem Knoten „send_email“ einen Interrupt für die menschliche Genehmigung ein. zeigen, wie man fortfährt.✓ Kopiert
    → interrupt_before wiring + Lebenslauf-API löschen
  2. Testen Sie die Pfade zum Genehmigen und Ablehnen
    Schreiben Sie ein Skript, das sowohl Genehmigungs- als auch Ablehnungsflüsse testet.✓ Kopiert
    → Zwei Wege sauber geübt

Ergebnis: Der Mensch wagt den riskanten Schritt; genehmigte Maßnahmen werden bis zum Abschluss ausgeführt.

Fallstricke
  • Es wurde vergessen, den Status über den Interrupt hinweg beizubehalten — Interrupts benötigen einen Checkpointer; Ohne sie ist die Pause nutzlos
Kombinieren mit: linear

Entwerfen Sie ein Supervisor-oder-Schwarm-Setup mit mehreren Agenten

👤 Architekten bewerten Multi-Agent-Muster ⏱ ~90 min advanced

Wann einsetzen: Ein einzelner Agent wird verwirrt oder ist zu groß; Sie erwägen Orchestrierungsmuster.

Ablauf
  1. Gehen Sie die Kompromisse durch
    Vergleichen Sie Supervisor und Schwarm für ein Team aus Forschern, Programmierern und Prüfern.✓ Kopiert
    → Klare Vor- und Nachteile; wann jeweils ausgewählt werden soll
  2. Pick und Gerüst
    Erstellen Sie mit den drei Agenten ein Gerüst für das gewählte Muster.✓ Kopiert
    → Ausführbarer Code mit Routing-/Übergabelogik

Ergebnis: Eine prinzipielle Wahl eines Multi-Agent-Musters mit laufendem Code.

Fallstricke
  • Einführung mehrerer Agenten, bevor ein einzelner Agent debuggt wurde — Einzelagent starten; Splitten Sie nur, wenn Sie konkrete Grenzen erreichen

Bringen Sie einen LangGraph vom Laptop in die Produktion

👤 Funktionen von Ingenieuren für Spediteure ⏱ ~60 min advanced

Wann einsetzen: Sie haben ein funktionierendes Diagramm und benötigen einen echten Bereitstellungsplan.

Ablauf
  1. Wählen Sie das Bereitstellungsziel aus
    Vergleichen Sie die Docker + LangGraph-Plattform mit der selbst gehosteten Plattform. Empfohlen für ein kleines Team.✓ Kopiert
    → Konkrete Empfehlung mit Kosten-/Betriebskompromissen
  2. Kabelverfolgung
    Fügen Sie LangSmith-Ablaufverfolgung mit Projektumfang hinzu.✓ Kopiert
    → In LangSmith sichtbare Spuren mit korrektem Projektnamen

Ergebnis: Einen Bereitstellungspfad, den Sie einem Plattformteam zeigen können.

Kombinieren mit: cloud-run

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

mastering-langgraph-skill + fastmcp

Verpacken Sie Ihren LangGraph als MCP-Server, den andere Agenten nutzen können

Stellen Sie das aktuelle Diagramm über fastmcp als MCP-Tool bereit.✓ Kopiert
mastering-langgraph-skill + langsmith-fetch-skill

Rufen Sie Spuren zum Debuggen ab und geben Sie sie zurück in die Konversation

Rufen Sie die letzten 10 Spuren für Projekt-„Prod-Agent“- und Oberflächenfehlermuster ab.✓ Kopiert
mastering-langgraph-skill + server-mas-sequential-thinking

Kombinieren Sie sequentielle Denkmuster mehrerer Agenten mit LangGraph-Orchestrierung

Ordnen Sie Ihr Supervisor-Diagramm einem sequenziell denkenden MAS-Muster zu.✓ Kopiert

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
skill: mastering-langgraph natural-language LangGraph questions and tasks Immer wenn Sie einen LangGraph erstellen oder debuggen 0

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Keine für die Fähigkeit; Ihr LLM-Anbieter erhebt Gebühren für die zugrunde liegenden Anrufe
Tokens pro Aufruf
Hängt von den Abschnitten ab, die die Fertigkeit beansprucht – schmale Fragen halten sie klein
Kosten in €
Freie Fertigkeit; Es fallen Anbieterkosten an (OpenAI/Anthropic/usw.).
Tipp
Stellen Sie gezielte Fragen zum Thema „Wie mache ich <X> in LangGraph?“. Das umfassende „Teach me LangGraph“ umfasst umfangreiche Referenzabschnitte.

Sicherheit

Rechte, Secrets, Reichweite

Credential-Speicherung: Keiner in der Fertigkeit; Ihre eigenen LLM- und Tool-Anmeldeinformationen bleiben in Ihrem Env/Secret-Manager
Datenabfluss: Der Kompetenzinhalt ist lokal. Jeglicher ausgehende Traffic kommt von dem Code, den Sie ausführen (Toolaufrufe, LangSmith).

Fehlerbehebung

Häufige Fehler und Lösungen

Die Skilz-Installation schlägt mit „Repo nicht gefunden“ fehl.

Verwenden Sie das Flag -g mit der vollständigen GitHub-URL und nicht mit dem kurzen SkillzWave-Pfad, wenn der Marktplatz nicht konfiguriert ist.

Prüfen: pip show skilz && skilz list -g
Der Diagrammcode wird lokal ausgeführt, bricht jedoch bei der Bereitstellung ab

Normalerweise übersteht die Checkpointer-Auswahl – InMemorySaver einen Neustart nicht. Wechseln Sie gemäß dem Bereitstellungsabschnitt zu Postgres oder Redis.

Prüfen: Inspect the checkpointer type in your code
LangSmith-Spuren fehlen

Legen Sie LANGSMITH_API_KEY und LANGCHAIN_PROJECT fest, bevor Sie das Diagramm aufrufen.

Prüfen: echo $LANGSMITH_API_KEY | head -c 5

Alternativen

Mastering LangGraph Agent Skill vs. andere

AlternativeWann stattdessenKompromiss
mcp-agentSie möchten MCP-native Agentenmuster anstelle von LangGraphAnderer Rahmen, anderes Ökosystem
server-mas-sequential-thinkingSie möchten einen betriebsbereiten Multi-Agent-Server für sequentielles DenkenWeniger flexibel als das Erstellen in LangGraph
agent-langchainjsSie verwenden JS/TS, nicht PythonAnderes Sprachziel

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen