/ Verzeichnis / Playground / browser-act skills
● Community browser-act ⚡ Sofort

browser-act skills

von browser-act · browser-act/skills

Browsen, Scrapen und strukturierte Daten aus komplexen Sites extrahieren — schneller und günstiger als einen vollständigen Headless-Browser zu treiben.

browser-act ist ein Claude Skill für Web-Automatisierung, der strukturierte Extraktion gegenüber Screenshot-und-Denken-Schleifen bevorzugt. Seiten besuchen, Flows navigieren und typisierte Daten mit expliziten Selektoren oder schema-gesteuerten Prompts extrahieren. Funktioniert auf JS-lastigen Sites wo DDG-artige Fetches nichts zurückgeben, aber günstiger als ein vollständiger Playwright-MCP für viele Aufgaben.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

bereit

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "browser-act-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "browser-act-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/browser-act/skills",
          "~/.claude/skills/browser-act"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add browser-act-skill -- git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: browser-act skills

Typisierte Liste aus JavaScript-lastigem SPA extrahieren

👤 Entwickler, die einmalig Daten von Sites ohne APIs brauchen ⏱ ~25 min intermediate

Wann einsetzen: Site rendert die benötigten Daten nur nach JS-Ausführung; normaler Fetch gibt nichts zurück.

Voraussetzungen
  • Skill installiert — git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act
Ablauf
  1. Schema definieren
    Use browser-act. Schema: items[]{title:str, price:number, available:bool}.✓ Kopiert
    → Schema akzeptiert
  2. Besuchen + extrahieren
    Open <url>; wait for the product grid; extract matching the schema.✓ Kopiert
    → Typisierte JSON-Liste
  3. Ausreißer prüfen
    Spot-check 3 random rows by re-fetching their detail page; check parsing is correct.✓ Kopiert
    → Stichproben bestehen; oder Bug im Parser gefunden

Ergebnis: Zuverlässige typisierte Daten; kein manuelles Durchklicken.

Fallstricke
  • Site-Bot-Erkennung blockiert nach 50 Anfragen — Parallelität verringern; User-Agent rotieren; robots.txt respektieren oder Aufgabe überspringen
Kombinieren mit: filesystem

Mehrstufigen Formular-Flow durchlaufen um Daten dahinter zu erreichen

👤 Entwickler, die Daten hinter Login oder Wizards scrapen ⏱ ~40 min intermediate

Wann einsetzen: Öffentliches Dataset verborgen hinter 'Land auswählen → Jahr auswählen → Ansicht klicken'-Flow.

Ablauf
  1. Flow planen
    Use browser-act. Steps: pick country=US, year=2025, click 'View'. Then extract the table.✓ Kopiert
    → Flow-Plan akzeptiert
  2. Ausführen
    Run the flow for 50 country/year combinations.✓ Kopiert
    → Typisierte Zeilen für alle 50
  3. Persistieren
    Write each combo to /data/<country>-<year>.json.✓ Kopiert
    → Dateien in /data/

Ergebnis: Massendaten hinter klickintensiven UIs ohne manuelle Arbeit.

Fallstricke
  • Flow bricht wenn Site einen Schritt hinzufügt oder Button umbenennt — Skill bemerkt und pausiert; Flow einmal neu aufzeichnen, nicht 50-mal
Kombinieren mit: filesystem

Seite auf Änderungen überwachen und alarmieren

👤 Alle, die eine Statusseite / Verfügbarkeits-Tracker beobachten ⏱ ~15 min beginner

Wann einsetzen: Du willst wissen wenn ein Slot frei wird, ein Preis fällt, ein Dokument aktualisiert wird.

Ablauf
  1. Beobachtung definieren
    Use browser-act. Watch <url> selector '.availability-banner' every 10 minutes. Alert if text changes.✓ Kopiert
    → Beobachtung aktiv
  2. Alarmweg definieren
    Alert via: write to ~/inbox/alerts.txt + notify webhook https://<my-webhook>.✓ Kopiert
    → Bei Änderung feuern beide

Ergebnis: Hands-off-Überwachung eines bestimmten Signals.

Fallstricke
  • Zu aggressives Überwachen = blockiert — Mindestens 5-Minuten-Intervalle auf den meisten Sites einhalten; 429s respektieren

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

browser-act-skill + filesystem

Gescrapte Daten in strukturierte Pfade persistieren

Save extraction outputs to /data/<source>/<date>.json with provenance metadata.✓ Kopiert
browser-act-skill + duckduckgo-mcp

Seiten zuerst per Suche finden, dann strukturiert extrahieren

Search via duckduckgo-mcp for the data source; pass the URL into browser-act for typed extraction.✓ Kopiert

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
extract_typed url, schema, wait_for? Strukturierte Daten von einer Seite abrufen Browser run + LLM tokens
run_flow steps[], schema? Mehrstufige Navigation Multi-step browser cost
watch url, selector, interval, action Langfristige Änderungserkennung Per-poll cost
screenshot url, full_page? Visuelles Debugging Browser run

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Abhängig vom Provider; manche Flows kostenlos mit gebündeltem Browser
Tokens pro Aufruf
Schema-gesteuerte Extraktion ist günstiger als rohe Screenshot-und-Denken-Schleifen
Kosten in €
Kostenloser Skill; LLM-Tokens für Extraktion
Tipp
Immer Schema übergeben — undirektierte Extraktion verschwendet Tokens auf Rauschen

Sicherheit

Rechte, Secrets, Reichweite

Minimale Scopes: Outbound HTTPS
Credential-Speicherung: Bei Site-Login Secrets via Umgebungsvariablen; nach einmaligem Scraping rotieren
Datenabfluss: Ziel-Sites + LLM-Provider
Niemals gewähren: Persistente Login-Tokens im Workspace des Skills gespeichert

Fehlerbehebung

Häufige Fehler und Lösungen

Extraktion gibt leeres zurück

Länger auf Selektor warten; Site lädt Daten vielleicht nach Verzögerung oder via XHR nach Klick

Prüfen: Use screenshot tool to verify page state
Site erkennt Bot

Parallelität verringern; User-Agent rotieren; prüfen ob Site Scraping erlaubt

Schema-Mismatch

Typen lockern (string vs number); Site verwendet möglicherweise Formatierung die strenge Typen bricht

Watch feuert wiederholt bei kosmetischen Änderungen

Selektor enger pinnen; oder auf Text-basiertes Diff statt HTML-Diff wechseln

Alternativen

browser-act skills vs. andere

AlternativeWann stattdessenKompromiss
Playwright MCP / chrome-devtools-mcpVollständige Browser-Kontrolle mit allen DevTools-Features benötigtSchwerer; teurer pro Aufruf
Firecrawl MCPSite-weites Crawling, nicht seitenweise typisierte ExtraktionAnderer Ansatz; kostenpflichtig bei ernsthaftem Volumen
duckduckgo-mcp fetch_contentSeite ist reines HTML; kein JS nötigFunktioniert nicht bei SPAs

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen