/ Каталог / Песочница / browser-act skills
● Сообщество browser-act ⚡ Сразу

browser-act skills

автор browser-act · browser-act/skills

Просмотр, скрейпинг и извлечение структурированных данных со сложных сайтов — быстрее и дешевле полноценного headless-браузера.

browser-act — Claude-скилл для веб-автоматизации, ориентированный на структурированное извлечение вместо циклов скриншот-и-думай. Посещайте страницы, навигируйте по флоу и извлекайте типизированные данные с явными селекторами или промптами с JSON Schema. Работает на JS-тяжёлых сайтах, где DDG-style fetch ничего не возвращает, но дешевле полного Playwright MCP для многих задач.

Зачем использовать

Ключевые функции

Живое демо

Как выглядит на практике

готово

Установка

Выберите клиент

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Откройте Claude Desktop → Settings → Developer → Edit Config. Перезапустите после сохранения.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Cursor использует ту же схему mcpServers, что и Claude Desktop. Конфиг проекта приоритетнее глобального.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Щёлкните значок MCP Servers на боковой панели Cline, затем "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Тот же формат, что и Claude Desktop. Перезапустите Windsurf для применения.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "browser-act-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ]
    }
  ]
}

Continue использует массив объектов серверов, а не map.

~/.config/zed/settings.json
{
  "context_servers": {
    "browser-act-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/browser-act/skills",
          "~/.claude/skills/browser-act"
        ]
      }
    }
  }
}

Добавьте в context_servers. Zed перезагружается автоматически.

claude mcp add browser-act-skill -- git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act

Однострочная команда. Проверить: claude mcp list. Удалить: claude mcp remove.

Сценарии использования

Реальные сценарии: browser-act skills

Извлечь типизированный список из JS-тяжёлого SPA

👤 Разработчики, которым нужны разовые данные с сайтов без API ⏱ ~25 min intermediate

Когда использовать: Сайт рендерит нужные данные только после выполнения JS; обычный fetch ничего не возвращает.

Предварительные требования
  • Скилл установлен — git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act
Поток
  1. Определить схему
    Use browser-act. Schema: items[]{title:str, price:number, available:bool}.✓ Скопировано
    → Схема принята
  2. Посетить и извлечь
    Open <url>; wait for the product grid; extract matching the schema.✓ Скопировано
    → Типизированный JSON-список
  3. Проверить выбросы
    Spot-check 3 random rows by re-fetching their detail page; check parsing is correct.✓ Скопировано
    → Проверки пройдены или найден баг парсера

Итог: Надёжные типизированные данные без ручного клика.

Подводные камни
  • Сайт блокирует после 50 запросов из-за защиты от ботов — Снизить параллелизм, ротировать UA, соблюдать robots.txt или пропустить задачу
Сочетать с: filesystem

Пройти многошаговую форму для доступа к данным за ней

👤 Разработчики, скрейпящие данные за логином или визардами ⏱ ~40 min intermediate

Когда использовать: Публичный датасет скрыт за флоу «выбрать страну → выбрать год → нажать Просмотр».

Поток
  1. Спланировать флоу
    Use browser-act. Steps: pick country=US, year=2025, click 'View'. Then extract the table.✓ Скопировано
    → План флоу принят
  2. Выполнить
    Run the flow for 50 country/year combinations.✓ Скопировано
    → Типизированные строки для всех 50
  3. Сохранить
    Write each combo to /data/<country>-<year>.json.✓ Скопировано
    → Файлы в /data/

Итог: Массовые данные за кликабельными UI без ручного труда.

Подводные камни
  • Флоу ломается, когда сайт добавляет шаг или переименовывает кнопку — Скилл замечает и делает паузу; перезапишите флоу один раз, а не 50
Сочетать с: filesystem

Мониторить страницу на изменения и получать алерты

👤 Все, кто следит за страницами статусов или трекерами доступности ⏱ ~15 min beginner

Когда использовать: Нужно знать, когда откроется слот, упадёт цена или обновится документ.

Поток
  1. Настроить слежение
    Use browser-act. Watch <url> selector '.availability-banner' every 10 minutes. Alert if text changes.✓ Скопировано
    → Слежение активно
  2. Настроить путь алерта
    Alert via: write to ~/inbox/alerts.txt + notify webhook https://<my-webhook>.✓ Скопировано
    → При изменении оба срабатывают

Итог: Мониторинг конкретного сигнала без участия человека.

Подводные камни
  • Слишком агрессивное слежение приводит к блокировке — Соблюдать интервал ≥5 минут на большинстве сайтов; уважать 429

Комбинации

Сочетайте с другими MCP — эффект x10

browser-act-skill + filesystem

Сохранять скрейпнутые данные по структурированным путям

Save extraction outputs to /data/<source>/<date>.json with provenance metadata.✓ Скопировано
browser-act-skill + duckduckgo-mcp

Сначала найти страницы через поиск, потом извлечь структурированные данные

Search via duckduckgo-mcp for the data source; pass the URL into browser-act for typed extraction.✓ Скопировано

Инструменты

Что предоставляет этот MCP

ИнструментВходные данныеКогда вызыватьСтоимость
extract_typed url, schema, wait_for? Получить структурированные данные со страницы Browser run + LLM tokens
run_flow steps[], schema? Многошаговая навигация Multi-step browser cost
watch url, selector, interval, action Длительное обнаружение изменений Per-poll cost
screenshot url, full_page? Визуальная отладка Browser run

Стоимость и лимиты

Во что обходится

Квота API
Зависит от провайдера; некоторые флоу бесплатны со встроенным браузером
Токенов на вызов
Извлечение по схеме дешевле, чем скриншот-и-думай
Деньги
Скилл бесплатный; LLM-токены за извлечение
Совет
Всегда передавайте схему — ненаправленное извлечение тратит токены на шум

Безопасность

Права, секреты, радиус поражения

Минимальные скоупы: Outbound HTTPS
Хранение учётных данных: При логине на сайт — секреты через env vars; ротировать после разовых скрейпов
Исходящий трафик: Целевые сайты + LLM-провайдер
Никогда не давайте: Persistent login tokens stored in the skill's workspace

Устранение неполадок

Частые ошибки и исправления

Извлечение возвращает пустой результат

Увеличить время ожидания селектора; сайт может загружать данные после задержки или через XHR после клика

Проверить: Use screenshot tool to verify page state
Сайт обнаруживает бота

Снизить параллелизм, ротировать UA, проверить разрешает ли сайт скрейпинг

Несоответствие схемы

Ослабить типы (string vs number); форматирование сайта может ломать строгие типы

Watch срабатывает повторно на косметические изменения

Уточнить селектор; или переключиться с HTML diff на текстовый diff

Альтернативы

browser-act skills в сравнении

АльтернативаКогда использоватьКомпромисс
Playwright MCP / chrome-devtools-mcpНужен полный контроль браузера со всеми функциями DevToolsТяжелее; дороже за вызов
Firecrawl MCPНужен краулинг всего сайта, а не постраничное типизированное извлечениеДругая форма; платный при серьёзных объёмах
duckduckgo-mcp fetch_contentСтраница — простой HTML; JS не нуженНе работает на SPA

Ещё

Ресурсы

📖 Читать официальный README на GitHub

🐙 Открытые задачи

🔍 Все 400+ MCP-серверов и Skills