/ Diretório / Playground / browser-act skills
● Comunidade browser-act ⚡ Instantâneo

browser-act skills

por browser-act · browser-act/skills

Navegue, faça scraping e extraia dados estruturados de sites complexos — mais rápido e mais barato do que acionar um headless browser completo.

browser-act é uma skill do Claude para automação web que prioriza extração estruturada em vez de loops de screenshot-e-raciocínio. Visite páginas, navegue em fluxos e extraia dados tipados com seletores explícitos ou prompts guiados por schema. Funciona em sites com JS pesado onde fetches simples retornam nada, mas mais barato que um MCP Playwright completo para muitas tarefas.

Por que usar

Principais recursos

Demo ao vivo

Como fica na prática

pronto

Instalar

Escolha seu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Abra Claude Desktop → Settings → Developer → Edit Config. Reinicie após salvar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Cursor usa o mesmo esquema mcpServers que o Claude Desktop. Config de projeto vence a global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Clique no ícone MCP Servers na barra lateral do Cline, depois "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "browser-act-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ],
      "_inferred": true
    }
  }
}

Mesmo formato do Claude Desktop. Reinicie o Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "browser-act-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/browser-act/skills",
        "~/.claude/skills/browser-act"
      ]
    }
  ]
}

O Continue usa um array de objetos de servidor em vez de um map.

~/.config/zed/settings.json
{
  "context_servers": {
    "browser-act-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/browser-act/skills",
          "~/.claude/skills/browser-act"
        ]
      }
    }
  }
}

Adicione em context_servers. Zed recarrega automaticamente ao salvar.

claude mcp add browser-act-skill -- git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act

Uma linha só. Verifique com claude mcp list. Remova com claude mcp remove.

Casos de uso

Usos do mundo real: browser-act skills

Extrair uma lista tipada de uma SPA com JS pesado

👤 Devs precisando de dados pontuais de sites sem APIs ⏱ ~25 min intermediate

Quando usar: O site renderiza os dados que você precisa apenas após execução de JS; fetch simples retorna nada.

Pré-requisitos
  • Skill instalada — git clone https://github.com/browser-act/skills ~/.claude/skills/browser-act
Fluxo
  1. Definir o schema
    Use browser-act. Schema: items[]{title:str, price:number, available:bool}.✓ Copiado
    → Schema aceito
  2. Visitar + extrair
    Open <url>; wait for the product grid; extract matching the schema.✓ Copiado
    → Lista JSON tipada
  3. Verificar outliers
    Spot-check 3 random rows by re-fetching their detail page; check parsing is correct.✓ Copiado
    → Verificações passam; ou você encontra um bug de parser para corrigir

Resultado: Dados tipados confiáveis; sem navegação manual.

Armadilhas
  • Site detecta bot e bloqueia após 50 requisições — Reduza concorrência; rotacione UA; respeite o robots.txt ou pule a tarefa
Combine com: filesystem

Navegar um formulário multi-etapas para alcançar dados atrás dele

👤 Devs fazendo scraping de dados atrás de login ou wizards ⏱ ~40 min intermediate

Quando usar: Dataset público escondido atrás de um fluxo «selecionar país → selecionar ano → clicar ver».

Fluxo
  1. Planejar o fluxo
    Use browser-act. Steps: pick country=US, year=2025, click 'View'. Then extract the table.✓ Copiado
    → Plano de fluxo aceito
  2. Executar
    Run the flow for 50 country/year combinations.✓ Copiado
    → Linhas tipadas para todas as 50
  3. Persistir
    Write each combo to /data/<country>-<year>.json.✓ Copiado
    → Arquivos em /data/

Resultado: Dados em massa atrás de UIs clicáveis sem trabalho manual.

Armadilhas
  • Fluxo quebra quando o site adiciona uma etapa ou renomeia um botão — Skill percebe e pausa; você re-grava o fluxo uma vez, não 50 vezes
Combine com: filesystem

Monitorar uma página por mudanças e alertar

👤 Qualquer pessoa monitorando página de status / rastreador de disponibilidade ⏱ ~15 min beginner

Quando usar: Você quer saber quando uma vaga abre, um preço cai, um doc atualiza.

Fluxo
  1. Definir o monitoramento
    Use browser-act. Watch <url> selector '.availability-banner' every 10 minutes. Alert if text changes.✓ Copiado
    → Monitoramento ativo
  2. Definir o caminho de alerta
    Alert via: write to ~/inbox/alerts.txt + notify webhook https://<my-webhook>.✓ Copiado
    → Na mudança, ambos disparam

Resultado: Monitoramento passivo de um sinal específico.

Armadilhas
  • Monitorar muito agressivamente = bloqueado — Use intervalos de ≥5 min na maioria dos sites; respeite 429s

Combinações

Combine com outros MCPs para 10× de alavancagem

browser-act-skill + filesystem

Persistir dados raspados em caminhos estruturados

Save extraction outputs to /data/<source>/<date>.json with provenance metadata.✓ Copiado
browser-act-skill + duckduckgo-mcp

Encontrar páginas primeiro via busca, depois extrair estruturado

Search via duckduckgo-mcp for the data source; pass the URL into browser-act for typed extraction.✓ Copiado

Ferramentas

O que este MCP expõe

FerramentaEntradasQuando chamarCusto
extract_typed url, schema, wait_for? Extrair dados estruturados de uma página Execução do browser + tokens de LLM
run_flow steps[], schema? Navegação multi-etapas Custo multi-etapas de browser
watch url, selector, interval, action Detecção de mudança de longa duração Custo por poll
screenshot url, full_page? Depuração visual Execução do browser

Custo e limites

O que custa rodar

Cota de API
Depende do provedor; alguns fluxos são gratuitos com browser incluído
Tokens por chamada
Extração guiada por schema é mais barata que screenshot-e-raciocínio raw
Monetário
Skill gratuita; tokens de LLM para extração
Dica
Sempre passe um schema — extração sem direção desperdiça tokens com ruído

Segurança

Permissões, segredos, alcance

Escopos mínimos: HTTPS de saída
Armazenamento de credenciais: Se fizer login em um site, secrets via variáveis de ambiente; rotacione após scrapes pontuais
Saída de dados: Sites de destino + provedor de LLM
Nunca conceda: Tokens de login persistentes armazenados no workspace da skill

Solução de problemas

Erros comuns e correções

Extração retorna vazio

Aguarde o seletor mais tempo; o site pode carregar dados após um atraso ou via XHR após clique

Verificar: Use a tool screenshot para verificar o estado da página
Site detecta bot

Reduza concorrência; rotacione UA; considere se o site permite scraping

Incompatibilidade de schema

Afrouxe os tipos (string vs number); o site pode usar formatação que quebra tipos estritos

Watch dispara repetidamente em mudanças cosméticas

Restrinja o seletor; ou mude para diff baseado em texto em vez de diff de HTML

Alternativas

browser-act skills vs. outros

AlternativaQuando usarTroca
Playwright MCP / chrome-devtools-mcpVocê precisa de controle completo do browser com todos os recursos DevToolsMais pesado; mais caro por chamada
Firecrawl MCPRastreamento de site inteiro, não extração tipada por páginaFormato diferente; pago para volumes sérios
duckduckgo-mcp fetch_contentPágina é HTML simples; sem JS necessárioNão funciona em SPAs

Mais

Recursos

📖 Leia o README oficial no GitHub

🐙 Ver issues abertas

🔍 Ver todos os 400+ servidores MCP e Skills