Pular para o conteúdo principal

Documentation Index

Fetch the complete documentation index at: https://docs.firecrawl.dev/llms.txt

Use this file to discover all available pages before exploring further.

Se você está desenvolvendo com IA, a Firecrawl oferece vários recursos para melhorar sua experiência. A Firecrawl inclui skills — pacotes de conhecimento autocontidos que agentes de codificação com IA descobrem e usam automaticamente. Com um único comando de instalação, os agentes recebem ferramentas de CLI para trabalhar com a web em tempo real e skills para integrar a Firecrawl ao código da aplicação. Agentes como Claude Code, Cursor, Antigravity e OpenCode podem se conectar sozinhos com um único comando — sem necessidade de configuração humana depois que a chave de API já existir.

Pré-requisito: crie uma chave de API

No momento, exigimos que um humano crie uma conta na Firecrawl. Depois de ter uma conta, você precisará criar uma chave de API. Com uma chave de API, seu agente pode cuidar do restante — instalar a skill, autenticar a CLI, configurar o MCP e fazer chamadas em seu nome.

Obtenha sua chave de API

Cadastre-se e obtenha uma chave de API para começar a usar a Firecrawl.

Skill + CLI

A CLI do Firecrawl permite que seu agente faça busca, scraping, rastreamento, extração e controle um navegador pelo terminal. Ela foi criada para humanos, agentes de IA e pipelines de CI/CD. A Skill do Firecrawl é um pacote de conhecimento autocontido que agentes de programação com IA, como Claude Code, Antigravity e OpenCode, descobrem e usam automaticamente. Um único comando de instalação configura tudo — as ferramentas de CLI para trabalho web em tempo real e as skills de build para integrar o Firecrawl ao código da aplicação:
npx -y firecrawl-cli@latest init --all --browser
  • --all instala a skill do Firecrawl em todos os agentes de programação com IA detectados na máquina
  • --browser abre o navegador para que o humano possa fazer login ou criar uma conta
Após a instalação, verifique se tudo está funcionando:
firecrawl --status
firecrawl scrape "https://firecrawl.dev"

O que a instalação oferece

A instalação configura duas categorias de skills que cobrem todas as formas de um agente usar o Firecrawl: Skills de CLI — para trabalho na web em tempo real durante uma sessão do agente:
SkillPurpose
firecrawl/cliFluxo geral de comandos da CLI
firecrawl-searchFazer uma busca na web e descobrir páginas
firecrawl-scrapeExtrair conteúdo limpo de uma URL conhecida
firecrawl-interactInteragir com uma página ao vivo — cliques, formulários, login
firecrawl-crawlExtrair conteúdo em massa de um site inteiro
firecrawl-mapDescobrir todas as URLs de um domínio
Skills de build — para integrar o Firecrawl ao código da aplicação:
SkillPurpose
firecrawl-buildEscolher o endpoint certo do Firecrawl para o seu produto
firecrawl-build-onboardingAutenticação e configuração do projeto
firecrawl-build-scrapeImplementar scraping no código da aplicação
firecrawl-build-searchImplementar busca no código da aplicação
firecrawl-build-interactImplementar interação no navegador no código da aplicação
firecrawl-build-crawlImplementar rastreamento no código da aplicação
firecrawl-build-mapImplementar descoberta de URLs no código da aplicação

Escolha seu caminho

Ambas as categorias de skill usam a mesma instalação. A diferença está no que acontece depois:
1

Ferramentas web em tempo real (skills de CLI)

Use esta opção quando precisar de dados da web na sessão atual — para buscar na web, fazer scraping de URLs conhecidas, interagir com páginas em tempo real, fazer crawl de documentação ou mapear um site.O fluxo padrão:
  1. Comece com search quando precisar descobrir conteúdo
  2. Vá para scrape quando já tiver uma URL
  3. Use interact apenas quando a página exigir cliques, formulários ou login
# Fazer uma busca na web
firecrawl search "best open-source web crawlers"

# Fazer scraping de uma página em markdown limpo
firecrawl scrape https://docs.firecrawl.dev

# Fazer crawl de um site inteiro
firecrawl crawl https://docs.firecrawl.dev
2

Integração com aplicação (skills de Build)

Use esta opção quando estiver criando uma aplicação, agente ou fluxo de trabalho que chama a API do Firecrawl via código. As skills de build ajudam a escolher o endpoint certo, configurar o SDK e executar um smoke test.O agente responde a uma pergunta central — o que o Firecrawl deve fazer no produto? — e a skill de build encaminha para /search, /scrape, /interact, /crawl ou /map, conforme o caso.
3

API REST (sem necessidade de instalação)

Se preferir não instalar nada, agentes podem chamar a API REST do Firecrawl diretamente. Defina a chave de API e chame os endpoints:
  • POST https://api.firecrawl.dev/v2/search — descobre páginas por consulta
  • POST https://api.firecrawl.dev/v2/scrape — extrai markdown limpo de uma URL
  • POST https://api.firecrawl.dev/v2/interact — ações no navegador em páginas em tempo real
Cabeçalho de autenticação: Authorization: Bearer fc-YOUR_API_KEY
A definição completa da skill está disponível em firecrawl.dev/agent-onboarding/SKILL.md — agentes podem acessá-la diretamente para onboarding automático.

Skill + CLI

Instale a CLI e a skill, autentique-se e execute comandos de scrape, search, crawl, extract e navegador pelo terminal.

Usando o Firecrawl como ferramenta

O Firecrawl oferece aos agentes cinco ferramentas principais para trabalhar com a web. Cada ferramenta corresponde a um endpoint da API e a um comando na CLI. Os agentes escolhem a ferramenta certa com base no que precisam:
Comece por aqui quando você ainda não tiver uma URL. A busca retorna páginas relevantes da web para uma consulta em linguagem natural, com a opção de incluir o conteúdo completo da página nos resultados.
# CLI
firecrawl search "latest OpenAI API pricing"
# API REST
curl -X POST https://api.firecrawl.dev/v2/search \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"query": "latest OpenAI API pricing"}'
Quando usar: Tarefas de pesquisa, busca de documentação, análise competitiva, resposta a perguntas que exigem informações atualizadas da web.
Use-o quando você já tiver uma URL e precisar de conteúdo limpo, pronto para LLM. O Scrape converte qualquer página da web em markdown, HTML ou dados estruturados — lidando automaticamente com renderização de JavaScript, medidas anti-bot e HTML desorganizado.
# CLI
firecrawl scrape https://docs.stripe.com/api/charges
# API REST
curl -X POST https://api.firecrawl.dev/v2/scrape \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.stripe.com/api/charges"}'
Quando usar: Leitura de documentação, extração de conteúdo de artigos, coleta de dados de uma página conhecida, conversão de páginas da web em contexto para LLMs.
O Crawl segue links recursivamente a partir de uma URL inicial e faz scraping de todas as páginas que encontra. Use-o quando você precisar de conteúdo de um site inteiro ou de um conjunto de documentação, e não apenas de uma única página.
# CLI
firecrawl crawl https://docs.firecrawl.dev --limit 50
# API REST
curl -X POST https://api.firecrawl.dev/v2/crawl \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.firecrawl.dev", "limit": 50}'
Quando usar: Ingestão de sites completos de documentação, criação de bases de conhecimento, migração de conteúdo, coleta de dados de treinamento.
O Map descobre rapidamente todas as URLs indexadas em um domínio sem fazer scraping do conteúdo. Use-o quando você precisar entender a estrutura de um site ou encontrar páginas específicas antes de extrair o conteúdo delas.
# CLI
firecrawl map https://docs.firecrawl.dev
# API REST
curl -X POST https://api.firecrawl.dev/v2/map \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://docs.firecrawl.dev"}'
Quando usar: Auditorias de site, busca de páginas específicas em um site grande, entendimento da estrutura do site antes de um rastreamento direcionado.
O Interact dá aos agentes controle sobre uma sessão remota no navegador. Use-o quando uma página exigir cliques, preenchimento de formulários, login ou qualquer ação além da leitura passiva.
# CLI
firecrawl interact https://example.com --instruction "Click the login button, fill in the email field"
# API REST
curl -X POST https://api.firecrawl.dev/v2/interact \
  -H "Authorization: Bearer fc-YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"url": "https://example.com", "instruction": "Click the login button"}'
Quando usar: Páginas protegidas por login, preenchimento de formulários, navegação em fluxos de várias etapas, interação com SPAs dinâmicas.

Como os agentes encadeiam ferramentas

A maioria dos fluxos de trabalho de agentes combina várias ferramentas. Um padrão típico:
  1. Search para encontrar páginas relevantes → obter uma lista de URLs
  2. Scrape das URLs mais relevantes → obter conteúdo limpo
  3. Interact apenas se uma página exigir cliques ou login → lidar com conteúdo dinâmico
Para tarefas em massa, os agentes usam Map primeiro para descobrir URLs e, depois, Crawl ou Scrape seletivamente as páginas de que precisam.

servidor MCP do Firecrawl

MCP é um protocolo aberto que padroniza como os aplicativos fornecem contexto aos LLMs. Entre outros benefícios, ele oferece aos LLMs ferramentas para agir em seu nome. Nosso servidor MCP é de código aberto e abrange toda a nossa API — busca, scraping, rastreamento, mapeamento, extração, agente e sessões do navegador. Use a URL hospedada remotamente:
https://mcp.firecrawl.dev/{FIRECRAWL_API_KEY}/v2/mcp
Ou adicione o servidor local em qualquer cliente MCP:
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": ["-y", "firecrawl-mcp"],
      "env": {
        "FIRECRAWL_API_KEY": "fc-YOUR-API-KEY"
      }
    }
  }
}

servidor MCP

Veja as instruções de instalação para Cursor, Claude Desktop, Windsurf, VS Code e outros.

Documentação do Firecrawl para agentes

Você pode fornecer ao seu agente a documentação atual do Firecrawl de forma contextual. Os agentes podem começar a usar por conta própria ao buscar esses recursos diretamente — sem configuração manual por humanos.
1

Docs em markdown

Cada página tem uma versão em markdown. Adicione .md a qualquer URL da documentação ou use o menu de ações da página para copiar a página em markdown.
Docs desta página: https://docs.firecrawl.dev/ai-onboarding.md
2

llms.txt completo

Forneça ao seu agente toda a nossa documentação em um único arquivo.
Aqui estão os docs do Firecrawl: https://docs.firecrawl.dev/llms-full.txt
Uma versão resumida do índice também está disponível em https://docs.firecrawl.dev/llms.txt.
3

Servidor de docs MCP

Para uma abordagem estruturada com ferramentas MCP, conecte o servidor MCP do Firecrawl em qualquer cliente MCP (Cursor, Claude Code, Claude Desktop, Windsurf). Consulte a página servidor MCP para ver os comandos de instalação.
4

Copiar para ChatGPT / Claude

Cada página inclui um menu de ações contextual (copiar, visualizar em markdown, abrir no ChatGPT, abrir no Claude), para que agentes e humanos possam mover páginas entre ferramentas com um clique.

Guias de início rápido

Guias de início rápido prontos para uso para as stacks que os agentes mais usam. Aponte seu agente para qualquer um deles para gerar uma integração Firecrawl funcional de ponta a ponta. Prefere deixar o Cursor fazer o trabalho? Instale o servidor MCP do Firecrawl com um clique e comece a enviar prompts no Cursor: Abrir no Cursor — Adicionar servidor MCP do Firecrawl

Node.js

JavaScript e TypeScript do lado do servidor com o SDK de Node do Firecrawl.

Next.js

Faça scraping, busca e rastreamento com route handlers e server actions do Next.js.

Python

Use o Firecrawl em scripts, notebooks e serviços de backend.

FastAPI

Crie APIs Python assíncronas para busca, scraping e extração.

Cloudflare Workers

Execute o Firecrawl na edge com Workers.

Vercel Functions

Chame o Firecrawl a partir de funções serverless da Vercel.

AWS Lambda

Invoque o Firecrawl a partir de handlers do Lambda.

Supabase Edge Functions

Use o Firecrawl no runtime Deno do Supabase.

Go

SDK Go idiomático para busca, scraping e rastreamento.

Rust

SDK Rust tipado para Firecrawl.

Laravel

Adicione o Firecrawl a apps Laravel com o SDK PHP.

Rails

Use o Firecrawl no Ruby on Rails.
Veja a lista completa de guias de início rápido (Express, NestJS, Fastify, Hono, Bun, Remix, Nuxt, SvelteKit, Astro, Mastra, Django, Flask, Elixir, Java, Spring Boot, .NET, ASP.NET Core e mais) na barra lateral esquerda.

Integrações com agentes

O Firecrawl funciona com os runtimes e frameworks em que os agentes realmente rodam — agentes de código, agentes de navegador, SDKs de agentes e agregadores de modelos. A maioria desses ambientes de codificação consegue descobrir automaticamente a skill do Firecrawl via npx -y firecrawl-cli@latest init --all; os demais usam o Firecrawl como ferramenta via MCP ou API REST.

OpenClaw

Especificação aberta para controle de navegador por agentes com sessões em sandbox.

Claude Code

CLI da Anthropic — configure o Firecrawl MCP no Claude Code.

Cursor

Agente para IDE — instale o Firecrawl MCP no Cursor com um clique.

OpenCode

Conecte o Firecrawl MCP ao OpenCode.

Codex CLI

Conecte o Firecrawl MCP ao OpenAI Codex CLI.

OpenRouter

Combine qualquer modelo do OpenRouter com as ferramentas web do Firecrawl.

Amp

Conecte o Firecrawl MCP ao Sourcegraph Amp.

Windsurf

IDE com agentes — configure o Firecrawl MCP no Windsurf.

Antigravity

Adicione o Firecrawl MCP à IDE com agentes do Google.

Gemini CLI

Conecte o Firecrawl MCP ao Google Gemini CLI.

Nous Research

Use o Firecrawl como ferramenta com modelos Hermes.

AutoGen

Ferramentas do Firecrawl nas equipes multiagente do Microsoft AutoGen.

SDKs

SDKs oficiais, com tipagem, que abrangem toda a API do Firecrawl. Aponte seu agente para a linguagem correspondente à sua stack.

Python

Node

Go

Java

Ruby

Rust

.NET

PHP

Elixir

CLI

O Firecrawl também oferece bindings de SDK de primeira classe para os principais SDKs de LLM e frameworks de agente — veja SDKs e frameworks de LLM para OpenAI, Anthropic, Gemini, Google ADK, Vercel AI SDK, LangChain, LangGraph, LlamaIndex, Mastra e ElevenAgents.