Pular para o conteúdo principal
Plugin oficial do Dify: marketplace.dify.ai/plugins/langgenius/firecrawlPlugin oficial da equipe do Dify • mais de 44.000 instalações • Apps de Chatflow e Agent • Gratuito para usar

Visão geral da integração com o Dify

Dify é uma plataforma open source para desenvolvimento de apps com LLM. O plugin oficial do Firecrawl permite fazer crawling e scraping da web diretamente nos seus fluxos de IA.

Apps de Chatflow e Workflow

Crie pipelines visuais com nós do Firecrawl para extração de dados

Aplicativos de Agentes

Dê aos agentes de IA o poder de fazer scraping de dados da web sob demanda, em tempo real

Ferramentas do Firecrawl no Dify

Converta qualquer URL em dados limpos e estruturados. Transforme HTML bruto em insights práticos.Casos de uso: Extraia dados de produtos, faça scraping de conteúdo de artigos, obtenha dados estruturados com o modo JSON.
Realize crawls recursivos de sites e subdomínios para reunir conteúdo em grande escala.Casos de uso: Extração de conteúdo de sites completos, scraping de documentação, coleta de dados em múltiplas páginas.
Gere um mapa completo de todas as URLs presentes em um site.Casos de uso: Análise da estrutura do site, auditoria de SEO, descoberta de URLs para scraping em lote.
Recupere resultados de scraping com base em um ID de job ou cancele tarefas em andamento.Casos de uso: Monitore crawls de longa duração, gerencie fluxos de trabalho de scraping assíncronos, cancele operações quando necessário.

Introdução

1

Instalar o plugin Firecrawl

Acesse o Dify Plugin Marketplace e instale a ferramenta Firecrawl
2

Obter a chave de API do Firecrawl

Visite Firecrawl API Keys e crie uma nova chave de API
3

Autorizar no Dify

Vá em Plugins > Firecrawl > Autorizar e insira sua chave de API
4

Adicionar ao seu fluxo de trabalho

Arraste as ferramentas do Firecrawl para seu Chatflow, Workflow ou aplicação de agente
5

Configurar e testar

Defina os parâmetros e teste seu fluxo de trabalho

Padrões de Uso

  • Apps de Chatflow
  • Apps de Workflow
  • Apps de Agente
Integração em Pipeline Visual
  1. Adicione o nó Firecrawl ao seu pipeline
  2. Selecione a ação (Map, Crawl, Scrape)
  3. Defina as variáveis de entrada
  4. Execute o pipeline de forma sequencial
Exemplo de Fluxo:
Entrada do usuário → Firecrawl (Scrape) → Processamento por LLM → Resposta

Casos de uso comuns

Chatbot de IA com dados em tempo real

Crie chatbots com RAG que fazem scraping e referenciam conteúdo atualizado de sites

Agente de análise de conteúdo

Agentes que pesquisam tópicos por meio de scraping e análise de múltiplas fontes

Monitoramento de concorrentes

Fluxos de trabalho automatizados que acompanham sites de concorrentes e geram alertas sobre alterações

Pipeline de enriquecimento de dados

Extraia e enriqueça dados de sites em bancos de dados estruturados

Ações do Firecrawl

FerramentaDescriçãoMelhor para
ScrapeExtração de dados de uma única páginaCaptura rápida de conteúdo
CrawlRastreamento recursivo de múltiplas páginasExtração completa do site
MapDescoberta de URLs e mapeamento do siteAnálise de SEO, listas de URLs
Crawl JobGerenciamento de tarefas assíncronasOperações de longa duração

Melhores práticas

Agent Apps

  • Deixe os agentes decidirem quando fazer scraping
  • Use instruções em linguagem natural
  • Habilite o uso de ferramentas nas configurações do LLM
  • Monitore o uso de tokens em scrapes grandes

Workflow Apps

  • Use Map antes de Crawl em sites grandes
  • Defina limites de crawl apropriados
  • Adicione nós de tratamento de erros
  • Teste primeiro com conjuntos de dados pequenos

Dify vs Outras Plataformas

RecursoDifyMakeZapiern8n
TipoPlataforma de apps LLMAutomação de fluxos de trabalhoAutomação de fluxos de trabalhoAutomação de fluxos de trabalho
Melhor ParaAgentes de IA e chatbotsFluxos de trabalho visuaisAutomação rápidaControle para desenvolvedores
PreçosOpen source + CloudBaseado em operaçõesPor tarefaMensal fixo
Nativo em IASimParcialParcialParcial
Self-HostedSimNãoNãoSim
Dica Pro: O Dify se destaca na criação de aplicações nativas de IA em que os agentes precisam de acesso dinâmico à web. Perfeito para chatbots, assistentes de pesquisa e ferramentas de IA que precisam de dados em tempo real.