Coleta em lote de várias URLs
Como funciona
/crawl
. Você pode iniciar o lote e aguardar a conclusão ou iniciá-lo e lidar com a conclusão por conta própria.
batchScrape
(JS) /batch_scrape
(Python): inicia um job em lote e aguarda a conclusão, retornando os resultados.startBatchScrape
(JS) /start_batch_scrape
(Python): inicia um job em lote e retorna o ID do job para que você possa fazer polling ou usar webhooks.
Uso
Resposta
- Chamar
batchScrape
/batch_scrape
retorna os resultados completos quando o lote for concluído.
Concluído
- Chamar
startBatchScrape
/start_batch_scrape
retorna um ID de tarefa que você pode acompanhar porgetBatchScrapeStatus
/get_batch_scrape_status
, pelo endpoint da API/batch/scrape/{id}
ou por webhooks. Este endpoint se destina a verificações em andamento ou imediatamente após a conclusão, pois tarefas em lote expiram após 24 horas.
Coleta em lote com extração estruturada
Resposta
batchScrape
/batch_scrape
retorna os resultados completos:
Concluído
startBatchScrape
/start_batch_scrape
retorna um ID de tarefa:
Extração em lote com webhooks
cURL
Referência rápida
batch_scrape.started
- Quando a raspagem em lote é iniciadabatch_scrape.page
- Para cada URL raspada com sucessobatch_scrape.completed
- Quando todas as URLs forem processadasbatch_scrape.failed
- Se a raspagem em lote encontrar um erro
Para ver configurações detalhadas de webhooks, práticas recomendadas de segurança e dicas de solução de problemas, acesse a documentação de webhooks.