Installation
Node
Utilisation
- Récupérez une clé d’API sur firecrawl.dev
- Définissez la clé d’API comme variable d’environnement nommée
FIRECRAWL_API_KEY, ou transmettez-la en paramètre à la classeFirecrawlApp.
Node
Scraper une URL
scrape.
Node.js
Crawl d’un site web
crawl. Vous pouvez définir une limite de pages, restreindre le crawl à des domaines spécifiques et choisir les formats de sortie. Consultez Pagination pour la pagination automatique et manuelle.
Node.js
Crawl uniquement via le sitemap
sitemap: "only" pour explorer uniquement les URL du sitemap (l’URL de départ est toujours incluse et la découverte de liens HTML est désactivée).
Node
Démarrer un crawl
startCrawl. La méthode renvoie un ID de tâche que vous pourrez interroger plus tard. Utilisez plutôt crawl lorsque vous voulez bloquer jusqu’à la fin. Voir Pagination pour le comportement de pagination et les limites.
Node
Vérifier l’état du crawl
checkCrawlStatus. Passez l’ID de tâche renvoyé par startCrawl.
Node
Annuler un crawl
cancelCrawl. Passez l’ID de tâche renvoyé par startCrawl.
Node
Cartographier un site web
map. Fournissez une URL de départ et obtenez en retour la liste des pages découvertes.
Node.js
Crawler un site web avec WebSockets
crawlUrlAndWatch. Vous recevez chaque page dès qu’elle est explorée, au lieu d’attendre la fin de la tâche complète.
Node
Pagination
next lorsqu’il reste des données. Le SDK Node effectue, par défaut, une pagination automatique et agrège tous les documents ; dans ce cas, next vaut null. Vous pouvez désactiver la pagination automatique ou définir des limites.
Crawl
crawl pour la solution la plus simple, ou démarrez un job et paginez manuellement.
Exploration simple (pagination automatique, par défaut)
- Voir le flux par défaut dans Exploration d’un site web.
Crawl manuel avec contrôle de la pagination (page unique)
- Lancez un job, puis récupérez les pages une par une avec
autoPaginate: false.
Node
Exploration manuelle avec limites (pagination automatique + arrêt anticipé)
- Conservez la pagination automatique activée, mais arrêtez plus tôt avec
maxPages,maxResultsoumaxWaitTime.
Node
Scrape par lots
batchScrape, ou lancez un job et paginez manuellement.
Collecte par lots simple (pagination automatique, par défaut)
- Voir le flux par défaut dans Batch Scrape.
Scraping par lots manuel avec contrôle de la pagination (page unique)
- Lancez un job, puis récupérez les pages une par une avec
autoPaginate: false.
Node
Scrape manuel par lots avec limites (pagination automatique + arrêt anticipé)
- Laissez la pagination automatique activée, mais arrêtez plus tôt avec
maxPages,maxResultsoumaxWaitTime.
Node
Navigateur
Créer une session
Node
Exécuter du code
Node
Node
Node
Profils
Node
Connexion via le CDP
Node
Lister et fermer les sessions
Node
Session interactive liée au scrape
interact(jobId, {...})exécute du code dans la session de navigateur liée au scrape.- Le premier appel à
interactinitialise automatiquement la session à partir du contexte de scrape. - Les appels suivants à
interactsur le même ID de tâche réutilisent cet état actif du navigateur. stopInteraction(jobId)arrête la session interactive lorsque vous avez terminé.
Node
Gestion des erreurs
try/catch, comme indiqué dans les exemples ci-dessus.
Êtes-vous un agent d’IA qui a besoin d’une clé d’API Firecrawl ? Consultez firecrawl.dev/agent-onboarding/SKILL.md pour obtenir des instructions d’intégration automatisée.

