!) qui lève une exception au lieu de renvoyer des tuples {:error, ...}.
Installation
firecrawl à votre liste de dépendances dans mix.exs et configurez votre clé API :
Elixir
Elixir
Utilisation
- Obtenez une clé API sur firecrawl.dev
- Définissez la clé API dans la configuration de votre application ou passez-la en option à n’importe quelle fonction.
Elixir
Scraper une URL
scrape_and_extract_from_url. Cette fonction renvoie le contenu de la page sous forme de données structurées, y compris le markdown, les métadonnées et tous les autres formats demandés.
Elixir
Effectuer le crawl d’un site web
crawl_urls. Cette méthode prend l’URL de départ ainsi que des paramètres facultatifs, tels que la limite de pages, les domaines autorisés et le format de sortie.
Elixir
Démarrer un crawl
Elixir
Vérifier l’état d’un crawl
get_crawl_status :
Elixir
Annuler un crawl
cancel_crawl :
Elixir
Cartographier un site web
map_urls pour générer une liste d’URL d’un site web :
Elixir
Recherche
Elixir
Extraction par lot
Elixir
Agent
Elixir
Browser
Créer une session
Elixir
Exécuter du code
Elixir
Profils
Elixir
Lister & fermer des sessions
Elixir
Instances autohébergées
base_url :
Elixir
Gestion des erreurs
{:ok, response} ou {:error, exception}. Les variantes bang déclenchent une exception en cas d’erreur. NimbleOptions valide tous les paramètres avant l’envoi de la requête, ce qui permet de détecter immédiatement les fautes de frappe, les champs obligatoires manquants et les erreurs de type.
Elixir
Toutes les fonctions disponibles
| Fonction | Description |
|---|---|
scrape_and_extract_from_url | Scraper une seule URL |
scrape_and_extract_from_urls | Effectuer une extraction par lot de plusieurs URL |
crawl_urls | Effectuer le crawl d’un site web |
get_crawl_status | Vérifier l’état d’une tâche de crawl |
get_crawl_errors | Obtenir les erreurs d’une tâche de crawl |
get_active_crawls | Lister les crawls actifs |
cancel_crawl | Annuler une tâche de crawl |
map_urls | Cartographier les URL d’un site web |
search_and_scrape | Rechercher et scraper les résultats |
start_agent | Démarrer une tâche d’extraction avec un agent |
get_agent_status | Vérifier l’état d’une tâche d’agent |
cancel_agent | Annuler une tâche d’agent |
create_browser_session | Créer une session de navigateur |
execute_browser_code | Exécuter du code dans une session de navigateur |
list_browser_sessions | Lister les sessions de navigateur |
delete_browser_session | Supprimer une session de navigateur |
get_batch_scrape_status | Vérifier l’état d’une extraction par lot |
get_batch_scrape_errors | Obtenir les erreurs d’une extraction par lot |
cancel_batch_scrape | Annuler une extraction par lot |
get_credit_usage | Obtenir les crédits restants |
!) (par exemple, scrape_and_extract_from_url!) qui lève une erreur au lieu de renvoyer des tuples d’erreur.
Pour la documentation complète de l’API, consultez hexdocs.pm/firecrawl.
