Para instalar el SDK de Firecrawl para Java, agrega la dependencia a tu proyecto:
Gradle (Kotlin DSL)
Gradle (Groovy)
Maven
repositories {
mavenCentral()
maven { url = uri("https://jitpack.io") }
}
dependencies {
implementation("com.github.firecrawl:firecrawl-java-sdk:2.0")
}
repositories {
mavenCentral()
maven { url 'https://jitpack.io' }
}
dependencies {
implementation 'com.github.firecrawl:firecrawl-java-sdk:2.0'
}
<repositories>
<repository>
<id>jitpack.io</id>
<url>https://jitpack.io</url>
</repository>
</repositories>
<dependency>
<groupId>com.github.firecrawl</groupId>
<artifactId>firecrawl-java-sdk</artifactId>
<version>2.0</version>
</dependency>
Requiere Java 17 o posterior.
- Obtén una clave API de firecrawl.dev
- Configura la clave API como una variable de entorno llamada
FIRECRAWL_API_KEY o pásala al constructor de FirecrawlClient.
Aquí tienes un ejemplo de cómo usar el SDK con control de errores:
import dev.firecrawl.client.FirecrawlClient;
import dev.firecrawl.exception.ApiException;
import dev.firecrawl.exception.FirecrawlException;
import dev.firecrawl.model.*;
import java.io.IOException;
import java.time.Duration;
import java.util.UUID;
public class Example {
public static void main(String[] args) {
FirecrawlClient client = new FirecrawlClient(
System.getenv("FIRECRAWL_API_KEY"),
null,
Duration.ofSeconds(60)
);
try {
// Hacer scrape de una URL
ScrapeParams scrapeParams = new ScrapeParams();
scrapeParams.setFormats(new String[]{"markdown"});
FirecrawlDocument doc = client.scrapeURL("https://firecrawl.dev", scrapeParams);
System.out.println(doc.getMarkdown());
// Rastrear un sitio web
CrawlParams crawlParams = new CrawlParams();
crawlParams.setLimit(5);
CrawlStatusResponse job = client.crawlURL(
"https://firecrawl.dev",
crawlParams,
UUID.randomUUID().toString(),
5
);
if ("completed".equalsIgnoreCase(job.getStatus()) && job.getData() != null) {
for (FirecrawlDocument page : job.getData()) {
System.out.println(page.getMetadata().get("sourceURL"));
}
}
} catch (ApiException e) {
System.err.println("API error " + e.getStatusCode() + ": " + e.getResponseBody());
} catch (FirecrawlException e) {
System.err.println("Firecrawl error: " + e.getMessage());
} catch (IOException e) {
System.err.println("Network error: " + e.getMessage());
}
}
}
Para extraer los datos de una sola URL, usa el método scrapeURL. Toma la URL como parámetro y devuelve los datos extraídos como un FirecrawlDocument.
ScrapeParams params = new ScrapeParams();
params.setFormats(new String[]{"markdown", "html"});
params.setOnlyMainContent(true);
params.setWaitFor(5000);
FirecrawlDocument doc = client.scrapeURL("https://firecrawl.dev", params);
System.out.println(doc.getMarkdown());
System.out.println(doc.getMetadata().get("title"));
Extrae datos estructurados mediante el endpoint Extract especificando un esquema JSON y un prompt:
import dev.firecrawl.model.ExtractParams;
import dev.firecrawl.model.ExtractResponse;
import dev.firecrawl.model.ExtractStatusResponse;
import java.util.Map;
ExtractParams extractParams = new ExtractParams(new String[]{"https://firecrawl.dev"});
extractParams.setPrompt("Extract the product name and price");
extractParams.setSchema(Map.of(
"type", "object",
"properties", Map.of(
"name", Map.of("type", "string"),
"price", Map.of("type", "number")
)
));
ExtractResponse start = client.extract(extractParams);
ExtractStatusResponse result = client.getExtractStatus(start.getId());
System.out.println(result.getData());
Para rastrear un sitio web, usa el método crawlURL. Este método recibe la URL inicial y parámetros opcionales como argumentos. crawlURL puede consultar periódicamente y devolver los documentos rastreados.
CrawlParams crawlParams = new CrawlParams();
crawlParams.setLimit(50);
crawlParams.setMaxDiscoveryDepth(3);
ScrapeParams scrapeParams = new ScrapeParams();
scrapeParams.setFormats(new String[]{"markdown"});
crawlParams.setScrapeOptions(scrapeParams);
CrawlStatusResponse job = client.crawlURL(
"https://firecrawl.dev",
crawlParams,
UUID.randomUUID().toString(),
10
);
System.out.println("Status: " + job.getStatus());
System.out.println("Pages crawled: " + (job.getData() != null ? job.getData().length : 0));
if (job.getData() != null) {
for (FirecrawlDocument doc : job.getData()) {
System.out.println(doc.getMetadata().get("sourceURL"));
}
}
Inicia un trabajo de forma asíncrona con startCrawl. Devuelve un ID de trabajo que puedes usar para consultar su estado.
CrawlParams crawlParams = new CrawlParams();
crawlParams.setLimit(100);
CrawlResponse start = client.startCrawl("https://firecrawl.dev", crawlParams);
System.out.println("Job ID: " + start.getId());
Comprobar el estado del rastreo
Para comprobar el estado de un trabajo de rastreo, usa el método getCrawlStatus. Recibe el ID del trabajo como parámetro y devuelve el estado actual del trabajo de rastreo.
CrawlStatusResponse status = client.getCrawlStatus(start.getId());
System.out.println("Status: " + status.getStatus());
System.out.println("Progress: " + status.getCompleted() + "/" + status.getTotal());
Para cancelar un trabajo de rastreo, utiliza el método cancelCrawlJob. Recibe el ID del trabajo como parámetro y devuelve el estado de la cancelación.
CancelCrawlJobResponse result = client.cancelCrawlJob(start.getId());
System.out.println(result);
Para mapear un sitio web, utiliza el método mapURL. Toma la URL inicial como parámetro y devuelve las URL encontradas.
MapParams mapParams = new MapParams();
mapParams.setLimit(100);
mapParams.setSearch("blog");
MapResponse data = client.mapURL("https://firecrawl.dev", mapParams);
if (data.getLinks() != null) {
for (String link : data.getLinks()) {
System.out.println(link);
}
}
Busca en la web y, si lo deseas, extrae los resultados con el método search.
SearchParams searchParams = new SearchParams("firecrawl web scraping");
searchParams.setLimit(10);
SearchResponse results = client.search(searchParams);
if (results.getResults() != null) {
for (SearchResult result : results.getResults()) {
System.out.println(result.getTitle() + " — " + result.getUrl());
}
}
Extrae varias URL en paralelo con el método batchScrape.
BatchScrapeParams batchParams = new BatchScrapeParams(new String[]{
"https://firecrawl.dev",
"https://firecrawl.dev/blog"
});
ScrapeParams batchScrapeOptions = new ScrapeParams();
batchScrapeOptions.setFormats(new String[]{"markdown"});
batchParams.setScrapeOptions(batchScrapeOptions);
BatchScrapeResponse start = client.batchScrape(batchParams);
BatchScrapeStatusResponse status = client.getBatchScrapeStatus(start.getId());
if (status.getData() != null) {
for (FirecrawlDocument doc : status.getData()) {
System.out.println(doc.getMarkdown());
}
}
Ejecuta un agente con IA para investigar y extraer datos de la web.
AgentParams params = new AgentParams("Find the pricing plans for Firecrawl and compare them");
AgentResponse start = client.createAgent(params);
AgentStatusResponse result = client.getAgentStatus(start.getId());
System.out.println(result.getData());
Con un esquema JSON para una salida estructurada:
AgentParams params = new AgentParams("Extract pricing plan details");
params.setUrls(new String[]{"https://firecrawl.dev"});
params.setSchema(Map.of(
"type", "object",
"properties", Map.of(
"plans", Map.of(
"type", "array",
"items", Map.of(
"type", "object",
"properties", Map.of(
"name", Map.of("type", "string"),
"price", Map.of("type", "string")
)
)
)
)
));
AgentResponse start = client.createAgent(params);
AgentStatusResponse result = client.getAgentStatus(start.getId());
System.out.println(result.getData());
Consulta el uso de tus créditos y tokens:
AccountCreditUsageResponse credits = client.getCreditUsage();
System.out.println("Remaining credits: " + credits.getData().getRemainingCredits());
AccountTokenUsageResponse tokens = client.getTokenUsage();
System.out.println("Remaining tokens: " + tokens.getData().getRemainingTokens());
El SDK de Java proporciona métodos síncronos. Si necesitas un comportamiento sin bloqueo, encapsula las llamadas en CompletableFuture o usa tu propio executor:
import java.util.concurrent.CompletableFuture;
CompletableFuture<FirecrawlDocument> future = CompletableFuture.supplyAsync(() -> {
try {
ScrapeParams params = new ScrapeParams();
params.setFormats(new String[]{"markdown"});
return client.scrapeURL("https://firecrawl.dev", params);
} catch (Exception e) {
throw new RuntimeException(e);
}
});
future.thenAccept(doc -> System.out.println(doc.getMarkdown()));
Browser Sandbox está disponible a través de la API REST. En Java, puedes llamar directamente a los endpoints del navegador con el HttpClient estándar.
import java.net.URI;
import java.net.http.HttpClient;
import java.net.http.HttpRequest;
import java.net.http.HttpResponse;
HttpClient http = HttpClient.newHttpClient();
HttpRequest request = HttpRequest.newBuilder()
.uri(URI.create("https://api.firecrawl.dev/v2/browser"))
.header("Authorization", "Bearer " + System.getenv("FIRECRAWL_API_KEY"))
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString("{\"ttl\":120,\"activityTtl\":60}"))
.build();
HttpResponse<String> response = http.send(request, HttpResponse.BodyHandlers.ofString());
System.out.println(response.body()); // contiene el id de sesión, cdpUrl, liveViewUrl
String sessionId = "YOUR_SESSION_ID";
HttpRequest request = HttpRequest.newBuilder()
.uri(URI.create("https://api.firecrawl.dev/v2/browser/" + sessionId + "/execute"))
.header("Authorization", "Bearer " + System.getenv("FIRECRAWL_API_KEY"))
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(
"{\"code\":\"await page.goto(\\\\\"https://example.com\\\\\"); const t = await page.title(); console.log(t);\",\"language\":\"node\"}"
))
.build();
HttpResponse<String> response = http.send(request, HttpResponse.BodyHandlers.ofString());
System.out.println(response.body());
// Listar sesiones activas
HttpRequest list = HttpRequest.newBuilder()
.uri(URI.create("https://api.firecrawl.dev/v2/browser?status=active"))
.header("Authorization", "Bearer " + System.getenv("FIRECRAWL_API_KEY"))
.GET()
.build();
HttpResponse<String> listResponse = http.send(list, HttpResponse.BodyHandlers.ofString());
System.out.println(listResponse.body());
// Cerrar una sesión
HttpRequest close = HttpRequest.newBuilder()
.uri(URI.create("https://api.firecrawl.dev/v2/browser"))
.header("Authorization", "Bearer " + System.getenv("FIRECRAWL_API_KEY"))
.header("Content-Type", "application/json")
.method("DELETE", HttpRequest.BodyPublishers.ofString("{\"id\":\"" + sessionId + "\"}"))
.build();
HttpResponse<String> closeResponse = http.send(close, HttpResponse.BodyHandlers.ofString());
System.out.println(closeResponse.body());
El constructor de FirecrawlClient admite las siguientes opciones:
| Opción | Tipo | Predeterminado | Descripción |
|---|
apiKey | String | variable de entorno FIRECRAWL_API_KEY | Tu clave de API de Firecrawl |
apiUrl | String | https://api.firecrawl.dev | URL base de la API (o la variable de entorno FIRECRAWL_API_URL) |
timeout | Duration | null | Tiempo de espera de la solicitud HTTP |
import java.time.Duration;
FirecrawlClient client = new FirecrawlClient(
System.getenv("FIRECRAWL_API_KEY"),
"https://api.firecrawl.dev",
Duration.ofSeconds(300)
);
El SDK lanza ApiException para errores HTTP y FirecrawlException para otros errores del SDK.
import dev.firecrawl.exception.ApiException;
import dev.firecrawl.exception.FirecrawlException;
try {
ScrapeParams params = new ScrapeParams();
params.setFormats(new String[]{"markdown"});
FirecrawlDocument doc = client.scrapeURL("https://firecrawl.dev", params);
} catch (ApiException e) {
System.err.println("API error " + e.getStatusCode() + ": " + e.getResponseBody());
} catch (FirecrawlException e) {
System.err.println("Firecrawl error: " + e.getMessage());
} catch (IOException e) {
System.err.println("Network error: " + e.getMessage());
}