/agent は、検索・ナビゲーション・データ収集を自動で行い、最も幅広い種類の Web サイトからでも、通常はアクセスしづらい場所のデータを見つけ出し、他のどの API にもできない方法でデータを発見する魔法のような API です。人間なら何時間もかかるエンドツーエンドのデータ収集を、スクリプトや手作業なしで数分で完了させます。
単一のデータポイントが欲しい場合でも、大規模なデータセット全体が必要な場合でも、Firecrawl の /agent がデータ取得を代わりに行います。
/agent は、あらゆる場所にあるデータに対する「ディープリサーチ」と考えてください!
Research Preview (研究プレビュー) : Agent はアーリーアクセス段階です。動作が荒削りな部分がありますが、今後大きく改善されていきます。フィードバックを共有する →
/extract の優れた点をすべて引き継ぎつつ、さらに強化しています:
- URL 不要: 必要な内容を
promptパラメータで記述するだけでよく、URL は任意です - ディープ Web 検索: サイト内を自律的に検索・巡回し、必要なデータを深部まで探索
- 高い信頼性と正確性: 幅広い種類のクエリやユースケースで安定して動作
- 高速: 複数ソースを並列処理して結果を素早く取得
Playground で試す
コードは不要で、インタラクティブな Playground 上でエージェントを試せます。
/agent の使用
prompt のみです。どのようなデータを抽出したいかを記述してください。構造化された出力を得るには、JSON スキーマを指定してください。各 SDK は、型安全なスキーマ定義のために Pydantic (Python) と Zod (Node) をサポートしています:
レスポンス
JSON
URL を指定する場合 (任意)
ジョブのステータスと完了
- デフォルトの方法:
agent()が完了まで待機し、最終結果を返します - 開始してポーリング:
start_agent(Python) またはstartAgent(Node) で即座に Job ID を取得し、その後get_agent_status/getAgentStatusでポーリングします
ジョブ結果は完了後 24 時間のあいだ API 経由で取得できます。この期間を過ぎても、activity logs から Agent の履歴と結果を参照できます。
考えられるステータス
| ステータス | 説明 |
|---|---|
processing | エージェントがリクエストを処理中です |
completed | 抽出が正常に完了しました |
failed | 抽出中にエラーが発生しました |
cancelled | ジョブはユーザーによってキャンセルされました |
保留状態の例
JSON
完成例
JSON
モデルの選択
| Model | Cost | Accuracy | Best For |
|---|---|---|---|
spark-1-mini | 60% 安価 | 標準 | ほとんどのタスク (デフォルト) |
spark-1-pro | 標準 | より高い | 複雑なリサーチ、重要度の高い抽出 |
Spark 1 Mini (デフォルト)
spark-1-mini は効率的なモデルで、シンプルなデータ抽出タスクに最適です。
Mini を使うのに適したケース:
- 単純なデータ項目 (連絡先情報、価格情報など) を抽出するとき
- 構造が整理された Web サイトを扱うとき
- コスト効率を重視するとき
- 大量の抽出ジョブを実行するとき
Spark 1 Pro
spark-1-pro は、複雑な抽出タスクで最大限の精度を発揮するよう設計された、当社のフラッグシップモデルです。
次のような場合は Pro を使用してください:
- 複雑な競合分析を行う場合
- 深い推論が必要なデータを抽出する場合
- 精度がユースケースにおいて極めて重要な場合
- あいまい、または取得が難しいデータを扱う場合
モデルの指定
model パラメーターで指定します。
パラメータ
| Parameter | Type | Required | Description |
|---|---|---|---|
prompt | string | Yes | 抽出したいデータを自然言語で記述した文字列 (最大 10,000 文字) |
model | string | No | 使用するモデル: spark-1-mini (デフォルト) または spark-1-pro |
urls | array | No | 抽出対象を絞り込むための任意の URL リスト |
schema | object | No | 構造化された出力のための任意の JSON スキーマ |
maxCredits | number | No | このエージェントタスクで使用するクレジットの最大数。設定しない場合、デフォルトは 2,500 です。ダッシュボードでは 2,500 までの値をサポートしています。これを超える上限を設定するには、API 経由で maxCredits を指定してください (2,500 を超える値は常に有料リクエストとして扱われます)。上限に達するとジョブは失敗し、データは一切返されません が、実行された作業で消費されたクレジットは請求されます。 |
Agent と Extract:何が改善されたか
| 項目 | Agent (新) | Extract |
|---|---|---|
| URL の指定 | 不要 | 必要 |
| 速度 | 高速 | 標準 |
| コスト | 低コスト | 標準 |
| 信頼性 | 高い | 標準 |
| クエリの柔軟性 | 高い | 中程度 |
利用例
- リサーチ: 「有望なAIスタートアップ上位5社とその資金調達額を調べる」
- 競合分析: 「SlackとMicrosoft Teamsの料金プランを比較する」
- データ収集: 「企業のWebサイトから連絡先情報を抽出する」
- コンテンツ要約: 「Webスクレイピングに関する最新のブログ記事を要約する」
Agent Playground での CSV アップロード
APIリファレンス
料金
Agentの料金の仕組み
- シンプルな抽出 (1ページからの連絡先情報など) は、通常必要なクレジット数が少なく、コストも低くなります
- 複雑なリサーチタスク (複数ドメインにわたる競合分析など) は、より多くのクレジットを使用しますが、必要な総工数を反映します
- 透明な利用状況により、各リクエストで消費されたクレジット数を正確に確認できます
- クレジット変換により、Agentのクレジット使用量が自動的にクレジットへ変換され、請求処理が容易になります
クレジット使用量は、プロンプトの複雑さ、処理されるデータ量、および要求された出力構造に応じて変動します。目安として、ほとんどのAgent実行では数百クレジットが消費されますが、よりシンプルな単一ページのタスクでは少なく、複数ドメインにまたがる複雑なリサーチでは多くなる場合があります。
Parallel Agents の料金
はじめに
コスト管理
- 無料実行から始める: 毎日 5 回の無料リクエストを使って料金感をつかむ
maxCreditsパラメータを設定する: 消費してもよいクレジットの最大数を設定して支出を制限します。ダッシュボードでは上限は 2,500 クレジットです。より高い上限を設定するには、API 経由でmaxCreditsパラメータを直接使用してください (注: 2,500 を超える値は常に有料リクエストとして課金されます)- プロンプトを最適化する: より具体的なプロンプトほど、使用するクレジットが少なくなることが多い
- 大きなタスクを小さな実行に分割する: 1 回の エージェント 実行には、基盤となるモデルの生成能力に基づく出力上限があります (構造化データで約 150〜200 行)。大規模な抽出ジョブでは、カテゴリ、地域、または URL バッチ (1 回の実行あたり 3〜5 URL) ごとに分割し、結果を結合してください。これにより、各実行を
maxCreditsの上限より十分低く保つこともできます。 - 利用状況を監視する: ダッシュボードを通じて消費量を追跡する
- 期待値を設定する: 複数ドメインにわたる複雑なリサーチは、単純な単一ページの抽出よりも多くのクレジットを使用します
料金は Research Preview から一般提供へ移行する際に変更される可能性があります。現在のユーザーには、料金変更がある場合は事前に通知されます。
Firecrawl API キーが必要な AI エージェント ですか? 自動オンボーディング手順については firecrawl.dev/agent-onboarding/SKILL.md を参照してください。

