メインコンテンツへスキップ
Firecrawl の /agent は、検索・ナビゲーション・データ収集を自動で行い、非常に複雑な Web サイトからでも、通常はアクセスしづらい場所のデータやインターネット上のあらゆる場所にあるデータを見つけ出す魔法のような API です。人間なら何時間もかかる作業を数分でこなし、従来の Web スクレイピングを過去のものにします。 欲しいデータを文章で指定するだけで、あとはすべて /agent が処理します。
Research Preview(研究プレビュー): Agent はアーリーアクセス段階です。動作が荒削りな部分がありますが、今後大きく改善されていきます。フィードバックを共有する →
Agent は /extract の優れた点をすべて引き継ぎつつ、さらに強化しています:
  • URL 不要: 必要な内容を prompt パラメータで記述するだけでよく、URL は任意です。
  • ディープ Web 検索: サイト内を自律的に検索・巡回し、必要なデータを深部まで探索
  • 高い信頼性と正確性: 幅広い種類のクエリやユースケースで安定して動作
  • 高速: 複数ソースを並列処理して結果を素早く取得
  • 低コスト: Agent は /extract よりもコスト効率に優れています

/agent の使用

必須パラメータは prompt のみです。どのようなデータを抽出したいかを記述してください。構造化された出力を得るには、JSON スキーマを指定してください。各 SDK は、型安全なスキーマ定義のために Pydantic(Python)と Zod(Node)をサポートしています:
from firecrawl import FirecrawlApp
from pydantic import BaseModel, Field
from typing import List, Optional

app = FirecrawlApp(api_key="fc-YOUR_API_KEY")

class Founder(BaseModel):
    name: str = Field(description="Full name of the founder")
    role: Optional[str] = Field(None, description="Role or position")
    background: Optional[str] = Field(None, description="Professional background")

class FoundersSchema(BaseModel):
    founders: List[Founder] = Field(description="List of founders")

result = app.agent(
    prompt="Find the founders of Firecrawl",
    schema=FoundersSchema
)

print(result.data)

レスポンス

JSON
{
  "success": true,
  "status": "completed",
  "data": {
    "founders": [
      {
        "name": "Eric Ciarla",
        "role": "Co-founder",
        "background": "Previously at Mendable"
      },
      {
        "name": "Nicolas Camara",
        "role": "Co-founder",
        "background": "Previously at Mendable"
      },
      {
        "name": "Caleb Peffer",
        "role": "Co-founder",
        "background": "Previously at Mendable"
      }
    ]
  },
  "expiresAt": "2024-12-15T00:00:00.000Z",
  "creditsUsed": 15
}

URL を指定する場合(任意)

エージェントの対象を特定のページに絞り込むために、任意で URL を指定できます。
from firecrawl import FirecrawlApp

app = FirecrawlApp(api_key="fc-YOUR_API_KEY")

result = app.agent(
    urls=["https://docs.firecrawl.dev", "https://firecrawl.dev/pricing"],
    prompt="Compare the features and pricing information from these pages"
)

print(result.data)

ジョブのステータスと完了

Agent ジョブは非同期で実行されます。ジョブの実行を開始すると、ステータス確認に使える Job ID が返されます:
  • デフォルトの方法: agent() が完了まで待機し、最終結果を返します
  • 開始してポーリング: start_agent(Python)または startAgent(Node)で即座に Job ID を取得し、その後 get_agent_status / getAgentStatus でポーリングします
ジョブ結果は完了後 24 時間利用可能です。
from firecrawl import FirecrawlApp

app = FirecrawlApp(api_key="fc-YOUR_API_KEY")

# エージェントジョブを開始する
agent_job = app.start_agent(
    prompt="Find the founders of Firecrawl"
)

# ステータスを確認する
status = app.get_agent_status(agent_job.id)

print(status)
# 出力例:
# status='completed'
# success=True
# data={ ... }
# expires_at=datetime.datetime(...)
# credits_used=15

考えられるステータス

ステータス説明
processingエージェントがリクエストを処理中です
completed抽出が正常に完了しました
failed抽出中にエラーが発生しました

保留状態の例

JSON
{
  "success": true,
  "status": "processing",
  "expiresAt": "2024-12-15T00:00:00.000Z"
}

完成例

JSON
{
  "success": true,
  "status": "completed",
  "data": {
    "founders": [
      {
        "name": "Eric Ciarla",
        "role": "Co-founder"
      },
      {
        "name": "Nicolas Camara",
        "role": "Co-founder"
      },
      {
        "name": "Caleb Peffer",
        "role": "Co-founder"
      }
    ]
  },
  "expiresAt": "2024-12-15T00:00:00.000Z",
  "creditsUsed": 15
}

パラメータ

パラメータ必須説明
promptstringYes抽出したいデータを自然言語で記述した文字列(最大 10,000 文字)
urlsarrayNo抽出対象を絞り込むためのオプションの URL リスト
schemaobjectNo構造化出力のためのオプションの JSON スキーマ

Agent と Extract:何が改善されたか

項目Agent(新)Extract
URL の指定不要必要
速度高速標準
コスト低コスト標準
信頼性高い標準
クエリの柔軟性高い中程度

利用例

  • リサーチ: 「有望なAIスタートアップ上位5社とその資金調達額を調べる」
  • 競合分析: 「SlackとMicrosoft Teamsの料金プランを比較する」
  • データ収集: 「企業のWebサイトから連絡先情報を抽出する」
  • コンテンツ要約: 「Webスクレイピングに関する最新のブログ記事を要約する」

APIリファレンス

詳しくは、Agent API Reference を参照してください。 フィードバックやサポートが必要な場合は、[email protected] までメールでご連絡ください。

料金

Firecrawl Agent は、データ抽出リクエストの複雑さに応じてスケールする ダイナミックな課金モデル を採用しています。実際に Agent が行った処理内容に基づいて支払う仕組みのため、単純なデータポイントの抽出でも、複数のソースからの複雑な構造化情報の抽出でも、公平な料金になります。

Agentの料金の仕組み

Research Preview期間中、Agentの料金は動的でクレジットベースです:
  • シンプルな抽出(1ページからの連絡先情報など)は、通常必要なクレジット数が少なく、コストも低くなります
  • 複雑なリサーチタスク(複数ドメインにわたる競合分析など)は、より多くのクレジットを使用しますが、必要な総工数を反映します
  • 透明な利用状況により、各リクエストで消費されたクレジット数を正確に確認できます
  • クレジット変換により、Agentのクレジット使用量が自動的にクレジットへ変換され、請求処理が容易になります
クレジット使用量は、プロンプトの複雑さ、処理されるデータ量、および要求された出力構造に応じて変動します。

はじめに

すべてのユーザーは、Agent の機能を無料で試せるように、1 日あたり 5 回の無料実行が付与されます。 それ以上の利用分は、クレジット消費量に応じて課金され、その分がクレジットに換算されます。

コスト管理

Agent のコストをコントロールしましょう:
  • 無料実行から始める: 毎日 5 回の無料リクエストを使って料金イメージをつかむ
  • maxCredits パラメータを設定する: 消費するクレジット数の上限を設定してコストを制限する
  • プロンプトを最適化する: 具体的なプロンプトほど必要なクレジットが少なくなることが多い
  • 利用状況を確認する: ダッシュボードで利用量を追跡する
  • 期待値を調整する: 複数ドメインにまたがる複雑なリサーチは、単純な単一ページの抽出より多くのクレジットを使用する
firecrawl.dev/app/agent で今すぐ Agent を試して、あなたの具体的なユースケースでクレジット使用量がどのようにスケールするかを確認してください。
料金は Research Preview から一般提供へ移行する際に変更される可能性があります。現在のユーザーには、料金変更がある場合は事前に通知されます。