機能
- ウェブスクレイピング、クロール、ディスカバリー
- 検索とコンテンツ抽出
- 深層調査とバッチスクレイピング
- クラウドおよびセルフホストに対応
- SSE(サーバー送信イベント)に対応
インストール
リモートホストのURL
npxで実行する
手動でインストール
MCP.so のプレイグラウンドで Firecrawl の MCP Server を試すか、Klavis AIでお試しください。
Cursor で実行する

手動インストール
- Cursor Settings を開く
- Features > MCP Servers に移動
- 「+ Add new global MCP server」をクリック
- 次のコードを入力:
- Cursor Settings を開く
- Features > MCP Servers に移動
- 「+ Add New MCP Server」をクリック
- 次を入力:
- Name: “firecrawl-mcp”(任意の名称でも可)
- Type: “command”
- Command:
env FIRECRAWL_API_KEY=your-api-key npx -y firecrawl-mcp
Windows を使用していて問題が発生する場合は、cmd /c "set FIRECRAWL_API_KEY=your-api-key && npx -y firecrawl-mcp"
を試してください
your-api-key
をお持ちの Firecrawl API キーに置き換えてください。まだお持ちでない場合はアカウントを作成し、https://www.firecrawl.dev/app/api-keys から取得できます。
追加後、MCP サーバー一覧を更新して新しいツールを確認してください。Composer Agent は適宜 Firecrawl MCP を自動的に使用しますが、ウェブスクレイピングの要件を記述することで明示的にリクエストすることも可能です。Command+L(Mac)で Composer を開き、送信ボタン横の「Agent」を選択してクエリを入力します。
Windsurf での実行
./codeium/windsurf/model_config.json
に追加します:
SSEモードでの実行
Smithery(レガシー)経由でのインストール
VS Code での実行
Ctrl + Shift + P
を押して「Preferences: Open User Settings (JSON)」と入力すると開けます。
.vscode/mcp.json
というファイルに追加できます。こうすると、設定を他の人と共有できるようになります。
Claude Desktop での実行
Claude Code での実行
構成
環境変数
Cloud APIで必須
FIRECRAWL_API_KEY
: Firecrawl のAPIキー- Cloud API(デフォルト)を使用する場合に必須
FIRECRAWL_API_URL
を指定したセルフホスト環境では任意
FIRECRAWL_API_URL
(任意): セルフホスト環境向けのカスタムAPIエンドポイント- 例:
https://firecrawl.your-domain.com
- 指定しない場合は Cloud API が使用されます(APIキーが必要)
- 例:
省略可能な設定
リトライ設定
FIRECRAWL_RETRY_MAX_ATTEMPTS
: リトライの最大試行回数(既定値: 3)FIRECRAWL_RETRY_INITIAL_DELAY
: 初回リトライまでの遅延時間(ミリ秒)(既定値: 1000)FIRECRAWL_RETRY_MAX_DELAY
: リトライ間の最大遅延時間(ミリ秒)(既定値: 10000)FIRECRAWL_RETRY_BACKOFF_FACTOR
: 指数バックオフの係数(既定値: 2)
クレジット使用量の監視
FIRECRAWL_CREDIT_WARNING_THRESHOLD
: クレジット使用量の警告閾値(既定: 1000)FIRECRAWL_CREDIT_CRITICAL_THRESHOLD
: クレジット使用量のクリティカル閾値(既定: 100)
設定例
Claude Desktop のカスタム設定
claude_desktop_config.json
に追加してください:
システム構成
-
リトライ動作
- レート制限で失敗したリクエストを自動的に再試行
- 指数バックオフを用いて API の過負荷を回避
- 例: デフォルト設定では、リトライは次の間隔で実行されます:
- 1回目のリトライ: 1秒の遅延
- 2回目のリトライ: 2秒の遅延
- 3回目のリトライ: 4秒の遅延(maxDelay で上限)
-
クレジット使用状況の監視
- クラウド API 利用時の API クレジット消費を追跡
- 指定したしきい値で警告を通知
- 想定外のサービス中断の防止に寄与
- 例: デフォルト設定では:
- 残り1000クレジットで警告
- 残り100クレジットで重大アラート
レート制限とバッチ処理
- 指数バックオフによるレート制限の自動処理
- バッチ処理向けの効率的な並列実行
- リクエストの賢いキューイングとスロットリング
- 一時的なエラーに対する自動再試行
利用可能なツール
1. スクレイプツール(firecrawl_scrape
)
2. バッチスクレイプツール (firecrawl_batch_scrape
)
3. バッチのステータスを確認する (firecrawl_check_batch_status
)
4. 検索ツール (firecrawl_search
)
5. クロールツール(firecrawl_crawl
)
6. 抽出ツール (firecrawl_extract
)
抽出ツールのオプション:
urls
: 情報を抽出するURLの配列prompt
: LLMによる抽出用のカスタムプロンプトsystemPrompt
: LLMを誘導するシステムプロンプトschema
: 構造化データ抽出用のJSONスキーマallowExternalLinks
: 外部リンクからの抽出を許可するenableWebSearch
: 追加のコンテキスト取得のためにウェブ検索を有効にするincludeSubdomains
: 抽出対象にサブドメインを含める
7. Deep Research Tool (firecrawl_deep_research)
インテリジェントなクロール、検索、LLM解析を用いて、クエリに対する深度のあるウェブリサーチを行います。- query(string, 必須):調査する研究課題またはトピック。
- maxDepth(number, 任意):クロール/検索の最大再帰深度(デフォルト: 3)。
- timeLimit(number, 任意):調査セッションの制限時間(秒)(デフォルト: 120)。
- maxUrls(number, 任意):分析するURLの最大数(デフォルト: 50)。
- 研究に基づいてLLMが生成した最終分析(data.finalAnalysis)。
- 研究プロセスで使用した構造化アクティビティやソースが含まれる場合があります。
8. LLMs.txt 生成ツール (firecrawl_generate_llmstxt)
指定したドメイン用に標準化された llms.txt(必要に応じて llms-full.txt)ファイルを生成します。このファイルは、大規模言語モデルがそのサイトとどのようにやり取りするべきかを定義します。- url(string、必須):解析対象サイトのベースURL。
- maxUrls(number、任意):含めるURLの最大数(既定値: 10)。
- showFullText(boolean、任意):レスポンスに llms-full.txt の内容を含めるかどうか。
- 生成された llms.txt の内容と、必要に応じて llms-full.txt(data.llmstxt および/または data.llmsfulltxt)
ログシステム
- 操作のステータスと進捗
- パフォーマンス指標
- クレジット使用状況の監視
- レート制限のトラッキング
- エラー状況
エラーハンドリング
- 一時的なエラーの自動リトライ
- バックオフを伴うレート制限対応
- 詳細なエラーメッセージ
- クレジット消費量の警告
- ネットワーク耐障害性
開発
コントリビューション
- リポジトリをフォークする
- フィーチャーブランチを作成する
- テストを実行する:
npm test
- プルリクエストを作成して送信する