- 出力フォーマット(markdown、html、links、screenshot)を選択
- 位置情報などのパラメータを指定してウェブを検索
- 検索結果からコンテンツを任意で取得(各種フォーマット対応)
- 取得件数の制御やタイムアウトの設定が可能
Firecrawl で検索を行う
/search エンドポイント
インストール
基本的な使い方
レスポンス
JSON
検索結果の種類
sources パラメータで以下の特化タイプを指定できます:
web: 標準的なウェブ結果(デフォルト)news: ニュース特化の結果images: 画像検索の結果
検索カテゴリ
categories パラメータを使って、特定のカテゴリで検索結果を絞り込みます:
github: GitHub のリポジトリ、コード、Issue、ドキュメントを検索research: 学術・研究サイト(arXiv、Nature、IEEE、PubMed など)を検索pdf: PDF を検索
GitHubカテゴリ検索
cURL
研究カテゴリー検索
cURL
複合カテゴリ検索
cURL
カテゴリのレスポンス形式
category フィールドが含まれます。
cURL
cURL
サイズフィルタ付きHD画像検索
cURL
cURL
imagesize:1920x1080- フルHD(1080p)imagesize:2560x1440- QHD(1440p)imagesize:3840x2160- 4K UHDlarger:1920x1080- HD以上larger:2560x1440- QHD以上
コンテンツのスクレイピング付き検索
scrapeOptions パラメータ経由で /scrape エンドポイントのすべてのオプションに対応しています。
スクレイプ済みコンテンツを含むレスポンス
高度な検索オプション
場所のカスタマイズ
時間指定検索
tbs パラメータを使って、結果を期間でフィルタします:
tbs の値:
qdr:h- 過去1時間qdr:d- 過去24時間qdr:w- 過去1週間qdr:m- 過去1か月qdr:y- 過去1年
カスタムタイムアウト
コストへの影響
- Basic scrape: ウェブページ1枚あたり1クレジット
- PDF parsing: PDFページ1枚あたり1クレジット
- Stealth proxy mode: ウェブページ1枚あたり追加で4クレジット
- JSON mode: ウェブページ1枚あたり追加で4クレジット
- PDF解析が不要な場合は
parsers: []を設定する - 可能な場合は
"stealth"の代わりにproxy: "basic"を使用するか、"auto"に設定する limitパラメータで検索結果数を制限する

