CLIの使用方法
Roboflow CLIを使用してBatch Processingジョブを作成および管理します。
インストールすることで inference-cli 次へのアクセスが可能になります inference rf-cloud コマンド。これにより、Roboflow Batch Processing の中核コンポーネントである Batch Processing と Data Staging を操作できます。
pip install inference-cli
export ROBOFLOW_API_KEY="YOUR-API-KEY-GOES-HERE"
クラウドストレージのサポートを利用する場合:
pip install 'inference-cli[cloud-storage]'
API キーの確認方法についてサポートが必要な場合は、こちらをご覧ください authentication guide.
inference rf-cloud data-staging create-batch-of-images \
--images-dir <your-images-dir-path> \
--batch-id <your-batch-id>
inference rf-cloud data-staging create-batch-of-videos \
--videos-dir <your-videos-dir-path> \
--batch-id <your-batch-id>
データがすでにクラウドストレージ(S3、Google Cloud Storage、または Azure)にある場合は、ファイルをローカルにダウンロードせずに直接処理できます。
画像の場合:
動画の場合:
この --bucket-path パラメータは以下をサポートします:
S3: s3://bucket-name/path/
Google Cloud Storage: gs://bucket-name/path/
Azure Blob Storage: az://container-name/path/
glob パターンを含めてファイルをフィルタリングできます:
s3://my-bucket/training-data/**/*.jpg — すべての JPG ファイルを再帰的に
gs://my-bucket/videos/2024-*/*.mp4 — 2024-* フォルダ内の MP4 ファイル
az://container/images/*.png — images フォルダ内の PNG ファイル
生成された署名付き URL の有効期間は 24 時間です。batch processing job がこの時間内に完了するようにしてください。
大規模なデータセットでは、システムが画像を自動的にそれぞれ 20,000 ファイルのチャンクに分割します。動画は 1,000 件未満のバッチで最も効果的に動作します。
高度な自動化のために、ローカルファイルの代わりに署名付き URL 経由でデータを取り込むことができます:
--data-source references-file — 署名付き URL で参照されるファイルを処理します。
--references <path_or_url> — ファイル URL を含む JSONL ファイルへのパス、またはそのようなファイルを指す署名付き URL。
参照ファイル形式(JSONL):
ステージング済みデータを確認する
start コマンドは Job IDを出力します。これを使ってステータスを確認します:
ジョブの詳細には output batch IDが含まれます。これを使って結果をエクスポートします:
ステータスをポーリングする代わりに、Webhook を使用して取り込みまたは処理の完了時に通知を受け取ることができます。
データ取り込み Webhook
CLI コマンド create-batch-of-images および create-batch-of-videos は以下をサポートします:
--notifications-url <webhook_url> — 通知用の Webhook エンドポイント。
--notification-category <value> — 通知をフィルタリングします:
ingest-status (デフォルト)— 全体の取り込みプロセスのステータス。
files-status — 個々のファイル処理ステータス。
通知は HTTP POST により配信され、 Authorization ヘッダーには Roboflow Publishable Key が含まれます。
追加する --notifications-url ジョブ開始時に:
AWS S3 と S3 互換ストレージ
認証情報は以下から自動的に検出されます:
AWS 認証情報ファイル (~/.aws/credentials, ~/.aws/config)
名前付きプロファイル:
S3 互換サービス(Cloudflare R2、MinIO など):
Google Cloud Storage
認証情報は以下から検出されます:
サービスアカウントキー ファイル (自動化に推奨):
ユーザー認証情報 gcloud CLI から(gcloud auth login)
GCP メタデータサービス (Google Cloud Platform 上で実行している場合)
Azure Blob Storage
SAS Token(推奨):
Account Key:
Azure CLI で SAS トークンを生成する:
高度なユースケース向けに、署名付き URL ファイルを生成するための参照スクリプト: