CLI の使い方
Roboflow CLI を使用して Batch Processing ジョブを作成・管理します。
インストールすることで inference-cli へのアクセスが可能になります inference rf-cloud コマンドを使用すると、Roboflow Batch Processing の中核コンポーネントである Batch Processing と Data Staging を操作できます。
pip install inference-cli
export ROBOFLOW_API_KEY="YOUR-API-KEY-GOES-HERE"
API キーの見つけ方についてサポートが必要な場合は、以下をご覧ください authentication guide.
inference rf-cloud data-staging create-batch-of-images \
--images-dir <your-images-dir-path> \
--batch-id <your-batch-id>
inference rf-cloud data-staging create-batch-of-videos \
--videos-dir <your-videos-dir-path> \
--batch-id <your-batch-id>
データがすでに cloud storage(S3、Google Cloud Storage、または Azure)にある場合は、ファイルをローカルにダウンロードせずに直接処理できます。まず cloud storage サポートをインストールしてください:
画像の場合:
動画の場合:
この --bucket-path パラメータは以下をサポートしています:
S3: s3://bucket-name/path/
Google Cloud Storage: gs://bucket-name/path/
Azure Blob Storage: az://container-name/path/
glob パターンを含めてファイルをフィルタリングできます:
s3://my-bucket/training-data/**/*.jpg — すべての JPG ファイルを再帰的に
gs://my-bucket/videos/2024-*/*.mp4 — 2024-* フォルダ内の MP4 ファイル
az://container/images/*.png — images フォルダ内の PNG ファイル
生成された presigned URL の有効期間は 24 時間です。batch processing ジョブがこの時間内に完了するようにしてください。
大規模なデータセットの場合、システムは画像を自動的に 20,000 ファイルごとのチャンクに分割します。動画は 1,000 未満の batch で最適に動作します。
cloud storage 認証の詳細なセットアップについては、以下の Cloud Storage Authentication ガイドをご覧ください。
ステージングされたデータを確認する
開始コマンドは Job IDを出力します。これを使ってステータスを確認します:
ジョブの詳細には output batch IDが含まれます。これを使って結果をエクスポートします:
Last updated