CLI の使い方

Roboflow CLI を使用して Batch Processing ジョブを作成・管理します。

インストールすることで inference-cli へのアクセスが可能になります inference rf-cloud コマンドを使用すると、Roboflow Batch Processing の中核コンポーネントである Batch Processing と Data Staging を操作できます。

セットアップ

pip install inference-cli
export ROBOFLOW_API_KEY="YOUR-API-KEY-GOES-HERE"

API キーの見つけ方についてサポートが必要な場合は、以下をご覧ください authentication guidearrow-up-right.

データの取り込み

画像

inference rf-cloud data-staging create-batch-of-images \
  --images-dir <your-images-dir-path> \
  --batch-id <your-batch-id>

動画

inference rf-cloud data-staging create-batch-of-videos \
  --videos-dir <your-videos-dir-path> \
  --batch-id <your-batch-id>
circle-info

Batch ID の形式: 英小文字のみを使用し、64 文字以内で、文字、数字、ハイフン(-)、およびアンダースコア(_).

Cloud Storage

データがすでに cloud storage(S3、Google Cloud Storage、または Azure)にある場合は、ファイルをローカルにダウンロードせずに直接処理できます。まず cloud storage サポートをインストールしてください:

画像の場合:

動画の場合:

この --bucket-path パラメータは以下をサポートしています:

  • S3: s3://bucket-name/path/

  • Google Cloud Storage: gs://bucket-name/path/

  • Azure Blob Storage: az://container-name/path/

glob パターンを含めてファイルをフィルタリングできます:

  • s3://my-bucket/training-data/**/*.jpg — すべての JPG ファイルを再帰的に

  • gs://my-bucket/videos/2024-*/*.mp4 — 2024-* フォルダ内の MP4 ファイル

  • az://container/images/*.png — images フォルダ内の PNG ファイル

circle-info

cloud storage の認証情報は ローカルでのみ CLI によって presigned URL を生成するために使用されます。これらが アップロードされることはありません Roboflow サーバーに。

circle-exclamation

大規模なデータセットの場合、システムは画像を自動的に 20,000 ファイルごとのチャンクに分割します。動画は 1,000 未満の batch で最適に動作します。

cloud storage 認証の詳細なセットアップについては、以下の Cloud Storage Authentication ガイドをご覧ください。

ステージングされたデータを確認する

ジョブを開始する

画像を処理する

動画を処理する

circle-info

Workflow ID の見つけ方: Roboflow App で Workflow Editor を開き、「Deploy」をクリックし、コードスニペット内の識別子を見つけてください。

circle-info

デフォルトでは、処理は CPU で実行されます。以下を使用してください --machine-type gpu 複数または大規模なモデルを含む Workflows の場合。

ジョブの進行状況を監視する

開始コマンドは Job IDを出力します。これを使ってステータスを確認します:

結果をエクスポートする

ジョブの詳細には output batch IDが含まれます。これを使って結果をエクスポートします:

すべてのオプションを確認する

Last updated

Was this helpful?