CLIの使用方法

Roboflow CLIを使用してBatch Processingジョブを作成および管理します。

インストールすることで inference-cli 次へのアクセスが可能になります inference rf-cloud コマンド。これにより、Roboflow Batch Processing の中核コンポーネントである Batch Processing と Data Staging を操作できます。

セットアップ

pip install inference-cli
export ROBOFLOW_API_KEY="YOUR-API-KEY-GOES-HERE"

クラウドストレージのサポートを利用する場合:

pip install 'inference-cli[cloud-storage]'

API キーの確認方法についてサポートが必要な場合は、こちらをご覧ください authentication guidearrow-up-right.

データを取り込む

画像

inference rf-cloud data-staging create-batch-of-images \
  --images-dir <your-images-dir-path> \
  --batch-id <your-batch-id>

動画

inference rf-cloud data-staging create-batch-of-videos \
  --videos-dir <your-videos-dir-path> \
  --batch-id <your-batch-id>
circle-info

Batch ID の形式: 小文字のみ使用可能、最大 64 文字、文字、数字、ハイフン(-)、およびアンダースコア(_).

クラウドストレージ

データがすでにクラウドストレージ(S3、Google Cloud Storage、または Azure)にある場合は、ファイルをローカルにダウンロードせずに直接処理できます。

画像の場合:

動画の場合:

この --bucket-path パラメータは以下をサポートします:

  • S3: s3://bucket-name/path/

  • Google Cloud Storage: gs://bucket-name/path/

  • Azure Blob Storage: az://container-name/path/

glob パターンを含めてファイルをフィルタリングできます:

  • s3://my-bucket/training-data/**/*.jpg — すべての JPG ファイルを再帰的に

  • gs://my-bucket/videos/2024-*/*.mp4 — 2024-* フォルダ内の MP4 ファイル

  • az://container/images/*.png — images フォルダ内の PNG ファイル

circle-info

クラウドストレージの認証情報は ローカルでのみ CLI によって署名付き URL を生成するために使用されます。これらが アップロードされることは決してありません Roboflow サーバーへ。

circle-exclamation

大規模なデータセットでは、システムが画像を自動的にそれぞれ 20,000 ファイルのチャンクに分割します。動画は 1,000 件未満のバッチで最も効果的に動作します。

署名付き URL 取り込み

高度な自動化のために、ローカルファイルの代わりに署名付き URL 経由でデータを取り込むことができます:

  • --data-source references-file — 署名付き URL で参照されるファイルを処理します。

  • --references <path_or_url> — ファイル URL を含む JSONL ファイルへのパス、またはそのようなファイルを指す署名付き URL。

参照ファイル形式(JSONL):

circle-info

署名付き URL 取り込みは Growth Plan および Enterprise のお客様が利用できます。

ステージング済みデータを確認する

ジョブを開始する

画像を処理する

動画を処理する

circle-info

Workflow ID の見つけ方: Roboflow App で Workflow Editor を開き、「Deploy」をクリックし、コードスニペット内の識別子を確認してください。

circle-info

デフォルトでは、処理は CPU で実行されます。以下を使用してください --machine-type gpu 複数または大規模なモデルを含む Workflows の場合。

ジョブの進行状況を監視する

start コマンドは Job IDを出力します。これを使ってステータスを確認します:

結果をエクスポートする

ジョブの詳細には output batch IDが含まれます。これを使って結果をエクスポートします:

Webhook 自動化

ステータスをポーリングする代わりに、Webhook を使用して取り込みまたは処理の完了時に通知を受け取ることができます。

データ取り込み Webhook

CLI コマンド create-batch-of-images および create-batch-of-videos は以下をサポートします:

  • --notifications-url <webhook_url> — 通知用の Webhook エンドポイント。

  • --notification-category <value> — 通知をフィルタリングします:

    • ingest-status (デフォルト)— 全体の取り込みプロセスのステータス。

    • files-status — 個々のファイル処理ステータス。

通知は HTTP POST により配信され、 Authorization ヘッダーには Roboflow Publishable Key が含まれます。

取り込みステータス通知

ファイルステータス通知

ジョブ完了 Webhook

追加する --notifications-url ジョブ開始時に:

ジョブ完了通知

クラウドストレージ認証

AWS S3 と S3 互換ストレージ

認証情報は以下から自動的に検出されます:

  1. 環境変数:

  1. AWS 認証情報ファイル (~/.aws/credentials, ~/.aws/config)

  2. IAM ロール (EC2、ECS、Lambda)

名前付きプロファイル:

S3 互換サービス(Cloudflare R2、MinIO など):

Google Cloud Storage

認証情報は以下から検出されます:

  1. サービスアカウントキー ファイル (自動化に推奨):

  1. ユーザー認証情報 gcloud CLI から(gcloud auth login)

  2. GCP メタデータサービス (Google Cloud Platform 上で実行している場合)

Azure Blob Storage

SAS Token(推奨):

Account Key:

Azure CLI で SAS トークンを生成する:

カスタムスクリプト

高度なユースケース向けに、署名付き URL ファイルを生成するための参照スクリプト:

すべてのオプションを確認する

Last updated

Was this helpful?