Workflow をデプロイする
ワークフローをデプロイする方法は4つあります:
画像を Roboflow API に送信してワークフローで処理します。
作成する Roboflow Dedicated Deployment をあなた専用にプロビジョニングされたインフラストラクチャ上に配置します。
独自のハードウェアでワークフローを実行するには、 Roboflow Inference.
スケジュールする Roboflow Cloudでのバッチジョブ を使用して、コーディング不要で大量データの処理を自動化します。
ワークフローを独自のハードウェアで実行する場合、画像と動画ファイル(通常の webcams およびプロフェッショナルな CCTV cameras).
オンプレミスでデプロイを選択すると、Inferenceをデプロイできる任意のシステムでワークフローを実行できます。これには以下が含まれます:
NVIDIA Jetson
AWS EC2、GCP Cloud Engine、Azure Virtual Machines
Raspberry Pi
Roboflow Enterpriseの顧客は、Baslerカメラ上で推論を実行するなど、追加のビデオストリームオプションにアクセスできます。提供内容の詳細については、 Roboflowの営業チームにお問い合わせください.
ワークフローをデプロイする
ワークフローをデプロイするには、Workflowsエディタの左上にある「Deploy」ボタンをクリックします。すべてのデプロイオプションはこのページに記載されています。
Workflowsエディタ内のコードスニペットには、あなたのWorkflowsのURLとAPIキーが事前に入力されます。
Workflowsの使用制限の詳細については、 Roboflowの料金ページ.
画像を処理する
Roboflow APIまたはローカルのInferenceサーバーを使って、ワークフローを単一画像で実行できます。
まず、Roboflow Inference SDKをインストールします:
ローカルで実行する場合は、 公式のDockerインストール手順 に従ってマシンにDockerをインストールし、Inferenceサーバーを起動してください:
次に、新しいPythonファイルを作成して次のコードを追加します:
上記で、 API_KEY をあなたのRoboflow APIキーに置き換えてください。次に、 workspace-name と workflow-id をあなたのRoboflowワークスペース名とワークフローIDに置き換えてください。
これらの値を見つけるには、Roboflowのワークフローを開いて「Deploy Workflow」をクリックします。表示されるコードスニペットからワークスペース名とワークフローIDをコピーしてください。
ローカル実行はCPUとNVIDIA CUDA GPUデバイスで動作します。最高のパフォーマンスを得るには、NVIDIA JetsonなどのGPU対応デバイス、またはNVIDIA GPUを搭載したクラウドサーバーでデプロイしてください。
ビデオストリーム(RTSP、Webcam)を処理する
ワークフローをビデオストリームのフレームにデプロイできます。これはウェブカメラやRTSPストリームでも構いません。また、動画ファイル上でワークフローを実行することもできます。
まず、Inferenceをインストールします:
Inferenceのインストールには数分かかる場合があります。
次に、新しいPythonファイルを作成して次のコードを追加します:
上記で、 API_KEY をあなたのRoboflow APIキーに置き換えてください。次に、 workspace-name と workflow-id をあなたのRoboflowワークスペース名とワークフローIDに置き換えてください。
これらの値を見つけるには、Roboflowのワークフローを開いて「Deploy Workflow」をクリックします。表示されるコードスニペットからワークスペース名とワークフローIDをコピーしてください。
上記のコードを実行すると、ワークフローがビデオまたはビデオストリーム上で実行されます。
バッチデータを処理する
RoboflowのBatch Processingサービスを使用すると、画像や動画ファイルのディレクトリなど、データのバッチ全体を効率的に処理できます。このフルマネージドソリューションはコーディングやローカルでの計算を必要としません。データとワークフローを選択するだけで、Roboflowが残りを処理します。
Batch ProcessingはUI、CLI、REST APIの両方に対応しています。以下ではCLIコマンドを示します。すべての オプション.
処理を実行するには、Inference CLIをインストールします:
次にデータを取り込みます:
データの読み込みが完了したら、処理ジョブを開始します:
ジョブの進行状況は次のコマンドで表示できます:
ジョブが完了したら、結果をエクスポートします:
Last updated
Was this helpful?