Deploy a Model or Workflow

Roboflow でトレーニングまたはアップロードされたモデルをデプロイする方法を学びます。

Roboflowでトレーニングまたはアップロードされた任意のモデルと、任意のWorkflowを、Roboflowのデプロイメント提供機能でデプロイできます。

当社のデプロイメント提供は2つのカテゴリに分かれます:

  • Managed Deployments:これらのオプションはRoboflowのクラウドインフラストラクチャを活用してモデルを実行し、ご自身でハードウェアやソフトウェアを管理する必要を排除します。

  • Self-Hosted Deployments:これらのオプションはご自身のハードウェア上でモデルをローカルにデプロイすることを可能にし、環境やリソースに対するより大きな制御を提供します。

以下の表は各デプロイメントオプションの主要な機能、利点、および制限を要約したものです:

Deployment Option
説明
利点
制限事項

GPUハードウェア上でRoboflowのインフラストラクチャ上でワークフローとモデルを直接実行します。

GPUモデルのサポート。

リソースに対する制御は限定的で、負荷の高いアプリケーションやトラフィック集中時にレイテンシが高くなる可能性があります。

無限にスケーラブルなAPIを通じてRoboflowのインフラストラクチャ上でワークフローとモデルを直接実行します。

スケーラブルで使いやすく、インフラ管理不要。

リソースに対する制御は限定的で、負荷の高いアプリケーションではレイテンシが高くなる可能性があります。

ワークフローとモデルを実行するための専用GPUとCPU。

GPUモデル、ビデオストリーミング、Custom Python Blocksのサポート。

米国内のデータセンターに限定。Serverless APIのような自動スケーリングではありません。

Batch Processing

選択したワークフローで画像やビデオを処理する管理されたサーバープール。

GPU対応で高いデータスループットとコスト効率を提供するフルマネージドソリューションで、データ量に合わせてシームレスにスケールします。

リアルタイム以外の処理で、Custom Python Blocksはサポートされません。

Self-Hosted Deployments

ご自身のハードウェア上でローカルに推論を実行します。

リソースと環境を完全に制御でき、レイテンシを低減できる可能性があります。

インフラの管理と専門知識が必要です。

モデルのデプロイは常に消費します credits、どの方法を選択しても。

推論とは何ですか?

コンピュータビジョンにおける推論とは、学習済みモデルを使って新しい画像やビデオを解析し、予測を行うプロセスを指します。例えば、物体検出モデルはビデオストリーム内の物体を識別・位置特定するために使用されることがあり、分類モデルは画像の内容に基づいてカテゴリ分類を行うために使用されます。

Roboflow Inference はコンピュータビジョンモデルとワークフローをデプロイするための強力で柔軟なフレームワークを提供するオープンソースプロジェクトです。それはRoboflowの多くのマネージドデプロイメントサービスを動かすエンジンです。セルフホストして使用したり、エッジデバイスへのビジョンワークフローのデプロイに利用することもできます。Roboflow Inferenceは以下を含むさまざまな機能と能力を提供します:

  • 物体検出、分類、インスタンスセグメンテーションなど、さまざまなモデルアーキテクチャとタスクのサポート。

  • Workflows:数百のBuilding Blocksから選んで異なるモデル、既成ロジック、外部アプリケーションを組み合わせることで、コンピュータビジョンアプリケーションを構築できます。

  • CPU、GPU、NVIDIA Jetsonのようなエッジデバイスを含むさまざまなデバイスで最適化されたパフォーマンスのためのハードウェアアクセラレーション。

  • リソースを効率的に使用するためのマルチプロセッシング。

  • ビデオストリームのシームレスな処理のためのビデオデコーディング。

  • デプロイを簡素化するHTTPインターフェース、API、Dockerイメージ。

  • Roboflowのホスト型デプロイメントオプションおよびRoboflowプラットフォームとの統合。

Workflowとは何ですか?

Workflows は、異なるモデル、既成ロジック、および外部アプリケーションを組み合わせることで複雑なコンピュータビジョンアプリケーションを構築できるようにします。これらは洗練されたコンピュータビジョンパイプラインを設計・デプロイするための視覚的でローコードな環境を提供します。

Workflowsを使うと、次のことができます:

  • 複数のモデルをチェーンして複雑なタスクを実行する。

  • アプリケーションにカスタムロジックや意思決定を追加する。

  • 外部システムやAPIと統合する。

  • 画像やビデオ内の物体を追跡、カウント、タイミング、測定、可視化する。

適切なデプロイメントオプションの選び方

利用ケースに最適なデプロイ方法を選ぶ方法については、inferenceの入門ガイドに優れた案内があります: https://inference.roboflow.com/start/getting-started/

最適なデプロイメントオプションは、特定のニーズと要件によって異なります。意思決定の際には次の要素を考慮してください:

  • スケーラビリティ:アプリケーションが変動するトラフィックやデータ量に対応する必要がある場合、Serverless APIはリアルタイムユースケースに対して優れたスケーラビリティを提供します;それ以外の場合は、 Batch Processing が推奨されるオプションです。

  • レイテンシ:低レイテンシやビデオ処理が必要な場合、専用デプロイメントや強力なハードウェアを使用したセルフホストデプロイメントが最適な選択である可能性があります。

  • GPU:SAM2、CogVMLなどGPUが必要なモデルを実行する必要がある場合は、GPUマシンタイプのDedicated Deploymentを使用するか、GPUを搭載したハードウェアでセルフホストする必要があります。(Serverless GPU APIはまもなく提供予定)

  • コントロール:Self-hosted deploymentsは環境とリソースに対する最も高い制御を提供します。

  • 専門知識:Self-hosted deploymentsはセットアップと管理により多くの技術的専門知識を要求します。

Last updated

Was this helpful?