Deploy a Model or Workflow
Roboflow でトレーニングまたはアップロードされたモデルをデプロイする方法を学びます。
Roboflowでトレーニングまたはアップロードされた任意のモデルと、任意のWorkflowを、Roboflowのデプロイメント提供機能でデプロイできます。
当社のデプロイメント提供は2つのカテゴリに分かれます:
Managed Deployments:これらのオプションはRoboflowのクラウドインフラストラクチャを活用してモデルを実行し、ご自身でハードウェアやソフトウェアを管理する必要を排除します。
Self-Hosted Deployments:これらのオプションはご自身のハードウェア上でモデルをローカルにデプロイすることを可能にし、環境やリソースに対するより大きな制御を提供します。
以下の表は各デプロイメントオプションの主要な機能、利点、および制限を要約したものです:
GPUハードウェア上でRoboflowのインフラストラクチャ上でワークフローとモデルを直接実行します。
GPUモデルのサポート。
リソースに対する制御は限定的で、負荷の高いアプリケーションやトラフィック集中時にレイテンシが高くなる可能性があります。
無限にスケーラブルなAPIを通じてRoboflowのインフラストラクチャ上でワークフローとモデルを直接実行します。
スケーラブルで使いやすく、インフラ管理不要。
リソースに対する制御は限定的で、負荷の高いアプリケーションではレイテンシが高くなる可能性があります。
ワークフローとモデルを実行するための専用GPUとCPU。
GPUモデル、ビデオストリーミング、Custom Python Blocksのサポート。
米国内のデータセンターに限定。Serverless APIのような自動スケーリングではありません。
Batch Processing
選択したワークフローで画像やビデオを処理する管理されたサーバープール。
GPU対応で高いデータスループットとコスト効率を提供するフルマネージドソリューションで、データ量に合わせてシームレスにスケールします。
リアルタイム以外の処理で、Custom Python Blocksはサポートされません。
Self-Hosted Deployments
ご自身のハードウェア上でローカルに推論を実行します。
リソースと環境を完全に制御でき、レイテンシを低減できる可能性があります。
インフラの管理と専門知識が必要です。
適切なデプロイメントオプションの選び方
最適なデプロイメントオプションは、特定のニーズと要件によって異なります。意思決定の際には次の要素を考慮してください:
スケーラビリティ:アプリケーションが変動するトラフィックやデータ量に対応する必要がある場合、Serverless APIはリアルタイムユースケースに対して優れたスケーラビリティを提供します;それ以外の場合は、 Batch Processing が推奨されるオプションです。
レイテンシ:低レイテンシやビデオ処理が必要な場合、専用デプロイメントや強力なハードウェアを使用したセルフホストデプロイメントが最適な選択である可能性があります。
GPU:SAM2、CogVMLなどGPUが必要なモデルを実行する必要がある場合は、GPUマシンタイプのDedicated Deploymentを使用するか、GPUを搭載したハードウェアでセルフホストする必要があります。(Serverless GPU APIはまもなく提供予定)
コントロール:Self-hosted deploymentsは環境とリソースに対する最も高い制御を提供します。
専門知識:Self-hosted deploymentsはセットアップと管理により多くの技術的専門知識を要求します。
Last updated
Was this helpful?