モデルまたはワークフローをデプロイする
Roboflow でトレーニングまたはアップロードされたモデルをデプロイする方法を学びます。
Roboflowでトレーニングされた、またはアップロードされた任意のモデルや、任意のWorkflowを、Roboflowのデプロイメントオファリングでデプロイできます。
当社のデプロイメントオファリングは2つのカテゴリに分かれています:
Managed Deployments:これらのオプションはRoboflowのクラウドインフラストラクチャを活用してモデルを実行し、ハードウェアやソフトウェアの管理が不要になります。
Self-Hosted Deployments:これらのオプションは自身のハードウェア上でローカルにモデルをデプロイでき、環境やリソースをより細かく制御できます。
以下の表は各デプロイメントオプションの主な特徴、利点、制限をまとめたものです:
Roboflowのインフラストラクチャ上のGPUハードウェアでワークフローやモデルを直接実行します。
GPUモデルに対応。
リソースの制御が限定的で、高負荷なアプリケーションや高負荷時にはレイテンシが高くなる可能性があります。
無限にスケーラブルなAPIを通じて、Roboflowのインフラストラクチャ上でワークフローやモデルを直接実行します。
スケーラブル、使いやすい、インフラ管理不要。
リソースの制御が限定的で、高負荷なアプリケーションではレイテンシが高くなる可能性があります。
ワークフローやモデル実行用の専用GPUおよびCPU。
GPUモデル、ビデオストリーミング、Custom Python Blocksに対応。
米国拠点のデータセンターのみ利用可能。Serverless APIのような自動スケーリングはありません。
Batch Processing
選択したワークフローで画像や動画を処理するマネージドサーバープール。
高いデータスループットとコスト効率を提供する完全マネージドソリューションで、GPU対応でデータ量に合わせてシームレスにスケールします。
リアルタイム処理不可、Custom Python Blocks非対応。
Self-Hosted Deployments
自身のハードウェア上でローカルに推論を実行します。
リソースや環境を完全に制御でき、低レイテンシが期待できます。
インフラ管理や専門知識が必要です。
最適なデプロイメントオプションの選択
最適なデプロイメントオプションは、あなたの具体的なニーズや要件によって異なります。決定時には以下の要素を考慮してください:
スケーラビリティ:アプリケーションがトラフィックやデータ量の変動に対応する必要がある場合、Serverless APIはリアルタイム用途に優れたスケーラビリティを提供します。それ以外の場合は Batch Processing が推奨オプションです。
レイテンシ:低レイテンシやビデオ処理が必要な場合は、Dedicated Deploymentsや高性能ハードウェアでのSelf-Hosted Deploymentsが最適です。
GPU:GPUが必要なモデル(例:SAM2、CogVMLなど)を実行する場合は、GPUマシンタイプのDedicated DeploymentまたはGPU搭載ハードウェアでのセルフホストが必要です。(Serverless GPU APIは近日公開予定)
制御:Self-Hosted Deploymentsは環境やリソースを最も細かく制御できます。
専門知識:Self-Hosted Deploymentsはセットアップや管理により高度な技術的知識が必要です。
Last updated
Was this helpful?