モデルまたはワークフローをデプロイ
Roboflowでトレーニングまたはアップロードしたモデルのデプロイ方法を学びましょう。
Roboflowでトレーニングされた、またはアップロードされたあらゆるモデル、およびあらゆるワークフローを、Roboflowのデプロイメントサービスでデプロイできます。
当社のデプロイメントサービスは2つのカテゴリに分かれています:
マネージドデプロイメント:これらのオプションはRoboflowのクラウドインフラストラクチャを活用してモデルを実行し、ハードウェアやソフトウェアの管理が不要になります。
セルフホストデプロイメント:これらのオプションでは、自身のハードウェア上でモデルをデプロイでき、環境やリソースをより細かく制御できます。
以下の表は、各デプロイメントオプションの主な特徴、利点、制限をまとめたものです:
Roboflowのインフラストラクチャ上でGPUハードウェアを使ってワークフローやモデルを直接実行します。
GPUモデルのサポート。
リソースの制御が限定的で、高負荷なアプリケーションや高負荷時にはレイテンシが高くなる可能性があります。
無限にスケーラブルなAPIを通じて、Roboflowのインフラストラクチャ上でワークフローやモデルを直接実行します。
スケーラブルで使いやすく、インフラ管理が不要です。
リソースの制御が限定的で、高負荷なアプリケーションではレイテンシが高くなる可能性があります。
ワークフローやモデルを実行するための専用GPUおよびCPU。
GPUモデル、ビデオストリーミング、カスタムPythonブロックのサポート。
米国拠点のデータセンターに限定。Serverless APIのような自動スケーリングはありません。
バッチ処理
選択したワークフローで画像や動画を処理するマネージドサーバープール。
高いデータスループットとコスト効率を提供するフルマネージドソリューションで、GPUサポートによりデータ量に応じてシームレスにスケールします。
リアルタイム処理ではなく、カスタムPythonブロックのサポートはありません。
セルフホストデプロイメント
自身のハードウェアで推論を実行します。
リソースや環境を完全に制御でき、レイテンシを低減できる可能性があります。
インフラ管理と専門知識が必要です。
最適なデプロイメントオプションの選択
最適なデプロイメントオプションは、あなたの具体的なニーズや要件によって異なります。決定する際は、以下の要素を考慮してください:
スケーラビリティ:アプリケーションがトラフィックやデータ量の変動に対応する必要がある場合、サーバーレスAPIはリアルタイム用途に優れたスケーラビリティを提供します。それ以外の場合は、 バッチ処理 が推奨オプションです。
レイテンシ:低レイテンシやビデオ処理が必要な場合は、専用デプロイメントや高性能ハードウェアでのセルフホストデプロイメントが最適です。
GPU:GPUが必要なモデル(例:SAM2、CogVMLなど)を実行する場合は、GPUマシンタイプの専用デプロイメントか、GPU搭載ハードウェアでのセルフホストが必要です。(サーバーレスGPU APIは近日公開予定)
制御:セルフホストデプロイメントは、環境やリソースを最も細かく制御できます。
専門知識:セルフホストデプロイメントは、セットアップや管理により多くの技術的専門知識が必要です。
Last updated
Was this helpful?