モデルまたはワークフローをデプロイする

Roboflow でトレーニングまたはアップロードされたモデルをデプロイする方法を学びます。

Roboflowでトレーニングされた、またはアップロードされた任意のモデルや、任意のWorkflowを、Roboflowのデプロイメントオファリングでデプロイできます。

当社のデプロイメントオファリングは2つのカテゴリに分かれています:

  • Managed Deployments:これらのオプションはRoboflowのクラウドインフラストラクチャを活用してモデルを実行し、ハードウェアやソフトウェアの管理が不要になります。

  • Self-Hosted Deployments:これらのオプションは自身のハードウェア上でローカルにモデルをデプロイでき、環境やリソースをより細かく制御できます。

以下の表は各デプロイメントオプションの主な特徴、利点、制限をまとめたものです:

Deployment Option
Description
Benefits
Limitations

Roboflowのインフラストラクチャ上のGPUハードウェアでワークフローやモデルを直接実行します。

GPUモデルに対応。

リソースの制御が限定的で、高負荷なアプリケーションや高負荷時にはレイテンシが高くなる可能性があります。

無限にスケーラブルなAPIを通じて、Roboflowのインフラストラクチャ上でワークフローやモデルを直接実行します。

スケーラブル、使いやすい、インフラ管理不要。

リソースの制御が限定的で、高負荷なアプリケーションではレイテンシが高くなる可能性があります。

ワークフローやモデル実行用の専用GPUおよびCPU。

GPUモデル、ビデオストリーミング、Custom Python Blocksに対応。

米国拠点のデータセンターのみ利用可能。Serverless APIのような自動スケーリングはありません。

Batch Processing

選択したワークフローで画像や動画を処理するマネージドサーバープール。

高いデータスループットとコスト効率を提供する完全マネージドソリューションで、GPU対応でデータ量に合わせてシームレスにスケールします。

リアルタイム処理不可、Custom Python Blocks非対応。

Self-Hosted Deployments

自身のハードウェア上でローカルに推論を実行します。

リソースや環境を完全に制御でき、低レイテンシが期待できます。

インフラ管理や専門知識が必要です。

モデルのデプロイは常に クレジットを消費します。どの方法を選んでも同じです。

Inferenceとは?

コンピュータビジョンにおいて、推論とはトレーニング済みモデルを使って新しい画像や動画を解析し、予測を行うプロセスを指します。例えば、物体検出モデルはビデオストリーム内の物体を識別・位置特定したり、分類モデルは画像の内容に基づいてカテゴリ分けしたりします。

Roboflow Inference は、コンピュータビジョンモデルやワークフローのデプロイのための強力で柔軟なフレームワークを提供するオープンソースプロジェクトです。Roboflowの多くのマネージドデプロイメントサービスのエンジンとして動作します。セルフホストやエッジデバイスへのワークフローのデプロイにも利用できます。Roboflow Inferenceは以下のような多彩な機能を備えています:

  • 物体検出、分類、インスタンスセグメンテーションなど、さまざまなモデルアーキテクチャやタスクに対応。

  • Workflowsにより、複数のモデルや事前構築ロジック、外部アプリケーションを組み合わせてコンピュータビジョンアプリケーションを構築できます。数百種類のBlocksから選択可能です。

  • CPU、GPU、NVIDIA Jetsonなどのエッジデバイスを含む各種デバイスで最適化されたパフォーマンスのためのハードウェアアクセラレーション。

  • リソースを効率的に活用するためのマルチプロセッシング。

  • ビデオストリームのシームレスな処理のためのビデオデコード。

  • デプロイを簡素化するHTTPインターフェース、API、dockerイメージ。

  • RoboflowのホステッドデプロイメントオプションやRoboflowプラットフォームとの統合。

Workflowとは?

Workflows は、複数のモデルや事前構築ロジック、外部アプリケーションを組み合わせて複雑なコンピュータビジョンアプリケーションを構築できる機能です。視覚的かつローコードな環境で高度なコンピュータビジョンパイプラインを設計・デプロイできます。

Workflowsを使うと、次のことができます:

  • 複数のモデルを連結して複雑なタスクを実行。

  • カスタムロジックや意思決定をアプリケーションに追加。

  • 外部システムやAPIと統合。

  • 画像や動画内のオブジェクトの追跡、カウント、計測、可視化。

最適なデプロイメントオプションの選択

推論のスタートガイドに、ユースケースに最適なデプロイメント方法の選び方についての優れたガイドがあります: https://inference.roboflow.com/start/getting-started/

最適なデプロイメントオプションは、あなたの具体的なニーズや要件によって異なります。決定時には以下の要素を考慮してください:

  • スケーラビリティ:アプリケーションがトラフィックやデータ量の変動に対応する必要がある場合、Serverless APIはリアルタイム用途に優れたスケーラビリティを提供します。それ以外の場合は Batch Processing が推奨オプションです。

  • レイテンシ:低レイテンシやビデオ処理が必要な場合は、Dedicated Deploymentsや高性能ハードウェアでのSelf-Hosted Deploymentsが最適です。

  • GPU:GPUが必要なモデル(例:SAM2、CogVMLなど)を実行する場合は、GPUマシンタイプのDedicated DeploymentまたはGPU搭載ハードウェアでのセルフホストが必要です。(Serverless GPU APIは近日公開予定)

  • 制御:Self-Hosted Deploymentsは環境やリソースを最も細かく制御できます。

  • 専門知識:Self-Hosted Deploymentsはセットアップや管理により高度な技術的知識が必要です。

Last updated

Was this helpful?