Model または Workflow をデプロイする
Roboflow で学習した、または Roboflow にアップロードした workflows と models をデプロイする方法を学びます。
モデルとワークフローの両方について、マネージドデプロイメントとセルフホスト型デプロイメントの両方をサポートしています。
Managed Deployments
これらのオプションは、Roboflowのクラウドインフラストラクチャを活用してモデルとワークフローを実行するため、自前のハードウェアやソフトウェアを管理する必要がありません。
Self-Hosted Deployment
モデルとワークフローを self-hosted でもデプロイできます。 Roboflow Inferenceこれにより、環境、リソース、レイテンシーをより細かく制御できます。
このオプションには、インフラの管理と専門知識が必要です。
Inferenceとは?
コンピュータビジョンにおいて、Inferenceとは、学習済みモデルを使って新しい画像や動画を分析し、予測を行うプロセスを指します。たとえば、物体検出モデルを使って動画ストリーム内のオブジェクトを識別・位置特定したり、分類モデルを使ってその内容に基づいて画像をカテゴリ分けしたりできます。
Roboflow Inference は、コンピュータビジョンのモデルとワークフローをデプロイするための強力で柔軟なフレームワークを提供するオープンソースプロジェクトです。これは、Roboflowのマネージドデプロイメントサービスの大部分を支えるエンジンです。自分でホストすることも、これを使ってビジョンワークフローをエッジデバイスにデプロイすることもできます。Roboflow Inferenceには、以下を含むさまざまな機能と能力があります:
物体検出、分類、インスタンスセグメンテーションなど、さまざまなモデルアーキテクチャとタスクのサポート。
Workflowsは、さまざまなモデル、事前構築されたロジック、外部アプリケーションを、数百のbuilding Blocksから選んで組み合わせることで、コンピュータビジョンアプリケーションを構築できるようにします。
CPU、GPU、NVIDIA Jetsonのようなエッジデバイスを含む、さまざまなデバイスで最適化されたパフォーマンスを実現するハードウェアアクセラレーション。
リソースを効率的に使用するためのマルチプロセッシング。
動画ストリームをシームレスに処理するための動画デコード。
デプロイメントを簡素化するHTTPインターフェース、API、Dockerイメージ
Roboflowのホスト型デプロイメントオプションおよびRoboflowプラットフォームとの統合。
Workflowとは?
Workflows さまざまなモデル、事前構築されたロジック、外部アプリケーションを組み合わせることで、複雑なコンピュータビジョンアプリケーションを構築できるようにします。これらは、高度なコンピュータビジョンパイプラインを設計・デプロイするための、視覚的でローコードな環境を提供します。
Workflowsを使うと、次のことができます:
複数のモデルを連結して、複雑なタスクを実行する。
アプリケーションにカスタムロジックと意思決定を追加する。
外部システムやAPIと統合する。
画像や動画内のオブジェクトを追跡、カウント、計測、可視化する。
適切なデプロイメントオプションの選び方
inference の Getting Started guide には、ユースケースに最適なデプロイメント方法の選び方に関する優れたガイドがあります。 Getting Started guide.
最適なデプロイメントオプションは、具体的なニーズや要件によって異なります。判断する際には、次の要素を考慮してください:
スケーラビリティ: アプリケーションが変動するトラフィック量やデータ量に対応する必要がある場合、サーバーレスAPIはリアルタイムのユースケースに優れたスケーラビリティを提供します。そうでない場合は、 Batch Processing が推奨されるオプションです。
レイテンシー: 低レイテンシーや動画処理が必要な場合は、強力なハードウェアを備えたDedicated Deploymentsまたはself-hosted deploymentsが最適な選択肢かもしれません。
制御: self-hosted deploymentsは、環境とリソースを最も細かく制御できます。
専門知識: self-hosted deployments のセットアップと管理には、より高度な技術的専門知識が必要です。
Last updated
Was this helpful?


