Managed Deployments
Roboflowは、モデルを実行するために当社のクラウドインフラストラクチャを活用した複数のマネージドデプロイメントオプションを提供しています。これらのオプションは使いやすく、優れたスケーラビリティを提供するため、幅広い用途に最適です。
Serverless API
この Serverless Hosted API 無限にスケーラブルなAPIを通じて、Roboflowのインフラストラクチャ上でワークフローやモデルを直接実行できます。これはモデルをデプロイして推論を始める最も簡単な方法です。
メリット:
スケーラビリティ:APIは推論のニーズに合わせて自動的にスケールするため、サーバーのプロビジョニングや管理を心配する必要がありません。
使いやすさ:シンプルなREST APIを通じてモデルにアクセスできるため、アプリケーションへの推論統合が簡単です。
インフラ管理不要:Roboflowがすべてのインフラストラクチャを管理するため、アプリケーションの構築に集中できます。
ワークフローサポート:すべてのワークフローがServeless APIのAPIエンドポイントとして利用でき、シンプルなHTTPリクエストでワークフローを簡単に実行できます。
制限事項:
ウォームアップリクエスト:まだどのサーバーにもロードされていないモデルをロードする必要があるリクエストを行う場合、最初のリクエストは数秒間のレイテンシが増加することがあります。その後のリクエストでは、モデルが現在稼働中のサーバーにキャッシュされるため、リクエストのレイテンシが大幅に改善されます。
CPUベース: Serverless Hosted API はモデル推論にCPUを使用します。Dedicated Deploymentsやセルフホスト型デプロイメントと比べてレイテンシが高くなる場合があり、GPUが必要なモデル(Serverless GPU APIは近日公開予定).
Workflows
この Serverless Hosted API を実行できます Workflows Roboflowクラウド内で。これにより、独自のインフラを管理せずに複雑なコンピュータビジョンアプリケーションを構築・実行できます。
また、ワークフローを Dedicated Deployments やセルフホスト型推論サーバー上で実行することもでき、より強力なGPUベースのモデルや Custom Python Blocks.
Workflowsの作成、テスト、デプロイ方法について詳しくは こちら.
モデル推論
に加えて ワークフロー 特定のモデルに対しても Serverless Hosted APIを使って推論できます。Roboflowでトレーニングした任意のモデル、 サポートされているファウンデーションモデル、またはトレーニング済みモデルのあるプロジェクトを https://universe.roboflow.com
の使い方概要 Serverless Hosted API:
RoboflowダッシュボードからAPIキーを取得します。
画像とモデル情報を含むPOSTリクエストをAPIエンドポイントに送信します。
推論結果をJSON形式で受け取ります。
詳細は Serverless Hosted API 詳細およびAPI仕様についてはドキュメントを参照してください
バッチ処理
Roboflowバッチ処理 によって提供される完全マネージドソリューションです Workflows コードを書かずに大量の動画や画像を処理できます。簡単なタスク向けの使いやすいUIと、自動データ処理のための包括的なAPIを提供し、小規模から大規模なワークロードまで対応します。
設定可能な処理ワークフロー、リアルタイムモニタリング、イベントベースの通知により、Roboflowバッチ処理はデータ処理の効率的な管理、進捗の追跡、他システムとの統合を支援し、目標達成を容易にします。
メリット:
スケーラビリティ:サービスはデータ量に合わせて自動的にスケールし、数百万枚の画像や数千本の動画ファイルを効率的に処理できます。
使いやすさ:シンプルなUIクリックからCLIコマンドの実行、 本番レベルの自動化 まで、さまざまな方法でサービスを利用できます。
インフラ管理不要:Roboflowがすべてのインフラとデータ管理を行うため、ビジネスユースケースの解決に集中できます。
制限事項:
非同期処理の性質: バッチ処理サービスは、計算リソースが利用可能なときにバックグラウンドで処理ジョブを起動します。必要なサーバーのプロビジョニングには通常数分しかかかりませんが、ジョブの正確な開始時間は保証されません。そのため、このサービスはリアルタイム処理には適していません。
Custom Python Blocksはサポートされていません:サービスはRoboflowのインフラ上で実行されるため、現時点ではCustom Python Blocksによる任意コードの実行はサポートしていません。
Dedicated Deployments
Dedicated Deployments モデル実行用に専用のGPUおよびCPUを提供します。このオプションは一貫したパフォーマンス、リソースの分離、強化されたセキュリティを提供し、リソース分離やカスタムコード実行が必要な要求の高いアプリケーションや本番ワークロードに適しています。
メリット:
一貫したパフォーマンス:専用リソースによりモデルの一貫したパフォーマンスが保証されます。
リソース分離:モデルは分離されたリソース上で実行され、他ユーザーからの干渉を防ぎます。
GPUサポート:Dedicated Deployments(例:SAM2、CogVML)でGPUサポートが必要な大規模モデルを実行できます
Custom Python Blocks:Dedicated Deploymentsでワークフローをデプロイする場合、Custom Python Blocksを使用できます。
制限事項:
米国拠点のデータセンター限定:現在、Dedicated Deploymentsは米国拠点のデータセンターでのみ利用可能であり、他地域のユーザーにはレイテンシが高くなる場合があります。
Last updated
Was this helpful?