マネージドデプロイメント

Roboflowは、モデルを実行するために当社のクラウドインフラストラクチャを活用した複数のマネージドデプロイメントオプションを提供しています。これらのオプションは使いやすく、優れたスケーラビリティを備えているため、幅広い用途に最適です。

サーバーレスAPI

この サーバーレスホステッドAPI 無限にスケーラブルなAPIを通じて、Roboflowのインフラストラクチャ上でワークフローやモデルを直接実行できます。これはモデルをデプロイし、推論を始める最も簡単な方法です。

利点:

  • スケーラビリティ:APIは自動的にスケールし、推論のニーズに対応するため、サーバーのプロビジョニングや管理を心配する必要がありません。

  • 使いやすさ:シンプルなREST APIを通じてモデルにアクセスできるため、アプリケーションへの推論の統合が容易です。

  • インフラ管理不要:Roboflowがすべてのインフラを管理するため、アプリケーションの構築に集中できます。

  • ワークフローサポート:すべてのワークフローがサーバーレスAPIのAPIエンドポイントとして利用でき、シンプルなHTTPリクエストでワークフローを簡単に実行できます。

制限事項:

  • ウォームアップリクエスト:まだどのサーバーにもロードされていないモデルをロードする必要があるリクエストを行う場合、初回リクエストは数秒間の遅延が発生することがあります。その後のリクエストでは、モデルが現在稼働中のサーバーにキャッシュされるため、リクエストの遅延は大幅に改善されます。

  • CPUベースサーバーレスホステッドAPI はモデル推論にCPUを使用します。専用デプロイメントやセルフホストデプロイメントと比べて遅延が高くなる場合があり、GPUが必要なモデル(サーバーレスGPU API近日公開予定).

ワークフロー

この サーバーレスホステッドAPI を実行できます ワークフロー Roboflowクラウド内で。これにより、独自のインフラを管理せずに複雑なコンピュータビジョンアプリケーションを構築・実行できます。

また、ワークフローを 専用デプロイメント またはセルフホスト推論サーバー上で実行することもでき、より強力なGPUベースのモデルを利用したり、 カスタムPythonブロック.

ワークフローの作成、テスト、デプロイ方法について詳しくは こちら.

モデル推論

に加えて ワークフロー 特定のモデルに対しても推論を行うことができます サーバーレスホステッドAPI。Roboflowでトレーニングした任意のモデル、 サポートされているファウンデーションモデル、またはトレーニング済みモデルのあるプロジェクトを https://universe.roboflow.com

の使い方概要 サーバーレスホステッドAPI:

  1. RoboflowダッシュボードからAPIキーを取得します。

  2. 画像とモデル情報を含むPOSTリクエストをAPIエンドポイントに送信します。

  3. 推論結果をJSON形式で受け取ります。

詳細は サーバーレスホステッドAPI 詳細やAPI仕様についてはドキュメントをご覧ください

バッチ処理

Roboflowバッチ処理 によって強化された完全マネージドソリューションです ワークフロー コードを書くことなく大量の動画や画像を処理できます。簡単なタスク用の使いやすいUIと、データ処理を自動化するための包括的なAPIを提供し、小規模から大規模なワークロードまで対応します。

設定可能な処理ワークフロー、リアルタイムモニタリング、イベントベースの通知により、Roboflowバッチ処理はデータ処理の効率的な管理、進捗の追跡、他システムとの統合を支援し、目標達成を容易にします。

利点:

  • スケーラビリティ:サービスはデータ量に応じて自動的にスケールし、数百万枚の画像や数千本の動画ファイルを効率的に処理できます。

  • 使いやすさ:シンプルなUIクリックからCLIコマンドの実行、 本番レベルの自動化 まで、さまざまな方法でサービスを利用できます。

  • インフラ管理不要:Roboflowがすべてのインフラとデータ管理を行うため、ビジネスユースケースの解決に集中できます。

制限事項:

  • 処理の非同期性: バッチ処理サービスは、計算リソースが利用可能なときにバックグラウンドで処理ジョブを開始します。必要なサーバーのプロビジョニングには通常数分しかかかりませんが、ジョブの正確な開始時間は保証されません。そのため、このサービスはリアルタイム処理には適していません。

  • カスタムPythonブロックはサポートされていません:サービスはRoboflowのインフラ上で実行されるため、現在カスタムPythonブロックによる任意コードの実行はサポートしていません。

専用デプロイメント

専用デプロイメント 専用GPUおよびCPUを提供し、モデルを実行できます。このオプションは一貫したパフォーマンス、リソースの分離、強化されたセキュリティを提供し、リソース分離やカスタムコード実行が必要な要求の高いアプリケーションや本番ワークロードに適しています。

利点:

  • 一貫したパフォーマンス:専用リソースにより、モデルの一貫したパフォーマンスが保証されます。

  • リソース分離:モデルは分離されたリソース上で実行され、他のユーザーからの干渉を防ぎます。

  • GPUサポート:専用デプロイメント(例:SAM2、CogVMLなど)でGPUサポートが必要な大規模モデルを実行できます。

  • カスタムPythonブロック:専用デプロイメントにデプロイする際、ワークフロー内でカスタムPythonブロックを使用できます。

制限事項:

  • 米国拠点のデータセンター限定:現在、専用デプロイメントは米国拠点のデータセンターでのみ利用可能なため、他地域のユーザーは遅延が大きくなる場合があります。

Last updated

Was this helpful?