Managed Deployments

Roboflow は、モデルを実行するために当社のクラウドインフラストラクチャを活用するいくつかのマネージドデプロイオプションを提供します。これらのオプションは使いやすく、優れたスケーラビリティを備えており、幅広いアプリケーションに適しています。

サーバーレス API

The サーバーレスホスト型 API 無限にスケール可能な API を通じて、ワークフローやモデルを直接 Roboflow のインフラ上で実行できるようにします。これはモデルをデプロイして推論を開始する最も簡単な方法です。

利点:

  • スケーラビリティ: API は推論のニーズに応じて自動的にスケールするため、サーバーのプロビジョニングや管理を気にする必要がありません。

  • 使いやすさ: シンプルな REST API を通じてモデルにアクセスできるため、アプリケーションへの推論の統合が容易です。

  • インフラ管理不要: Roboflow がすべてのインフラを管理するため、アプリケーションの構築に集中できます。

  • ワークフローサポート: すべてのワークフローはサーバーレス API のエンドポイントとして利用可能であり、シンプルな HTTP リクエストでワークフローを簡単に実行できます

制限事項:

  • ウォームアップリクエスト: まだサーバーにロードされていないモデルを読み込む必要があるリクエストを送信すると、最初のリクエストは数秒の遅延が発生する可能性があります。続くリクエストでは、モデルが現在稼働中のサーバーにキャッシュされるため、リクエストの待ち時間は大幅に改善されます。

  • CPU ベース: サーバーレスホスト型 API はモデル推論に CPU を使用します。専用デプロイやセルフホストデプロイと比較してレイテンシが高くなる可能性があり、GPU を必要とするモデルは使用できません(サーバーレス GPU API は近日公開予定).

Workflows

The サーバーレスホスト型 API により、Roboflow クラウドで Workflows を実行できます。これにより、自分でインフラを管理することなく、複雑なコンピュータビジョンアプリケーションを構築・実行できます。

ワークフローは Dedicated Deployments またはセルフホストの推論サーバー上でも実行でき、より強力な GPU ベースのモデルや Custom Python Blocks.

Workflows の作成、テスト、デプロイ方法の詳細は、 ここ.

モデル推論

に加えて ワークフロー 特定のモデルに対して サーバーレスホスト型 APIを使って推論することもできます。Roboflow で学習した任意のモデル、サポートされている ファンデーションモデル、またはトレーニング済みモデルを持つプロジェクトを https://universe.roboflow.com で見つけることができます

の使用方法の概要 サーバーレスホスト型 API:

  1. Roboflow ダッシュボードから API キーを取得します。

  2. 画像とモデル情報を含む POST リクエストを API エンドポイントに送信します。

  3. 推論結果を JSON 形式で受け取ります。

参照を参照してください サーバーレスホスト型 API 詳細と API 仕様についてはドキュメントを参照してください

Batch Processing

Roboflow バッチ処理 は、コードを書かずに大量のビデオや画像を処理できる、によって提供されるフルマネージドソリューションです。 Workflows 使いやすい UI による簡単なタスクと、データ処理を自動化するための包括的な API を提供し、小規模から大規模なワークロードに対応します。

設定可能な処理ワークフロー、リアルタイム監視、イベントベースの通知により、Roboflow バッチ処理はデータ処理を効率的に管理し、進捗を追跡し、他システムと統合するのに役立ちます — 目標達成を容易にします。

利点:

  • スケーラビリティ: サービスはデータ量に応じて自動的にスケールし、数百万枚の画像や数千のビデオファイルを効率的に処理できます。

  • 使いやすさ: サービスはさまざまな方法で利用できます — 単純な UI のクリックから CLI コマンドの実行、さらにはシステムとシームレスに統合される 本番グレードの自動化 の構築に至るまで。

  • インフラ管理不要: Roboflow がすべてのインフラとデータ管理を担当するため、ビジネスユースケースの解決に集中できます。

制限事項:

  • 処理の非同期性: バッチ処理サービスは、コンピュートリソースが利用可能になったときにバックグラウンドで実行される処理ジョブを起動します。必要なサーバーのプロビジョニングには通常数分しかかかりませんが、ジョブの正確な開始時刻を保証するものではありません。そのため、このサービスはリアルタイム処理には適していません。

  • Custom Python Blocks 非対応: サービスは Roboflow のインフラ上で実行されるため、現時点では Custom Python Blocks を介した任意コードの実行はサポートしていません。

Dedicated Deployments

Dedicated Deployments はモデルを実行するために専用の GPU と CPU を提供します。このオプションは、一貫したパフォーマンス、リソースの分離、強化されたセキュリティを提供するため、リソース分離やカスタムコード実行を必要とする高負荷なアプリケーションや本番ワークロードに適しています。

利点:

  • 一貫したパフォーマンス: 専用リソースはモデルに対して一貫したパフォーマンスを確保します。

  • リソース分離: モデルは分離されたリソース上で実行され、他のユーザーからの干渉を防ぎます。

  • GPU サポート: Dedicated Deployments では GPU を必要とする大規模モデル(例: SAM2、CogVML など)を実行できます

制限事項:

  • 米国内データセンターに限定: 現在、Dedicated Deployments は米国内のデータセンターでのみ利用可能であり、他の地域のユーザーにとってはレイテンシが高くなる可能性があります。

Last updated

Was this helpful?