Managed Deployments
Roboflow は、モデルを実行するために当社のクラウドインフラストラクチャを活用するいくつかのマネージドデプロイメントオプションを提供します。これらのオプションは使いやすく、優れたスケーラビリティを備えており、幅広い用途に最適です。
サーバーレス API
この Serverless Hosted API を使用すると、無限にスケーリング可能な API を通じて Roboflow のインフラ上でワークフローやモデルを直接実行できます。これはモデルをデプロイして推論を開始する最も簡単な方法です。
利点:
スケーラビリティ:API は推論ニーズに応じて自動的にスケールするため、サーバーのプロビジョニングや管理を気にする必要がありません。
使いやすさ:シンプルな REST API を通じてモデルにアクセスできるため、アプリケーションへの推論の統合が容易です。
インフラ管理不要:Roboflow がすべてのインフラを管理するため、アプリケーションの構築に専念できます。
ワークフローサポート:すべてのワークフローは Serverless API の API エンドポイントとして利用できるため、シンプルな HTTP リクエストでワークフローを簡単に実行できます
制限事項:
ウォームアップ要求:サーバーにロードされていないモデルをロードする必要があるリクエストを行うと、初回のリクエストは数秒のレイテンシー増加が発生する場合があります。続くリクエストでは、モデルが現在稼働中のサーバーにキャッシュされるため、リクエスト遅延は大幅に改善されます。
CPU ベース:この Serverless Hosted API はモデル推論に CPU を使用します。専用デプロイメントやセルフホステッドデプロイメントと比べてレイテンシーが高くなる可能性があり、GPU を必要とするモデルは使用できません(Serverless GPU API は間もなく提供予定).
ワークフロー
この Serverless Hosted API により次を実行できます ワークフロー を Roboflow クラウドで実行できます。これにより、自分でインフラを管理することなく、複雑なコンピュータビジョンアプリケーションを構築および実行できます。
ワークフローは次でも実行できます Dedicated Deployments やセルフホステッド推論サーバー上で実行することもでき、より強力な GPU ベースのモデルを使用したり、 Custom Python Blocks.
Workflows の作成、テスト、デプロイ方法の詳細は こちら.
モデル推論
に加えて ワークフロー 特定のモデルに対して Serverless Hosted APIを使用して推論することもできます。Roboflow 上でトレーニングした任意のモデル、または サポートされているファウンデーションモデルのいずれに対しても推論でき、あるいは訓練済みモデルを持つプロジェクトを https://universe.roboflow.com
の使い方の概要 Serverless Hosted API:
Roboflow のダッシュボードから API キーを取得します。
画像とモデル情報を含む POST リクエストを API エンドポイントに送信します。
JSON 形式で推論結果を受け取ります。
詳細と API 仕様については Serverless Hosted API ドキュメントを参照してください
バッチ処理
Roboflow バッチ処理 は、コードを書かずに大量のビデオや画像を処理できる、によって支えられたフルマネージドソリューションです。 ワークフロー は、迅速なタスクのための使いやすい UI と、データ処理を自動化するための包括的な API を提供し、小規模から大規模なワークロードの両方に適しています。
設定可能な処理ワークフロー、リアルタイム監視、イベントベースの通知により、Roboflow バッチ処理はデータ処理の効率的な管理、進捗の追跡、他システムとの統合を支援し、目標達成を容易にします。
利点:
スケーラビリティ:サービスはデータ量に応じて自動的にスケールし、何百万枚もの画像や何千本ものビデオファイルを効率的に処理できます。
使いやすさ:単純な UI クリックから CLI コマンドの実行、さらにはシステムとシームレスに統合する production-grade automations の構築に至るまで、複数の方法でサービスを利用できます。
インフラ管理不要:Roboflow がすべてのインフラとデータ管理を担当するため、ビジネスのユースケース解決に集中できます。
制限事項:
処理の非同期性: バッチ処理サービスは、計算リソースが利用可能になったときにバックグラウンドで実行される処理ジョブを起動します。必要なサーバーのプロビジョニングには通常数分しかかかりませんが、ジョブの正確な開始時刻を保証するものではありません。そのため、本サービスはリアルタイム処理には適していません。
Custom Python Blocks はサポートされていません:サービスは Roboflow のインフラ上で実行されるため、現時点では Custom Python Blocks を通じた任意のコード実行はサポートしていません。
Dedicated Deployments
Dedicated Deployments はモデル実行のために専用の GPU と CPU を提供します。このオプションは一貫したパフォーマンス、リソースの隔離、強化されたセキュリティを提供するため、リソースの隔離やカスタムコード実行を必要とする負荷の高いアプリケーションや本番ワークロードに適しています。
利点:
一貫したパフォーマンス:専用リソースによりモデルの一貫したパフォーマンスが保証されます。
リソースの隔離:モデルは隔離されたリソース上で実行され、他のユーザーからの干渉を防ぎます。
GPU サポート:SAM2 や CogVML といった GPU を必要とする大規模モデルを Dedicated Deployments 上で実行できます。
制限事項:
米国拠点のデータセンターに限定:現在、Dedicated Deployments は米国拠点のデータセンターでのみ利用可能であり、他の地域のユーザーにとってはレイテンシーが高くなる可能性があります。
Last updated
Was this helpful?