サーバーレスホステッドAPI V2

RoboflowクラウドのGPU加速インフラでワークフローやモデル推論を実行します。

RoboflowにデプロイされたモデルにはREST APIが用意されており、これを通じて画像の推論を実行できます。このデプロイ方法は、デプロイ先デバイスに常時インターネット接続がある環境に最適です。

プロジェクトに関連付けられたAPIは、あなたの成長に合わせてスケールします。プロジェクトが成長し、より多くの推論が必要になれば、APIも拡張されます。

Serverless Hosted API V2は、当社の最新のAPIです。V1よりも高速で、Florence-2やSAM-2のようなGPUを必要とするモデルにも対応しています。

ワークフローでAPIを使用する

REST APIで使用する

ベンチマーク

Serverless Hosted API V2に送信されたリクエストのエンドツーエンドのレイテンシは、いくつかの要因に依存します:

  1. モデルアーキテクチャ(実行時間に影響)

  2. 画像のサイズと解像度(アップロード時間や実行時のモデル推論時間に影響)

  3. ネットワークのレイテンシと帯域幅(リクエストのアップロード時間やレスポンスのダウンロード時間に影響)

  4. 特定の時間帯における他ユーザーのサービス利用状況(キューイングレイテンシが発生する可能性あり)

下記の表に、Serverless Hosted API V2およびHosted API V1で実施した代表的なベンチマークを示します。Serverless Hosted API V2およびHosted Inference(V1)の結果には、エンドツーエンドレイテンシ(E2E)と実行時間(Exec)が含まれます。これらの数値は参考情報であり、ユーザー自身でベンチマークを実施することを推奨します。 当社の推論ベンチマークツール または独自のカスタムベンチマーク。

モデル
V2(E2E)
V2(Exec)
V1(E2E)
V1(Exec)

yolov8x-640

401ミリ秒

29ミリ秒

4084ミリ秒

821ミリ秒

yolov8m-640

757ミリ秒

21ミリ秒

572ミリ秒

265ミリ秒

yolov8n-640

384ミリ秒

17ミリ秒

312ミリ秒

63ミリ秒

yolov8x-1280

483ミリ秒

97ミリ秒

6431ミリ秒

3032ミリ秒

yolov8m-1280

416ミリ秒

52ミリ秒

1841ミリ秒

1006ミリ秒

yolov8n-1280

428ミリ秒

35ミリ秒

464ミリ秒

157ミリ秒

ユーザー自身のモデル推論やワークフローに対して、実際のユースケースに基づいた正確な指標を得るために独自のベンチマークを実施することを推奨します。

制限

Serverless Hosted API V2では、最大20MBまでのファイルをアップロードできます。これは新しいAPIであるため、高解像度画像では制限に遭遇する場合があります。問題が発生した場合は、エンタープライズサポート担当者にご連絡いただくか、次の場所にメッセージを投稿してください。 フォーラム.

リクエストが大きすぎる場合は、添付画像のサイズを小さくすることをお勧めします。これは通常、パフォーマンスの低下を招きません。なぜなら、画像はサーバーで受信後、モデルアーキテクチャが受け付ける入力サイズにリサイズされるためです。 Python SDKのような一部のSDKでは、APIに送信される前に自動的に画像をモデルアーキテクチャの入力サイズにリサイズします。

Last updated

Was this helpful?