Serverless Hosted API

Roboflow クラウドの GPU アクセラレートされたオートスケーリングインフラで Workflows とモデル推論を実行します。

Roboflow にデプロイされたモデルは、画像に対して推論を実行できる REST API を利用できます。このデプロイ方法は、デプロイ先デバイスが常時インターネット接続されている環境に最適です。

Serverless Hosted API を使用できます:

Inference server

当社の Serverless Hosted API は Inference Serverarrow-up-rightによって動作しています。これは、以下に示すように、当社の Serverless Hosted API とセルフホスティングオプションを相互に簡単に切り替えられることを意味します。

from inference_sdk import InferenceHTTPClient

CLIENT = InferenceHTTPClient(
    # api_url="http://localhost:9001" # Self-hosted Inference server
    api_url="https://serverless.roboflow.com", # Our Serverless hosted API
    api_key="API_KEY" # optional to access your private models and data
)

result = CLIENT.infer("image.jpg", model_id="model-id/1")
print(result)

制限事項

当社の Serverless Hosted API は最大 20MB までのファイルアップロードをサポートします。高解像度の画像では制限に達する可能性があります。問題が発生した場合は、企業向けサポート担当者に連絡するか、以下の フォーラムarrow-up-right.

circle-info

リクエストが大きすぎる場合は、添付画像の縮小をおすすめします。受信後にモデルアーキテクチャが受け付ける入力サイズに合わせて画像はいずれにせよ縮小されるため、通常は性能が大きく低下することはありません。 Python SDK のようないくつかの SDK は、API に送信される前に自動的に画像をモデルアーキテクチャの入力サイズに縮小します。


これは当社の Serverless Hosted API の V2 です。以下を参照してください Serverless Hosted API v1 v1(レガシー)API ドキュメント。

Last updated

Was this helpful?