Make Requests to a Dedicated Deployment

Python SDK、HTTP API、または Workflows のウェブインターフェイスを使用して Dedicated Deployment に直接リクエストを行うことができます。

Python SDK を使用する

最新バージョンの Python SDK をインストールしてください inference_sdk をインストールします pip install --upgrade inference-sdk.

専用デプロイメントの準備ができたら、その URL をコピーしてください:

専用デプロイメントの URL を準備ができたらコピーしてください

そしてパラメータに貼り付けてください api_url 初期化時に InferenceHTTPClient 、これで完了です!

モデル推論を実行する例はこちらです。詳細は inference_sdk のドキュメント.

from inference_sdk import InferenceHTTPClient

CLIENT = InferenceHTTPClient(
    api_url="https://dev-testing.roboflow.cloud",
    api_key="ROBOFLOW_API_KEY"
)

image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"
result = CLIENT.infer(image_url, model_id="soccer-players-5fuqs/1")

HTTP API を使用する

また、アクセスすることもできます HTTP API 以下に一覧表示されています /docs、例: https://dev-testing.roboflow.cloud/docs .

ワークスペースを添付してください api_key これらのエンドポイントにアクセスする際はクエリパラメータとして指定してください。

上記と同じリクエストを HTTP API で行う例はこちらです:

import requests
import json

api_url = "https://dev-testing.roboflow.cloud"
model_id = "soccer-players-5fuqs/1"
image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"

resp = requests.get(f"{api_url}/{model_id}", params = {"api_key": "ROBOFLOW_API_KEY", "image": image_url})
result = json.loads(resp.content)

Workflow UI を使用する

専用デプロイメントは、 Roboflow Workflowsのバックエンドサーバーとしても利用できます。Roboflow Workflows は、コンピュータビジョンアプリケーションを作成するためのローコード・ウェブベースアプリケーションビルダーです。

ワークフローを作成した後、 Running on Hosted API 左上のリンクをクリックしてください:

ワークフローが実行されるバックエンドを変更します。

クリック Dedicated Deployments して専用デプロイメントの一覧を表示し、対象のデプロイメントを選択してから Connect:

ワークフロー実行用のバックエンドサーバーとして対象の専用デプロイメントを選択してください。

これでワークフローエディタで専用デプロイメントを使用する準備ができました。

Last updated

Was this helpful?