Make Requests to a Dedicated Deployment
Python SDK、HTTP API、または Workflows のウェブインターフェースを使用して専用デプロイメントにリクエストを行えます。
Python SDK を使用する
最新バージョンの Python SDK をインストールしてください inference_sdk で pip install --upgrade inference-sdk.
専用デプロイメントの準備が整ったら、その URL をコピーしてください:

そしてそのパラメータに貼り付けます api_url 初期化時に InferenceHTTPClient , 以上です!
以下はモデル推論を実行する例です。詳細は次で確認できます: inference_sdk のドキュメント.
from inference_sdk import InferenceHTTPClient
CLIENT = InferenceHTTPClient(
api_url="https://dev-testing.roboflow.cloud",
api_key="ROBOFLOW_API_KEY"
)
image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"
result = CLIENT.infer(image_url, model_id="soccer-players-5fuqs/1")HTTP API を使用する
また、以下にもアクセスできます: HTTP APIs これらは次に一覧表示されています: /docs, 例: https://dev-testing.roboflow.cloud/docs .
ワークスペースをクエリパラメータとして添付してください api_key これらのエンドポイントにアクセスする際はクエリパラメータとしてワークスペースを添付してください。
以下は上記と同じリクエストを HTTP API を使って行う例です:
import requests
import json
api_url = "https://dev-testing.roboflow.cloud"
model_id = "soccer-players-5fuqs/1"
image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"
resp = requests.get(f"{api_url}/{model_id}", params = {"api_key": "ROBOFLOW_API_KEY", "image": image_url})
result = json.loads(resp.content)Workflow UI を使用する
専用デプロイメントは、次を実行するバックエンドサーバーとしても使用できます: Roboflow WorkflowsRoboflow Workflows は、コンピュータビジョンアプリケーションを作成するためのローコードのウェブベースアプリケーションビルダーです。
ワークフローを作成したら、左上の Running on Hosted API リンクをクリックしてください:

クリック Dedicated Deployments して専用デプロイメントの一覧を表示し、対象のデプロイメントを選択してから Connect:

これでワークフローエディタで専用デプロイメントを使用する準備が整いました。
Last updated
Was this helpful?