専用デプロイメントへのリクエスト送信
Python SDK、HTTP API、またはWorkflowsウェブインターフェースを使って専用デプロイメントに直接リクエストを送信できます。
Python SDKを使用する
最新バージョンのPython SDKをインストールしてください inference_sdk をインストールします pip install --upgrade inference-sdk
.
専用デプロイメントの準備ができたら、そのURLをコピーしてください:

そしてパラメータに貼り付けてください api_url
初期化時に InferenceHTTPClient
、これで完了です!
モデル推論を実行する例はこちらです。詳細は inference_sdkのドキュメント.
from inference_sdk import InferenceHTTPClient
CLIENT = InferenceHTTPClient(
api_url="https://dev-testing.roboflow.cloud",
api_key="ROBOFLOW_API_KEY"
)
image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"
result = CLIENT.infer(image_url, model_id="soccer-players-5fuqs/1")
HTTP APIを使用する
また、アクセスすることもできます HTTP API 以下にリストされています /docs
、例えば、 https://dev-testing.roboflow.cloud/docs
.
ワークスペースを添付してください api_key
これらのエンドポイントにアクセスする際はクエリパラメータとして指定してください。
上記と同じリクエストをHTTP APIで行う例はこちらです:
import requests
import json
api_url = "https://dev-testing.roboflow.cloud"
model_id = "soccer-players-5fuqs/1"
image_url = "https://source.roboflow.com/pwYAXv9BTpqLyFfgQoPZ/u48G0UpWfk8giSw7wrU8/original.jpg"
resp = requests.get(f"{api_url}/{model_id}", params = {"api_key": "ROBOFLOW_API_KEY", "image": image_url})
result = json.loads(resp.content)
Workflow UIを使用する
専用デプロイメントは、実行用のバックエンドサーバーとしても利用できます Roboflowワークフロー。Roboflow Workflowsは、コンピュータビジョンアプリケーションを作成するためのローコード、ウェブベースのアプリケーションビルダーです。
ワークフローを作成した後、 Hosted APIで実行 左上のリンクをクリックしてください:

クリック 専用デプロイメント 専用デプロイメントの一覧が表示されるので、対象のデプロイメントを選択し、その後 接続:

これでワークフローエディタで専用デプロイメントを使用する準備ができました。
Last updated
Was this helpful?