Dedicated Deployment にリクエストを行う

Python SDK、HTTP API、または Workflows のウェブインターフェースを使用して Dedicated Deployment に直接リクエストを行うことができます。

Python SDK を使用する

最新バージョンの Python SDK をインストールしてください inference_sdkarrow-up-rightpip install --upgrade inference-sdk.

専用デプロイメントの準備が整ったら、その URL をコピーしてください:

専用デプロイメントの URL を準備が整ったらコピーする

そしてそのパラメータに貼り付けます api_url 初期化時に InferenceHTTPClient , 以上です!

以下はモデル推論を実行する例です。詳細は次で確認できます: inference_sdk のドキュメントarrow-up-right.

HTTP API を使用する

また、以下にもアクセスできます: HTTP APIsarrow-up-right これらは次に一覧表示されています: /docs, 例: https://dev-testing.roboflow.cloud/docs .

ワークスペースをクエリパラメータとして添付してください api_key これらのエンドポイントにアクセスする際はクエリパラメータとしてワークスペースを添付してください。

以下は上記と同じリクエストを HTTP API を使って行う例です:

Workflow UI を使用する

専用デプロイメントは、次を実行するバックエンドサーバーとしても使用できます: Roboflow Workflowsarrow-up-rightRoboflow Workflows は、コンピュータビジョンアプリケーションを作成するためのローコードのウェブベースアプリケーションビルダーです。

ワークフローを作成したら、左上の Running on Hosted API リンクをクリックしてください:

ワークフローが実行されるバックエンドを変更します。

クリック Dedicated Deployments して専用デプロイメントの一覧を表示し、対象のデプロイメントを選択してから Connect:

ワークフロー実行のバックエンドサーバーとして、対象の専用デプロイメントを選択します。

これでワークフローエディタで専用デプロイメントを使用する準備が整いました。

Last updated

Was this helpful?