Dedicated Deployment にリクエストを送る
Python SDK、HTTP API、または Workflows の Web インターフェースを使って、Dedicated Deployment に直接リクエストを送ることができます。
Python SDK を使用する
最新バージョンの Python SDK をインストールしてください inference_sdk で pip install --upgrade inference-sdk.
専用デプロイメントの準備が整ったら、その URL をコピーしてください:
専用デプロイメントの URL を準備が整ったらコピーする そしてそのパラメータに貼り付けます api_url 初期化時に InferenceHTTPClient , 以上です!
以下はモデル推論を実行する例です。詳細は次で確認できます: inference_sdk のドキュメント.
また、以下にもアクセスできます: HTTP APIs これらは次に一覧表示されています: /docs, 例: https://dev-testing.roboflow.cloud/docs .
ワークスペースをクエリパラメータとして添付してください api_key これらのエンドポイントにアクセスする際はクエリパラメータとしてワークスペースを添付してください。
以下は上記と同じリクエストを HTTP API を使って行う例です:
Workflow UI を使用する
専用デプロイメントは、次を実行するバックエンドサーバーとしても使用できます: Roboflow WorkflowsRoboflow Workflows は、コンピュータビジョンアプリケーションを作成するためのローコードのウェブベースアプリケーションビルダーです。
ワークフローを作成したら、左上の Running on Hosted API リンクをクリックしてください:
ワークフローが実行されるバックエンドを変更します。 クリック Dedicated Deployments して専用デプロイメントの一覧を表示し、対象のデプロイメントを選択してから Connect:
ワークフロー実行のバックエンドサーバーとして、対象の専用デプロイメントを選択します。 これでワークフローエディタで専用デプロイメントを使用する準備が整いました。
Last updated