Serverless Hosted API
GPU アクセラレーションされたオートスケーリングインフラ上で Roboflow クラウドで Workflows とモデル推論を実行します。
Inference server
from inference_sdk import InferenceHTTPClient
CLIENT = InferenceHTTPClient(
# api_url="http://localhost:9001" # Self-hosted Inference server
api_url="https://serverless.roboflow.com", # Our Serverless hosted API
api_key="API_KEY" # optional to access your private models and data
)
result = CLIENT.infer("image.jpg", model_id="model-id/1")
print(result)制限事項
Last updated
Was this helpful?