Instant 모델 실행
Python SDK와 Serverless Hosted API V2를 사용하여 Roboflow Instant 모델을 실행할 수 있습니다.
Instant 모델을 실행하려면 다음 코드를 사용하세요:
from inference_sdk import InferenceHTTPClient, InferenceConfiguration
CLIENT = InferenceHTTPClient(
api_url="https://serverless.roboflow.com",
api_key="<Your API Key>",
)
configuration = InferenceConfiguration(
confidence_threshold=0.95
)
CLIENT.configure(configuration)
result = client.infer("image.jpeg", model_id="model-id/1")
print(result)위에서, 다음을 지정하세요 model ID 이제 GPU TRT 컨테이너가 Docker에서 실행 중입니다. 다른 Ubuntu 터미널을 열어 Docker 컨테이너로 추론 데이터를 보낼 준비를 합니다. 다음을 사용하세요: API key.
이 코드는 모델을 실행하고 결과를 반환합니다.
Last updated
Was this helpful?