Instant 모델 실행

Python SDK와 Serverless Hosted API V2를 사용하여 Roboflow Instant 모델을 실행할 수 있습니다.

Instant 모델을 실행하려면 다음 코드를 사용하세요:

from inference_sdk import InferenceHTTPClient, InferenceConfiguration

CLIENT = InferenceHTTPClient(
    api_url="https://serverless.roboflow.com",
    api_key="<Your API Key>",
    
)

configuration = InferenceConfiguration(
    confidence_threshold=0.95
)

CLIENT.configure(configuration)

result = client.infer("image.jpeg", model_id="model-id/1")

print(result)

위에서, 다음을 지정하세요 model ID 이제 GPU TRT 컨테이너가 Docker에서 실행 중입니다. 다른 Ubuntu 터미널을 열어 Docker 컨테이너로 추론 데이터를 보낼 준비를 합니다. 다음을 사용하세요: API key.

이 코드는 모델을 실행하고 결과를 반환합니다.

Instant 모델의 경우 confidence threshold는 민감할 수 있습니다. 최적의 confidence는 모델이 학습한 이미지 수에 따라 다릅니다. 일반적으로 최적의 confidence 임계값은 0.85에서 0.99 범위입니다.

Last updated

Was this helpful?