Serverless Hosted API

Roboflow 클라우드의 GPU 가속 자동 확장 인프라에서 Workflows 및 모델 추론을 실행하세요.

Roboflow에 배포된 모델은 이미지를 추론할 수 있는 REST API를 제공합니다. 이 배포 방식은 배포 장치에서 지속적인 인터넷 연결이 있는 환경에 적합합니다.

Serverless Hosted API를 사용할 수 있습니다:

Inference server

당사의 Serverless Hosted API는 Inference Serverarrow-up-right에 의해 구동됩니다. 이는 아래에 표시된 것처럼 Serverless Hosted API와 자체 호스팅 옵션 간을 쉽게 전환할 수 있음을 의미합니다:

from inference_sdk import InferenceHTTPClient

CLIENT = InferenceHTTPClient(
    # api_url="http://localhost:9001" # Self-hosted Inference server
    api_url="https://serverless.roboflow.com", # Our Serverless hosted API
    api_key="API_KEY" # optional to access your private models and data
)

result = CLIENT.infer("image.jpg", model_id="model-id/1")
print(result)

제한 사항

당사의 Serverless Hosted API는 최대 20MB까지의 파일 업로드를 지원합니다. 더 높은 해상도의 이미지에서는 제한에 부딪힐 수 있습니다. 문제가 발생하면 엔터프라이즈 지원 담당자에게 문의하거나 forumarrow-up-right.

circle-info

요청이 너무 큰 경우 첨부된 이미지를 축소할 것을 권장합니다. 이는 모델 아키텍처가 수용하는 입력 크기로 서버에서 수신된 후에도 이미지가 축소되기 때문에 일반적으로 성능 저하를 초래하지 않습니다. Python SDK와 같은 일부 SDK는 이미지를 API로 전송하기 전에 모델 아키텍처의 입력 크기로 자동으로 축소합니다.


이것은 당사의 Serverless Hosted API의 V2입니다. 다음을 참조하세요 Serverless Hosted API v1 v1(레거시) API 문서를 위해.

Last updated

Was this helpful?