모델 또는 Workflow 배포
Roboflow에서 학습되었거나 업로드된 모델을 배포하는 방법을 알아보세요.
Roboflow에 학습되었거나 업로드된 모든 모델과 모든 Workflow는 Roboflow의 배포 상품으로 배포할 수 있습니다.
당사의 배포 상품은 두 가지 범주로 구분됩니다:
Managed Deployments: 이러한 옵션은 Roboflow의 클라우드 인프라를 활용하여 모델을 실행하므로 사용자가 하드웨어나 소프트웨어를 직접 관리할 필요가 없습니다.
Self-Hosted Deployments: 이러한 옵션은 사용자가 자체 하드웨어에 모델을 로컬로 배포할 수 있게 하여 환경과 리소스에 대한 더 큰 제어를 제공합니다.
다음 표는 각 배포 옵션의 주요 기능, 장점 및 제한 사항을 요약한 것입니다:
GPU 하드웨어에서 Roboflow의 인프라에서 직접 워크플로우와 모델을 실행합니다.
GPU 모델 지원.
리소스에 대한 제어가 제한되며, 요구량이 많은 애플리케이션이나 부하가 높은 기간에는 지연 시간이 더 길어질 수 있습니다
무한대로 확장 가능한 API를 통해 Roboflow의 인프라에서 워크플로우와 모델을 직접 실행합니다.
확장 가능하고 사용하기 쉬우며 인프라 관리를 필요로 하지 않습니다.
리소스에 대한 제어가 제한되며, 요구량이 많은 애플리케이션에는 지연 시간이 더 길어질 수 있습니다.
워크플로우와 모델 실행을 위한 전용 GPU 및 CPU.
GPU 모델, 비디오 스트리밍, Custom Python Blocks 지원.
미국 기반 데이터 센터로 제한됩니다. Serverless API처럼 자동 확장되지 않습니다
Batch Processing
선택한 워크플로우로 이미지와 비디오를 처리하는 관리형 서버 풀.
GPU 지원으로 높은 데이터 처리량과 비용 효율성을 제공하는 완전 관리형 솔루션으로, 데이터 볼륨에 원활하게 확장됩니다.
실시간 처리가 아니며 Custom Python Blocks를 지원하지 않습니다.
Self-Hosted Deployments
자체 하드웨어에서 로컬로 추론을 실행합니다.
리소스와 환경에 대해 완전한 제어가 가능하며 잠재적으로 더 낮은 지연 시간을 제공합니다.
인프라 관리와 전문 지식이 필요합니다.
적절한 배포 옵션 선택하기
최적의 배포 옵션은 특정 요구 사항과 조건에 따라 다릅니다. 결정을 내릴 때 다음 요소들을 고려하세요:
확장성: 애플리케이션이 다양한 수준의 트래픽 또는 데이터 볼륨을 처리해야 하는 경우, Serverless API는 실시간 사용 사례에 대해 우수한 확장성을 제공합니다; 그렇지 않다면, Batch Processing 은(는) 권장되는 옵션입니다.
지연 시간: 낮은 지연 시간이나 비디오 처리가 필요한 경우 전용 배포 또는 강력한 하드웨어를 사용하는 Self-hosted 배포가 최선의 선택일 수 있습니다.
GPU: GPU가 필요한 모델(예: SAM2, CogVML 등)을 실행해야 하는 경우 GPU 머신 타입이 있는 Dedicated Deployment를 사용하거나 GPU가 장착된 하드웨어에 Self-hosted로 배포해야 합니다. (Serverless GPU API는 곧 제공될 예정입니다)
제어: Self-hosted 배포는 환경과 리소스에 대한 가장 많은 제어를 제공합니다.
전문성: Self-hosted 배포는 설정 및 관리를 위해 더 많은 기술적 전문 지식을 요구합니다.
Last updated
Was this helpful?