모델 또는 워크플로 배포
Roboflow에서 훈련되었거나 업로드된 모델을 배포하는 방법을 알아보세요.
Roboflow에서 학습되었거나 업로드된 모든 모델과 모든 Workflow를 Roboflow의 배포 옵션을 통해 배포할 수 있습니다.
저희 배포 옵션은 두 가지 범주로 나뉩니다:
Managed Deployments : 이 옵션들은 Roboflow의 클라우드 인프라를 활용하여 모델을 실행하므로, 사용자가 직접 하드웨어나 소프트웨어를 관리할 필요가 없습니다.
Self-Hosted Deployments : 이 옵션들은 사용자가 자신의 하드웨어에서 모델을 직접 배포할 수 있게 하여, 환경과 자원에 대한 더 큰 제어권을 제공합니다.
아래 표는 각 배포 옵션의 주요 기능, 이점, 한계를 요약한 것입니다:
GPU 하드웨어에서 Roboflow의 인프라에서 직접 워크플로우와 모델을 실행합니다.
GPU 모델 지원.
자원에 대한 제한된 제어, 고성능이 요구되는 애플리케이션이나 부하가 높은 기간에는 지연 시간이 높아질 수 있음
무한 확장 가능한 API를 통해 Roboflow의 인프라에서 직접 워크플로우와 모델을 실행합니다.
확장성, 사용 용이성, 인프라 관리 불필요.
자원에 대한 제한된 제어, 고성능이 요구되는 애플리케이션에서 지연 시간이 높아질 수 있음.
워크플로우와 모델 실행을 위한 전용 GPU 및 CPU.
GPU 모델 지원, 비디오 스트리밍, Custom Python Blocks 지원.
미국 기반 데이터 센터로 제한됨. Serverless API처럼 자동 확장되지 않음.
Batch Processing
선택한 워크플로우로 이미지를 처리하는 관리형 서버 풀.
완전 관리형 솔루션으로 높은 데이터 처리량과 비용 효율성을 제공하며, GPU 지원과 함께 데이터 볼륨에 따라 원활하게 확장됩니다.
실시간 처리가 아니며 Custom Python Blocks는 지원하지 않습니다.
Self-Hosted Deployments
자신의 하드웨어에서 로컬로 Inference를 실행합니다.
자원과 환경에 대한 완전한 제어, 더 낮은 지연 시간 가능성.
인프라 관리 및 전문 지식이 필요합니다.
적합한 배포 옵션 선택하기
가장 적합한 배포 옵션은 사용자의 구체적인 요구와 필요에 따라 달라집니다. 결정을 내릴 때 다음 요소들을 고려하세요:
확장성: 애플리케이션이 다양한 트래픽이나 데이터 볼륨을 처리해야 한다면, serverless API는 실시간 사용 사례에 뛰어난 확장성을 제공합니다. 그렇지 않다면, Batch Processing 가 추천되는 옵션입니다.
지연 시간: 낮은 지연 시간이나 비디오 처리가 필요하다면, Dedicated Deployments 또는 강력한 하드웨어를 갖춘 Self-Hosted Deployments가 최선의 선택일 수 있습니다.
GPU: GPU가 필요한 모델(SAM2, CogVML 등)을 실행해야 한다면, GPU 머신 타입의 Dedicated Deployment 또는 GPU가 있는 하드웨어에서 직접 호스팅해야 합니다. (Serverless GPU API는 곧 출시 예정)
제어: Self-Hosted Deployments는 환경과 자원에 대한 가장 높은 제어권을 제공합니다.
전문성: Self-Hosted Deployments는 설치 및 관리를 위해 더 많은 기술적 전문성이 필요합니다.
Last updated
Was this helpful?