모델 또는 워크플로 배포
Roboflow에서 학습되었거나 업로드된 워크플로 및 모델을 배포하는 방법을 알아보세요.
우리는 모델과 Workflows(워크플로우)의 관리형 배포와 자체 호스팅 배포를 모두 지원합니다.
Managed Deployments
이 옵션들은 Roboflow의 클라우드 인프라를 활용해 모델과 Workflows를 실행하므로 자체 하드웨어나 소프트웨어를 관리할 필요가 없습니다.
Self-Hosted Deployment
모델과 Workflows를 자체 호스팅된 Roboflow Inference에도 배포할 수 있으며, 이를 통해 환경, 자원 및 지연시간에 대해 더 큰 제어권을 제공합니다.
이 옵션은 인프라 관리 및 전문 지식을 필요로 합니다.
Inference(추론)란 무엇인가요?
컴퓨터 비전에서 추론은 학습된 모델을 사용해 새로운 이미지나 비디오를 분석하고 예측을 수행하는 과정을 말합니다. 예를 들어, 객체 감지 모델은 비디오 스트림에서 객체를 식별하고 위치를 찾는 데 사용될 수 있고, 분류 모델은 이미지의 내용을 기반으로 이미지를 분류하는 데 사용될 수 있습니다.
Roboflow Inference 는 컴퓨터 비전 모델과 Workflows를 배포하기 위한 강력하고 유연한 프레임워크를 제공하는 오픈 소스 프로젝트입니다. 이는 Roboflow의 대부분의 관리형 배포 서비스를 구동하는 엔진입니다. 또한 자체 호스팅하거나 비전 워크플로우를 엣지 장치에 배포하는 데 사용할 수 있습니다. Roboflow Inference는 다음을 포함한 다양한 기능과 역량을 제공합니다:
객체 감지, 분류, 인스턴스 분할 등 다양한 모델 아키텍처와 작업을 지원합니다.
Workflows는 수백 개의 빌딩 블록 중에서 선택해 서로 다른 모델, 사전 구축된 로직 및 외부 애플리케이션을 결합하여 컴퓨터 비전 애플리케이션을 구축할 수 있게 합니다.
CPU, GPU 및 NVIDIA Jetson과 같은 엣지 장치를 포함한 다양한 장치에서 최적화된 성능을 위한 하드웨어 가속을 제공합니다.
리소스를 효율적으로 사용하기 위한 멀티프로세싱을 제공합니다.
비디오 스트림의 원활한 처리를 위한 비디오 디코딩을 제공합니다.
배포를 단순화하기 위한 HTTP 인터페이스, API 및 Docker 이미지들을 제공합니다
Roboflow의 호스팅 배포 옵션 및 Roboflow 플랫폼과의 통합을 제공합니다.
Workflow(워크플로우)란 무엇인가요?
Workflows 는 서로 다른 모델, 사전 구축된 로직 및 외부 애플리케이션을 결합하여 복잡한 컴퓨터 비전 애플리케이션을 구축할 수 있게 합니다. 이들은 정교한 컴퓨터 비전 파이프라인을 설계하고 배포할 수 있는 시각적 저코드 환경을 제공합니다.
Workflows를 사용하면 다음을 할 수 있습니다:
복잡한 작업을 수행하기 위해 여러 모델을 체인으로 연결합니다.
애플리케이션에 맞춤 로직과 의사결정 기능을 추가합니다.
외부 시스템 및 API와 통합합니다.
이미지와 비디오에서 객체를 추적, 계수, 시간 측정, 측정 및 시각화합니다.
적절한 배포 옵션 선택하기
inference(추론)에서 귀하의 사용 사례에 가장 적합한 배포 방법을 선택하는 방법에 대한 훌륭한 가이드가 있습니다 시작 가이드.
귀하에게 가장 적합한 배포 옵션은 특정 요구사항에 따라 다릅니다. 결정을 내릴 때 다음 요소들을 고려하세요:
확장성: 애플리케이션이 다양한 수준의 트래픽이나 데이터량을 처리해야 한다면, serverless API는 실시간 사용 사례에 대해 탁월한 확장성을 제공합니다; 그렇지 않다면 Batch Processing 은(는) 추천 옵션입니다.
지연시간: 낮은 지연시간이나 비디오 처리가 필요하다면, Dedicated Deployments 또는 강력한 하드웨어를 갖춘 Self-hosted deployments가 최선의 선택일 수 있습니다.
제어권: Self-hosted deployments는 환경과 자원에 대한 가장 많은 제어권을 제공합니다.
전문성: Self-hosted deployments는 설정 및 관리를 위해 더 많은 기술적 전문 지식을 요구합니다.
Last updated
Was this helpful?


