모델 또는 워크플로 배포

Roboflow에서 학습되거나 업로드된 모델을 배포하는 방법을 알아보세요.

Roboflow에서 학습하거나 업로드한 모든 모델과 모든 Workflow는 Roboflow의 배포 옵션으로 배포할 수 있습니다.

당사의 배포 옵션은 두 가지 범주로 나뉩니다:

  • Managed Deployments: 이러한 옵션은 Roboflow의 클라우드 인프라를 활용하여 모델을 실행하므로 사용자가 자체 하드웨어나 소프트웨어를 관리할 필요가 없습니다.

  • Self-Hosted Deployments: 이러한 옵션은 사용자가 자체 하드웨어에 모델을 로컬로 배포할 수 있게 하여 환경과 리소스에 대한 더 큰 제어를 제공합니다.

다음 표는 각 배포 옵션의 주요 기능, 장점 및 제한 사항을 요약한 것입니다:

Deployment Option
설명
장점
제한 사항

GPU 하드웨어에서 Roboflow의 인프라에서 워크플로우와 모델을 직접 실행합니다.

GPU 모델 지원.

리소스에 대한 제어가 제한되며, 고부하 시 또는 부담이 큰 애플리케이션의 경우 지연 시간이 더 길어질 수 있습니다

무한 확장이 가능한 API를 통해 Roboflow의 인프라에서 워크플로우와 모델을 직접 실행합니다.

확장 가능하고 사용하기 쉬우며 인프라 관리가 필요 없습니다.

리소스에 대한 제어가 제한되며, 부담이 큰 애플리케이션의 경우 지연 시간이 더 길어질 수 있습니다.

워크플로우와 모델을 실행하기 위한 전용 GPU 및 CPU.

GPU 모델, 비디오 스트리밍, Custom Python Blocks 지원.

미국 기반 데이터 센터로 제한됩니다. Serverless API처럼 자동 확장되지 않습니다

배치 처리

선택한 워크플로우로 이미지와 비디오를 처리하는 관리형 서버 풀.

완전 관리형 솔루션으로 높은 데이터 처리량과 비용 효율성을 제공하며 GPU 지원으로 데이터 볼륨에 맞춰 원활하게 확장됩니다.

비실시간 처리이며 Custom Python Blocks를 지원하지 않습니다.

Self-Hosted Deployments

자체 하드웨어에서 로컬로 추론을 실행합니다.

리소스와 환경에 대한 완전한 제어를 제공하며 지연 시간이 더 낮을 수 있습니다.

인프라 관리와 전문 지식이 필요합니다.

모델을 배포하면 항상 크레딧, 선택한 방법과 상관없이 소비됩니다.

추론(Inference)이란 무엇인가요?

컴퓨터 비전에서 추론은 학습된 모델을 사용하여 새로운 이미지나 비디오를 분석하고 예측을 수행하는 과정을 말합니다. 예를 들어 객체 감지 모델은 비디오 스트림에서 객체를 식별하고 위치를 찾는 데 사용될 수 있고, 분류 모델은 이미지의 내용을 기반으로 이미지를 분류하는 데 사용될 수 있습니다.

Roboflow Inference 는 컴퓨터 비전 모델과 워크플로우를 배포하기 위한 강력하고 유연한 프레임워크를 제공하는 오픈 소스 프로젝트입니다. 이는 Roboflow의 대부분의 관리형 배포 서비스를 구동하는 엔진입니다. 또한 자체 호스팅하거나 엣지 장치에 비전 워크플로우를 배포하는 데 사용할 수 있습니다. Roboflow Inference는 다음을 포함한 다양한 기능과 역량을 제공합니다:

  • 객체 감지, 분류, 인스턴스 분할 등 다양한 모델 아키텍처와 작업에 대한 지원.

  • Workflows: 수백 개의 빌딩 블록 중에서 선택하여 서로 다른 모델, 사전 구축된 로직 및 외부 애플리케이션을 결합해 컴퓨터 비전 애플리케이션을 구축할 수 있습니다.

  • CPU, GPU 및 NVIDIA Jetson과 같은 엣지 장치를 포함한 다양한 장치에서 최적화된 성능을 위한 하드웨어 가속.

  • 리소스의 효율적인 사용을 위한 멀티프로세싱.

  • 비디오 스트림의 원활한 처리를 위한 비디오 디코딩.

  • 배포를 단순화하는 HTTP 인터페이스, API 및 도커 이미지.

  • Roboflow의 호스티드 배포 옵션 및 Roboflow 플랫폼과의 통합.

Workflow란 무엇인가요?

Workflows 다양한 모델, 사전 구축된 로직 및 외부 애플리케이션을 결합하여 복잡한 컴퓨터 비전 애플리케이션을 구축할 수 있게 해줍니다. Workflow는 정교한 컴퓨터 비전 파이프라인을 설계하고 배포하기 위한 시각적 로우코드 환경을 제공합니다.

Workflows를 사용하면 다음을 할 수 있습니다:

  • 여러 모델을 연결하여 복잡한 작업을 수행합니다.

  • 애플리케이션에 사용자 정의 로직과 의사결정 기능을 추가합니다.

  • 외부 시스템 및 API와 통합합니다.

  • 이미지와 비디오에서 객체를 추적하고, 카운트하고, 시간 측정하고, 측정하고, 시각화합니다.

올바른 배포 옵션 선택하기

어떤 배포 방법이 사용 사례에 가장 적합한지에 대한 훌륭한 가이드는 다음의 inference 시작 가이드에 있습니다: https://inference.roboflow.com/start/getting-started/

귀하에게 가장 적합한 배포 옵션은 특정 요구 사항과 조건에 따라 다릅니다. 결정을 내릴 때 다음 요소들을 고려하세요:

  • 확장성: 애플리케이션이 다양한 수준의 트래픽이나 데이터 볼륨을 처리해야 하는 경우, Serverless API는 실시간 사용 사례에 탁월한 확장성을 제공하며; 그렇지 않다면, 배치 처리 은(는) 권장되는 옵션입니다.

  • 지연 시간: 낮은 지연 시간이나 비디오 처리가 필요하다면 전용 배포나 강력한 하드웨어로 된 Self-hosted 배포가 최선의 선택일 수 있습니다.

  • GPU: SAM2, CogVML 등과 같이 GPU가 필요한 모델을 실행해야 하는 경우 GPU 머신 유형의 Dedicated Deployment를 사용하거나 GPU가 있는 하드웨어에 Self hosted로 배포해야 합니다. (Serverless GPU API는 곧 제공될 예정)

  • 제어: Self-hosted 배포는 환경 및 리소스에 대한 가장 높은 제어를 제공합니다.

  • 전문성: Self-hosted 배포는 설정 및 관리를 위해 더 많은 기술적 전문 지식을 요구합니다.

Last updated

Was this helpful?