워크플로우 배포
워크플로우는 네 가지 방법으로 배포할 수 있습니다:
이미지를 다음으로 전송하세요 Roboflow API 워크플로우를 사용하여 처리하기 위해.
다음을 생성하세요 Roboflow Dedicated Deployment 사용자 전용으로 프로비저닝된 인프라에서.
자체 하드웨어에서 워크플로우를 실행하려면 Roboflow Inference.
예약하세요 Roboflow Cloud에서 배치 작업 코딩 없이 대량의 데이터를 자동으로 처리하려면.
자체 하드웨어에서 워크플로우를 실행하면 이미지와 비디오 파일(일반 웹캠 및 전문 CCTV 카메라).
온프레미스 배포를 선택하면 Inference를 배포할 수 있는 모든 시스템에서 워크플로우를 실행할 수 있습니다. 여기에는 다음이 포함됩니다:
NVIDIA Jetson
AWS EC2, GCP Cloud Engine 및 Azure Virtual Machines
Raspberry Pi
Roboflow Enterprise 고객은 Basler 카메라에서의 추론 실행과 같은 추가 비디오 스트림 옵션을 이용할 수 있습니다. 제공 항목에 대해 자세히 알아보려면, Roboflow 영업팀에 문의하세요.
워크플로우 배포
워크플로우를 배포하려면 Workflows 편집기 왼쪽 상단의 "Deploy" 버튼을 클릭하세요. 모든 배포 옵션은 이 페이지에 문서화되어 있습니다.
Workflows 편집기의 코드 스니펫은 귀하의 Workflows URL과 API 키로 미리 채워집니다.
워크플로우의 사용 한도에 대해 자세히 알아보려면, Roboflow 가격 페이지.
이미지 처리
Roboflow API 또는 로컬 Inference 서버를 사용하여 단일 이미지에서 워크플로우를 실행할 수 있습니다.
먼저 Roboflow Inference SDK를 설치하세요:
로컬에서 실행하는 경우, 다음을 따르세요 공식 Docker 설치 지침 머신에 Docker를 설치하고 Inference 서버를 시작하려면:
그런 다음 새 Python 파일을 만들고 다음 코드를 추가하세요:
위에서, 다음을 교체하세요 API_KEY 로 귀하의 Roboflow API 키를 입력하세요. 다음을 교체하세요 workspace-name 및 workflow-id 귀하의 Roboflow 워크스페이스 이름과 워크플로우 ID로.
이 값들을 찾으려면 Roboflow 워크플로우를 열고 "Deploy Workflow"를 클릭하세요. 그런 다음 페이지에 표시되는 코드 스니펫에서 워크스페이스 이름과 워크플로우 ID를 복사하세요.
로컬 실행은 CPU 및 NVIDIA CUDA GPU 장치에서 작동합니다. 최상의 성능을 위해 NVIDIA Jetson이나 NVIDIA GPU가 장착된 클라우드 서버와 같은 GPU 지원 장치에 배포하세요.
비디오 스트림 처리(RTSP, 웹캠)
워크플로우를 비디오 스트림의 프레임에 배포할 수 있습니다. 이는 웹캠 또는 RTSP 스트림일 수 있습니다. 또한 비디오 파일에서 워크플로우를 실행할 수 있습니다.
먼저 Inference를 설치하세요:
Inference 설치에는 몇 분 정도 걸릴 수 있습니다.
그런 다음 새 Python 파일을 만들고 다음 코드를 추가하세요:
위에서, 다음을 교체하세요 API_KEY 로 귀하의 Roboflow API 키를 입력하세요. 다음을 교체하세요 workspace-name 및 workflow-id 귀하의 Roboflow 워크스페이스 이름과 워크플로우 ID로.
이 값들을 찾으려면 Roboflow 워크플로우를 열고 "Deploy Workflow"를 클릭하세요. 그런 다음 페이지에 표시되는 코드 스니펫에서 워크스페이스 이름과 워크플로우 ID를 복사하세요.
위 코드를 실행하면 워크플로우가 비디오 또는 비디오 스트림에서 실행됩니다.
데이터 배치 처리
Roboflow Batch Processing 서비스를 사용하면 이미지 및 비디오 파일 디렉터리와 같은 전체 데이터 배치를 효율적으로 처리할 수 있습니다. 이 완전 관리형 솔루션은 코딩이나 로컬 계산이 필요하지 않습니다. 데이터를 선택하고 워크플로우를 지정하면 Roboflow가 나머지를 처리합니다.
우리는 Batch Processing에 대해 UI, CLI 및 REST API 상호작용을 모두 지원합니다. 아래에는 CLI 명령을 제시합니다. 다음을 확인하세요 모든 옵션.
처리를 실행하려면 Inference CLI를 설치하세요:
그런 다음 데이터를 적재할 수 있습니다:
데이터가 적재되면 처리 작업을 시작하세요:
작업 진행 상황은 다음을 사용하여 표시할 수 있습니다:
작업이 완료되면 결과를 내보내세요:
Last updated
Was this helpful?