Self-Hosted Deployment

자체 하드웨어에서 Roboflow 모델과 Workflows를 실행할 수 있습니다.

Roboflow Inference(저희 엣지 추론 서버)를 사용하면 자체 하드웨어에서 모델과 Workflows를 배포할 수 있습니다. 이는 모델이 엣지에서 실시간으로 실행되어야 하는 경우에 이상적입니다.

하드웨어에 모델을 설정하려면 인터넷 연결이 필요합니다. 또한 Device Manager에서 관리하는 장치에 모델을 배포하는 경우 지속적인 인터넷 연결이 필요합니다. Device Manager.

다음을 참조하세요, Roboflow Inference 설치 가이드arrow-up-right 에서 컴퓨터에 Inference를 설정하는 방법을 알아보세요. 그런 다음, 저희 가이드에서 How to Deploy a Workflow 엣지 장치에 배포하는 방법을 확인하세요.

Last updated

Was this helpful?