# Self-Hosted Deployment

Roboflow Inference(저희 엣지 추론 서버)를 사용하면 자체 하드웨어에서 모델과 Workflows를 배포할 수 있습니다. 이는 모델이 엣지에서 실시간으로 실행되어야 하는 경우에 이상적입니다.

하드웨어에 모델을 설정하려면 인터넷 연결이 필요합니다. 또한 Device Manager에서 관리하는 장치에 모델을 배포하는 경우 지속적인 인터넷 연결이 필요합니다. [Device Manager](https://docs.roboflow.com/roboflow/roboflow-ko/deploy/device-manager).

다음을 참조하세요, [Roboflow Inference 설치 가이드](https://inference.roboflow.com/install/) 에서 컴퓨터에 Inference를 설정하는 방법을 알아보세요. 그런 다음, 저희 가이드에서 [How to Deploy a Workflow](https://docs.roboflow.com/roboflow/roboflow-ko/workflows/deploy-a-workflow) 엣지 장치에 배포하는 방법을 확인하세요.
