# Self-Hosted Deployment

आप अपने हार्डवेयर पर Roboflow Inference, हमारे edge inference सर्वर, का उपयोग करके मॉडल और Workflows तैनात कर सकते हैं। यदि आपको अपने मॉडल को edge पर रीयल-टाइम में चलाने की आवश्यकता है तो यह आदर्श है।

अपने हार्डवेयर पर कोई मॉडल सेट अप करने के लिए आपको इंटरनेट कनेक्शन की आवश्यकता होगी। यदि आप उन डिवाइसेज़ पर मॉडल तैनात कर रहे हैं जिन्हें Device Manager द्वारा प्रबंधित किया जाता है, तो आपको एक स्थायी इंटरनेट कनेक्शन की भी आवश्यकता होगी। [Device Manager](https://docs.roboflow.com/roboflow/roboflow-hi/deploy/device-manager).

देखें [Roboflow Inference installation guide](https://inference.roboflow.com/install/) यह जानने के लिए कि अपने कंप्यूटर पर Inference कैसे सेट अप करें। फिर, हमारे गाइड को देखें [How to Deploy a Workflow](https://docs.roboflow.com/roboflow/roboflow-hi/workflows/deploy-a-workflow) एक edge डिवाइस पर।
