Self-Hosted Deployment

आप अपने स्वयं के हार्डवेयर पर Roboflow models और Workflows चला सकते हैं।

आप अपने हार्डवेयर पर Roboflow Inference, हमारे edge inference सर्वर, का उपयोग करके मॉडल और Workflows तैनात कर सकते हैं। यदि आपको अपने मॉडल को edge पर रीयल-टाइम में चलाने की आवश्यकता है तो यह आदर्श है।

अपने हार्डवेयर पर कोई मॉडल सेट अप करने के लिए आपको इंटरनेट कनेक्शन की आवश्यकता होगी। यदि आप उन डिवाइसेज़ पर मॉडल तैनात कर रहे हैं जिन्हें Device Manager द्वारा प्रबंधित किया जाता है, तो आपको एक स्थायी इंटरनेट कनेक्शन की भी आवश्यकता होगी। Device Manager.

देखें Roboflow Inference installation guidearrow-up-right यह जानने के लिए कि अपने कंप्यूटर पर Inference कैसे सेट अप करें। फिर, हमारे गाइड को देखें How to Deploy a Workflow एक edge डिवाइस पर।

Last updated

Was this helpful?