Raspberry Pi (Legacy)

अपने Roboflow Train मॉडल्स को Raspberry Pi पर deploy करें।

circle-exclamation
circle-info

वीडियो देखकर सीखना पसंद करते हैं? हमारी देखें Raspberry Pi वीडियो गाइडarrow-up-right.

हमारा Raspberry Pi डिप्लॉयमेंट विकल्प उन स्थितियों में सीधे आपके डिवाइस पर चलता है जहाँ आपको अपने मॉडल को भरोसेमंद इंटरनेट कनेक्शन के बिना चलाने की आवश्यकता होती है।

टास्क सपोर्ट

होस्टेड API निम्नलिखित टास्क प्रकारों का समर्थन करता है:

टास्क प्रकार
Hosted API द्वारा समर्थित

Object Detection

क्लासिफिकेशन

इंस्‍टेंस सेगमेंटेशन

सैमान्टिक सेगमेंटेशन

Raspberry Pi पर एक मॉडल डिप्लॉय करें

आपको Raspberry Pi 4 (या Raspberry Pi 400) की आवश्यकता होगी जो Ubuntu का 64bit संस्करण चला रहा होarrow-up-right। यह सत्यापित करने के लिए कि आप संगत सिस्टम चला रहे हैं, टाइप करें arch अपने Raspberry Pi की कमांड लाइन में और सत्यापित करें कि यह आउटपुट करता है aarch64.

फिर, Raspberry Pi पर टर्मिनल खोलें और Docker इंस्टॉल करें convenience स्क्रिप्ट का उपयोग करकेarrow-up-right:

 curl -fsSL https://get.docker.com -o get-docker.sh
 sudo sh get-docker.sh

स्टेप 1: Inference Server इंस्टॉल करें

Inference API एक Docker कंटेनर के रूप में उपलब्ध है जो Raspberry Pi के लिए अनुकूलित और कॉन्फ़िगर किया गया है। आप निम्नलिखित कमांड का उपयोग करके inference server इंस्टॉल और चला सकते हैं:

अब आप अपने Pi का उपयोग एक drop-in विकल्प के रूप में कर सकते हैं Hosted Inference API (उन दस्तावेजों में कई प्रोग्रामिंग भाषाओं में उदाहरण कोड स्निपेट देखें)।

स्टेप 2: Roboflow pip पैकेज इंस्टॉल करें

अगला, इंस्टॉल करें Roboflow python पैकेज के साथ pip install roboflow.

स्टेप 3: Inference चलाएँ

अपने मॉडल पर inference चलाने के लिए, निम्न कोड चलाएँ, अपने API key, workspace और project IDs, project version, और image name को उपयुक्त रूप से बदलते हुए। आप जान सकते हैं कि अपने API key को कैसे खोजें और कैसे खोजें workspace और project ID.

यह हमारे मॉडल पर inference का एक उदाहरण परिणाम है:

Inference Result: One Image (Visual Studio Code terminal)
Inference परिणाम: एक छवि (Visual Studio Code टर्मिनल)

आप क्लाइंट-सर्वर संदर्भ के रूप में भी चला सकते हैं और नेटवर्क पर किसी दूसरे मशीन से inference के लिए चित्र Pi पर भेज सकते हैं। बदलें localhost में local= पैरामीटर को Pi के स्थानीय IP पते के साथ।

प्रदर्शन अपेक्षाएँ

हमने Raspberry Pi 400 पर लगभग 1.3 फ्रेम प्रति सेकंड देखा। ये परिणाम क्लाइंट-सर्वर संदर्भ में ऑपरेट करने के दौरान प्राप्त हुए थे (इसलिए कुछ मामूली नेटवर्क विलंब शामिल है) और एक 416x416 मॉडल पर आधारित थे।

पर भी पोस्ट कर सकते हैं

Last updated

Was this helpful?