हमारा Raspberry Pi डिप्लॉयमेंट विकल्प उन स्थितियों में सीधे आपके डिवाइस पर चलता है जहाँ आपको अपने मॉडल को भरोसेमंद इंटरनेट कनेक्शन के बिना चलाने की आवश्यकता होती है।
टास्क सपोर्ट
होस्टेड API निम्नलिखित टास्क प्रकारों का समर्थन करता है:
आपको Raspberry Pi 4 (या Raspberry Pi 400) की आवश्यकता होगी जो Ubuntu का 64bit संस्करण चला रहा हो। यह सत्यापित करने के लिए कि आप संगत सिस्टम चला रहे हैं, टाइप करें arch अपने Raspberry Pi की कमांड लाइन में और सत्यापित करें कि यह आउटपुट करता है aarch64.
Inference API एक Docker कंटेनर के रूप में उपलब्ध है जो Raspberry Pi के लिए अनुकूलित और कॉन्फ़िगर किया गया है। आप निम्नलिखित कमांड का उपयोग करके inference server इंस्टॉल और चला सकते हैं:
अब आप अपने Pi का उपयोग एक drop-in विकल्प के रूप में कर सकते हैं Hosted Inference API (उन दस्तावेजों में कई प्रोग्रामिंग भाषाओं में उदाहरण कोड स्निपेट देखें)।
अपने मॉडल पर inference चलाने के लिए, निम्न कोड चलाएँ, अपने API key, workspace और project IDs, project version, और image name को उपयुक्त रूप से बदलते हुए। आप जान सकते हैं कि अपने API key को कैसे खोजें और कैसे खोजें workspace और project ID.
यह हमारे मॉडल पर inference का एक उदाहरण परिणाम है:
Inference परिणाम: एक छवि (Visual Studio Code टर्मिनल)
आप क्लाइंट-सर्वर संदर्भ के रूप में भी चला सकते हैं और नेटवर्क पर किसी दूसरे मशीन से inference के लिए चित्र Pi पर भेज सकते हैं। बदलें localhost में local= पैरामीटर को Pi के स्थानीय IP पते के साथ।
प्रदर्शन अपेक्षाएँ
हमने Raspberry Pi 400 पर लगभग 1.3 फ्रेम प्रति सेकंड देखा। ये परिणाम क्लाइंट-सर्वर संदर्भ में ऑपरेट करने के दौरान प्राप्त हुए थे (इसलिए कुछ मामूली नेटवर्क विलंब शामिल है) और एक 416x416 मॉडल पर आधारित थे।