Web inference.js
inference.js के साथ ब्राउज़र पर एज पर रीयलटाइम prediction चलाएँ
inferencejs एक JavaScript पैकेज है जो Roboflow पर प्रशिक्षित मॉडलों का उपयोग करके ब्राउज़र के माध्यम से वास्तविक-समय inference (अथवा अनुमान) सक्षम करता है।
देखें inferencejs संदर्भ यहां
अधिकांश व्यावसायिक अनुप्रयोगों के लिए, Hosted API उपयुक्त है। लेकिन कई उपभोक्ता अनुप्रयोगों और कुछ एंटरप्राइज़ उपयोग मामलों में, सर्वर-होस्टेड मॉडल व्यवहार्य नहीं होता (उदाहरण के लिए, यदि आपके उपयोगकर्ता बैंडविड्थ-सीमित हैं या उन्हें उस लैटेंसी की आवश्यकता है जो रिमोट API का उपयोग करके संभव नहीं)।
शिक्षण संसाधन
वेबकैम के साथ अपना मॉडल आज़माएँ: आप एक वेबकैम डेमो एक हैंड-डिटेक्टर मॉडल यहां (यह सार्वजनिक EgoHands dataset).
इंटरएक्टिव Replit पर्यावरण: हमने एक "Getting Started" प्रोजेक्ट Repl.it पर प्रकाशित किया है जिसमें एक संबंधित ट्यूटोरियल है जो दिखाता है कि कैसे YOLOv8 मॉडलों को हमारे Repl.it टेम्पलेट का उपयोग करके डिप्लॉय करें.
GitHub टेम्पलेट: Roboflow होमपेज उपयोग करता है
inferencejsCOCO inference विजेट को चालू करने के लिए। README में निर्देश हैं कि कैसे रिपॉज़िटरी टेम्पलेट का उपयोग करके GitHub Pages का उपयोग कर वेब पर एक मॉडल डिप्लॉय किया जाए।दस्तावेज़ीकरण: यदि आप
inferencejsमें विशिष्ट फ़ंक्शनों के बारे में अधिक विवरण चाहते हैं, तो हमारी दस्तावेज़ीकरण पृष्ठ या नीचे हमारे गाइड में किसी भी संदर्भितinferencejsमेथड पर क्लिक करें ताकि आपको संबंधित दस्तावेज़ीकरण पर ले जाया जा सके।
समर्थित मॉडल
inferencejs वर्तमान में ये मॉडल आर्किटेक्चर समर्थित हैं:
Roboflow 3.0 (YOLOv8-अनुकूल)
YOLOv5
इंस्टॉलेशन
अपने प्रोजेक्ट में inference जोड़ने के लिए, बस npm का उपयोग करके इंस्टॉल करें या अपने पेज के <head> टैग में स्क्रिप्ट टैग रेफरेंस जोड़ें।
इनिशियलाइज़ करना inferencejs
inferencejsप्रमाणीकरण
आप अपना publishable_key Roboflow workspace सेटिंग्स से प्राप्त कर सकते हैं।

नोट: आपका publishable_key का उपयोग inferencejs, के साथ होता है न कि आपका private API key (जो गोपनीय रहनी चाहिए)।
शुरू करें by importing InferenceEngine और एक नया inference engine ऑब्जेक्ट बनाएं
inferencejs webworkers का उपयोग करता है ताकि कई मॉडलों का उपयोग मुख्य UI थ्रेड को ब्लॉक किए बिना किया जा सके। प्रत्येक मॉडल को लोड किया जाता है InferenceEngine हमारे वेबवर्कर मैनेजर के माध्यम से जो आपको आवश्यक थ्रेड प्रबंधन का सार प्रदान करता है।
अब हम आपके publishable_key और मॉडल मेटाडेटा (मॉडल नाम और संस्करण) के साथ-साथ कॉन्फ़िगरेशन पैरामीटर जैसे confidence threshold और overlap threshold का उपयोग करके roboflow से मॉडल लोड कर सकते हैं।
inferencejs अब चुने हुए मॉडल को चलाने वाला एक वर्कर शुरू होगा। लौटाया गया worker id उसी worker id से मेल खाता है जिसका उपयोग हम InferenceEngine में inference के लिए करेंगे। मॉडल पर अनुमान लगाने के लिए हम infer मेथड को InferenceEngine.
पर कॉल कर सकते हैं। चलिए एक इमेज लोड करते हैं और अपने वर्कर पर अनुमान लगाते हैं।
यह विभिन्न इमेज फ़ॉर्मैट ले सकता है (HTMLImageElement, HTMLVideoElement, ImageBitmap, या TFJS Tensor).
यह भविष्यवाणियों (predictions) की एक ऐरे लौटाता है (एक क्लास के रूप में, इस मामले में RFObjectDetectionPrediction )
कॉन्फ़िगरेशन
यदि आप कस्टमाइज़ करना चाहते हैं और यह नियंत्रित करना चाहते हैं कि inferencejs अपने प्रिडिक्शन्स को कैसे फ़िल्टर करता है, तो आप वर्कर को निर्माण के समय पैरामीटर पास कर सकते हैं।
या आप inference पर कॉन्फ़िगरेशन विकल्प पास कर सकते हैं
Last updated
Was this helpful?