वेब ब्राउज़र
roboflow.js के साथ एज पर रीयलटाइम भविष्यवाणियाँ
अधिकांश व्यावसायिक अनुप्रयोगों के लिए, होस्टेड एपीआई उपयुक्त है। लेकिन कई उपभोक्ता अनुप्रयोगों और कुछ एंटरप्राइज उपयोग मामलों के लिए, सर्वर-होस्टेड मॉडल व्यवहार्य नहीं है (उदाहरण के लिए, यदि आपके उपयोगकर्ता बैंडविड्थ सीमित हैं या उन्हें उस से कम विलंबता चाहिए जो आप रिमोट एपीआई का उपयोग करके प्राप्त कर सकते हैं)।
inferencejs
एक कस्टम लेयर है Tensorflow.js के ऊपर, जो Roboflow पर प्रशिक्षित मॉडलों का उपयोग करके जावास्क्रिप्ट के माध्यम से रीयल-टाइम इनफेरेंस सक्षम करता है।
शिक्षण संसाधन
अपने मॉडल को वेबकैम के साथ आज़माएँ: आप यहाँ एक हैंड-डिटेक्टर मॉडल का वेबकैम डेमो आज़मा सकते हैं (यह सार्वजनिक EgoHands डेटासेट).
इंटरएक्टिव Replit वातावरण: हमने एक "शुरुआत करें" प्रोजेक्ट Repl.it पर प्रकाशित किया है, जिसमें एक ट्यूटोरियल भी है जो दिखाता है कैसे हमारे Repl.it टेम्पलेट का उपयोग करके YOLOv8 मॉडल डिप्लॉय करें.
GitHub टेम्पलेट: Roboflow होमपेज का उपयोग करता है
inferencejs
COCO इनफेरेंस विजेट को पावर देने के लिए। README में यह निर्देश हैं कि GitHub Pages का उपयोग करके वेब पर मॉडल डिप्लॉय करने के लिए रिपॉजिटरी टेम्पलेट का उपयोग कैसे करें।दस्तावेज़ीकरण: यदि आप में किसी विशिष्ट फ़ंक्शन के बारे में अधिक विवरण चाहते हैं
inferencejs
, तो हमारा दस्तावेज़ीकरण पृष्ठ देखें या नीचे हमारे गाइड में किसी भीinferencejs
मेथड पर क्लिक करें, जिससे आप संबंधित दस्तावेज़ीकरण पर पहुँच जाएंगे।
समर्थित मॉडल
inferencejs
वर्तमान में इन मॉडल आर्किटेक्चर का समर्थन करता है:
YOLOv8
YOLOv5
इंस्टॉलेशन
अपने प्रोजेक्ट में इनफेरेंस
जोड़ने के लिए, बस npm का उपयोग करके इंस्टॉल करें या अपने पेज के <head>
टैग नहीं है।
npm install inferencejs
<script src="https://cdn.jsdelivr.net/npm/inferencejs"></script>
इनिशियलाइज़िंग inferencejs
inferencejs
प्रमाणीकरण
आप अपना publishable_key
Roboflow वर्कस्पेस सेटिंग्स से प्राप्त कर सकते हैं।

नोट: आपका publishable_key
का उपयोग किया जाता है inferencejs
, नहीं आपका प्राइवेट API कुंजी (जो गुप्त रहनी चाहिए)।
शुरू करें इम्पोर्ट करके InferenceEngine
और एक नया इनफेरेंस इंजन ऑब्जेक्ट बनाएं
import { InferenceEngine } from "inferencejs";
const inferEngine = new InferenceEngine();
अब हम roboflow से मॉडल लोड कर सकते हैं अपने publishable_key
और मॉडल मेटाडेटा (मॉडल नाम और संस्करण) के साथ-साथ कॉन्फ़िगरेशन पैरामीटर जैसे कॉन्फिडेंस थ्रेशोल्ड और ओवरलैप थ्रेशोल्ड का उपयोग करके।
const workerId = await inferEngine.startWorker("[model name]", "[version]", "[publishable key]");
inferencejs
अब यह चुने गए मॉडल को चलाने के लिए एक वर्कर शुरू करेगा। लौटाया गया वर्कर आईडी InferenceEngine
के साथ मेल खाता है जिसका हम इनफेरेंस के लिए उपयोग करेंगे। मॉडल पर इनफर करने के लिए हम infer
मेथड का उपयोग कर सकते हैं InferenceEngine
.
आइए एक इमेज लोड करें और अपने वर्कर पर इनफर करें।
const image = document.getElementById("image"); // id `image` वाले इमेज एलिमेंट को प्राप्त करें
const predictions = await inferEngine.infer(workerId, image); // इमेज पर इनफर करें
यह एक प्रेडिक्शन की ऐरे लौटाता है (एक क्लास के रूप में, इस मामले में RFObjectDetectionPrediction
)
कॉन्फ़िगरेशन
यदि आप inferencejs
अपने प्रेडिक्शन को फ़िल्टर करने के तरीके को कस्टमाइज़ और कॉन्फ़िगर करना चाहते हैं, तो आप वर्कर को बनाते समय पैरामीटर पास कर सकते हैं।
const configuration = {scoreThreshold: 0.5, iouThreshold: 0.5, maxNumBoxes: 20};
const workerId = await inferEngine.startWorker("[model name]", "[version]", "[publishable key]", configuration);
या आप इनफेरेंस के समय कॉन्फ़िगरेशन विकल्प पास कर सकते हैं
const configuration = {
scoreThreshold: 0.5,
iouThreshold: 0.5,
maxNumBoxes: 20
};
const predictions = await inferEngine.infer(workerId, image, configuration);
Last updated
Was this helpful?