वेब ब्राउज़र
roboflow.js के साथ एज पर रीयलटाइम भविष्यवाणियाँ
अधिकांश व्यवसायिक अनुप्रयोगों के लिए, Hosted API उपयुक्त है। लेकिन कई उपभोक्ता अनुप्रयोगों और कुछ एंटरप्राइज उपयोग मामलों के लिए, सर्वर-होस्टेड मॉडल व्यावहारिक नहीं है (उदाहरण के लिए, यदि आपके उपयोगकर्ता बैंडविड्थ सीमित हैं या उन्हें उस से कम विलंबता चाहिए जो आप रिमोट API का उपयोग करके प्राप्त कर सकते हैं)।
inferencejs
एक कस्टम लेयर है Tensorflow.js के ऊपर, जो Roboflow पर प्रशिक्षित मॉडलों का उपयोग करके JavaScript के माध्यम से रीयल-टाइम इनफेरेंस सक्षम करता है।
शिक्षण संसाधन
अपने मॉडल को वेबकैम के साथ आज़माएँ: आप यहाँ एक हैंड-डिटेक्टर मॉडल का वेबकैम डेमो आज़मा सकते हैं (यह सार्वजनिक EgoHands डेटासेट).
इंटरएक्टिव Replit एनवायरनमेंट: हमने Repl.it पर एक "शुरुआत करें" प्रोजेक्ट प्रकाशित किया है, जिसमें एक ट्यूटोरियल भी है जो दिखाता है कैसे हमारे Repl.it टेम्पलेट का उपयोग करके YOLOv8 मॉडल डिप्लॉय करें.
GitHub टेम्पलेट: Roboflow होमपेज का उपयोग करता है
inferencejs
COCO इनफेरेंस विजेट को पावर देने के लिए। README में यह निर्देश हैं कि GitHub Pages का उपयोग करके वेब पर मॉडल डिप्लॉय करने के लिए रिपॉजिटरी टेम्पलेट का उपयोग कैसे करें।डॉक्युमेंटेशन: यदि आप में किसी विशेष फ़ंक्शन के बारे में अधिक विवरण चाहते हैं
inferencejs
में, तो हमारा डॉक्युमेंटेशन पेज देखें या नीचे दिए गए हमारे गाइड में किसी भीinferencejs
मेथड पर क्लिक करें, जिससे आप संबंधित डॉक्युमेंटेशन पर पहुँच जाएंगे।
समर्थित मॉडल
inferencejs
वर्तमान में इन मॉडल आर्किटेक्चर को सपोर्ट करता है:
YOLOv8
YOLOv5
इंस्टॉलेशन
अपने प्रोजेक्ट में inference
जोड़ने के लिए, बस npm का उपयोग करके इंस्टॉल करें या अपनी पेज के <head>
टैग नहीं है।
npm install inferencejs
<script src="https://cdn.jsdelivr.net/npm/inferencejs"></script>
इनिशियलाइज़िंग inferencejs
inferencejs
प्रमाणीकरण
आप अपना publishable_key
Roboflow workspace सेटिंग्स से प्राप्त कर सकते हैं।

नोट: आपका publishable_key
का उपयोग inferencejs
, नहीं आपका private API key (जो गुप्त रहनी चाहिए) के साथ किया जाता है।
शुरुआत करें इम्पोर्ट करके InferenceEngine
और एक नया इनफेरेंस इंजन ऑब्जेक्ट बनाएं
import { InferenceEngine } from "inferencejs";
const inferEngine = new InferenceEngine();
अब हम roboflow से मॉडल लोड कर सकते हैं अपने publishable_key
और मॉडल मेटाडेटा (मॉडल नाम और संस्करण) के साथ-साथ कॉन्फ़िगरेशन पैरामीटर जैसे कॉन्फिडेंस थ्रेशोल्ड और ओवरलैप थ्रेशोल्ड का उपयोग करके।
const workerId = await inferEngine.startWorker("[model name]", "[version]", "[publishable key]");
inferencejs
अब एक वर्कर शुरू करेगा जो चुने गए मॉडल को चलाता है। लौटाया गया वर्कर आईडी InferenceEngine
के साथ मेल खाता है, जिसका हम इनफेरेंस के लिए उपयोग करेंगे। मॉडल पर इनफर करने के लिए हम infer
मेथड का उपयोग InferenceEngine
.
आइए एक इमेज लोड करें और अपने वर्कर पर इनफर करें।
const image = document.getElementById("image"); // id `image` वाले इमेज एलिमेंट को प्राप्त करें
const predictions = await inferEngine.infer(workerId, image); // इमेज पर इनफर करें
यह एक प्रेडिक्शन की ऐरे लौटाता है (एक क्लास के रूप में, इस मामले में RFObjectDetectionPrediction
)
कॉन्फ़िगरेशन
यदि आप कस्टमाइज़ और कॉन्फ़िगर करना चाहते हैं कि inferencejs
कैसे अपनी प्रेडिक्शन को फ़िल्टर करता है, तो आप वर्कर बनाते समय पैरामीटर पास कर सकते हैं।
const configuration = {scoreThreshold: 0.5, iouThreshold: 0.5, maxNumBoxes: 20};
const workerId = await inferEngine.startWorker("[model name]", "[version]", "[publishable key]", configuration);
या आप इनफेरेंस के समय कॉन्फ़िगरेशन विकल्प पास कर सकते हैं
const configuration = {
scoreThreshold: 0.5,
iouThreshold: 0.5,
maxNumBoxes: 20
};
const predictions = await inferEngine.infer(workerId, image, configuration);
Last updated
Was this helpful?