मॉडल या वर्कफ़्लो तैनात करें

जानें कि रोबोफ्लो पर प्रशिक्षित या अपलोड किए गए मॉडल्स को कैसे तैनात करें।

आप Roboflow पर प्रशिक्षित या अपलोड किए गए किसी भी मॉडल और किसी भी Workflow को Roboflow की डिप्लॉयमेंट सेवाओं के साथ डिप्लॉय कर सकते हैं।

हमारी डिप्लॉयमेंट सेवाएँ दो श्रेणियों में आती हैं:

  • Managed Deployments: ये विकल्प आपके मॉडल चलाने के लिए Roboflow की क्लाउड इंफ्रास्ट्रक्चर का उपयोग करते हैं, जिससे आपको अपना हार्डवेयर या सॉफ़्टवेयर प्रबंधित करने की आवश्यकता नहीं होती।

  • Self-Hosted Deployments: ये विकल्प आपको अपने हार्डवेयर पर स्थानीय रूप से मॉडल डिप्लॉय करने की अनुमति देते हैं, जिससे आपको अपने वातावरण और संसाधनों पर अधिक नियंत्रण मिलता है।

निम्नलिखित तालिका प्रत्येक डिप्लॉयमेंट विकल्प की प्रमुख विशेषताओं, लाभों और सीमाओं का सारांश प्रस्तुत करती है:

Deployment Option
Description
Benefits
Limitations

Workflow और मॉडल्स को सीधे Roboflow की इंफ्रास्ट्रक्चर पर GPU हार्डवेयर के साथ चलाएँ।

GPU मॉडल्स के लिए समर्थन।

संसाधनों पर सीमित नियंत्रण, मांग वाले अनुप्रयोगों या उच्च लोड की अवधि के दौरान अधिक लेटेंसी की संभावना

Workflow और मॉडल्स को Roboflow की इंफ्रास्ट्रक्चर पर सीधे एक अनंत-स्केलेबल API के माध्यम से चलाएँ।

स्केलेबल, उपयोग में आसान, कोई इंफ्रास्ट्रक्चर प्रबंधन नहीं।

संसाधनों पर सीमित नियंत्रण, मांग वाले अनुप्रयोगों के लिए अधिक लेटेंसी की संभावना।

Workflow और मॉडल्स चलाने के लिए समर्पित GPU और CPU।

GPU मॉडल्स, Video Streaming, Custom Python Blocks के लिए सपोर्ट।

केवल US-आधारित डेटा सेंटर्स तक सीमित। Serverless API की तरह ऑटोस्केलिंग नहीं है।

Batch Processing

चयनित workflow के साथ आपकी छवियों और वीडियो को संसाधित करने के लिए प्रबंधित सर्वरों का समूह।

पूरी तरह से प्रबंधित समाधान जो उच्च डेटा थ्रूपुट और लागत दक्षता प्रदान करता है, GPU समर्थन के साथ आपके डेटा वॉल्यूम के अनुसार सहजता से स्केलेबल।

रीयल-टाइम प्रोसेसिंग नहीं और Custom Python Blocks के लिए कोई समर्थन नहीं।

Self-Hosted Deployments

अपने स्वयं के हार्डवेयर पर स्थानीय रूप से Inference चलाएँ।

संसाधनों और वातावरण पर पूर्ण नियंत्रण, कम लेटेंसी की संभावना।

इंफ्रास्ट्रक्चर प्रबंधन और विशेषज्ञता की आवश्यकता होती है।

मॉडल डिप्लॉय करने पर हमेशा क्रेडिट्सखर्च होते हैं, चाहे कोई भी तरीका चुना जाए।

Inference क्या है?

कंप्यूटर विज़न में, inference का अर्थ है प्रशिक्षित मॉडल का उपयोग करके नई छवियों या वीडियो का विश्लेषण करना और भविष्यवाणी करना। उदाहरण के लिए, एक object detection मॉडल का उपयोग वीडियो स्ट्रीम में वस्तुओं की पहचान और स्थान निर्धारित करने के लिए किया जा सकता है, या एक classification मॉडल का उपयोग छवियों को उनकी सामग्री के आधार पर वर्गीकृत करने के लिए किया जा सकता है।

Roboflow Inference एक ओपन-सोर्स प्रोजेक्ट है जो कंप्यूटर विज़न मॉडल्स और workflows को डिप्लॉय करने के लिए एक शक्तिशाली और लचीला फ्रेमवर्क प्रदान करता है। यह Roboflow की अधिकांश managed deployment सेवाओं को शक्ति देता है। आप इसे स्वयं होस्ट भी कर सकते हैं या अपने विज़न workflows को edge डिवाइसेज़ पर डिप्लॉय करने के लिए उपयोग कर सकते हैं। Roboflow Inference कई विशेषताएँ और क्षमताएँ प्रदान करता है, जिनमें शामिल हैं:

  • विभिन्न मॉडल आर्किटेक्चर और कार्यों के लिए समर्थन, जिसमें object detection, classification, instance segmentation आदि शामिल हैं।

  • Workflows, जो आपको विभिन्न मॉडल्स, प्री-बिल्ट लॉजिक और बाहरी एप्लिकेशन को सैकड़ों building Blocks में से चुनकर जोड़ने की सुविधा देता है, जिससे आप कंप्यूटर विज़न एप्लिकेशन बना सकते हैं।

  • विभिन्न डिवाइसेज़ पर अनुकूलित प्रदर्शन के लिए हार्डवेयर एक्सेलेरेशन, जिसमें CPU, GPU और NVIDIA Jetson जैसे edge डिवाइसेज़ शामिल हैं।

  • संसाधनों के कुशल उपयोग के लिए मल्टीप्रोसेसिंग।

  • वीडियो स्ट्रीम्स की सहज प्रोसेसिंग के लिए वीडियो डिकोडिंग।

  • डिप्लॉयमेंट को आसान बनाने के लिए HTTP इंटरफेस, APIs और docker images

  • Roboflow की hosted deployment विकल्पों और Roboflow प्लेटफॉर्म के साथ एकीकरण।

Workflow क्या है?

Workflows आपको विभिन्न मॉडल्स, प्री-बिल्ट लॉजिक और बाहरी एप्लिकेशन को जोड़कर जटिल कंप्यूटर विज़न एप्लिकेशन बनाने की सुविधा देते हैं। ये एक विज़ुअल, लो-कोड वातावरण प्रदान करते हैं जिसमें आप उन्नत कंप्यूटर विज़न पाइपलाइनों को डिज़ाइन और डिप्लॉय कर सकते हैं।

Workflows के साथ, आप कर सकते हैं:

  • कई मॉडल्स को एक साथ जोड़कर जटिल कार्य कर सकते हैं।

  • अपने एप्लिकेशन में कस्टम लॉजिक और निर्णय-निर्माण जोड़ सकते हैं।

  • बाहरी सिस्टम और APIs के साथ एकीकरण कर सकते हैं।

  • छवियों और वीडियो में वस्तुओं को ट्रैक, गिन, समय, माप और विज़ुअलाइज़ कर सकते हैं।

सही डिप्लॉयमेंट विकल्प चुनना

Inference getting started guide में आपके उपयोग के मामले के लिए सर्वोत्तम डिप्लॉयमेंट विधि चुनने के लिए एक शानदार गाइड है: https://inference.roboflow.com/start/getting-started/

आपके लिए सर्वोत्तम डिप्लॉयमेंट विकल्प आपकी विशिष्ट आवश्यकताओं और मांगों पर निर्भर करता है। निर्णय लेते समय निम्नलिखित कारकों पर विचार करें:

  • Scalability: यदि आपके एप्लिकेशन को विभिन्न स्तरों के ट्रैफ़िक या डेटा वॉल्यूम को संभालने की आवश्यकता है, तो serverless API रीयल-टाइम उपयोग के मामलों के लिए उत्कृष्ट scalability प्रदान करता है; अन्यथा, Batch Processing एक सुझाया गया विकल्प है।

  • Latency: यदि आपको कम लेटेंसी या वीडियो प्रोसेसिंग की आवश्यकता है, तो dedicated deployments या शक्तिशाली हार्डवेयर के साथ self-hosted deployments सर्वोत्तम विकल्प हो सकते हैं।

  • GPUs: यदि आपको ऐसे मॉडल्स चलाने हैं जिन्हें GPU की आवश्यकता है (जैसे SAM2, CogVML, आदि), तो आपको GPU मशीन टाइप के साथ Dedicated Deployment या ऐसे हार्डवेयर पर self hosted का उपयोग करना होगा जिसमें GPU उपलब्ध हो। (Serverless GPU API जल्द आ रहा है)

  • Control: Self-hosted deployments आपके वातावरण और संसाधनों पर सबसे अधिक नियंत्रण प्रदान करते हैं।

  • Expertise: Self-hosted deployments को सेटअप और प्रबंधित करने के लिए अधिक तकनीकी विशेषज्ञता की आवश्यकता होती है।

Last updated

Was this helpful?