Managed Deployments
Roboflow कई प्रबंधित परिनियोजन विकल्प प्रदान करता है जो हमारे क्लाउड इन्फ्रास्ट्रक्चर का उपयोग करके आपके मॉडल चलाते हैं। ये विकल्प उपयोग में आसान हैं और उत्कृष्ट स्केलेबिलिटी विकल्प प्रदान करते हैं, जो इन्हें कई प्रकार के अनुप्रयोगों के लिए उपयुक्त बनाते हैं।
Serverless API
The Serverless Hosted API आपको Roboflow की इन्फ्रास्ट्रक्चर पर सीधे workflows और मॉडल चलाने की अनुमति देता है एक अनंत-स्केलेबल API के माध्यम से। यह आपके मॉडल्स को परिनियोजित करने और inference शुरू करने का सबसे सरल तरीका है।
लाभ:
स्केलेबिलिटी: API स्वचालित रूप से आपकी inference आवश्यकताओं को संभालने के लिए स्केल करता है, इसलिए आपको सर्वर प्रोविज़निंग या प्रबंधन की चिंता करने की आवश्यकता नहीं है।
उपयोग में सरलता: आप अपने मॉडल्स को एक सरल REST API के माध्यम से एक्सेस कर सकते हैं, जिससे अपने अनुप्रयोगों में inference को एकीकृत करना आसान हो जाता है।
कोई इन्फ्रास्ट्रक्चर प्रबंधन नहीं: Roboflow सभी इन्फ्रास्ट्रक्चर का प्रबंधन करता है, इसलिए आप अपने अनुप्रयोगों के निर्माण पर ध्यान केंद्रित कर सकते हैं।
Workflow समर्थन: सभी आपके workflows Serveless API पर API endpoints के रूप में उपलब्ध हैं, इसलिए आप सरल HTTP अनुरोध का उपयोग करके आसानी से अपने workflows चला सकते हैं
सीमाएँ:
Warmup Requests: जब आप ऐसे अनुरोध करते हैं जिनके कारण कोई मॉडल लोड करना होगा जो किसी सर्वर में अभी तक लोड नहीं हुआ है, तो प्रारंभिक अनुरोधों में कुछ सेकंड्स की बढ़ी हुई विलंबता हो सकती है। अगले अनुरोधों के बाद अनुरोध विलंबता नाटकीय रूप से सुधार जाएगी क्योंकि आपका मॉडल वर्तमान में चल रहे सर्वरों में कैश हो जाएगा।
CPU आधारित: The Serverless Hosted API मॉडल inference के लिए CPU का उपयोग करता है; आपको Dedicated Deployments या self-hosted deployments की तुलना में उच्च विलंबता का सामना करना पड़ सकता है और आप उन मॉडलों का उपयोग नहीं कर सकते जो GPU की आवश्यकता रखते हैं (Serverless GPU API coming soon).
Workflows
The Serverless Hosted API आपको चलाने की अनुमति देता है Workflows Roboflow क्लाउड में। यह आपको अपना स्वयं का इन्फ्रास्ट्रक्चर प्रबंधित किए बिना जटिल कंप्यूटर विज़न अनुप्रयोग बनाने और चलाने में सक्षम बनाता है।
आप Workflows को भी चला सकते हैं Dedicated Deployments या self hosted inference सर्वरों पर, जो आपको अधिक शक्तिशाली GPU आधारित मॉडल्स का उपयोग करने और Custom Python Blocks.
आप अधिक जान सकते हैं कि Workflows कैसे बनाएं, टेस्ट करें, और परिनियोजित करें यहाँ.
मॉडल इन्फरेंस
In addition to workflows आप किसी विशिष्ट मॉडल के खिलाफ भी inference कर सकते हैं का उपयोग करके Serverless Hosted API. आप किसी भी मॉडल के खिलाफ inference कर सकते हैं जिसे आपने Roboflow पर प्रशिक्षित किया है, किसी भी समर्थित foundation मॉडलया, projects खोजें जिनके पास प्रशिक्षित मॉडल हैं पर https://universe.roboflow.com
Overview for How to Use the Serverless Hosted API:
Roboflow डैशबोर्ड से अपना API key प्राप्त करें।
अपनी छवि और मॉडल जानकारी के साथ API endpoint पर एक POST अनुरोध भेजें।
Inference के परिणाम JSON प्रारूप में प्राप्त करें।
देखें Serverless Hosted API docs के विवरण और API विनिर्देशों के लिए
बैच प्रोसेसिंग
Roboflow Batch Processing एक पूर्ण रूप से प्रबंधित समाधान है जो द्वारा संचालित है Workflows जो आपको बिना कोड लिखे बड़े मात्रा में वीडियो और छवियों को प्रोसेस करने की अनुमति देता है। यह तेज़ कार्यों के लिए उपयोग में आसान UI और डेटा प्रोसेसिंग को स्वचालित करने के लिए एक व्यापक API प्रदान करता है—छोटे और बड़े दोनों वर्कलोड के अनुकूल।
कॉन्फ़िगर करने योग्य प्रोसेसिंग workflows, वास्तविक-समय निगरानी, और ईवेंट-आधारित सूचनाओं के साथ, Roboflow Batch Processing आपको डेटा प्रोसेसिंग को कुशलतापूर्वक प्रबंधित करने, प्रगति ट्रैक करने, और अन्य सिस्टम के साथ एकीकृत करने में मदद करता है—जो आपके लक्ष्यों को प्राप्त करना आसान बनाता है।
लाभ:
स्केलेबिलिटी: सेवा स्वचालित रूप से आपके डेटा वॉल्यूम के अनुसार स्केल करती है, जो लाखों छवियों और हजारों वीडियो फ़ाइलों को कुशलतापूर्वक प्रोसेस करने में सक्षम है।
उपयोग में सरलता: आप सेवा का उपयोग कई तरीकों से कर सकते हैं—एक सरल UI क्लिक से लेकर CLI कमांड्स निष्पादित करने तक, और यहाँ तक कि ऐसे production-grade automations बनाने तक जो आपके सिस्टम के साथ सहज रूप से एकीकृत होते हैं।
कोई इन्फ्रास्ट्रक्चर प्रबंधन नहीं: Roboflow सभी इन्फ्रास्ट्रक्चर और डेटा प्रबंधन को संभालता है, ताकि आप अपने व्यवसाय के उपयोग-मामलों का समाधान करने पर ध्यान केंद्रित कर सकें।
सीमाएँ:
प्रोसेसिंग की असिंक्रोनस प्रकृति: बैच प्रोसेसिंग सेवा प्रोसेसिंग जॉब्स को पृष्ठभूमि में तब लॉन्च करती है जब compute संसाधन उपलब्ध होते हैं। जबकि आवश्यक सर्वरों को प्रोविज़न करने में सामान्यतः केवल कुछ मिनट लगते हैं, जॉब के लिए एक सटीक प्रारंभ समय की गारंटी नहीं है। परिणामस्वरूप, यह सेवा रीयल-टाइम प्रोसेसिंग के लिए उपयुक्त नहीं है।
Custom Python Blocks समर्थित नहीं: चूंकि सेवा Roboflow की इन्फ्रास्ट्रक्चर पर चलती है, हम वर्तमान में Custom Python Blocks के माध्यम से मनमाना कोड निष्पादन का समर्थन नहीं करते।
Dedicated Deployments
Dedicated Deployments आपके मॉडल चलाने के लिए समर्पित GPUs और CPUs प्रदान करते हैं। यह विकल्प लगातार प्रदर्शन, संसाधन पृथक्करण, और बढ़ी हुई सुरक्षा प्रदान करता है, जिससे यह मांग वाले अनुप्रयोगों और प्रोडक्शन वर्कलोड्स के लिए उपयुक्त बनता है जिन्हें संसाधन पृथक्करण या कस्टम कोड निष्पादन की आवश्यकता होती है।
लाभ:
लगातार प्रदर्शन: समर्पित संसाधन आपके मॉडलों के लिए लगातार प्रदर्शन सुनिश्चित करते हैं।
संसाधन पृथक्करण: आपके मॉडल अलग किए गए संसाधनों पर चलते हैं, जिससे अन्य उपयोगकर्ताओं से हस्तक्षेप रोका जाता है।
GPU समर्थन: आप बड़े मॉडलों को चला सकते हैं जिन्हें Dedicated Deployments पर GPU समर्थन की आवश्यकता होती है (जैसे उदाहरण के लिए SAM2, CogVML)
सीमाएँ:
केवल US-आधारित डेटा सेंटर तक सीमित: वर्तमान में, Dedicated Deployments केवल US-आधारित डेटा सेंटरों में उपलब्ध हैं, जिससे अन्य क्षेत्रों में उपयोगकर्ताओं के लिए उच्च विलंबता हो सकती है।
Last updated
Was this helpful?