Deploy a Model or Workflow
Roboflow पर प्रशिक्षित या अपलोड किए गए मॉडलों को तैनात करने के बारे में जानें।
आप Roboflow पर प्रशिक्षित या अपलोड किए गए किसी भी मॉडल और किसी भी Workflow को Roboflow के deployment ऑफ़रिंग्स के साथ deploy कर सकते हैं।
हमारे deployment ऑफ़रिंग्स दो श्रेणियों में फिट होते हैं:
Managed Deployments: ये विकल्प आपके मॉडल चलाने के लिए Roboflow के क्लाउड इन्फ्रास्ट्रक्चर का उपयोग करते हैं, जिससे आपको अपनी हार्डवेयर या सॉफ़्टवेयर का प्रबंधन करने की आवश्यकता नहीं रहती।
Self-Hosted Deployments: ये विकल्प आपको अपने स्वयं के हार्डवेयर पर स्थानीय रूप से मॉडल deploy करने की अनुमति देते हैं, जिससे आपके पर्यावरण और संसाधनों पर अधिक नियंत्रण मिलता है।
निम्न तालिका प्रत्येक deployment विकल्प की प्रमुख विशेषताओं, लाभों और सीमाओं का सारांश प्रस्तुत करती है:
Roboflow के इन्फ्रास्ट्रक्चर पर GPU हार्डवेयर पर सीधे workflows और मॉडल चलाएँ।
GPU मॉडल्स के लिए समर्थन।
संसाधनों पर सीमित नियंत्रण, मांग वाली एप्लिकेशन के लिए या उच्च लोड के दौरान उच्च latency की संभावना
एक अनंत-स्केलेबल API के माध्यम से Roboflow के इन्फ्रास्ट्रक्चर पर सीधे workflows और मॉडल चलाएँ।
स्केलेबल, उपयोग में आसान, कोई इन्फ्रास्ट्रक्चर प्रबंधन नहीं।
संसाधनों पर सीमित नियंत्रण, मांग वाली एप्लिकेशन के लिए उच्च latency की संभावना।
Workflows और मॉडल चलाने के लिए समर्पित GPUs और CPUs।
GPU मॉडल्स, Video Streaming, Custom Python Blocks के लिए समर्थन।
केवल US-आधारित डेटा सेंटर्स तक सीमित। Serverless API की तरह ऑटो-स्केलिंग नहीं है
Batch Processing
चयनित workflow के साथ आपकी छवियों और वीडियो को प्रोसेस करने के लिए प्रबंधित सर्वरों का पूल।
पूर्ण रूप से प्रबंधित समाधान जो उच्च डेटा थ्रूपुट और लागत-कुशलता प्रदान करता है, GPU समर्थन के साथ आपके डेटा वॉल्यूम के अनुसार सहज रूप से स्केलेबल।
नॉन-रियल-टाइम प्रोसेसिंग और Custom Python Blocks के लिए समर्थन नहीं।
Self-Hosted Deployments
अपने स्वयं के हार्डवेयर पर स्थानीय रूप से Inference चलाएँ।
संसाधनों और पर्यावरण पर पूर्ण नियंत्रण, संभावित रूप से कम latency।
इन्फ्रास्ट्रक्चर प्रबंधन और विशेषज्ञता की आवश्यकता होती है।
सही Deployment विकल्प चुनना
आपके लिए सबसे अच्छा deployment विकल्प आपकी विशिष्ट आवश्यकताओं और मांगों पर निर्भर करता है। निर्णय लेते समय निम्नलिखित कारकों पर विचार करें:
स्केलेबिलिटी: यदि आपका अनुप्रयोग ट्रैफ़िक या डेटा वॉल्यूम के विभिन्न स्तरों को संभालने की आवश्यकता है, तो serverless API रियल-टाइम उपयोग-मामलों के लिए उत्कृष्ट स्केलेबिलिटी प्रदान करता है; अन्यथा, Batch Processing is a suggested option.
Latency: यदि आपको कम latency या वीडियो प्रोसेसिंग की आवश्यकता है, तो समर्पित deployments या शक्तिशाली हार्डवेयर वाले self-hosted deployments सबसे अच्छा विकल्प हो सकते हैं।
GPUs: यदि आपको ऐसे मॉडल चलाने हैं जिन्हें GPU की आवश्यकता है (उदाहरण के लिए SAM2, CogVML, आदि) तो आपको GPU मशीन प्रकार के साथ Dedicated Deployment का उपयोग करना होगा या ऐसे हार्डवेयर पर self hosted करना होगा जिनमें GPUs उपलब्ध हों। (Serverless GPU API शीघ्र आ रहा है)
Control: Self-hosted deployments आपके पर्यावरण और संसाधनों पर सबसे अधिक नियंत्रण प्रदान करते हैं।
Expertise: Self-hosted deployments को सेट अप और प्रबंधित करने के लिए अधिक तकनीकी विशेषज्ञता की आवश्यकता होती है।
Last updated
Was this helpful?