Kubernetes पर Roboflow Inference के साथ शुरुआत करना
अद्यतन: यदि आप एक Roboflow Enterprise ग्राहक हैं तो आप अपने Kubernetes वातावरण में Roboflow Inference Service को निम्न के माध्यम से तैनात कर सकते हैंयह Helm चार्ट.
वैकल्पिक रूप से, यहां Kubernetes क्लस्टर में एक pod और service तैनात करने के लिए सरल Kubernetes manifests दिए गए हैं।
नीचे दिया गया Kubernetes manifest एक सरल उदाहरण दिखाता है जिसमें एक single CPU-आधारित roboflow infer pod बनाया गया है और उस पर एक cluster-IP service संलग्न की गई है।
(उपरोक्त उदाहरण यह मानता है कि आपका Kubernetes क्लस्टर Docker hub से इमेज डाउनलोड कर सकता है)
ऊपर के yaml ब्लर्ब को के रूप में सहेजें roboflow.yaml और उपयोग करें kubectl CLI का उपयोग करके pod और service को आपके Kubernetes क्लस्टर के default namespace में तैनात करने के लिए।
एक service (ClusterIP प्रकार) बनाया जाएगा; आप Kubernetes क्लस्टर के भीतर निम्न URI पर Roboflow inference तक पहुँच सकते हैं: http://rf-service.default.svc:9001
इस उदाहरण से आगे
Kubernetes आपको अपने Roboflow inference service में कई उन्नत सुविधाएँ और विस्तार शामिल करने की शक्ति देता है। उदाहरण के लिए, आप ऊपर के उदाहरण को और उन्नत उपयोग-मामलों के लिए विस्तारित कर सकते हैं जैसे
nodeSelectors का उपयोग करके pod(s) को आपके Kubernetes वातावरण के GPU मशीन नोड पूल पर होस्ट करना और उपयोग करना roboflow/inference-server:gpu image
Roboflow inference service के क्षैतिज ऑटो-स्केलिंग के लिए Kubernetes deployments बनाना और CPU उपयोग जैसी विशिष्ट मेट्रिक्स के आधार पर ऑटो-स्केलिंग ट्रिगर्स सेट करना।
Roboflow inference service को बाह्य रूप से सेवा देने के लिए nodePort और LoadBalancer जैसे विभिन्न service प्रकारों का उपयोग करना
Roboflow inference को TLS (HTTPs) आदि पर एक्सपोज़ करने के लिए ingress controllers का उपयोग करें।
अपने Roboflow inference service में मॉनिटरिंग और अलर्टिंग जोड़ें