Kubernetes
Kubernetes पर Roboflow Inference के साथ शुरूआत करना
अद्यतन: यदि आप एक Roboflow Enterprise ग्राहक हैं तो आप अपने Kubernetes वातावरण में Roboflow Inference Service को निम्न के माध्यम से तैनात कर सकते हैं यह Helm चार्ट.
वैकल्पिक रूप से, यहां Kubernetes क्लस्टर में एक pod और service तैनात करने के लिए सरल Kubernetes manifests दिए गए हैं।
नीचे दिया गया Kubernetes manifest एक सरल उदाहरण दिखाता है जिसमें एक single CPU-आधारित roboflow infer pod बनाया गया है और उस पर एक cluster-IP service संलग्न की गई है।
# Pod
---
apiVersion: v1
kind: Pod
metadata:
name: roboflow
labels:
app.kubernetes.io/name: roboflow
spec:
containers:
- name: roboflow
image: roboflow/roboflow-inference-server-cpu
ports:
- containerPort: 9001
name: rf-pod-port
# Service
---
apiVersion: v1
kind: Service
metadata:
name: rf-service
spec:
type: ClusterIP
selector:
app.kubernetes.io/name: roboflow
ports:
- name: rf-svc-port
protocol: TCP
port: 9001
targetPort: rf-pod-port(उपरोक्त उदाहरण यह मानता है कि आपका Kubernetes क्लस्टर Docker hub से इमेज डाउनलोड कर सकता है)
ऊपर के yaml ब्लर्ब को के रूप में सहेजें roboflow.yaml और उपयोग करें kubectl CLI का उपयोग करके pod और service को आपके Kubernetes क्लस्टर के default namespace में तैनात करने के लिए।
kubectl apply -f roboflow.yaml
एक service (ClusterIP प्रकार) बनाया जाएगा; आप Kubernetes क्लस्टर के भीतर निम्न URI पर Roboflow inference तक पहुँच सकते हैं: http://rf-service.default.svc:9001
इस उदाहरण से आगे
Kubernetes आपको अपने Roboflow inference service में कई उन्नत सुविधाएँ और विस्तार शामिल करने की शक्ति देता है। उदाहरण के लिए, आप ऊपर के उदाहरण को और उन्नत उपयोग-मामलों के लिए विस्तारित कर सकते हैं जैसे
nodeSelectors का उपयोग करके pod(s) को आपके Kubernetes वातावरण के GPU मशीन नोड पूल पर होस्ट करना और उपयोग करना
roboflow/inference-server:gpuimageRoboflow inference service के क्षैतिज ऑटो-स्केलिंग के लिए Kubernetes deployments बनाना और CPU उपयोग जैसी विशिष्ट मेट्रिक्स के आधार पर ऑटो-स्केलिंग ट्रिगर्स सेट करना।
Roboflow inference service को बाह्य रूप से सेवा देने के लिए nodePort और LoadBalancer जैसे विभिन्न service प्रकारों का उपयोग करना
Roboflow inference को TLS (HTTPs) आदि पर एक्सपोज़ करने के लिए ingress controllers का उपयोग करें।
अपने Roboflow inference service में मॉनिटरिंग और अलर्टिंग जोड़ें
लाइसेंस सर्वर और ऑफ़लाइन मोड्स का एकीकरण
Last updated
Was this helpful?