Deploy a Workflow
आप एक Workflow को चार तरीकों से डिप्लॉय कर सकते हैं:
छवियों को भेजें Roboflow API आपके Workflow का उपयोग करके प्रोसेसिंग के लिए।
बनाएँ Roboflow Dedicated Deployment ऐसी इन्फ्रास्ट्रक्चर पर जो केवल आपके उपयोग के लिए प्रोविजन की गई हो।
अपने स्वयं के हार्डवेयर पर अपना Workflow चलाएँ उपयोग करके Roboflow Inference.
शेड्यूल करें Roboflow Cloud में एक बैच जॉब बिना कोडिंग के बड़े पैमाने पर डेटा के प्रोसेसिंग को स्वचालित करने के लिए।
यदि आप अपने हार्डवेयर पर अपना Workflow चलाते हैं, तो आप इसे छवियों और वीडियो फ़ाइलों (सामान्य webcams और पेशेवर CCTV cameras).
ऑन-प्रिमाइसेस डिप्लॉयमेंट चुनने पर, आप Workflows को किसी भी सिस्टम पर चला सकते हैं जहाँ आप Inference डिप्लॉय कर सकते हैं। इसमें शामिल हैं:
NVIDIA Jetson
AWS EC2, GCP Cloud Engine, और Azure Virtual Machines
Raspberry Pi
Roboflow Enterprise ग्राहकों को अतिरिक्त वीडियो स्ट्रीम विकल्पों का पहुँच मिलता है, जैसे Basler कैमरों पर inference चलाना। हमारी ऑफ़रिंग के बारे में अधिक जानने के लिए, Roboflow sales team से संपर्क करें.
एक Workflow डिप्लॉय करें
एक workflow डिप्लॉय करने के लिए, Workflows editor के ऊपर बाएँ कोने में स्थित "Deploy" बटन पर क्लिक करें। सभी डिप्लॉयमेंट विकल्प इस पेज पर दस्तावेजीकृत किए गए हैं।
आपके Workflows editor में कोड स्निपेट्स आपके Workflows URL और API key के साथ पहले से भरे होंगे।
Workflows के उपयोग सीमाओं के बारे में अधिक जानने के लिए, संदर्भित करें Roboflow pricing page.
छवियों को प्रोसेस करें
आप अपना Workflow single images पर Roboflow API या स्थानीय Inference server का उपयोग करके चला सकते हैं।
सबसे पहले, Roboflow Inference SDK इंस्टॉल करें:
यदि आप लोकली चला रहे हैं, तो अनुसरण करें official Docker installation instructions अपने मशीन पर Docker इंस्टॉल करने और Inference server शुरू करने के लिए:
फिर, एक नया Python फ़ाइल बनाएँ और निम्नलिखित कोड जोड़ें:
ऊपर, बदलें API_KEY अपने Roboflow API key के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।
इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace name और workflow ID कॉपी करें।
लोकल निष्पादन CPU और NVIDIA CUDA GPU उपकरणों पर काम करता है। सर्वोत्तम प्रदर्शन के लिए, NVIDIA Jetson जैसे GPU-सक्षम डिवाइस या NVIDIA GPU वाले क्लाउड सर्वर पर डिप्लॉय करें।
वीडियो स्ट्रीम (RTSP, Webcam) को प्रोसेस करें
आप अपने Workflow को वीडियो स्ट्रीम के फ्रेम्स पर डिप्लॉय कर सकते हैं। यह एक webcam या RTSP stream हो सकती है। आप अपने Workflow को वीडियो फ़ाइलों पर भी चला सकते हैं।
सबसे पहले, Inference इंस्टॉल करें:
Inference इंस्टॉल होने में कुछ मिनट लग सकते हैं।
फिर, एक नया Python फ़ाइल बनाएँ और निम्नलिखित कोड जोड़ें:
ऊपर, बदलें API_KEY अपने Roboflow API key के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।
इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace name और workflow ID कॉपी करें।
जब आप ऊपर दिया गया कोड चलाते हैं, तो आपका Workflow आपकी वीडियो या वीडियो स्ट्रीम पर चलेगा।
डेटा के बैचेस को प्रोसेस करें
आप Roboflow Batch Processing सेवा का उपयोग करके प्रभावी ढंग से पूरे डेटा बैच—छवियों और वीडियो फ़ाइलों की डायरेक्टरी—को प्रोसेस कर सकते हैं। यह पूरी तरह से प्रबंधित समाधान कोई कोडिंग या लोकल कंप्यूटेशन आवश्यक नहीं करता। बस अपना डेटा और Workflow चुनें, और बाकी Roboflow संभाल लेगा।
हम Batch Processing के साथ UI, CLI और REST API इंटरैक्शन्स दोनों का समर्थन करते हैं। नीचे, हम CLI कमांड प्रस्तुत करते हैं। खोजें सभी विकल्प.
प्रोसेसिंग चलाने के लिए, Inference CLI इंस्टॉल करें:
फिर आप अपना डेटा ingest कर सकते हैं:
जब डेटा लोड हो जाए, तो प्रोसेसिंग जॉब शुरू करें:
जॉब की प्रोग्रेस निम्नलिखित का उपयोग करके प्रदर्शित की जा सकती है:
और जब जॉब पूरा हो जाए, तो परिणाम एक्सपोर्ट करें:
Last updated
Was this helpful?