Deploy a Workflow

आप Workflow को चार तरीकों से डिप्लॉय कर सकते हैं:

  1. चित्र भेजें Roboflow APIarrow-up-right अपने Workflow का उपयोग करके प्रसंस्करण के लिए।

  2. एक बनाएं Roboflow Dedicated Deployment ऐसी इन्फ्रास्ट्रक्चर पर जो विशेष रूप से आपके उपयोग के लिए प्रोविज़न की गई हो।

  3. अपने स्वयं के हार्डवेयर पर अपने Workflow को चलाएँ उपयोग करते हुए Roboflow Inferencearrow-up-right.

  4. एक शेड्यूल करें Roboflow Cloud में बैच जॉब arrow-up-rightबिना कोडिंग के बड़ी मात्रा में डेटा के प्रसंस्करण को स्वचालित करने के लिए।

यदि आप अपने स्वयं के हार्डवेयर पर अपना Workflow चलाते हैं, तो आप इसे दोनों पर चला सकते हैं: छवियाँ और वीडियो फ़ाइलें (सह-स्ट्रीम सहित नियमित वेबकैम और पेशेवर CCTV कैमरे).

ऑन-प्रिमाइसेज़ डिप्लॉयमेंट चुनने पर, आप Workflows को किसी भी सिस्टम पर चला सकते हैं जहाँ आप Inference डिप्लॉय कर सकते हैं। इसमें शामिल हैं:

  • NVIDIA Jetson

  • AWS EC2, GCP Cloud Engine, और Azure Virtual Machines

  • Raspberry Pi

circle-info

Roboflow Enterprise ग्राहकों के पास अतिरिक्त वीडियो स्ट्रीम विकल्प उपलब्ध हैं, जैसे कि Basler कैमरों पर inference चलाना। हमारे ऑफ़र के बारे में और जानने के लिए, Roboflow बिक्री टीम से संपर्क करेंarrow-up-right.

एक Workflow डिप्लॉय करें

एक workflow डिप्लॉय करने के लिए, Workflows एडिटर के ऊपर बाएँ कोने में स्थित "Deploy" बटन पर क्लिक करें। सभी डिप्लॉयमेंट विकल्प इस पृष्ठ पर दस्तावेजीकृत हैं।

आपके Workflows एडिटर में कोड स्निपेट्स आपके Workflows URL और API कुंजी के साथ पहले से भरे होंगे।

circle-info

Workflows के उपयोग सीमा (usage limits) के बारे में और जानने के लिए, देखें Roboflow मूल्य निर्धारण पृष्ठarrow-up-right.

चित्रों को प्रोसेस करें

आप अपने Workflow को सिंगल इमेजेस पर Roboflow API या स्थानीय Inference सर्वर का उपयोग करके चला सकते हैं।

सबसे पहले, Roboflow Inference SDK इंस्टॉल करें:

यदि आप स्थानीय रूप से चला रहे हैं, तो पालन करें आधिकारिक Docker इंस्टॉलेशन निर्देशarrow-up-right अपने मशीन पर Docker स्थापित करने और Inference सर्वर शुरू करने के लिए:

फिर, एक नया Python फ़ाइल बनाएं और निम्न कोड जोड़ें:

ऊपर, बदलें API_KEY अपने Roboflow API की के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।

इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।

स्थानीय निष्पादन CPU और NVIDIA CUDA GPU डिवाइसों पर काम करता है। सर्वोत्तम प्रदर्शन के लिए, NVIDIA Jetson जैसे GPU-सक्षम डिवाइस या NVIDIA GPU वाले क्लाउड सर्वर पर डिप्लॉय करें।

वीडियो स्ट्रीम (RTSP, Webcam) को प्रोसेस करें

आप अपने Workflow को वीडियो स्ट्रीम के फ्रेम्स पर डिप्लॉय कर सकते हैं। यह एक वेबकैम या RTSP स्ट्रीम हो सकती है। आप अपने Workflow को वीडियो फ़ाइलों पर भी चला सकते हैं।

सबसे पहले, Inference इंस्टॉल करें:

Inference के इंस्टॉल होने में कुछ मिनट लग सकते हैं।

फिर, एक नया Python फ़ाइल बनाएं और निम्न कोड जोड़ें:

ऊपर, बदलें API_KEY अपने Roboflow API की के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।

इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।

जब आप ऊपर दिया गया कोड चलाते हैं, आपका Workflow आपके वीडियो या वीडियो स्ट्रीम पर चलेगा।

डेटा के बैच प्रोसेसिंग

आप Roboflow Batch Processing सेवा का उपयोग करके डेटा के पूरे बैच—इमेजेस और वीडियो फ़ाइलों के डिरेक्टरी—को कुशलतापूर्वक प्रोसेस कर सकते हैं। यह पूरी तरह से प्रबंधित समाधान है जिसे चलाने के लिए कोई कोडिंग या स्थानीय कंप्यूटेशन आवश्यक नहीं है। बस अपना डेटा और Workflow चुनें, और Roboflow बाकी संभाल लेगा।

हम UI, CLI और REST API दोनों के साथ Batch Processing के इंटरैक्शंस का समर्थन करते हैं। नीचे, हम CLI कमांड प्रस्तुत करते हैं। खोजें सभी विकल्पarrow-up-right.

प्रोसेसिंग चलाने के लिए, Inference CLI इंस्टॉल करें:

फिर आप अपना डेटा इनजेस्ट कर सकते हैं:

जब डेटा लोड हो जाएं, प्रोसेसिंग जॉब शुरू करें:

जॉब की प्रगति को दिखाने के लिए उपयोग करें:

और जब जॉब पूरा हो जाए, परिणाम एक्सपोर्ट करें:

Last updated

Was this helpful?