एक वर्कफ़्लो डिप्लॉय करें

आप एक वर्कफ़्लो को चार तरीकों से डिप्लॉय कर सकते हैं:

  1. छवियों को भेजें Roboflow API अपने वर्कफ़्लो का उपयोग करके प्रोसेसिंग के लिए।

  2. एक बनाएँ Roboflow डेडिकेटेड डिप्लॉयमेंट ऐसे इन्फ्रास्ट्रक्चर पर जो विशेष रूप से आपके उपयोग के लिए प्रोविजन किया गया है।

  3. अपने वर्कफ़्लो को अपने हार्डवेयर पर चलाएँ रोबोफ्लो इन्फरेंस.

  4. एक शेड्यूल करें Roboflow क्लाउड में बैच जॉब बिना कोडिंग के बड़ी मात्रा में डेटा प्रोसेसिंग को स्वचालित करने के लिए।

यदि आप अपने वर्कफ़्लो को अपने हार्डवेयर पर चलाते हैं, तो आप इसे छवियों और वीडियो फ़ाइलों (सामान्य वेबकैम और प्रोफेशनल सीसीटीवी कैमरे).

ऑन-प्रिमाइसेस डिप्लॉयमेंट चुनकर, आप किसी भी सिस्टम पर वर्कफ़्लो चला सकते हैं जहाँ आप इंफरेंस डिप्लॉय कर सकते हैं। इसमें शामिल हैं:

  • NVIDIA जेटसन

  • AWS EC2, GCP क्लाउड इंजन, और Azure वर्चुअल मशीनें

  • रास्पबेरी पाई

Roboflow एंटरप्राइज ग्राहकों को अतिरिक्त वीडियो स्ट्रीम विकल्प मिलते हैं, जैसे कि Basler कैमरों पर इंफरेंस चलाना। हमारे ऑफरिंग्स के बारे में अधिक जानने के लिए, Roboflow सेल्स टीम से संपर्क करें.

एक वर्कफ़्लो डिप्लॉय करें

वर्कफ़्लो डिप्लॉय करने के लिए, वर्कफ़्लो एडिटर के ऊपर बाएँ कोने में "Deploy" बटन पर क्लिक करें। सभी डिप्लॉयमेंट विकल्प इस पृष्ठ पर दस्तावेजीकृत हैं।

आपके वर्कफ़्लो एडिटर में कोड स्निपेट्स आपके वर्कफ़्लो URL और API कुंजी के साथ पहले से भरे होंगे।

वर्कफ़्लो के उपयोग सीमा के बारे में अधिक जानने के लिए, देखें Roboflow मूल्य निर्धारण पृष्ठ.

छवियों को प्रोसेस करें

आप अपने वर्कफ़्लो को एकल छवियों पर Roboflow API या लोकल इंफरेंस सर्वर का उपयोग करके चला सकते हैं।

सबसे पहले, Roboflow इंफरेंस SDK इंस्टॉल करें:

pip install inference-sdk inference-cli 

यदि आप लोकल चलाते हैं, तो इनका पालन करें आधिकारिक डॉकर इंस्टॉलेशन निर्देश अपने मशीन पर डॉकर इंस्टॉल करने और इंफरेंस सर्वर शुरू करने के लिए:

inference server start

फिर, एक नया पायथन फ़ाइल बनाएं और निम्न कोड जोड़ें:

from inference_sdk import InferenceHTTPClient

client = InferenceHTTPClient(
    api_url="https://detect.roboflow.com",  # या "http://127.0.0.1:9001" लोकल डिप्लॉयमेंट के लिए
    api_key="API_KEY"
)

result = client.run_workflow(
    workspace_name="workspace-name",
    workflow_id="workflow-id",
    images={
        "image": "YOUR_IMAGE.jpg"
    }
)

ऊपर, बदलें API_KEY अपने Roboflow API कुंजी के साथ। बदलें workspace-name और workflow-id अपने Roboflow वर्कस्पेस नाम और वर्कफ़्लो आईडी के साथ।

इन मानों को खोजने के लिए, अपना Roboflow वर्कफ़्लो खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना वर्कस्पेस नाम और वर्कफ़्लो आईडी कॉपी करें।

लोकल निष्पादन CPU और NVIDIA CUDA GPU डिवाइस पर काम करता है। सर्वोत्तम प्रदर्शन के लिए, NVIDIA Jetson या NVIDIA GPU वाले क्लाउड सर्वर जैसे GPU-सक्षम डिवाइस पर डिप्लॉय करें।

वीडियो स्ट्रीम प्रोसेस करें (RTSP, वेबकैम)

आप अपने वर्कफ़्लो को वीडियो स्ट्रीम के फ्रेम्स पर डिप्लॉय कर सकते हैं। यह एक वेबकैम या RTSP स्ट्रीम हो सकता है। आप अपने वर्कफ़्लो को वीडियो फ़ाइलों पर भी चला सकते हैं।

सबसे पहले, इंफरेंस इंस्टॉल करें:

pip install inference  # या GPU मशीनों के लिए inference-gpu

इंफरेंस इंस्टॉल होने में कुछ मिनट लग सकते हैं।

फिर, एक नया पायथन फ़ाइल बनाएं और निम्न कोड जोड़ें:

# InferencePipeline ऑब्जेक्ट इम्पोर्ट करें
from inference import InferencePipeline

def my_sink(result, video_frame):
    print(result) # प्रत्येक फ्रेम की भविष्यवाणियों के साथ कुछ करें
    

# एक पाइपलाइन ऑब्जेक्ट इनिशियलाइज़ करें
pipeline = InferencePipeline.init_with_workflow(
    api_key="API_KEY",
    workspace_name="workspace-name",
    workflow_id="workflow-id",
    video_reference=0, # वीडियो का पथ, RSTP स्ट्रीम, डिवाइस आईडी (int, आमतौर पर बिल्ट-इन वेबकैम के लिए 0), या RTSP स्ट्रीम url
    on_prediction=my_sink
)
pipeline.start() #पाइपलाइन शुरू करें
pipeline.join() #पाइपलाइन थ्रेड के समाप्त होने की प्रतीक्षा करें

ऊपर, बदलें API_KEY अपने Roboflow API कुंजी के साथ। बदलें workspace-name और workflow-id अपने Roboflow वर्कस्पेस नाम और वर्कफ़्लो आईडी के साथ।

इन मानों को खोजने के लिए, अपना Roboflow वर्कफ़्लो खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना वर्कस्पेस नाम और वर्कफ़्लो आईडी कॉपी करें।

जब आप ऊपर दिया गया कोड चलाते हैं, तो आपका वर्कफ़्लो आपके वीडियो या वीडियो स्ट्रीम पर चलेगा।

डेटा के बैच प्रोसेस करें

आप Roboflow बैच प्रोसेसिंग सेवा का उपयोग करके पूरे डेटा बैचों—छवियों और वीडियो फ़ाइलों की डाइरेक्टरी—को कुशलतापूर्वक प्रोसेस कर सकते हैं। यह पूरी तरह से प्रबंधित समाधान कोडिंग या लोकल गणना की आवश्यकता नहीं करता। बस अपना डेटा और वर्कफ़्लो चुनें, और बाकी Roboflow संभालेगा।

हम बैच प्रोसेसिंग के साथ UI, CLI और REST API इंटरैक्शन दोनों का समर्थन करते हैं। नीचे, हम CLI कमांड प्रस्तुत करते हैं। जानें सभी विकल्प.

प्रोसेसिंग चलाने के लिए, इंफरेंस CLI इंस्टॉल करें:

pip install inference-cli

फिर आप अपना डेटा इनजेस्ट कर सकते हैं:

inference rf-cloud data-staging create-batch-of-images \
    --images-dir <your-images-dir-path> \
    --batch-id <your-batch-id>

जब डेटा लोड हो जाए, प्रोसेसिंग जॉब शुरू करें:

inference rf-cloud batch-processing process-images-with-workflow \
    --workflow-id <workflow-id> \
    --batch-id <batch-id>

जॉब की प्रगति निम्न का उपयोग करके दिखाई जा सकती है:

inference rf-cloud batch-processing show-job-details \
    --job-id <your-job-id>  # job-id तब दिखाई देगा जब आप जॉब बनाएंगे

और जब जॉब पूरा हो जाए, परिणाम निर्यात करें:

inference rf-cloud data-staging export-batch \
    --target-dir <dir-to-export-result> \
    --batch-id <output-batch-of-a-job>

Last updated

Was this helpful?