एक वर्कफ़्लो डिप्लॉय करें

आप चार तरीकों से एक Workflow डिप्लॉय कर सकते हैं:

  1. Workflow का उपयोग करके प्रोसेसिंग के लिए इमेज भेजें Roboflow API

  2. एक बनाएँ Roboflow Dedicated Deployment अपने विशेष उपयोग के लिए प्रोविजन की गई इंफ्रास्ट्रक्चर पर।

  3. अपने Workflow को अपने हार्डवेयर पर चलाएँ, उपयोग करें Roboflow Inference.

  4. एक शेड्यूल करें Roboflow Cloud में बैच जॉब ताकि बिना कोडिंग के बड़ी मात्रा में डेटा प्रोसेसिंग को ऑटोमेट किया जा सके।

अगर आप अपना Workflow अपने हार्डवेयर पर चलाते हैं, तो आप इसे इमेज और वीडियो फाइल्स (सामान्य वेबकैम और प्रोफेशनल CCTV कैमरे).

ऑन-प्रिमाइसेस डिप्लॉयमेंट चुनकर, आप किसी भी सिस्टम पर Workflow चला सकते हैं जहाँ आप Inference डिप्लॉय कर सकते हैं। इसमें शामिल हैं:

  • NVIDIA Jetson

  • AWS EC2, GCP Cloud Engine, और Azure Virtual Machines

  • Raspberry Pi

Roboflow Enterprise ग्राहकों को अतिरिक्त वीडियो स्ट्रीम विकल्प मिलते हैं, जैसे कि Basler कैमरों पर inference चलाना। हमारे ऑफरिंग्स के बारे में अधिक जानने के लिए, Roboflow सेल्स टीम से संपर्क करें.

एक Workflow डिप्लॉय करें

Workflow डिप्लॉय करने के लिए, Workflows एडिटर के ऊपर बाएँ कोने में "Deploy" बटन पर क्लिक करें। सभी डिप्लॉयमेंट विकल्प इस पेज पर डॉक्युमेंटेड हैं।

आपके Workflows एडिटर में कोड स्निपेट्स आपके Workflow के URL और API key से पहले से भरे होंगे।

Workflows के उपयोग सीमा के बारे में अधिक जानने के लिए, देखें Roboflow प्राइसिंग पेज.

इमेज प्रोसेस करें

आप Roboflow API या लोकल Inference सर्वर का उपयोग करके अपने Workflow को एकल इमेज पर चला सकते हैं।

सबसे पहले, Roboflow Inference SDK इंस्टॉल करें:

pip install inference-sdk inference-cli 

अगर आप लोकली चलाते हैं, तो इनका पालन करें आधिकारिक Docker इंस्टॉलेशन निर्देश अपने मशीन पर Docker इंस्टॉल करने और Inference सर्वर शुरू करने के लिए:

inference server start

फिर, एक नया Python फाइल बनाएं और निम्न कोड जोड़ें:

from inference_sdk import InferenceHTTPClient

client = InferenceHTTPClient(
    api_url="https://detect.roboflow.com",  # या "http://127.0.0.1:9001" लोकल डिप्लॉयमेंट के लिए
    api_key="API_KEY"
)

result = client.run_workflow(
    workspace_name="workspace-name",
    workflow_id="workflow-id",
    images={
        "image": "YOUR_IMAGE.jpg"
    }
)

ऊपर, बदलें API_KEY अपने Roboflow API key के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।

इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पेज पर दिख रहे कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।

लोकल एक्जीक्यूशन CPU और NVIDIA CUDA GPU डिवाइसेस पर काम करता है। सर्वोत्तम प्रदर्शन के लिए, NVIDIA Jetson या NVIDIA GPU वाले क्लाउड सर्वर जैसे GPU-सक्षम डिवाइस पर डिप्लॉय करें।

वीडियो स्ट्रीम प्रोसेस करें (RTSP, Webcam)

आप अपने Workflow को वीडियो स्ट्रीम के फ्रेम्स पर डिप्लॉय कर सकते हैं। यह एक वेबकैम या RTSP स्ट्रीम हो सकता है। आप अपने Workflow को वीडियो फाइल्स पर भी चला सकते हैं।

सबसे पहले, Inference इंस्टॉल करें:

pip install inference  # GPU मशीनों के लिए inference-gpu

Inference इंस्टॉल होने में कुछ मिनट लग सकते हैं।

फिर, एक नया Python फाइल बनाएं और निम्न कोड जोड़ें:

# InferencePipeline ऑब्जेक्ट इम्पोर्ट करें
from inference import InferencePipeline

def my_sink(result, video_frame):
    print(result) # हर फ्रेम की prediction के साथ कुछ करें
    

# एक pipeline ऑब्जेक्ट इनिशियलाइज़ करें
pipeline = InferencePipeline.init_with_workflow(
    api_key="API_KEY",
    workspace_name="workspace-name",
    workflow_id="workflow-id",
    video_reference=0, # वीडियो का पथ, RSTP स्ट्रीम, डिवाइस आईडी (int, आमतौर पर बिल्ट-इन वेबकैम के लिए 0), या RTSP स्ट्रीम url
    on_prediction=my_sink
)
pipeline.start() #pipeline शुरू करें
pipeline.join() #pipeline थ्रेड के समाप्त होने की प्रतीक्षा करें

ऊपर, बदलें API_KEY अपने Roboflow API key के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।

इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पेज पर दिख रहे कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।

जब आप ऊपर दिया गया कोड चलाते हैं, तो आपका Workflow आपके वीडियो या वीडियो स्ट्रीम पर चलेगा।

डेटा के बैच प्रोसेस करें

आप Roboflow Batch Processing सेवा का उपयोग करके पूरे डेटा बैच—इमेज और वीडियो फाइल्स की डायरेक्टरी—को कुशलतापूर्वक प्रोसेस कर सकते हैं। यह पूरी तरह से मैनेज्ड समाधान है, जिसमें कोडिंग या लोकल कंप्यूटेशन की आवश्यकता नहीं है। बस अपना डेटा और Workflow चुनें, और बाकी Roboflow संभालेगा।

हम UI, CLI और REST API इंटरैक्शन दोनों को Batch Processing के साथ सपोर्ट करते हैं। नीचे, हम CLI कमांड्स प्रस्तुत करते हैं। जानें सभी विकल्प.

प्रोसेसिंग चलाने के लिए, Inference CLI इंस्टॉल करें:

pip install inference-cli

फिर आप अपना डेटा इनजेस्ट कर सकते हैं:

inference rf-cloud data-staging create-batch-of-images \
    --images-dir <your-images-dir-path> \
    --batch-id <your-batch-id>

जब डेटा लोड हो जाए, प्रोसेसिंग जॉब शुरू करें:

inference rf-cloud batch-processing process-images-with-workflow \
    --workflow-id <workflow-id> \
    --batch-id <batch-id>

जॉब की प्रगति निम्न का उपयोग करके दिखाई जा सकती है:

inference rf-cloud batch-processing show-job-details \
    --job-id <your-job-id>  # job-id तब दिखाई देगा जब आप जॉब बनाएँगे

और जब जॉब पूरा हो जाए, परिणाम एक्सपोर्ट करें:

inference rf-cloud data-staging export-batch \
    --target-dir <dir-to-export-result> \
    --batch-id <output-batch-of-a-job>

Last updated

Was this helpful?