एक Workflow तैनात करें
आप Workflow को चार तरीकों से डिप्लॉय कर सकते हैं:
चित्र भेजें Roboflow API अपने Workflow का उपयोग करके प्रसंस्करण के लिए।
एक बनाएं Roboflow Dedicated Deployment ऐसी इन्फ्रास्ट्रक्चर पर जो विशेष रूप से आपके उपयोग के लिए प्रोविज़न की गई हो।
अपने स्वयं के हार्डवेयर पर अपने Workflow को चलाएँ उपयोग करते हुए Roboflow Inference.
एक शेड्यूल करें Roboflow Cloud में बैच जॉब बिना कोडिंग के बड़ी मात्रा में डेटा के प्रसंस्करण को स्वचालित करने के लिए।
यदि आप अपने स्वयं के हार्डवेयर पर अपना Workflow चलाते हैं, तो आप इसे दोनों पर चला सकते हैं: छवियाँ और वीडियो फ़ाइलें (सह-स्ट्रीम सहित नियमित वेबकैम और पेशेवर CCTV कैमरे).
ऑन-प्रिमाइसेज़ डिप्लॉयमेंट चुनने पर, आप Workflows को किसी भी सिस्टम पर चला सकते हैं जहाँ आप Inference डिप्लॉय कर सकते हैं। इसमें शामिल हैं:
NVIDIA Jetson
AWS EC2, GCP Cloud Engine, और Azure Virtual Machines
Raspberry Pi
एक Workflow डिप्लॉय करें
एक workflow डिप्लॉय करने के लिए, Workflows एडिटर के ऊपर बाएँ कोने में स्थित "Deploy" बटन पर क्लिक करें। सभी डिप्लॉयमेंट विकल्प इस पृष्ठ पर दस्तावेजीकृत हैं।
आपके Workflows एडिटर में कोड स्निपेट्स आपके Workflows URL और API कुंजी के साथ पहले से भरे होंगे।
चित्रों को प्रोसेस करें
आप अपने Workflow को सिंगल इमेजेस पर Roboflow API या स्थानीय Inference सर्वर का उपयोग करके चला सकते हैं।
सबसे पहले, Roboflow Inference SDK इंस्टॉल करें:
pip install inference-sdk inference-cli यदि आप स्थानीय रूप से चला रहे हैं, तो पालन करें आधिकारिक Docker इंस्टॉलेशन निर्देश अपने मशीन पर Docker स्थापित करने और Inference सर्वर शुरू करने के लिए:
inference server startफिर, एक नया Python फ़ाइल बनाएं और निम्न कोड जोड़ें:
from inference_sdk import InferenceHTTPClient
client = InferenceHTTPClient(
api_url="https://detect.roboflow.com", # या स्थानीय डिप्लॉयमेंट के लिए "http://127.0.0.1:9001"
api_key="API_KEY"
)
result = client.run_workflow(
workspace_name="workspace-name",
workflow_id="workflow-id",
images={
"image": "YOUR_IMAGE.jpg"
}
)
ऊपर, बदलें API_KEY अपने Roboflow API की के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।
इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।
स्थानीय निष्पादन CPU और NVIDIA CUDA GPU डिवाइसों पर काम करता है। सर्वोत्तम प्रदर्शन के लिए, NVIDIA Jetson जैसे GPU-सक्षम डिवाइस या NVIDIA GPU वाले क्लाउड सर्वर पर डिप्लॉय करें।
वीडियो स्ट्रीम (RTSP, Webcam) को प्रोसेस करें
आप अपने Workflow को वीडियो स्ट्रीम के फ्रेम्स पर डिप्लॉय कर सकते हैं। यह एक वेबकैम या RTSP स्ट्रीम हो सकती है। आप अपने Workflow को वीडियो फ़ाइलों पर भी चला सकते हैं।
सबसे पहले, Inference इंस्टॉल करें:
pip install inference # या GPU मशीनों के लिए inference-gpuInference के इंस्टॉल होने में कुछ मिनट लग सकते हैं।
फिर, एक नया Python फ़ाइल बनाएं और निम्न कोड जोड़ें:
# InferencePipeline ऑब्जेक्ट इम्पोर्ट करें
from inference import InferencePipeline
def my_sink(result, video_frame):
print(result) # प्रत्येक फ्रेम के प्रेडिक्शन्स के साथ कुछ करें
# एक pipeline ऑब्जेक्ट इनिशियलाइज़ करें
pipeline = InferencePipeline.init_with_workflow(
api_key="API_KEY",
workspace_name="workspace-name",
workflow_id="workflow-id",
video_reference=0, # वीडियो का पथ, RSTP स्ट्रीम, डिवाइस आईडी (int, आमतौर पर बिल्ट-इन वेबकैम्स के लिए 0), या RTSP स्ट्रीम URL
on_prediction=my_sink
)
pipeline.start() # पाइपलाइन शुरू करें
pipeline.join() # पाइपलाइन थ्रेड के समाप्त होने का इंतज़ार करें
ऊपर, बदलें API_KEY अपने Roboflow API की के साथ। बदलें workspace-name और workflow-id अपने Roboflow workspace नाम और Workflow IDs के साथ।
इन मानों को खोजने के लिए, अपना Roboflow Workflow खोलें और "Deploy Workflow" पर क्लिक करें। फिर, पृष्ठ पर दिखाई देने वाले कोड स्निपेट से अपना workspace नाम और workflow ID कॉपी करें।
जब आप ऊपर दिया गया कोड चलाते हैं, आपका Workflow आपके वीडियो या वीडियो स्ट्रीम पर चलेगा।
डेटा के बैच प्रोसेसिंग
आप Roboflow Batch Processing सेवा का उपयोग करके डेटा के पूरे बैच—इमेजेस और वीडियो फ़ाइलों के डिरेक्टरी—को कुशलतापूर्वक प्रोसेस कर सकते हैं। यह पूरी तरह से प्रबंधित समाधान है जिसे चलाने के लिए कोई कोडिंग या स्थानीय कंप्यूटेशन आवश्यक नहीं है। बस अपना डेटा और Workflow चुनें, और Roboflow बाकी संभाल लेगा।
हम UI, CLI और REST API दोनों के साथ Batch Processing के इंटरैक्शंस का समर्थन करते हैं। नीचे, हम CLI कमांड प्रस्तुत करते हैं। खोजें सभी विकल्प.
प्रोसेसिंग चलाने के लिए, Inference CLI इंस्टॉल करें:
pip install inference-cliफिर आप अपना डेटा इनजेस्ट कर सकते हैं:
inference rf-cloud data-staging create-batch-of-images \
--images-dir <your-images-dir-path> \
--batch-id <your-batch-id>जब डेटा लोड हो जाएं, प्रोसेसिंग जॉब शुरू करें:
inference rf-cloud batch-processing process-images-with-workflow \
--workflow-id <workflow-id> \
--batch-id <batch-id>जॉब की प्रगति को दिखाने के लिए उपयोग करें:
inference rf-cloud batch-processing show-job-details \
--job-id <your-job-id> # job-id तब दिखाई देगा जब आप एक जॉब बनायेंगेऔर जब जॉब पूरा हो जाए, परिणाम एक्सपोर्ट करें:
inference rf-cloud data-staging export-batch \
--target-dir <dir-to-export-result> \
--batch-id <output-batch-of-a-job>Last updated
Was this helpful?