Batch Processing jobs बनाने और प्रबंधित करने के लिए Roboflow CLI का उपयोग करें।
इंस्टॉल करके inference-cli आपको एक्सेस मिलता है inference rf-cloud कमांड का, जो आपको Batch Processing और Data Staging के साथ इंटरैक्ट करने देता है — Roboflow Batch Processing के मुख्य घटक।
Batch ID format: लोअरकेस होना चाहिए, अधिकतम 64 characters, और केवल letters, digits, hyphens (-) तथा underscores (_).
Cloud Storage
यदि आपका data पहले से ही cloud storage (S3, Google Cloud Storage, या Azure) में है, तो आप इसे files को locally डाउनलोड किए बिना सीधे process कर सकते हैं। पहले cloud storage support install करें:
Images के लिए:
Videos के लिए:
The --bucket-path parameter supports:
S3: s3://bucket-name/path/
Google Cloud Storage: gs://bucket-name/path/
Azure Blob Storage: az://container-name/path/
आप files को filter करने के लिए glob patterns शामिल कर सकते हैं:
s3://my-bucket/training-data/**/*.jpg — सभी JPG files recursively
gs://my-bucket/videos/2024-*/*.mp4 — 2024-* folders में MP4 files
az://container/images/*.png — images folder में PNG files
आपकी cloud storage credentials का उपयोग केवल locally CLI द्वारा presigned URLs generate करने के लिए किया जाता है। उन्हें कभी upload नहीं किया जाता Roboflow servers पर।
Generated presigned URLs 24 hours के लिए valid होते हैं। सुनिश्चित करें कि आपका batch processing job इस समय-सीमा के भीतर पूरा हो जाए।
बड़े datasets के लिए, system automatically images को 20,000 files के chunks में split करता है। Videos 1,000 से कम batches में सबसे अच्छे काम करते हैं।