APIs, webhooks, और cloud storage integration के साथ Batch Processing को ऑटोमेट करें।
Batch Processing कार्य स्वचालन के लिए बहुत उपयुक्त है, खासकर जब प्रक्रियाओं को बार-बार चलाने की आवश्यकता होती है। यह पेज बताता है कि APIs और webhooks का उपयोग करके Roboflow Batch Processing को बाहरी सिस्टम्स के साथ कैसे इंटीग्रेट करें।
अवलोकन
एक सामान्य Batch Processing pipeline में निम्न शामिल होते हैं:
Data Ingestion — डेटा को Data Staging में अपलोड करें (इनपुट और आउटपुट डेटा के लिए ephemeral storage)।
प्रसंस्करण — ingested data के विरुद्ध एक Workflow चलाएँ, जिससे CSV/JSONL परिणाम उत्पन्न हों। इसके बाद आमतौर पर एक export चरण होता है जो आसान extraction के लिए compressed archives बनाता है।
Data Export — download links के माध्यम से output batch से results डाउनलोड करें।
API Reference
सभी CLI commands के समकक्ष REST API endpoints होते हैं। नीचे मुख्य API interactions दिए गए हैं।
Response में शामिल होता है "signedURLDetails" साथ में:
"uploadURL" — वीडियो को PUT करने के लिए URL
"extensionHeaders" — शामिल करने के लिए अतिरिक्त headers
वीडियो अपलोड करें:
से सभी headers शामिल करें "extensionHeaders" response field।
Image Ingestion
Single Image Upload
5000 images तक के batches के लिए सबसे अच्छा। उसी batch के लिए bulk upload के साथ मिलाया नहीं जा सकता।
Bulk Upload
5000 से अधिक images वाले batches के लिए अनुशंसित। प्रति *.tar archive में 500 images तक bundle करें।
एक upload URL का अनुरोध करें:
images को एक *.tar archive में, API द्वारा लौटाई गई size और file-count सीमाओं के अनुसार pack करें।
Response से signed URL और extension headers का उपयोग करके archive अपलोड करें।
Bulk-upload batches को उसी batch के लिए single-image uploads के साथ मिलाया नहीं जा सकता।
Bulk ingestion करते समय, data background में indexed होता है। सभी data उपलब्ध होने से पहले थोड़ी देरी हो सकती है।
Batch Status जांचें
Job शुरू करने से पहले, सत्यापित करें कि सभी data ingest हो चुके हैं:
Shard upload details (paginated) जांचने के लिए:
Job शुरू करें
Job ID constraints: केवल lowercase letters, digits, hyphens, और underscores। अधिकतम 20 characters।
Job Status की निगरानी करें
सामान्य job status:
Job stages सूचीबद्ध करें:
किसी stage के लिए tasks सूचीबद्ध करें (paginated):
Results Export करें
Output batch के parts सूचीबद्ध करें:
किसी part के लिए download URLs सूचीबद्ध करें (paginated):
एक file डाउनलोड करें:
Data Staging Batch Types
Simple batches (type: simple-batch) — data को एक-एक item करके ingest करते समय बनाए जाते हैं। 5000–10000 items तक के लिए सबसे अच्छे।
Sharded batches (type: sharded-batch) — bulk ingestion (केवल images) के माध्यम से बनाए जाते हैं। automatic sharding के साथ लाखों data points के लिए डिज़ाइन किए गए हैं।
Multipart batches (type: multipart-batch) — सिस्टम द्वारा आंतरिक रूप से बनाए जाते हैं। sub-batches का एक logical grouping जिसे एक entity के रूप में managed किया जाता है।
Webhook Automation
स्थिति के लिए polling करने के बजाय, आप webhooks का उपयोग करके सूचना प्राप्त कर सकते हैं जब ingestion या processing पूर्ण हो जाए।
Data Ingestion Webhooks
CLI commands create-batch-of-images और create-batch-of-videos समर्थन करते हैं:
--notifications-url <webhook_url> — notifications के लिए webhook endpoint।