जहाँ x-processing-time और x-remote-processing-time HTTP Response headers हैं, float format (seconds) में। देखें roboflow.com/pricing credit pricing के लिए।
Model Inference
नीचे दिए गए उदाहरण में, हम coco/39 model (RF-DETR Small, 560x560) पर inference चलाते हैं। Response headers में हमें x-processing-time मिल सकता है, जो 81ms है। इस मामले में, हमारे पास होगा credits = max(81, 100) / 500,000 = 0.0002 credits या 1000 images पर 0.2 credits।
यदि आप वही request 10 मिनट बाद चलाते हैं, तो ऐसा हो सकता है कि model unload हो चुका हो और उसे GPU पर फिर से load करने की आवश्यकता हो - एक cold start। Model loading में कुछ सेकंड तक लग सकते हैं, और यह inferences के बीच की देरी से बहुत अधिक संबंधित होता है।
Formula: credits = max(1106, 100)/500,000 = 0.0022 या 1000 (cold start) images के लिए 2.2 credits।
Workflow run
Workflows के लिए, हम model inference को general Workflow processing से अलग करते हैं। इसका मतलब है कि Workflow स्वयं (सस्ते) CPU-only machines पर execute होगा, और model inference के लिए केवल GPU machines का उपयोग करेगा, जिससे processing अधिक cost-effective होगी।
2x object detection model, dynamic cropping, multiple visualizations, और Gemini for OCR के साथ License plate recognition Workflow
Formula: credits = (100ms + 1054ms)/500,000 तो 0.0023 credits processing के लिए, और Gemini API call के लिए थोड़ी-सी छोटी राशि (token count पर निर्भर करती है, देखें roboflow.com/credits).