여기서 x-processing-time 및 x-remote-processing-time 은(는) float 형식(초)의 HTTP Response 헤더입니다. 자세한 내용은 roboflow.com/pricing 에서 credit 가격을 확인하세요.
Model Inference
아래 예시에서는 coco/39 model (RF-DETR Small, 560x560)에서 inference를 실행합니다. 응답 헤더에서 x-processing-time 를 찾을 수 있으며, 이는 81ms입니다. 이 경우 credits = max(81, 100) / 500,000 = 0.0002 credits 가 되며, 또는 이미지 1000장당 0.2 credits입니다.
같은 요청을 10분 뒤에 다시 실행하면, model이 언로드되어 GPU에 다시 로드해야 할 수 있습니다. 이를 cold start라고 합니다. Model 로딩에는 최대 몇 초가 걸릴 수 있으며, 추론 간의 지연 시간과 매우 높은 상관관계가 있습니다.
Formula: credits = max(1106, 100)/500,000 = 0.0022 , 또는 이미지 1000장당 2.2 credits (cold start) 이미지.
Workflow run
Workflows의 경우, model inference와 일반 Workflow 처리를 분리합니다. 즉, Workflow 자체는 (더 저렴한) CPU 전용 머신에서 실행되고, model inference에만 GPU 머신을 사용하므로, 더 비용 효율적인 처리가 가능합니다.
2개의 object detection model, dynamic cropping, 여러 visualizations, 그리고 OCR용 Gemini가 포함된 번호판 인식 Workflow
Formula: credits = (100ms + 1054ms)/500,000 , 따라서 0.0023 credits 는 처리에 대한 비용이며, Gemini API 호출에 대한 아주 적은 추가 비용이 있습니다(토큰 수에 따라 다름, 자세한 내용은 roboflow.com/credits).