料金

Serverless Hosted APIの料金ページ

The roboflow.com/creditsarrow-up-right ページには、1クレジットが500秒の推論時間に相当すると記載されています。より正確な式は次のとおりです:

x-remote-processing-time ヘッダーが設定されている場合:
   credits = (100ms + x-remote-processing-time) / 500,000ms
それ以外の場合:
   credits = max(x-processing-time, 100ms) / 500,000ms

ここで x-processing-time および x-remote-processing-time は HTTP Response ヘッダーで、float 形式(秒)です。こちらを参照してください roboflow.com/pricingarrow-up-right クレジット料金について。

Model Inference

以下の例では、 coco/39 modelarrow-up-right (RF-DETR Small、560x560)に対して推論を実行しています。Response headers には x-processing-time があり、これは81msです。この場合、 credits = max(81, 100) / 500,000 = 0.0002 credits 、つまり1000画像あたり0.2 credits になります。

curl -X POST "https://serverless.roboflow.com/coco/39?api_key=API_KEY&image=https://media.roboflow.com/notebooks/examples/dog.jpeg" -I
HTTP/2 200 
content-type: application/json
content-length: 995
x-model-cold-start: false
x-model-id: coco/39
x-processing-time: 0.08100700378417969
x-workspace-id: my-workspace-id

Cold start

同じリクエストを10分後に実行すると、model がアンロードされていてGPUに再度ロードする必要がある、つまり cold start が発生することがあります。Model の読み込みには数秒かかることがあり、推論間の遅延と強く相関しています。

Formula: credits = max(1106, 100)/500,000 = 0.0022 、つまり 1000枚あたり2.2 credits (cold start)画像です。

Workflow run

Workflows では、model inference と一般的な Workflow processing を分離しています。つまり、Workflow 自体は(より安価な)CPUのみのマシン上で実行され、GPUマシンは model inference のみに使用されるため、よりコスト効率の高い処理になります。

2つの object detection model、dynamic cropping、複数の visualizations、そしてOCR用の Gemini を使った license plate recognition Workflow

Formula: credits = (100ms + 1054ms)/500,000 なので 0.0023 credits は処理分で、Gemini API 呼び出し分としてごくわずかな量が加わります(トークン数に依存します。こちらを参照してください roboflow.com/creditsarrow-up-right).

Last updated

Was this helpful?