Serverless Hosted API

Roboflow क्लाउड में GPU-त्वरित ऑटो-स्केलिंग इन्फ्रास्ट्रक्चर पर Workflows और Model Inference चलाएँ।

Roboflow पर तैनात किए गए मॉडल्स के पास एक REST API उपलब्ध है जिसके माध्यम से आप इमेज पर inference चला सकते हैं। यह तैनाती विधि उन वातावरणों के लिए आदर्श है जहाँ आपके डिप्लॉयमेंट डिवाइस पर स्थायी इंटरनेट कनेक्शन होता है।

आप Serverless Hosted API का उपयोग कर सकते हैं:

Inference server

हमारा Serverless Hosted API द्वारा संचालित है Inference Serverarrow-up-right। इसका मतलब है कि आप आसानी से हमारे Serverless Hosted API और self-hosting विकल्प के बीच स्विच कर सकते हैं और इसके विपरीत, जैसा कि नीचे दिखाया गया है:

from inference_sdk import InferenceHTTPClient

CLIENT = InferenceHTTPClient(
    # api_url="http://localhost:9001" # Self-hosted Inference server
    api_url="https://serverless.roboflow.com", # Our Serverless hosted API
    api_key="API_KEY" # optional to access your private models and data
)

result = CLIENT.infer("image.jpg", model_id="model-id/1")
print(result)

सीमैाएँ

हमारा Serverless Hosted API 20MB तक की फ़ाइल अपलोड का समर्थन करता है। उच्च रिज़ॉल्यूशन इमेज के साथ आपको सीमाओं का सामना करना पड़ सकता है। यदि आपको किसी समस्या का सामना करना पड़े तो कृपया अपने एंटरप्राइज़ सपोर्ट संपर्क से संपर्क करें या संदेश पोस्ट करें forumarrow-up-right.

circle-info

उन मामलों में जहाँ अनुरोध बहुत बड़े होते हैं, हम किसी भी संलग्न इमेज का आकार घटाने की सलाह देते हैं। आम तौर पर इससे खराब प्रदर्शन नहीं होता क्योंकि इमेज को हमारे सर्वरों पर प्राप्त होने के बाद मॉडल आर्किटेक्चर द्वारा स्वीकार किए जाने वाले इनपुट आकार में डाउनसाइज़ कर दिया जाता है। हमारे कुछ SDKs, जैसे कि Python SDK, API को भेजे जाने से पहले स्वतः इमेज को मॉडल आर्किटेक्चर के इनपुट आकार पर डाउनसाइज़ कर देते हैं।


यह हमारे Serverless Hosted API का V2 है। देखें Serverless Hosted API v1 v1 (legacy) API दस्तावेज़ के लिए।

Last updated

Was this helpful?