Offline Mode
Roboflow Enterprise ग्राहक ऑफ़लाइन मॉडलों को तैनात कर सकते हैं।
Roboflow Enterprise ग्राहक Roboflow Inference, हमारे on-device inference server, को कॉन्फ़िगर कर सकते हैं ताकि वज़न को 30 दिनों तक कैश किया जा सके।
यह आपके मॉडल को पूरी तरह एयर-गैप्ड तरीके से या उन स्थानों पर चलाने की अनुमति देता है जहाँ इंटरनेट कनेक्शन आसानी से उपलब्ध नहीं है।
अपने मॉडल को ऑफ़लाइन चलाने के लिए, आपको नीचे दिया गया करना होगा:
एक Docker वॉल्यूम बनाएं और उसे संलग्न (attach) करें
/tmp/cacheआपके Inference Server पर।Docker के साथ एक Roboflow Inference server शुरू करें।
सर्वर के माध्यम से अपने मॉडल को एक अनुरोध करें, जो मॉडल वेट्स डाउनलोड और कैश प्रक्रिया को शुरू करेगा। इस चरण के लिए आपको इंटरनेट कनेक्शन की आवश्यकता होगी।
एक बार आपके वेट्स कैश हो जाने पर, आप उन्हें लोकल तौर पर उपयोग कर सकते हैं।
नीचे, हम विभिन्न डिवाइस प्रकारों (CPU से लेकर GPU तक) पर अपने मॉडल को ऑफ़लाइन कैसे चलाएँ इसके निर्देश प्रदान करते हैं।
CPU
छवि: roboflow / roboflow-inference-server-cpu
sudo docker volume create roboflow
sudo docker run --net=host --env LICENSE_SERVER=10.0.1.1 --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-cpuGPU
GPU container का उपयोग करने के लिए, आपको पहले इंस्टॉल करना होगा nvidia-container-runtime.
छवि: roboflow / roboflow-inference-server-gpu
sudo docker volume create roboflow
docker run -it --rm -p 9001:9001 --gpus all --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-gpuJetson 4.5
आपके Jetson Jetpack 4.5 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtime इंस्टॉल।
छवि: roboflow/roboflow-inference-server-jetson-4.5.0
sudo docker volume create roboflow
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-4.5.0Jetson 4.6
आपके Jetson Jetpack 4.6 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtime इंस्टॉल।
छवि: roboflow/roboflow-inference-server-jetson-4.6.1
sudo docker volume create roboflow
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-4.6.1Jetson 5.1
आपके Jetson Jetpack 5.1 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtime इंस्टॉल।
छवि: roboflow/roboflow-inference-server-jetson-5.1.1
sudo docker volume create roboflow
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-5.1.1Inference चलाना
अपने Inference server को लोकल कैशिंग के साथ सेटअप करने के बाद, आप इंटरनेट कनेक्शन के बिना छवियों और वीडियो फ्रेम पर अपने मॉडल को चला सकते हैं।
रुजू करें "Predict on an Image Over HTTP" Inference दस्तावेज़िका में यह मार्गदर्शन कि अपने मॉडल को कैसे चलाएँ।
Inference परिणाम
वज़न आपके Roboflow खाते से इंटरनेट पर लोड किए जाएंगे (यदि आपने कॉन्फ़िगर किया है तो License Server के माध्यम से) SSL एन्क्रिप्शन के साथ और Docker वॉल्यूम में सुरक्षित रूप से 30 दिनों तक संग्रहीत किए जाएंगे।
आपके inference परिणामों में एक नया शामिल होगा expiration कुंजी जिसका आप उपयोग कर सकते हैं यह निर्धारित करने के लिए कि Inference Server कितनी देर तक predictions प्रदान कर सकता है इससे पहले कि वेट्स पर उसकी लीज़ नवीनीकृत करने के लिए इंटरनेट या License Server कनेक्शन की आवश्यकता हो। जब वेट expiration तिथि 7 दिनों से कम हो जाती है, तो Inference Server वेट्स की लीज़ को हर घंटे एक बार नवीनीकृत करने की कोशिश शुरू कर देगा जब तक कि Roboflow API से सफलतापूर्वक कनेक्शन न बन जाए।
एक बार लीज़ नवीनीकृत हो जाने पर, काउंटर 30 दिनों पर रिसेट हो जाएगा।
{
"predictions": [
{
"x": 340.9,
"y": 263.6,
"width": 284,
"height": 360,
"class": "example",
"confidence": 0.867
}
],
"expiration": {
"value": 29.91251408564815,
"unit": "days"
}
}Last updated
Was this helpful?