ऑफ़लाइन मोड

Roboflow Enterprise ग्राहक मॉडल को ऑफ़लाइन तैनात कर सकते हैं।

circle-info

Roboflow Enterprise ग्राहकों के लिए Offline Mode के लिए आवश्यक है कि आप हमारे Docker container का उपयोग करें।

Roboflow Enterprise ग्राहक Roboflow Inference, हमारे on-device inference server, को कॉन्फ़िगर कर सकते हैं ताकि वज़न को 30 दिनों तक कैश किया जा सके।

यह आपके मॉडल को पूरी तरह एयर-गैप्ड तरीके से या उन स्थानों पर चलाने की अनुमति देता है जहाँ इंटरनेट कनेक्शन आसानी से उपलब्ध नहीं है।

अपने मॉडल को ऑफ़लाइन चलाने के लिए, आपको नीचे दिया गया करना होगा:

  1. एक Docker वॉल्यूम बनाएं और उसे संलग्न (attach) करें /tmp/cache आपके Inference Server पर।

  2. Docker के साथ एक Roboflow Inference server शुरू करें।

  3. सर्वर के माध्यम से अपने मॉडल को एक अनुरोध करें, जो मॉडल वेट्स डाउनलोड और कैश प्रक्रिया को शुरू करेगा। इस चरण के लिए आपको इंटरनेट कनेक्शन की आवश्यकता होगी।

एक बार आपके वेट्स कैश हो जाने पर, आप उन्हें लोकल तौर पर उपयोग कर सकते हैं।

नीचे, हम विभिन्न डिवाइस प्रकारों (CPU से लेकर GPU तक) पर अपने मॉडल को ऑफ़लाइन कैसे चलाएँ इसके निर्देश प्रदान करते हैं।

CPU

छवि: roboflow / roboflow-inference-server-cpuarrow-up-right

sudo docker volume create roboflow
sudo docker run --net=host --env LICENSE_SERVER=10.0.1.1 --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-cpu

GPU

GPU container का उपयोग करने के लिए, आपको पहले इंस्टॉल करना होगा nvidia-container-runtimearrow-up-right.

छवि: roboflow / roboflow-inference-server-gpuarrow-up-right

Jetson 4.5

आपके Jetson Jetpack 4.5 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtimearrow-up-right इंस्टॉल।

छवि: roboflow/roboflow-inference-server-jetson-4.5.0arrow-up-right

Jetson 4.6

आपके Jetson Jetpack 4.6 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtimearrow-up-right इंस्टॉल।

छवि: roboflow/roboflow-inference-server-jetson-4.6.1arrow-up-right

Jetson 5.1

आपके Jetson Jetpack 5.1 में पहले से ही होगा https://github.com/NVIDIA/nvidia-container-runtimearrow-up-right इंस्टॉल।

छवि: roboflow/roboflow-inference-server-jetson-5.1.1arrow-up-right

Inference चलाना

अपने Inference server को लोकल कैशिंग के साथ सेटअप करने के बाद, आप इंटरनेट कनेक्शन के बिना छवियों और वीडियो फ्रेम पर अपने मॉडल को चला सकते हैं।

रुजू करें "Predict on an Image Over HTTParrow-up-right" Inference दस्तावेज़िका में यह मार्गदर्शन कि अपने मॉडल को कैसे चलाएँ।

Inference परिणाम

वज़न आपके Roboflow खाते से इंटरनेट पर लोड किए जाएंगे (यदि आपने कॉन्फ़िगर किया है तो License Server के माध्यम से) SSL एन्क्रिप्शन के साथ और Docker वॉल्यूम में सुरक्षित रूप से 30 दिनों तक संग्रहीत किए जाएंगे।

आपके inference परिणामों में एक नया शामिल होगा expiration कुंजी जिसका आप उपयोग कर सकते हैं यह निर्धारित करने के लिए कि Inference Server कितनी देर तक predictions प्रदान कर सकता है इससे पहले कि वेट्स पर उसकी लीज़ नवीनीकृत करने के लिए इंटरनेट या License Server कनेक्शन की आवश्यकता हो। जब वेट expiration तिथि 7 दिनों से कम हो जाती है, तो Inference Server वेट्स की लीज़ को हर घंटे एक बार नवीनीकृत करने की कोशिश शुरू कर देगा जब तक कि Roboflow API से सफलतापूर्वक कनेक्शन न बन जाए।

एक बार लीज़ नवीनीकृत हो जाने पर, काउंटर 30 दिनों पर रिसेट हो जाएगा।

circle-info

यदि आपके पास अपने मॉडल को ऑफ़लाइन डिप्लॉय करने के बारे में प्रश्न हैं, तो मार्गदर्शन के लिए अपने Roboflow प्रतिनिधि से संपर्क करें।

Last updated

Was this helpful?