오프라인 모드

Roboflow Enterprise 고객은 모델을 오프라인으로 배포할 수 있습니다.

Roboflow Enterprise 고객을 위한 오프라인 모드는 당사의 Docker 컨테이너 사용을 요구합니다.

Roboflow Enterprise 고객은 온디바이스 추론 서버인 Roboflow Inference를 구성하여 가중치를 최대 30일 동안 캐시하도록 설정할 수 있습니다.

이를 통해 모델을 완전히 에어갭 환경이나 인터넷 연결이 쉽게 제공되지 않는 위치에서 실행할 수 있습니다.

모델을 오프라인으로 실행하려면 다음이 필요합니다:

  1. Docker 볼륨을 생성하고 /tmp/cache 를 Inference Server에 연결합니다.

  2. Docker로 Roboflow Inference 서버를 시작합니다.

  3. 서버를 통해 모델에 요청을 보내면 모델 가중치 다운로드 및 캐시 프로세스가 시작됩니다. 이 단계에는 인터넷 연결이 필요합니다.

가중치가 캐시되면 로컬에서 이를 사용할 수 있습니다.

아래에서는 CPU부터 GPU까지 다양한 장치 유형에서 모델을 오프라인으로 실행하는 방법에 대한 지침을 제공합니다.

CPU

이미지: roboflow / roboflow-inference-server-cpu

sudo docker pull roboflow/inference-server-trt:latest
sudo docker run --net=host --env LICENSE_SERVER=10.0.1.1 --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-cpu

GPU

GPU 컨테이너를 사용하려면 먼저 다음을 설치해야 합니다 nvidia-container-runtime.

이미지: roboflow / roboflow-inference-server-gpu

sudo docker pull roboflow/inference-server-trt:latest
docker run -it --rm -p 9001:9001 --gpus all --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-gpu

Jetson 4.5

Jetson Jetpack 4.5에는 이미 다음이 포함되어 있습니다 https://github.com/NVIDIA/nvidia-container-runtime 설치됨.

이미지: roboflow/roboflow-inference-server-jetson-4.5.0

sudo docker pull roboflow/inference-server-trt:latest
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-4.5.0

Jetson 4.6

Jetson Jetpack 4.6에는 이미 다음이 포함되어 있습니다 https://github.com/NVIDIA/nvidia-container-runtime 설치됨.

이미지: roboflow/roboflow-inference-server-jetson-4.6.1

sudo docker pull roboflow/inference-server-trt:latest
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-4.6.1

Jetson 5.1

Jetson Jetpack 5.1에는 이미 다음이 포함되어 있습니다 https://github.com/NVIDIA/nvidia-container-runtime 설치됨.

이미지: roboflow/roboflow-inference-server-jetson-5.1.1

sudo docker pull roboflow/inference-server-trt:latest
docker run -it --rm -p 9001:9001 --runtime=nvidia --mount source=roboflow,target=/tmp/cache roboflow/roboflow-inference-server-jetson-5.1.1

docker-compose up

로컬 캐싱이 설정된 Inference server를 통해 인터넷 연결 없이 이미지와 비디오 프레임에서 모델을 실행할 수 있습니다.

다음 "Predict on an Image Over HTTP" Inference 문서를 참조하여 모델 실행 방법에 대한 지침을 확인하세요.

Inference 결과

가중치는 SSL 암호화를 통해 인터넷(구성한 경우 License Server 경유)으로부터 귀하의 Roboflow 계정에서 로드되어 Docker 볼륨에 최대 30일 동안 안전하게 저장됩니다.

추론 결과에는 새로운 expiration 키가 포함되어 있어 Inference Server가 가중치에 대한 리스를 갱신하기 위해 인터넷 또는 License Server 연결을 통해 연결하기 전까지 예측을 계속 제공할 수 있는 기간을 확인할 수 있습니다. 가중치 만료 날짜가 7일 미만으로 떨어지면 Inference Server는 Roboflow API에 성공적으로 연결될 때까지 매시간 한 번씩 리스 갱신을 시도하기 시작합니다.

리스가 갱신되면 카운터는 30일로 재설정됩니다.

{
    "predictions": [
        {
            "x": 340.9,
            "y": 263.6,
            "width": 284,
            "height": 360,
            "class": "example",
            "confidence": 0.867
        }
    ],
    "expiration": {
        "value": 29.91251408564815,
        "unit": "days"
    }
}

모델을 오프라인으로 배포하는 것에 대해 질문이 있는 경우 안내를 위해 Roboflow 담당자에게 문의하세요.

Last updated

Was this helpful?