NVIDIA GPU (레거시)
추가 엔터프라이즈 배포로서 GPU 장치에 배포할 수 있는 가속 추론 솔루션을 제공합니다.
설치 요구사항
docker run --gpus all -it ubuntu nvidia-smiTue Nov 9 16:04:47 2021
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 460.91.03 Driver Version: 460.91.03 CUDA Version: N/A |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 Tesla K80 Off | 00000000:00:1E.0 Off | 0 |
| N/A 41C P0 56W / 149W | 504MiB / 11441MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
+-----------------------------------------------------------------------------+Enterprise GPU TRT
Amazon EC2 배포
AMI 선택 및 EC2 인스턴스 시작

SSH로 EC2 인스턴스에 로그인
TRT GPU Docker 컨테이너 시작
엔진 컴파일 및 추론 실행
Anaconda 배포
Anaconda 환경 설정
Anaconda 환경에 Docker 설치
Anaconda 환경 내에서 Docker 컨테이너 실행
엔진 컴파일 및 추론 실행
pybase64 encode your_img.jpg | curl -d @- "http://localhost:9001/[YOUR MODEL]/[YOUR VERSION]?api_key=[YOUR API KEY]"
Windows Subsystem 배포

Microsoft Store에서 WSL2 설치
sudo apt-get update
엔진 컴파일 및 추론 실행
추론을 실행하려는 이미지의 위치로 이동한 다음 아래 명령을 사용하세요.
처음 추론하는 경우 모델이 컴파일되는 데 시간이 걸립니다. 모델이 빌드된 후의 추론은 더 빠릅니다.
디렉토리에 마운트하여 서버를 시작하세요:
git clone https://github.com/roboflow/trt-demos.git
로드 밸런서 도커 컨테이너를 빌드하려면 아래 명령을 사용하세요. 사용 중인 로드 밸런서에 대한 추가 정보가 필요하면 해당 정보를

docker-compose up
# Anaconda 배포
이 두 파일을 변경한 후에는 docker-compose 튜토리얼을

NVIDIA V100에서는 2–4개의 워커가 최적의 지연 시간을 제공하는 것으로 나타났습니다.
CUDA_VISIBLE_DEVICES=[원하는 GPU 또는 MIG ID]
Last updated
Was this helpful?