모델 가중치 다운로드
엣지 배포에 사용하기 위해 모델 가중치를 다운로드할 수 있습니다.
Roboflow를 사용하여 모델을 학습하면 Roboflow Inference 또는 모델 가중치 파일을 통해 자체 하드웨어에서 모델을 다운로드할 수 있습니다.
Roboflow는 자사 생태계 외부에서 사용되는 다운로드된 모델 가중치에 대해 지원을 제공하지 않습니다.
Inference로 모델 다운로드하기
Roboflow Inference 는 오픈 소스이자 확장 가능한 시스템으로, 모델을 애플리케이션 로직에 직접 통합하거나 하드웨어에서 마이크로서비스로 실행하여 모델을 실행할 수 있게 해줍니다. Inference는 확장성을 위해 설계되었으며 Roboflow는 수억 건의 추론을 처리한 호스팅 API를 운영하기 위해 Inference를 사용합니다.
Inference는 노트북 컴퓨터, 클라우드 서버, NVIDIA Jetson, Raspberry Pi 등 CPU 및 GPU 장치에서 모델 실행을 지원합니다.
Inference로 모델을 배포하면 모델 가중치가 사용을 위해 하드웨어에 다운로드됩니다. 가중치는 모델을 처음 실행할 때 다운로드되어 로컬에 저장됩니다. 예측은 장치의 로컬 연산으로 수행되며 기본적으로 이미지는 Roboflow의 클라우드로 전송되지 않습니다.
Inference로 모델을 배포하는 방법에 대해 자세히 알아보려면 Inference 문서.
임베디드 및 모바일 장치용 가중치 다운로드
다음을 참조하세요: 지원되는 모델 표 학습, 가중치 업로드 및 가중치 다운로드 호환성에 대해.
일부 유료 플랜에는 Android나 Raspberry Pi AI Kit와 같이 Roboflow가 아직 기본적으로 지원하지 않는 장치에서 사용하기 위해 모델 가중치를 다운로드할 수 있는 기능도 포함됩니다.

Roboflow 플랫폼 내에서 모델을 학습한 후 프로젝트의 Versions, Models 또는 Deployments 페이지에 있는 "Download Weights" 버튼을 사용하면 PyTorch .pt파일을 받아 임베디드 장치에서 사용하도록 변환할 수 있습니다.
Roboflow Python 패키지를 사용하여 모델 가중치를 다운로드할 수도 있습니다. 이를 위해 Roboflow API 키, 프로젝트 ID 및 다운로드하려는 모델과 연결된 버전을 대체하여 다음 코드를 사용하세요:
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()모델 가중치는 로컬 디렉터리에 weights.pt 파일로 다운로드되어 사용 가능합니다.
Last updated
Was this helpful?