모델 가중치 다운로드
엣지 배포에 사용하기 위해 모델 가중치를 다운로드할 수 있습니다.
Roboflow를 사용하여 모델을 학습하면 Roboflow Inference 또는 모델 가중치 파일을 통해 자체 하드웨어에서 모델을 다운로드할 수 있습니다.
Roboflow는 그 생태계 외부에서 사용되는 다운로드된 모델 가중치에 대한 지원을 제공하지 않습니다.
Inference로 모델 다운로드
Roboflow Inference 는 오픈 소스이자 확장 가능한 시스템으로, 모델을 애플리케이션 로직에 직접 통합하거나 하드웨어에서 마이크로서비스로 실행하여 모델을 실행하는 데 사용할 수 있습니다. Inference는 확장을 위해 설계되었습니다: Roboflow는 수억 건의 추론을 수행한 호스팅 API를 구동하기 위해 Inference를 사용합니다.
Inference는 노트북 컴퓨터, 클라우드 서버, NVIDIA Jetson, Raspberry Pi에 이르기까지 CPU 및 GPU 장치에서 모델 실행을 지원합니다.
Inference로 모델을 배포하면 모델 가중치가 사용을 위해 하드웨어에 다운로드됩니다. 가중치는 모델을 처음 실행할 때 다운로드되어 로컬에 저장됩니다. 예측은 디바이스의 로컬 컴퓨팅을 사용하여 수행되며 기본적으로 이미지는 Roboflow의 클라우드로 전송되지 않습니다.
Inference로 모델을 배포하는 방법에 대해 자세히 알아보려면 Inference 문서.
임베디드 및 모바일 장치용 가중치 다운로드
참조 지원되는 모델 표 학습, 가중치 업로드 및 가중치 다운로드 호환을 위해.
일부 유료 플랜에는 Roboflow가 아직 기본적으로 지원하지 않는 장치(Android 및 Raspberry Pi AI Kit 등)에서 사용하기 위해 모델 가중치를 다운로드할 수 있는 기능도 포함됩니다.

Roboflow 플랫폼 내에서 모델을 학습한 후 프로젝트의 Versions, Models 또는 Deployments 페이지에 있는 "Download Weights" 버튼을 사용하면 PyTorch .pt파일을 받아 임베디드 장치용으로 변환하여 사용할 수 있습니다.
Roboflow Python 패키지를 사용하여 모델 가중치를 다운로드할 수도 있습니다. 이렇게 하려면 Roboflow API 키, 프로젝트 ID 및 다운로드하려는 모델과 연결된 버전으로 다음 코드를 사용하세요:
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()모델 가중치는 로컬 디렉터리에 weights.pt 파일로 다운로드되어 사용 가능해집니다.
Last updated
Was this helpful?