모델 가중치 다운로드
엣지 배포에 사용하기 위해 모델 가중치를 다운로드할 수 있습니다.
Roboflow로 모델을 학습하면 Roboflow Inference 또는 모델 가중치 파일을 통해 자신의 하드웨어에서 모델을 다운로드할 수 있습니다.
Roboflow는 자사 생태계 밖에서 사용되는 다운로드된 모델 가중치에 대한 지원을 제공하지 않습니다.
Inference로 모델 다운로드하기
Roboflow Inference 는 오픈 소스이자 확장 가능한 시스템으로, 모델을 애플리케이션 로직에 직접 통합하거나 하드웨어에서 마이크로서비스로 실행해 모델을 구동하는 데 사용할 수 있습니다. Inference는 확장성을 염두에 두고 설계되었으며, Roboflow는 수억 건의 추론을 처리한 호스팅 API를 운영하기 위해 Inference를 사용합니다.
Inference는 노트북부터 클라우드 서버, NVIDIA Jetson, Raspberry Pi에 이르기까지 CPU 및 GPU 장치에서 모델 실행을 지원합니다.
Inference로 모델을 배포하면 모델 가중치가 사용을 위해 하드웨어에 다운로드됩니다. 가중치는 모델을 처음 실행할 때 다운로드되어 로컬에 저장됩니다. 예측은 장치의 로컬 연산으로 수행되며 기본적으로 이미지는 Roboflow의 클라우드로 전송되지 않습니다.
Inference로 모델을 배포하는 방법에 대해 자세히 알아보려면 Inference 문서.
임베디드 및 모바일 장치용 가중치 다운로드
다음을 확인하세요: 지원되는 모델 표 에서 학습, 가중치 업로드 및 가중치 다운로드 호환성을 확인하세요.
일부 유료 요금제에는 Android나 Raspberry Pi AI Kit과 같이 Roboflow가 아직 기본적으로 지원하지 않는 장치에서 사용할 모델 가중치를 다운로드할 수 있는 기능이 포함되어 있기도 합니다.

Roboflow 플랫폼 내부에서는 모델을 학습한 후 프로젝트의 Versions, Models 또는 Deployments 페이지에 있는 "Download Weights" 버튼을 사용하면 PyTorch .pt파일을 받아 임베디드 장치에서 사용하도록 변환할 수 있습니다.
또한 Roboflow Python 패키지를 사용하여 모델 가중치를 다운로드할 수 있습니다. 그렇게 하려면 아래 코드를 사용하고 Roboflow API 키, 프로젝트 ID 및 다운로드하려는 모델과 연결된 버전을 바꿔 넣으세요:
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()모델 가중치는 로컬 디렉터리에 weights.pt 파일로 다운로드되어 사용 가능하게 됩니다.
Last updated
Was this helpful?