Download Model Weights
エッジデプロイで使用するためにモデル重みをダウンロードできます。
Roboflowでモデルをトレーニングすると、Roboflow Inferenceまたはモデルウェイトファイルを通じて、ご自身のハードウェアでモデルをダウンロードできます。
Roboflowは、そのエコシステム外で使用されるダウンロード済みモデルウェイトのサポートは提供していません。
Inferenceによるモデルのダウンロード
Roboflow Inference はオープンソースでスケーラブルなシステムであり、モデルをアプリケーションロジックに直接統合したり、ハードウェア上でマイクロサービスとして実行したりできます。Inferenceはスケールのために設計されており、RoboflowはInferenceを使って数億回の推論を実行しているホストAPIを提供しています。
Inferenceは、ノートパソコンからクラウドサーバー、NVIDIA Jetson、Raspberry Piまで、CPUおよびGPUデバイス上でのモデル実行をサポートしています。
Inferenceでモデルをデプロイすると、モデルウェイトがハードウェアにダウンロードされて使用されます。初回実行時にウェイトがダウンロードされ、ローカルに保存されます。予測はデバイスのローカル計算資源で行われ、画像はデフォルトでRoboflowのクラウドに送信されません。
Inferenceでのモデルデプロイについて詳しくは、 Inferenceドキュメント.
組み込みおよびモバイルデバイス向けのウェイトダウンロード
詳細は 対応モデル表 トレーニング、重みのアップロード、および重みのダウンロードの互換性を活用できます。
一部の有料プランでは、Roboflowがまだネイティブサポートしていないデバイス(AndroidやRaspberry Pi AI Kitなど)で使用するためのモデルウェイトのダウンロードも可能です。

Roboflow Platform内でモデルをトレーニングした後、ProjectのVersions、Models、またはDeploymentsページにある「Download Weights」ボタンを使用すると、PyTorchの .pt
ファイルが取得でき、組み込みデバイス用に変換できます。
Roboflow Pythonパッケージを使ってモデルウェイトをダウンロードすることもできます。その場合、以下のコードを使用し、Roboflow APIキー、プロジェクトID、およびダウンロードしたいモデルに関連するバージョンを置き換えてください。
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()
モデルウェイトはダウンロードされ、ローカルディレクトリ内に weights.pt
ファイルとして保存されます。
Last updated
Was this helpful?