Download Model Weights
エッジデプロイで使用するためにモデル重みをダウンロードできます。
Roboflow を使用してモデルをトレーニングすると、モデルは Roboflow Inference を介して、またはモデル重みファイルとしてご自身のハードウェアにダウンロードできるようになります。
Roboflow は、そのエコシステム外で使用されるダウンロード済みモデル重みに対するサポートを提供していません。
Inference を使ったモデルのダウンロード
Roboflow Inference はオープンソースでスケーラブルなシステムで、モデルをアプリケーションロジックに直接統合したり、ハードウェア上でマイクロサービスを実行してモデルを動かしたりできます。Inference はスケールを念頭に設計されており、Roboflow はホストされた API の運用に Inference を使用しており、数億件の推論を実行してきました。
Inference はラップトップ、クラウドサーバー、NVIDIA Jetson、Raspberry Pi などの CPU および GPU デバイスでのモデル実行をサポートします。
モデルを Inference でデプロイすると、モデル重みは使用のためにお使いのハードウェアにダウンロードされます。重みはモデルを初めて実行した際にダウンロードされ、ローカルに保存されます。予測はお使いのデバイスのローカル計算で行われ、デフォルトでは画像は Roboflow のクラウドに送信されません。
Inference によるモデルのデプロイについて詳しくは、 Inference ドキュメント.
組み込みおよびモバイルデバイス向けの重みのダウンロード
次の表を参照してください: サポートされているモデル表 で、トレーニング、重みのアップロード、および重みのダウンロードの互換性を確認できます。
一部の有料プランには、Android や Raspberry Pi AI Kit のように Roboflow がまだネイティブにサポートしていないデバイスで使用するためにモデル重みをダウンロードする機能も含まれています。

Roboflow プラットフォーム内では、モデルをトレーニングした後、プロジェクトの Versions、Models、または Deployments ページにある「Download Weights」ボタンを使用するだけで、PyTorch の .ptファイルを受け取り、組み込みデバイスで使用できるように変換できます。
また、Roboflow Python パッケージを使用してモデル重みをダウンロードすることもできます。その場合は、次のコードを使用し、Roboflow API キー、プロジェクト ID、およびダウンロードしたいモデルに関連するバージョンを置き換えてください:
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()モデル重みはダウンロードされ、ローカルディレクトリに weights.pt ファイルとして利用可能になります。
Last updated
Was this helpful?