モデル重みのダウンロード
エッジデプロイ用にモデルの重みをダウンロードできます。
Roboflowでモデルをトレーニングすると、Roboflow Inferenceまたはモデル重みファイルを通じて、ご自身のハードウェアにモデルをダウンロードできます。
Roboflowは、そのエコシステム外で使用されるダウンロード済みモデル重みに対するサポートを提供していません。
Inferenceによるモデルのダウンロード
Roboflow Inference はオープンソースでスケーラブルなシステムであり、モデルをアプリケーションロジックに直接統合したり、ハードウェア上でマイクロサービスとして実行したりできます。Inferenceはスケールのために設計されており、RoboflowはInferenceを使って数億回の推論を実行するホストAPIを提供しています。
Inferenceは、ノートパソコンからクラウドサーバー、NVIDIA Jetson、Raspberry Piまで、CPUおよびGPUデバイスでのモデル実行をサポートしています。
Inferenceでモデルをデプロイすると、モデルの重みがハードウェアにダウンロードされて利用可能になります。初回実行時に重みがダウンロードされ、ローカルに保存されます。予測はデバイスのローカル計算で行われ、画像はデフォルトでRoboflowのクラウドに送信されません。
Inferenceでのモデルデプロイについて詳しくは、 Inferenceドキュメント.
組み込みおよびモバイルデバイス向け重みのダウンロード
詳細は 対応モデル表 トレーニング、重みのアップロード、および重みのダウンロードの互換性についてご利用いただけます。
一部の有料プランでは、Roboflowがまだネイティブにサポートしていないデバイス(AndroidやRaspberry Pi AI Kitなど)で使用するためのモデル重みのダウンロードも可能です。

Roboflowプラットフォーム内で、モデルをトレーニングした後、プロジェクトのバージョン、モデル、またはデプロイメントページで「重みをダウンロード」ボタンを使用すると、PyTorchの .pt
ファイルを受け取ることができ、組み込みデバイス用に変換できます。
また、Roboflow Pythonパッケージを使ってモデル重みをダウンロードすることもできます。その場合、以下のコードを使用し、ご自身のRoboflow APIキー、プロジェクトID、およびダウンロードしたいモデルに関連付けられたバージョンを置き換えてください。
import roboflow
rf = roboflow.Roboflow(api_key="YOUR KEY HERE")
model = rf.workspace().project("PROJECT_ID").version("1").model
prediction = model.download()
モデルの重みはダウンロードされ、ローカルディレクトリ内に weights.pt
ファイルとして保存されます。
Last updated
Was this helpful?