モデル重みをダウンロードする

Roboflow のモデルを自社ハードウェアで実行するには、Roboflow Inference(推奨の自動方法)を使用するか、特定のエッジケース向けにモデル重みを手動でダウンロードできます。

自動ダウンロード(Roboflow Inference経由、推奨)

Roboflow Inferencearrow-up-right これはローカルのCPUおよびGPUデバイスでモデルを実行するためのオープンソースでスケーラブルなシステムです。

これは開始するための最も高速かつ信頼できる方法です。Inferenceを使用すると、ファイルやバージョン管理を自分で扱う必要はありません。Roboflow Inferenceはコードを初めて実行した際にモデル重みを自動的に取得してキャッシュします。

  • 仕組み:最初の推論リクエスト時に、重みがRoboflowのサーバーからダウンロードされローカルに保存されます。以後の予測はこのローカルキャッシュを使用し、画像はクラウドに送信されません。

  • デプロイオプション:

モデル重みの手動ダウンロード

場合によっては、生の重みファイル(例:PyTorchの .pt ファイル)が必要になることがあります。これはカスタムのAndroid実装など、Roboflowがまだネイティブにサポートしていないデバイスで実行するためです。

を参照してください。 Supported Models テーブル で重みダウンロードの互換性を確認できます。

circle-exclamation

方法A:Roboflowプラットフォーム

プロジェクト内のモデルバージョンに移動します。プランで許可されている場合、"Download Weights"ボタンをクリックすると重みをダウンロードできます。これにより、組み込みデバイスで使用するために変換できるファイルが提供されます。

Download Weights button

方法B:Python SDK

RoboflowのPythonパッケージを使用して重みを直接ディレクトリにダウンロードすることもできます:

注意:Roboflow Inferenceエコシステム外で使用されるモデル重みに関して、Roboflowは技術サポートを提供しません。最良の体験のために、セクション1で示したInferenceの経路を使用することを推奨します。

Last updated

Was this helpful?