Raspberry Pi(レガシー)

Roboflow Train モデルを Raspberry Pi にデプロイします。

circle-exclamation
circle-info

動画で学ぶのが好みですか?こちらをご覧ください: Raspberry Pi video guidearrow-up-right.

Raspberry Piのデプロイメントオプションは、信頼できるインターネット接続がない状況でモデルを実行する必要がある場合に、デバイス上で直接モデルを実行します。

サポートされるタスク

ホストされたAPIで次のタスクタイプがサポートされています:

タスクタイプ
Supported by Hosted API

オブジェクト検出

インスタンスセグメンテーション

セマンティックセグメンテーション

モデルをRaspberry Piにデプロイする

Raspberry Pi 4(またはRaspberry Pi 400)が必要です Ubuntuの64ビット版を実行していることarrow-up-right互換性のあるシステムを実行していることを確認するには、次を入力します: arch Raspberry Piのコマンドラインに入力し、出力が次のとおりであることを確認してください: aarch64.

次に、Raspberry Piでターミナルを開き、Dockerをインストールします 便利スクリプトを使用してarrow-up-right:

 curl -fsSL https://get.docker.com -o get-docker.sh
 sudo sh get-docker.sh

ステップ 1: Inference Server をインストールする

推論APIはRaspberry Pi向けに最適化および設定されたDockerコンテナとして提供されています。次のコマンドでInference Serverをインストールして実行できます:

これで、Piを Hosted Inference API の代替としてそのまま使用できます(複数のプログラミング言語でのコード例はそのドキュメントを参照してください)。

ステップ 2: Roboflow pip パッケージをインストールする

次に、次をインストールします: the Roboflow python packagepip install roboflow.

ステップ 3: 推論を実行する

モデルで推論を実行するには、以下のコードを実行し、APIキー、workspaceおよびprojectのID、プロジェクトバージョン、画像名を適宜置き換えてください。次を確認する方法を学べます: how to find your API key および、次を確認する方法 workspace and project ID.

以下は、当社のモデルで推論を行った際の例の結果です:

Inference Result: One Image (Visual Studio Code terminal)
推論結果:1枚の画像(Visual Studio Code ターミナル)

クライアント—サーバーの文脈で実行し、ネットワーク上の別のマシンからPiへ画像を送って推論することもできます。次を置き換えてください: localhost の中の local= パラメータをPiのローカルIPアドレスに置き換えます。

パフォーマンスの期待値

Raspberry Pi 400では約1.3フレーム/秒を観測しました。これらの結果はクライアント—サーバーの文脈で取得されたもので(したがって若干のネットワーク遅延が含まれます)、416x416モデルでの測定です。

で投稿することもできます。

Last updated

Was this helpful?