Roboflowは、ウェブブラウザでコンピュータビジョンモデルをデプロイするためのJavaScriptパッケージを提供します。
WebRTCを使用してRoboflow Cloud上でビデオストリームの推論を実行し、最小限の遅延でライブ結果を返します。
ライブビデオストリーム向け
Roboflow Workflowsを実行している場合、または以下でサポートされていないモデルの場合 inferencejs
inferencejs
以下を伴うレイテンシーに敏感なユースケースで 計算負荷の高いモデル
inference-sdkの詳細を確認する
Tensorflow.jsを使用して、デバイス上で画像やビデオストリームの推論を実行します。
画像およびライブビデオストリーム向け
以下を伴うレイテンシーに敏感なユースケースで 軽量、 サポートされているモデル
インターネット接続が常に利用できない場合(初回ロード時には接続が必要)
inferencejsの詳細を確認する
処理場所
Roboflow Cloud
ブラウザ(デバイス上)
処理レイテンシー
一貫している(GPUアクセラレーション)
ユーザーのデバイスに依存
モデルサポート
すべてのRoboflowモデルとRoboflow Workflows
サポートされているモデル
デバイスサポート
広範(WebRTCは広くサポートされている)
広範(Tensorflow.jsは広くサポートされている)
インターネット必要性
はい、継続的に必要
はい、初回のモデルロード時のみ必要
ネットワーク遅延
最小限
ネットワーク遅延なし
Last updated 2 months ago
Was this helpful?