Web inference-sdk

inference-sdk を使ってブラウザから Roboflow クラウド上でリアルタイムビデオ推論を実行します。

WebRTCストリーミングとは何ですか?

@roboflow/inference-sdk はWebRTCを使用してブラウザからRoboflowの推論サーバーへリアルタイムのビデオストリーミングを可能にします。これにより次のことができます:

  • ワークフローを実行 - 複雑なマルチステップのコンピュータビジョンパイプラインを実行する

  • すべてのモデルにアクセス - 任意のRoboflowモデルタイプを使用する

  • サーバーサイド処理 - 強力なGPUを活用する

  • 低レイテンシ - WebRTCはほぼリアルタイムの結果を提供します

  • 双方向通信 - ストリーミング中にデータを送受信する

インストール

npm install @roboflow/inference-sdk

クイックスタート

開始するには下のビデオ/サンプルコードを参照してください:

🔐 セキュリティのベストプラクティス

本番アプリケーションのフロントエンドコードにAPIキーを決して公開しないでください。

The connectors.withApiKey() メソッドはデモでは便利ですが、ブラウザ内でAPIキーを公開してしまいます。 本番では常にバックエンドプロキシを使用してください:

安全な本番パターン

フロントエンド:

バックエンド(Express):

主な機能

動的な出力再構成

再起動せずに実行時にストリームおよびデータ出力を変更できます:

完全な動作例

フロントエンドとバックエンドの両方のコードを含む完全な動作例については、以下を参照してください: サンプルアプリケーションリポジトリarrow-up-right. サンプルアプリは以下を示します:

  • APIキーのセキュリティのための適切なバックエンドプロキシ設定

  • カメラストリーミングの統合

  • エラーハンドリングと接続管理

  • 本番対応のパターン

リソース

Last updated

Was this helpful?