Web inference.js
inference.js を使ってブラウザ上でエッジのリアルタイム予測を実行します。
inferencejs inferencejsは、Roboflowでトレーニングされたモデルを使用してブラウザ経由でリアルタイム推論を可能にするJavaScriptパッケージです。
参照は inferencejs reference こちら
ほとんどのビジネス用途では、 Hosted API で十分です。しかし、多くのコンシューマー向けアプリケーションや一部のエンタープライズ用途では、サーバーでホストされたモデルは実用的でない場合があります(例:ユーザーが帯域幅制約を抱えている、またはリモートAPIを使用して達成できるより低いレイテンシーが必要な場合など)。
学習リソース
Webカメラでモデルを試す:次のWebカメラデモで ハンド検出モデルを試すことができます (これは公開されている EgoHands dataset).
対話型 Replit 環境:私たちは「Getting Started」プロジェクトをRepl.itに公開しており、チュートリアルでは 当社のRepl.itテンプレートを使用してYOLOv8モデルをデプロイする方法を示しています.
GitHub テンプレート: Roboflowのホームページは を使用して
inferencejsCOCO推論ウィジェットを動かしています。READMEには、リポジトリテンプレートを使用してGitHub Pagesでモデルをウェブにデプロイする方法の手順が記載されています。ドキュメント:もし
inferencejsの特定の関数に関する詳細を知りたい場合は、 ドキュメントページ をご覧いただくか、以下のガイド内でinferencejsメソッドのいずれかにある記述をクリックすると、該当するドキュメントに移動します。
サポートされているモデル
inferencejs は現在これらのモデルアーキテクチャをサポートしています:
Roboflow 3.0(YOLOv8互換)
YOLOv5
インストール
プロジェクトに inferenceを追加するには、単にnpmでインストールするか、ページの にスクリプトタグ参照を追加してください。 <head> タグ。
初期化 inferencejs
inferencejs認証
あなたの publishable_key はRoboflowのワークスペース設定から取得できます。

注意: あなたの publishable_key は inferencejs, ではなく あなたの private APIキー(これは秘密のままにしておくべきです)。
まずは InferenceEngine をインポートして、新しいinference engineオブジェクトを作成します
inferencejs はwebworkerを使用するため、複数のモデルをメインのUIスレッドをブロックせずに使用できます。各モデルは InferenceEngine を通じてロードされ、必要なスレッド管理を抽象化します。
これであなたの publishable_key とモデルのメタデータ(モデル名とバージョン)、および信頼度閾値や重なり閾値などの設定パラメータを使ってroboflowからモデルをロードできます。
inferencejs は選択したモデルを実行するワーカーを起動します。返されるワーカーIDは、推論で使用する InferenceEngine のワーカーIDに対応します。モデルで推論するには、 infer メソッドを InferenceEngine.
で呼び出します。さあ、画像をロードしてワーカーで推論してみましょう。
これはさまざまな画像フォーマット(HTMLImageElement, HTMLVideoElement, ImageBitmap、または TFJS Tensor).
を受け取ることができます。 これは予測の配列を返します(このクラスでは )
RFObjectDetectionPrediction
設定 inferencejs がどのように予測をフィルタリングするかをカスタマイズしたい場合は、ワーカー作成時にパラメータを渡すことができます。
または推論時に設定オプションを渡すこともできます
Last updated
Was this helpful?