Web inference.js

inference.js を使ってブラウザ上でエッジのリアルタイム予測を実行します。

inferencejs inferencejsは、Roboflowでトレーニングされたモデルを使用してブラウザ経由でリアルタイム推論を可能にするJavaScriptパッケージです。

circle-info

参照は inferencejs reference こちら

ほとんどのビジネス用途では、 Hosted API で十分です。しかし、多くのコンシューマー向けアプリケーションや一部のエンタープライズ用途では、サーバーでホストされたモデルは実用的でない場合があります(例:ユーザーが帯域幅制約を抱えている、またはリモートAPIを使用して達成できるより低いレイテンシーが必要な場合など)。

学習リソース

サポートされているモデル

inferencejs は現在これらのモデルアーキテクチャをサポートしています:

インストール

プロジェクトに inferenceを追加するには、単にnpmでインストールするか、ページの にスクリプトタグ参照を追加してください。 <head> タグ。

初期化 inferencejs

認証

あなたの publishable_key はRoboflowのワークスペース設定から取得できます。

circle-exclamation

まずは InferenceEngine をインポートして、新しいinference engineオブジェクトを作成します

circle-info

inferencejs はwebworkerを使用するため、複数のモデルをメインのUIスレッドをブロックせずに使用できます。各モデルは InferenceEngine を通じてロードされ、必要なスレッド管理を抽象化します。

これであなたの publishable_key とモデルのメタデータ(モデル名とバージョン)、および信頼度閾値や重なり閾値などの設定パラメータを使ってroboflowからモデルをロードできます。

inferencejs は選択したモデルを実行するワーカーを起動します。返されるワーカーIDは、推論で使用する InferenceEngine のワーカーIDに対応します。モデルで推論するには、 infer メソッドを InferenceEngine.

で呼び出します。さあ、画像をロードしてワーカーで推論してみましょう。

circle-info

これはさまざまな画像フォーマット(HTMLImageElement, HTMLVideoElement, ImageBitmap、または TFJS Tensor).

を受け取ることができます。 これは予測の配列を返します(このクラスでは )

RFObjectDetectionPrediction

設定 inferencejs がどのように予測をフィルタリングするかをカスタマイズしたい場合は、ワーカー作成時にパラメータを渡すことができます。

または推論時に設定オプションを渡すこともできます

Last updated

Was this helpful?