inferencejs Reference
Roboflow で構築したコンピュータビジョンアプリケーションを Web/JavaScript 環境にデプロイするためのエッジライブラリ `inferencejs` のリファレンス
インストール
このライブラリは、vite、webpack、parcelなどのバンドラを使用してブラウザ内で使用するように設計されています。バンドラのセットアップが完了している場合、次のコマンドを実行してインストールできます:
npm install inferencejs
Getting Started
まず、 InferenceEngine
を初期化します。これにより、バックグラウンドワーカーが起動し、ユーザーインターフェースをブロックせずにモデルのダウンロードと実行が可能になります。
import { InferenceEngine } from "inferencejs";
const PUBLISHABLE_KEY = "rf_a6cd..."; // Roboflowの自身のpublishable keyに置き換えてください
const inferEngine = new InferenceEngine();
const workerId = await inferEngine.startWorker("[PROJECT URL SLUG]", [VERSION NUMBER], PUBLISHABLE_KEY);
//モデルに対して推論を実行する
const result = await inferEngine.infer(workerId, img);
API
InferenceEngine
new InferenceEngine()
新しいInferenceEngineインスタンスを作成します。
startWorker(modelName: string, modelVersion: number, publishableKey: string): Promise<number>
指定したモデル用の新しいワーカーを開始し、 workerId
. 重要- publishableKey
は必須であり、Roboflowのプロジェクト設定フォルダから取得できます。
infer(workerId: number, img: CVImage | ImageBitmap): Promise<Inference>
指定した workerId
. img
を使って作成できます new CVImage(HTMLImageElement | HTMLVideoElement | ImageBitmap | TFJS.Tensor)
または createImageBitmap
stopWorker(workerId: number): Promise<void>
指定したワーカーを停止します workerId
.
YOLOv8
YOLOv5
YOLOv8
YOLOv5
で推論を実行した結果 InferenceEngine
YOLOv8またはYOLOv5の物体検出モデルでは、次の型の配列が返されます:
type RFObjectDetectionPrediction = {
class?: string;
confidence?: number;
bbox?: {
x: number;
y: number;
width: number;
height: number;
};
color?: string;
};
GazeDetections
GazeDetections
で推論を実行した結果 InferenceEngine
Gazeモデルでの型。次の型の配列です:
type GazeDetections = {
leftEye: { x: number; y: number };
rightEye: { x: number; y: number };
yaw: number;
pitch: number;
}[];
leftEye.x
左目のx位置。入力画像の幅に対する割合(0から1の浮動小数点数)で表されます。
leftEye.y
左目のy位置。入力画像の高さに対する割合(0から1の浮動小数点数)で表されます。
rightEye.x
右目のx位置。入力画像の幅に対する割合(0から1の浮動小数点数)で表されます。
rightEye.y
右目のy位置。入力画像の高さに対する割合(0から1の浮動小数点数)で表されます。
yaw
視線のヨー(yaw)。ラジアンで測定されます。
pitch
視線のピッチ(pitch)。ラジアンで測定されます。
CVImage
CVImage
コンピュータビジョンタスクで使用できる画像を表すクラスです。画像の操作や変換のための様々なメソッドを提供します。
コンストラクタ
この CVImage(image)
クラスコンストラクタは新しいインスタンスを初期化します。次のいずれかの型の画像を1つ受け取ります:
ImageBitmap
:オプションのImageBitmap
画像の表現。HTMLImageElement
:オプションのHTMLImageElement
画像の表現。tf.Tensor
:オプションのtf.Tensor
画像の表現。tf.Tensor4D
:オプションの4次元tf.Tensor
画像の表現。
メソッド
bitmap()
Promiseを返し、 ImageBitmap
画像の表現を返します。画像がすでにビットマップの場合は、キャッシュされたビットマップを返します。
tensor()
画像の tf.Tensor
表現を返します。画像がすでにテンソルの場合は、キャッシュされたテンソルを返します。
tensor4D()
Promiseを返し、4次元の tf.Tensor
画像の表現を返します。画像がすでに4次元テンソルの場合は、キャッシュされた4次元テンソルを返します。
array()
Promiseを返し、画像のJavaScript配列表現を返します。画像がすでにテンソルの場合は、テンソルを配列に変換します。
dims()
画像の寸法を含む配列を返します。画像がビットマップの場合は [width, height]
を返します。画像がテンソルの場合はテンソルのshapeを返します。画像がHTML画像要素の場合は [width, height]
.
dispose()
画像のテンソル表現を破棄してメモリを解放します。
static fromArray(array: tf.TensorLike)
新しい CVImage
インスタンスを指定したテンソルライク配列から作成します。
Last updated
Was this helpful?