Build a Workflow
ワークフローはブロックで構成されており、各ブロックはモデル推論の実行、ロジック処理、外部サービスとのやり取りなど、特定のタスクを実行します。
利用可能なブロックの一覧を詳しく見るには、当社の ブロックドキュメント.
概要
このガイドでは、物体検出モデルを実行し、予測をカウントし、モデル結果を視覚化する4つのブロックのワークフロー作成について説明します。こちらが 最終的なワークフローテンプレート です。手順に従ってください。

ブロック接続
作成を始める前に、ブロック接続の仕組みを理解することが重要です。
ある場所にブロックを追加するには、そのブロックが前のブロックを入力として使用している必要があります。たとえば、上のワークフローでは、 プロパティ定義 ブロックは オブジェクト検出 ブロックの後に配置されています。これはプロパティ定義ブロックがモデルブロックを入力として使用しているためです。 バウンディングボックス視覚化 ブロックは右側にあり、これは プロパティ定義 ブロックの出力を使用していないためですが、モデル出力を参照しています。

上の例のワークフローでは、各ブランチがランタイムで並列に実行され、他のブランチブロックを入力として必要としないため、4つの異なる経路があります。
ワークフローの作成
物体検出モデル
まず、 物体検出モデル ブロックを追加します。公開された事前学習モデル(例:YOLOv8n が COCOで学習されたもの)や、ワークスペース内のファインチューンしたモデルを選択できます。ここでは事前学習済みの yolov8n モデルを使用して人と車両を検出します。

物体検出ブロックには、モデルが推論する対象を決定する必須の image パラメータがあります。いくつかのオプションパラメータがあり、主要なものは以下で詳しく説明します:
クラスフィルター: モデルが返すクラスのリスト。注:モデルは常に学習されているクラスのみを返すため、不要なクラスを除外するためにフィルタリングできます。
信頼度(Confidence): その信頼度未満のオブジェクトは返されません。
IoU閾値: 閾値が高いほど重なりの多い予測を返します。0.9 は90%以下の重なりのオブジェクトを返すことを意味し、0.1 は10%より多く重なっているオブジェクトを含めないことを意味します。
最大検出数(Max Detections): モデルが返すオブジェクトの最大数
クラス非依存NMS(Class Agnostic NMS): 重なりフィルタリングが同じクラス同士のみを比較して除外するか、すべてのクラスを比較して除外するか
プロパティ定義
プロパティ定義ブロックでは、画像サイズ、予測されたクラス、検出されたオブジェクト数など、データから関連情報を抽出できます。この例では、物体検出モデルが見つけたオブジェクトの数をカウントします。
の データ プロパティには、モデル予測を参照します。の 操作では、Count Items を選択します。この設定により物体検出モデルが行った予測の数が返されます。
バウンディングボックス視覚化
バウンディングボックス視覚化ブロックを追加してモデル結果を視覚化します。の image パラメータには入力画像を選択します。予測にはモデル結果を選択します。オプションの設定プロパティを使用して、バウンディングボックスの色やサイズを変更することもできます。

ラベル視覚化
バウンディングボックスを描画することに加えて、予測のクラス名も表示したいでしょう。そのために、バウンディングボックス視覚化の後に ラベル視覚化 ブロックを追加します。同じ画像にバウンディングボックスとラベルの両方を描画するには、参照入力画像を入力画像ではなく bounding_box_visualization image に設定する必要があります。これによりラベルがバウンディングボックスの上に描画されます。

オプションの テキスト パラメータを変更して、表示テキストをクラス名、信頼度、またはクラス名と信頼度の組み合わせに変更できます。
変更を保存
ワークフローの作成が完了したら「Save Workflow」をクリックしてください。ワークフローをデプロイしている場合、保存したワークフローはそのワークフローがデプロイされているすべてのデバイスで実行され始めます。
ワークフローが完成したので、次はテストする時です。
Last updated
Was this helpful?