Self-Hosted Deployment
自社ハードウェア上で Roboflow のモデルと Workflows を実行できます。
Roboflow Inference(当社のエッジ推論サーバー)を使用すると、独自のハードウェア上でモデルやWorkflowsをデプロイできます。これはモデルをエッジでリアルタイムに動作させる必要がある場合に最適です。
ハードウェアにモデルをセットアップするにはインターネット接続が必要です。さらに、Device Managerで管理されているデバイスにモデルをデプロイする場合は、恒久的なインターネット接続が必要になります。 Device Manager.
を参照してください Roboflow Inference インストールガイド で、コンピュータにInferenceをセットアップする方法を学んでください。その後、こちらのガイドを参照してください: How to Deploy a Workflow をエッジデバイスにデプロイする方法。
Last updated
Was this helpful?