# Self-Hosted Deployment

Roboflow Inference（当社のエッジ推論サーバー）を使用すると、モデルやWorkflowsをお使いのハードウェア上にデプロイできます。これは、モデルをエッジ上でリアルタイムに実行する必要がある場合に最適です。

ハードウェアにモデルをセットアップするにはインターネット接続が必要です。デバイス管理下にあるデバイスにモデルをデプロイする場合は、継続的なインターネット接続も必要になります。 [Device Manager](https://docs.roboflow.com/roboflow/roboflow-jp/deploy/device-manager).

次を参照してください： [Roboflow Inference installation guide](https://inference.roboflow.com/install/) でInferenceをコンピュータにセットアップする方法を学んでください。その後、次のガイドを参照してください： [How to Deploy a Workflow](https://docs.roboflow.com/roboflow/roboflow-jp/workflows/deploy-a-workflow) をエッジデバイスにデプロイする方法。
