# Self-Hosted Deployment

Roboflow Inference（当社のエッジ推論サーバー）を使用して、モデルや Workflows をお使いのハードウェア上にデプロイできます。これは、モデルをエッジでリアルタイムに動作させる必要がある場合に最適です。

お使いのハードウェアにモデルをセットアップするには、インターネット接続が必要です。また、以下によって管理されているデバイス上にモデルをデプロイする場合は、常時インターネット接続も必要になります [Device Manager](https://docs.roboflow.com/roboflow/roboflow-jp/deploy/device-manager).

を参照してください [Roboflow Inference installation guide](https://inference.roboflow.com/install/) を参照して、コンピューターで Inference をセットアップする方法をご確認ください。その後、以下のガイドもご覧ください [How to Deploy a Workflow](https://docs.roboflow.com/roboflow/roboflow-jp/workflows/deploy-a-workflow) エッジデバイス上で。
