웹 inference.js
inference.js로 브라우저에서 엣지 실시간 예측을 실행하세요
inferencejs inferencejs는 Roboflow에서 학습된 모델을 사용하여 브라우저를 통해 실시간 추론을 가능하게 하는 JavaScript 패키지입니다.
참조는 inferencejs 참고문서 여기
대부분의 비즈니스 애플리케이션에서는 Hosted API 가 적합합니다. 그러나 많은 소비자용 애플리케이션 및 일부 엔터프라이즈 사용 사례에서는 서버에 호스팅된 모델을 사용하는 것이 실용적이지 않을 수 있습니다(예: 사용자가 대역폭 제약이 있거나 원격 API를 사용하여 달성할 수 있는 것보다 더 낮은 지연 시간을 필요로 하는 경우).
학습 자료
웹캠으로 모델 테스트하기: 다음에서 웹캠 데모로 손 감지 모델을 여기에서 시도해볼 수 있습니다 (이 모델은 공개 EgoHands 데이터셋).
인터랙티브 Replit 환경: 우리는 "시작하기" 프로젝트를 Repl.it에 게시했으며, 함께 제공되는 튜토리얼은 우리의 Repl.it 템플릿을 사용하여 YOLOv8 모델을 배포하는 방법을 보여줍니다.
GitHub 템플릿: Roboflow 홈페이지는 를 사용하여
inferencejsCOCO 추론 위젯을 구동합니다. README에는 리포지토리 템플릿을 사용해 GitHub Pages로 모델을 웹에 배포하는 방법에 대한 지침이 포함되어 있습니다.문서: 만약
inferencejs의 특정 함수들에 대해 더 자세한 정보를 원하시면, 문서 페이지 를 확인하세요 또는 아래 가이드에서inferencejs메서드의 언급을 클릭하면 해당 문서로 이동합니다.
지원되는 모델
inferencejs 현재 다음 모델 아키텍처를 지원합니다:
Roboflow 3.0 (YOLOv8 호환)
YOLOv5
설치
프로젝트에 추론을 추가하려면, npm을 사용해 설치하거나 페이지의 <head> 태그에 스크립트 태그 참조를 추가하세요.
초기화 inferencejs
inferencejs인증
당신은 Roboflow 워크스페이스 설정에서 publishable_key 를 얻을 수 있습니다.

참고: 당신의 publishable_key 는 inferencejs, 가 아닌 당신의 비공개 API 키(이는 비밀로 유지되어야 합니다).
시작하려면 InferenceEngine 을(를) 가져와 새 inference engine 객체를 생성하세요
inferencejs 는 메인 UI 스레드를 차단하지 않고 여러 모델을 사용할 수 있도록 webworkers를 사용합니다. 각 모델은 InferenceEngine 를 통해 로드되며, 이는 필요한 스레드 관리를 추상화해줍니다.
이제 당신의 publishable_key 와 모델 메타데이터(모델 이름 및 버전), 신뢰도 임계값 및 겹침 임계값과 같은 구성 매개변수를 사용하여 roboflow에서 모델을 로드할 수 있습니다.
inferencejs 는 선택한 모델을 실행하는 워커를 시작합니다. 반환된 워커 ID는 우리가 추론에 사용할 InferenceEngine 의 워커 ID에 해당합니다. 모델에서 추론하려면 infer 메서드를 InferenceEngine.
위에서 호출할 수 있습니다. 이미지를 로드하고 우리의 워커에서 추론해봅시다.
이는 다양한 이미지 형식(HTMLImageElement, HTMLVideoElement, ImageBitmap또는 TFJS Tensor).
을(를) 받을 수 있습니다. 이것은 예측 배열을 반환합니다(이 경우 클래스 형태로 RFObjectDetectionPrediction )
설정
만약 inferencejs 가 예측을 필터링하는 방식을 사용자화하고 구성하고자 한다면, 생성 시 워커에 매개변수를 전달할 수 있습니다.
또는 추론 시 구성 옵션을 전달할 수 있습니다
Last updated
Was this helpful?