CLIP 사용
비디오 프레임에서 CLIP을 실행하세요.
CLIP은 다음과 같은 용도로 사용할 수 있는 zero-shot 분류 모델입니다:
이미지 분류;
이미지 클러스터링;
텍스트 프롬프트와 이미지 간의 유사성 비교;
두 이미지 간의 유사성 비교 등.
Roboflow Video Inference API는 비디오의 프레임에 대해 원시 CLIP 임베딩(선택한 모델에 따라 512 또는 768 차원)을 반환하거나, 텍스트 또는 이미지 벡터를 비교하여 각 프레임에 대한 코사인 유사도 점수를 반환할 수 있습니다.
Video Inference API에서 CLIP 사용하기
먼저, Roboflow Python 패키지를 설치하세요:
pip install roboflow
다음으로, 새 Python 파일을 만들고 아래 코드를 추가하세요:
from roboflow import Roboflow, CLIPModel
rf = Roboflow(api_key="API_KEY")
model = CLIPModel()
job_id, signed_url, expire_time = model.predict_video(
"football-video.mp4",
fps=5,
prediction_type="batch-video",
)
results = model.poll_until_video_results(job_id)
print(results)
위에서 다음을 교체하세요:
API_KEY
: 본인의 Roboflow API 키로PROJECT_NAME
: 본인의 Roboflow 프로젝트 ID로.MODEL_ID
: 본인의 Roboflow 모델 ID로.
Last updated
Was this helpful?