Skip to content
This repository has been archived by the owner on Jan 26, 2024. It is now read-only.
/ sit-robot-vision Public archive

将YOLOv5目标检测和DeepSort目标追踪封装为类方便在以后的项目中使用

Notifications You must be signed in to change notification settings

SIT-Robot/sit-robot-vision

Repository files navigation

简介

由于项目需要目标追踪,之前打算是用OpenCV提供的算法进行追踪,但实测下来效果不是很理想,了解到使用YOLOv5与DeepSort相结合的方式可以进行多物体追踪,在跑通作者提供的track示例后,将目标检测和目标追踪分别进行封装,方便以后在项目中使用。

原始track介绍

我们阅读track.py中代码,从中可以看出来代码包含以下部分

  • 参数配置(YOLOv5和DeepSort)
  • 初始化DeepSort(DeepSort)
  • 加载检测model(YOLOv5)
  • 进行推理,获得相关信息(YOLOv5)
  • 进行追踪(DeepSort)
  • 结果显示的处理(YOLOv5和DeepSort)

按照上述流程我们可以对检测和追踪分别进行封装。

参数配置

主方法中关于parser的所有语句都是加载命令行参数【219-241行】,我们如果要应用到项目中很少会用到命令行提供参数,所以我们需要写一个能提供参数的方法或类。

detect方法中刚开始就是对YOLOv5和DeepSort的相关参数进行配置【47-55行】

初始化DeepSort

【54-62行】是获得DeepSort的配置文件,并构造deepsort对象

加载检测model

【77-104行】加载相关的model

进行推理

对以及打包的原始图像进行处理【91-95行】(对图片信息打包)【113-118行】(对图片进行浮点数、归一化处理),然后进行推理,之后进行非极大抑制,对所得的结果进行处理【129-150行】

进行追踪

调用update方法进行追踪。【154】

注意! 追踪更新的返回 结果都是tensor

最终展示结果处理

对获得的物体的ID、类别名称(cls)、置信度(confidence)、boundingboxes(xyxy)进行最终处理【157-167】

对于保存视频、文件等相关代码本文未讲述到。

如何运行

  1. 克隆此项目

    git clone https://github.com/jimyag/YOLOv5-DeepSort.git
  2. 安装依赖

    在终端执行以下语句安装依赖包

    pip install -r requirements.txt

    requirements默认安装torch-cpu,如需安装pytorch-gup请移步至pytorch下载选择相应版本进行下载

  3. 下载权重文件

    1. 下载DeepSort权重

      点击下载,并将下载好的权重文件放在deep_sort_pytorch/deep_sort/deep/checkpoint下。

      如果要使用其他权重,需要修改deep_sort_pytorch/configs/deep_sort.yamlREID_CKPT: "deep_sort_pytorch/deep_sort/deep/checkpoint/ckpt.t7"的配置文件

    2. 下载YOLOv5权重

      点击下载,并将下载好的权重文件放在yolov5/weights,并修改my_detect.pyself.yolo_weights = 'yolov5/weights/basketball_robot.pt'

  4. 更改源文件

    my_detect.py中修改self.source = 'basketball.mp4'

  5. 运行test.py

About

将YOLOv5目标检测和DeepSort目标追踪封装为类方便在以后的项目中使用

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published