5 月 23 日,清华大学发布了YOLOv10(You Only Look Once v10),与 YOLOv9 相比,YOLOv10 有了显著改进,在性能保持不变的情况下,延迟减少了 46%,参数减少了 25%。
2. YOLOv10 视觉物体检测:概述
2.1 什么是 YOLO?
YOLO(You Only Look Once)是一种基于深度神经网络的物体检测算法,旨在实时识别和定位图像或视频中的多个物体。YOLO 以其快速的处理速度和高精度而闻名,非常适合需要快速检测物体的应用,例如实时视频分析、自动驾驶和智能医疗。
在 YOLO 之前,主流算法是 R-CNN,这是一种“两阶段”方法:首先,生成锚框,然后预测这些框中的物体。YOLO 通过允许“一阶段”直接、端到端输出物体及其位置,彻底改变了这一现状。
· 单阶段算法:这些模型执行直接回归任务以输出对象概率及其坐标。示例包括 SSD、YOLO 和 MTCNN。
· 两阶段算法: 首先生成多个锚框,然后使用卷积神经网络输出这些框内物体的概率和坐标。例如 R-CNN 系列。
2.2 YOLO的网络结构
YOLOv10是YOLOv8的增强,我们先简单看一下YOLOv8的网络结构:
3.YOLOv10 视觉物体检测:训练和推理
3.1 安装YOLOv10
3.1.1 克隆存储库
首先从 GitHub 克隆 YOLOv10 存储库:
git clone https://github.com/THU-MIG/yolov10.git
3.1.2 创建 Conda 环境
接下来,专门为 YOLOv10 创建一个新的 Conda 环境并激活它:
conda create -n yolov10 python=3.10
conda activate yolov10
3.1.3 下载并编译依赖包
为了安装所需的依赖项,建议使用腾讯pip镜像以更快地下载:
pip install -r requirements.txt -i https://mirrors.cloud.tencent.com/pypi/simple
pip install -e . -i https://mirrors.cloud.tencent.com/pypi/simple
3.2 使用 YOLOv10 进行模型推理
3.2.1 模型下载
要开始使用 YOLOv10,我们可以使用以下链接下载预先训练的模型:
· YOLOv10-N
· YOLOv10-S
· YOLOv10-M
· YOLOv10-B
· YOLOv10-L
· YOLOv10-X
3.2.2 WebUI 推断
要使用 WebUI 执行推理,请按照以下步骤操作:
导航到 YOLOv10 项目的根目录。运行以下命令启动该应用程序:
python app.py
一旦服务器成功启动,我们将看到一条消息,表明应用程序正在运行并可供使用。
3.2.3 命令行推断
对于命令行推理,我们可以在 Conda 环境中使用 Yolo 命令。设置和执行方法如下:
激活 YOLOv10 Conda 环境:确保我们已激活之前为 YOLOv10 创建的环境。
壳
1
conda activate yolov10
使用命令行运行推理:使用yolo predict命令进行预测。我们需要指定模型、设备和源图像路径,如下所示:
壳
1
yolo predict model=yolov10n.pt device=2 source=/aigc_dev/yolov10/ultralytics/assets
· model:指定下载的模型文件的路径(例如,yolov10n.pt)。
· device:指定使用哪个 GPU(例如,device=2 表示 GPU #2)。
· source:指定要检测对象的图像的路径。
默认路径和结果:
· 默认情况下,需要检测的图像应该放在yolov10/ultralytics/assets目录中。
· 检测后,结果将保存在名为yolov10/runs/detect/predictxx的目录中,其中xx代表每次运行的唯一标识符。
CoCo 数据集上的基准测试。
3.3 训练YOLOv10模型
除了推理之外,YOLOv10 还支持在自定义数据集上进行训练。以下是使用命令行训练模型的方法:
要使用 YOLOv10 开始训练,请使用以下命令:
yolo detect train data=coco.yaml model=yolov10s.yaml epochs=100 batch=128 imgsz=640 device=2
以下是命令选项的细分:
· detect train:这指定我们想要执行对象检测的训练。
· data=coco.yaml:指定数据集配置文件,默认数据集(COCO)下载并存放在此../datasets/coco目录下。
· model=yolov10s.yaml:指定要训练的模型的配置文件。
· epochs=100:设置训练迭代次数(epoch)。
· batch=128:指定训练的批次大小,即每个训练步骤处理的图像数量。
· imgsz=640:表示训练期间所有输入图像将调整到的图像大小。
· device=2:指定使用哪个 GPU 进行训练(例如,device=2GPU #2)。
示例解释
假设你已经正确设置了 YOLOv10 环境和数据集,运行上述命令将在指定的GPU上启动训练过程。该模型将以 128 的批大小进行 100 个 epoch 的训练,输入图像的大小将调整为 640x640 像素。
训练 YOLOv10 的步骤
准备数据集
· 确保我们的数据集在 coco.yaml 文件(或我们自己的自定义数据集配置文件)中格式正确且描述正确。
· 数据集配置文件包括训练和验证数据的路径以及类别的数量。
配置模型
· 模型配置文件(例如,yolov10s.yaml)包含我们正在训练的 YOLOv10 变体特定设置,包括架构和初始权重。
运行训练命令
· 使用上面提供的命令开始训练过程。根据我们的硬件能力和训练要求调整 epochs、batch、imgsz 和 device 等参数。
监测和评估
· 在训练期间,如果可用,请通过日志或可视化工具监控进度。
· 训练后,在验证集上评估模型性能以确保其符合我们的期望。
使用Yolo10进行实时在线物体检测的Demo案例:
Python
1
import cv2
from ultralytics import YOLOv10
model = YOLOv10("yolov10s.pt")
cap = cv2.VideoCapture(0)
while True:
ret, frame = cap.read()
if not ret:
break
results = model.predict(frame)
for result in results:
boxes = result.boxes
for box in boxes:
x1,y1,x2,y2 = map(int, box.xyxy[0])
cls = int(box.cls[0])
conf = float(box.conf[0])
cv2.rectangle(frame, (x1, y1), (x2, y2), (255, 0, 0), 2)
cv2.putText(frame, f'{model.names[cls]} {conf:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 2)
cv2.imshow('YOLOv10', frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
cv2.destroyAllWindows()
我们可以构建工作站来运行/训练 AI 系统。为了省钱,我们还可以在网上找到 GPU 等廉价组件。