引言
在计算机视觉领域,目标检测与距离估算的结合是自动驾驶、机器人导航等场景的关键技术。本文将以YOLOv8模型为核心,结合单目相机的几何模型,实现对视频中目标的实时检测与距离估算。代码参考自单目测距原理博客,并通过实践验证其可行性。
环境准备
依赖库安装
pip install ultralytics opencv-python numpy
模型准备
- YOLOv11模型:下载预训练模型(如
yolo11l.pt
),可通过YOLO官方文档获取。 - 视频文件:准备测试视频
1.mp4
,或使用摄像头实时采集。
核心代码解析
参数配置
f = 700 # 相机焦距(像素单位)
angle_a = 0 # 相机光轴与水平线的夹角(弧度)
camera_h = 1.7 # 相机离地高度(米)
参数说明:
- 焦距(f):决定图像缩放比例,需通过相机标定获取。
- 相机高度(camera_h):直接影响测距精度,需精确测量。
- 夹角(angle_a):若相机安装存在俯仰角,需校准此值。
YOLOv11目标检测
model = YOLO("F:/mot/models/YOLO11/yolo11l.pt") # 加载模型
results = model.track(frame, persist=True) # 实时检测与追踪
model.track()
启用追踪功能,支持多目标持续跟踪。results
包含检测框坐标、置信度、类别ID等信息。
距离估算核心逻辑
w, h = np.abs(x1-x2), np.abs(y1-y2) # 计算目标框高度
angle_b = np.arctan(h / f) # 计算像素高度对应的角度
angle_c = angle_b + angle_a # 总夹角
# 两种距离公式对比
dis1 = camera_h / np.tan(angle_c) # 简化公式
dis2 = (camera_h / np.sin(angle_c)) * np.cos(angle_b) # 参考公式
公式对比:
- 简化公式(dis1):基于相似三角形原理推导,计算更高效。
- 参考公式(dis2):考虑相机姿态的几何修正,理论上更精确。
输出示例
id:5 class: car 0.92 dis1: 12.345m dis2: 12.340m
- ID:目标追踪ID(若未启用追踪则为-1)
- 类别:如car、person等
- 距离:两种公式计算结果对比
实验分析与优化建议
误差来源探讨
- 相机标定误差:焦距(f)和安装高度(camera_h)的微小偏差会显著影响结果。
- 目标姿态假设:公式假设目标位于地平面,若目标悬浮(如无人机)会导致错误。
- 像素高度测量:目标框高度(h)受检测框精度影响,建议使用目标底部特征点替代。
改进建议
- 相机标定:使用棋盘格标定工具(如OpenCV的
calibrateCamera
)获取精准内参。 - 动态角度补偿:通过IMU传感器获取实时相机姿态(angle_a),提升动态场景精度。
- 深度学习优化:结合目标尺寸先验知识(如车辆平均高度)校正测距结果。
完整代码
import cv2
from ultralytics import YOLO
import numpy as np
# 相机参数配置
f = 700
angle_a = 0
camera_h = 1.7
# 加载YOLO模型
model = YOLO("F:/mot/models/YOLO11/yolo11l.pt")
# 视频捕获
video_path = "1.mp4"
cap = cv2.VideoCapture(video_path)
while cap.isOpened():
ret, frame = cap.read()
if not ret:
break
results = model.track(frame, persist=True)
for result in results:
boxes = result.boxes.xyxy.cpu().numpy()
confidences = result.boxes.conf.cpu().numpy()
class_ids = result.boxes.cls.cpu().numpy()
for box, conf, cls_id, d in zip(boxes, confidences, class_ids, result.boxes):
idx = int(d.id.item()) if d.is_track else -1
x1, y1, x2, y2 = map(int, box)
# 距离计算
h = np.abs(y1 - y2)
angle_b = np.arctan(h / f)
angle_c = angle_b + angle_a
dis1 = camera_h / np.tan(angle_c)
dis2 = (camera_h / np.sin(angle_c)) * np.cos(angle_b)
# 绘制标注
label = f"id:{idx} {model.names[int(cls_id)]} {conf:.2f} dis1:{dis1:.2f}m dis2:{dis2:.2f}m"
cv2.rectangle(frame, (x1, y1), (x2, y2), (255, 0, 0), 2)
cv2.putText(frame, label, (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 0, 0), 2)
cv2.imshow('YOLO Tracking', frame)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
cap.release()
cv2.destroyAllWindows()
结语
本文通过YOLOv11实现了目标检测与单目测距的融合应用,验证了基于几何模型的低成本测距方案可行性。实际部署中需注意:
- 使用专业标定工具提升参数精度;
- 针对特定场景(如车辆测距)优化目标高度先验;
- 结合滤波算法(如卡尔曼滤波)平滑距离输出。
后续可探索多传感器融合(如激光雷达+视觉)进一步提升精度,或尝试单目深度估计网络(如MiDaS)替代传统几何方法。