YOLOv8目标检测 om 模型推理
本篇博客将手把手教你如何将 YOLOv8 目标检测模型部署到华为昇腾 310B4 开发板上进行高效推理(其他昇腾开发版也可参考此流程)。
整个流程包括:
- 模型格式转换(ONNX → OM)
- 昇腾推理环境配置
- 推理代码实现(图片推理为例)
- 结果可视化与效果展示
一、前置知识与准备
我们基于 YOLOv8 ONNX 模型,使用华为昇腾 CANN 提供的推理工具链完成模型转换与部署。
项目所需环境如下:
组件 | 版本/建议 |
---|---|
Python | 3.9+ |
numpy | 1.24.4 |
opencv-python | 4.7.0.72 |
CANN Toolkit | ≥ 6.0(需含 atc , ais_bench , infer 等,开发板一般自带) |
Ascend310B4 驱动 | 安装并配置环境变量(开发板一般自带) |
建议使用以下命令安装依赖:
pip install numpy==1.24.4 opencv-python==4.7.0.72
二、模型转换:ONNX → OM
在昇腾上推理,首先需将 .onnx
模型转换为 .om
格式。使用 CANN 提供的 atc
工具即可完成转换,转换过程较长。
模型转换命令如下:
atc --model=yolov8s.onnx \
--framework=5 \
--output=yolov8s \
--input_format=NCHW \
--input_shape="images:1,3,640,640" \
--log=error \
--soc_version=Ascend310B4
下图为转换过程:
📌 注意事项:
input_shape
必须与你模型实际输入一致soc_version
必须与开发板匹配,例如 Ascend310B1、 Ascend310B4等
查看自己的昇腾开发板型号(310B1、310B4等):
转换成功后,将生成 yolov8s.om
文件用于后续推理。
三、模型文件下载
如果你没有合适的 YOLOv8 ONNX 模型文件,可以通过以下链接下载我准备好的模型文件包括 om 文件:
百度网盘链接: https://pan.baidu.com/s/1xpAdN7C9CS-L4XBLgBG8Kw
提取码: 8dm8
建议选择以下模型文件之一进行实验:
yolov8n.onnx
:轻量快速,适合测试yolov8s.onnx
:兼顾精度和速度,适合部署
你也可以使用 Ultralytics 官方提供的 YOLOv8
PyTorch 模型导出 ONNX 文件(model.export(format="onnx")
)。
四、YOLOv8 OM模型推理流程
我们将使用 python + ais_bench
接口构建推理流程。推理步骤包括:
- 加载图像与模型
- 预处理图像(尺寸调整、归一化等)
- 执行模型推理
- 后处理(提取框、置信度、NMS过滤)
- 绘制检测结果并保存
👇 以下为推理代码示例部分(infer_yolov8_ascend.py):
推理代码
# -*- coding: utf-8 -*-
import cv2
import numpy as np
from ais_bench.infer.interface import InferSession
# 类别定义
CLASSES = {
0: 'person', 1: 'bicycle', 2: 'car', 3: 'motorcycle', 4: 'airplane', 5: 'bus', 6: 'train', 7: 'truck',
8: 'boat', 9: 'traffic light', 10: 'fire hydrant', 11: 'stop sign', 12: 'parking meter', 13: 'bench',
14: 'bird', 15: 'cat', 16: 'dog', 17: 'horse', 18: 'sheep', 19: 'cow', 20: 'elephant', 21: 'bear',
22: 'zebra', 23: 'giraffe', 24: 'backpack', 25: 'umbrella', 26: 'handbag', 27: 'tie', 28: 'suitcase',
29: 'frisbee', 30: 'skis', 31: 'snowboard', 32: 'sports ball', 33: 'kite', 34: 'baseball bat',
35: 'baseball glove', 36: 'skateboard', 37: 'surfboard', 38: 'tennis racket', 39: 'bottle',
40: 'wine glass', 41: 'cup', 42: 'fork', 43: 'knife', 44: 'spoon', 45: 'bowl', 46: 'banana', 47: 'apple',
48: 'sandwich', 49: 'orange', 50: 'broccoli', 51: 'carrot', 52: 'hot dog', 53: 'pizza', 54: 'donut',
55: 'cake', 56: 'chair', 57: 'couch', 58: 'potted plant', 59: 'bed', 60: 'dining table', 61: 'toilet',
62: 'tv', 63: 'laptop', 64: 'mouse', 65: 'remote', 66: 'keyboard', 67: 'cell phone', 68: 'microwave',
69: 'oven', 70: 'toaster', 71: 'sink', 72: 'refrigerator', 73: 'book', 74: 'clock', 75: 'vase',
76: 'scissors', 77: 'teddy bear', 78: 'hair drier', 79: 'toothbrush'
}
# 置信度阈值
CONFIDENCE = 0.4
# NMS 的 IoU 阈值
IOU = 0.45
# 为每个类别分配随机颜色
colors = np.random.uniform(0, 255, size=(len(CLASSES), 3))
def draw_bounding_box(img, class_id, confidence, x, y, x_plus_w, y_plus_h):
"""
在图像上绘制边界框和类别标签
参数:
img - 原始图像
class_id - 类别ID
confidence - 置信度
x, y - 左上角坐标
x_plus_w, y_plus_h - 右下角坐标
"""
label = "{} {:.2f}".format(CLASSES[class_id], confidence)
color = colors[class_id]
# 画框
cv2.rectangle(img, (x, y), (x_plus_w, y_plus_h), color, 2)
# 获取文本大小
label_size, _ = cv2.getTextSize(label, cv2.FONT_HERSHEY_SIMPLEX, 0.5, 1)
label_width, label_height = label_size
label_x = x
label_y = y - 10 if y - 10 > label_height else y + 10
# 背景框
cv2.rectangle(img, (label_x, label_y - label_height),
(label_x + label_width, label_y + label_height), color, cv2.FILLED)
# 文字
cv2.putText(img, label, (label_x, label_y), cv2.FONT_HERSHEY_SIMPLEX,
0.5, (0, 0, 0), 1, cv2.LINE_AA)
def main(session, original_image):
"""
加载模型,执行推理,绘制检测框并保存结果图像
参数:
session - 模型
original_image - 图片值
返回:
original_image - 画框的图片
detections - 包含每个目标信息的列表
"""
height, width, _ = original_image.shape
# 变为正方形图像用于推理
length = max(height, width)
image = np.zeros((length, length, 3), np.uint8)
image[0:height, 0:width] = original_image
# 缩放因子
scale = length / 640
# 预处理图像
blob = cv2.dnn.blobFromImage(image, scalefactor=1.0 / 255, size=(640, 640), swapRB=True)
# 模型推理
outputs = session.infer(feeds=blob, mode="static")
# 转换输出维度:从 (1, 84, 8400) -> (8400, 84)
outputs = np.array([cv2.transpose(outputs[0][0])])
rows = outputs.shape[1]
boxes = []
scores = []
class_ids = []
# 解析输出
for i in range(rows):
classes_scores = outputs[0][i][4:]
(minScore, maxScore, minClassLoc, (x, maxClassIndex)) = cv2.minMaxLoc(classes_scores)
if maxScore >= CONFIDENCE:
box = [
(outputs[0][i][0] - outputs[0][i][2] / 2) * scale, # x 左上角
(outputs[0][i][1] - outputs[0][i][3] / 2) * scale, # y 左上角
outputs[0][i][2] * scale, # 宽
outputs[0][i][3] * scale # 高
]
boxes.append(box)
scores.append(maxScore)
class_ids.append(maxClassIndex)
# 非极大值抑制
result_boxes = cv2.dnn.NMSBoxes(boxes, scores, CONFIDENCE, IOU, 0.5)
detections = []
# 绘制边界框
for i in range(len(result_boxes)):
index = result_boxes[i]
box = boxes[index]
detection = {
"class_id": class_ids[index],
"class_name": CLASSES[class_ids[index]],
"confidence": scores[index],
"box": box,
"scale": scale,
}
detections.append(detection)
draw_bounding_box(
original_image,
class_ids[index],
scores[index],
round(box[0]),
round(box[1]),
round(box[0] + box[2]),
round(box[1] + box[3])
)
return original_image, detections
if __name__ == "__main__":
model_path = "yolov8s.om"
# 创建推理会话
session = InferSession(device_id=0, model_path=model_path)
# 图片推理
input_image_path = "street.jpg"
image = cv2.imread(input_image_path)
draw_image, _ = main(session, image)
# cv2.imshow("Image Detection", draw_image)
cv2.imwrite("output_image.jpg", draw_image)
cv2.waitKey(0)
cv2.destroyAllWindows()
五、推理结果展示
完成推理后,程序会将检测结果绘制在图像上并保存,如下所示:
原图 | 检测后 |
---|---|
![]() |
![]() |
你可以替换为自己的图像文件进行体验。
六、运行方法与注意事项
- 将
.om
模型与推理脚本放于同一目录 - 准备一张待检测图片
- 执行命令:
python infer_yolov8_ascend.py
- 成功运行后,将在当前目录输出检测结果图
output_image.jpg
,并弹出窗口展示检测框。
🧯 若
cv2.imshow()
报错,请确保本地图形界面环境正常或注释相关代码,非图形界面系统不支持显示。
总结
本文完整介绍了基于昇腾310B4的 YOLOv8 推理部署流程,该流程也适用于视频流检测或摄像头实时检测,仅需在代码中扩展对应输入源即可。
延伸方向
- 🎥 摄像头实时检测
- 🎬 视频流批量检测
如有需要完整代码、转换脚本或模型下载支持,欢迎在评论区留言,我会尽快回复!