YOLOv9/YOLOv8算法改进【NO.126】YOLOv9的RepNCSPELAN进行二次创新

发布于:2024-05-02 ⋅ 阅读:(30) ⋅ 点赞:(0)

  前   言
       YOLO算法改进系列出到这,很多朋友问改进如何选择是最佳的,下面我就根据个人多年的写作发文章以及指导发文章的经验来看,按照优先顺序进行排序讲解YOLO算法改进方法的顺序选择。具体有需求的同学可以私信我沟通:

首推,是将两种最新推出算法的模块进行融合形成最为一种新型自己提出的模块然后引入到YOLO算法中,可以起个新的名字,这种改进是最好发高水平期刊论文。后续改进将主要教大家这种方法,有需要的朋友可私信我了解。

第一,创新主干特征提取网络,将整个Backbone改进为其他的网络,比如这篇文章中的整个方法,直接将Backbone替换掉,理由是这种改进如果有效果,那么改进点就很值得写,不算是堆积木那种,也可以说是一种新的算法,所以做实验的话建议朋友们优先尝试这种改法。

第二,创新特征融合网络,这个同理第一,比如将原yolo算法PANet结构改进为Bifpn等。

第三,改进主干特征提取网络,就是类似加个注意力机制等。根据个人实验情况来说,这种改进有时候很难有较大的检测效果的提升,乱加反而降低了特征提取能力导致mAP下降,需要有技巧的添加。

第四,改进特征融合网络,理由、方法等同上。

第五,改进检测头,更换检测头这种也算个大的改进点。

第六,改进损失函数,nms、框等,要是有提升检测效果的话,算是一个小的改进点,也可以凑字数。

第七,对图像输入做改进,改进数据增强方法等。

第八,剪枝以及蒸馏等,这种用于特定的任务,比如轻量化检测等,但是这种会带来精度的下降。

...........未完待续

一、创新改进思路或解决的问题

 💡💡💡采用Online Convolutional Re-parameterization (CVPR2022)]对[YOLOV9]中的RepNCSPELAN进行二次创新。与最先进的re-param模型相比,OREPA能够节省约70%的训练时内存成本,并将训练速度提高约2倍。

YOLOv9/YOLOv8算法改进【NO.103】引入YOLOv9提出模块RepNCSPELAN模块,亲测有效_repncspelan yolov8-CSDN博客

二、基本原理 

原文:[2204.00826] Online Convolutional Re-parameterization (arxiv.org)

摘要:结构重新参数化在各种计算机视觉任务中引起了越来越多的关注。它旨在提高深度模型的性能,而不会引入任何推理时间成本。尽管在推理过程中效率很高,但此类模型严重依赖复杂的训练时间块来实现高精度,从而导致大量额外的训练成本。在本文中,我们提出了在线卷积重参数化(OREPA),这是一个两阶段管道,旨在通过将复杂的训练时间块压缩到单个卷积中来减少巨大的训练开销。为了实现这一目标,我们引入了线性缩放层,以更好地优化在线区块。为了降低培训成本,我们还探索了一些更有效的 re-param 组件。与最先进的re-param模型相比,OREPA能够节省约70%的训练时内存成本,并将训练速度提高约2倍。同时,配备OREPA的模型比ImageNet上以前的方法高出+0.6%。

 

 

三、​添加方法

部分代码如下所示,具体可关注后加我下方小卡片联系我获取。yolov8n为baseline。

四、总结

预告一下:下一篇内容将继续分享深度学习算法相关改进方法。有兴趣的朋友可以关注一下我,有问题可以留言或者私聊我哦。

PS:该方法不仅仅是适用改进YOLOv8,也可以改进其他的YOLO网络以及目标检测网络,比如YOLOv7、v6、v4、v3,Faster rcnn ,ssd等。

最后,有需要的请关注私信我吧。关注免费领取深度学习算法学习资料!