yolov3spp原文(yolov3介绍)

yolov3spp原文(yolov3介绍)p class f center p

大家好,我是讯享网,很高兴认识大家。




讯享网

 <p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F0j00q9b2ap0011d200m800a3g00it008j.jpg&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  <strong>作者</strong><strong>| Amusi</strong><br/></p><p>  <strong>编辑 | 丛 末</strong></p><p>  今天刷屏的动态一定是 YOLOv4!</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F3cb3f26ep00q9b2ap0058d200u000nvg00it00ey.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  本文 Amusi 会跟大家说一下在别处看不到内容(大神接棒),欢迎继续阅读!</p><p>  之前,YOLO系列(v1-v3)作者 Joe Redmon 宣布不再继续CV方向的研究,引起学术圈一篇哗然。:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F17a26282p00q9b2aq001yd200ga00fag00ga00fa.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  推文链接:https://twitter.com/jeremyphoward/status/</p><p>  Amusi 特意去谷歌学术上搜索了一下YOLOv1-v3的引用量,累计破16000+!</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F34d2e0e3p00q9b2aq004md200u000e3g00it008t.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  <strong>1</strong></p><p>  <strong>大神接棒,YOLOv4来了!</strong></p><p>  当大家以为再也见不到YOLOv4的时候,然鹅今天<strong>YOLOv4</strong>来了!</p><p>  YOLOv4的作者阵容里并没有Joe Redmon,也验证了大神曾说不再继续CV研究的这条消息。但都木有YOLO之父Joe Redmon的论文,其名字为什么还敢叫YOLOv4呢,不怕被喷么?</p><p>  这里Amusi 花点时间跟大家介绍一下这个有趣的事情。</p><p>  先说说:大神接棒的事情</p><p>  停更两年之久的的YOLO github官网正式更新 README,那么更新了什么呢?接着往下看</p><p>  YOLO官网:https://github.com/pjreddie/darknet</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fd36344f5p00q9b2ar006wd200u000rjg00it00h9.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  YOLO官方github正式加入YOLOv4的论文和代码链接,也意味着YOLOv4得到了Joe Redmon的认可,也代表着YOLO的<strong>停更与交棒</strong>。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F62fda386p00q9b2ar004ud200u000igg00it00bk.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  关于YOLOv4,Amusi 曾写过这样一篇文章来<strong>预宣传</strong>(现在想想,应该是全网第一个这样介绍的):</p><p>  YOLOv4的一作是 Alexey Bochkovskiy,用过YOLO的同学,特别是用过Windows版YOLO的同学对这个名字一定很熟悉!</p><p>  因为他就是darknet另一个github版本的维护者,也就是YOLOv4的代码库:<br/></p><p>  https://github.com/AlexeyAB/darknet</p><p>  据Amusi 猜测推断,Alexey Bochkovskiy 是一名独立研究员,这里更愿意称为之YOLO接棒者,YOLO社区推动者。这里对Alexey不过多赘述,想了解的同学可以看一下:。</p><p>  值得一提的是,这个版本的darknet的提交数已经来到 1777 次。试想一下,你一天提交一次更新,那么就需要你连续近5年不停更!</p><p>  我们一般只会用两个字来形容这种人:<strong>码怪</strong>!</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fd8238befp00q9b2ar004hd200u000hyg00it00b8.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  <strong>2</strong></p><p>  <strong>YOLOv4 正文</strong></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F7dbc359bp00q9b2as0033d200u0006sg00it0048.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  论文:https://arxiv.org/abs/2004.10934<br/></p><p>  代码:https://github.com/AlexeyAB/darknet</p><p>  大家一定被文章开头的图片吸引了,位于图中靠右上角的YOLOv4 多么"亮眼",越靠右上角意味着AP越高、速度FPS越快!而且YOLO被大家追捧的原因之一就是:快而准。</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F3cb3f26ep00q9b2ap0058d200u000nvg00it00ey.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS!</p><p>  YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。下面看看堆了哪些料:</p><p>  <strong>Weighted-Residual-Connections (WRC)</strong></p><p>  <strong>Cross-Stage-Partial-connections (CSP)</strong></p><p>  <strong>Cross mini-Batch Normalization (CmBN)</strong></p><p>  <strong>Self-adversarial-training (SAT)</strong></p><p>  <strong>Mish-activation</strong></p><p>  <strong>Mosaic data augmentation</strong></p><p>  <strong>CmBN</strong></p><p>  <strong>DropBlock regularization</strong></p><p>  <strong>CIoU loss</strong></p><p>  本文的主要贡献如下:</p><p>  1. 提出了一种高效而强大的目标检测模型。它使每个人都可以使用1080 Ti或2080 Ti GPU 训练超快速和准确的目标检测器(牛逼!)。</p><p>  2. 在检测器训练期间,验证了SOTA的Bag-of Freebies 和Bag-of-Specials方法的影响。</p><p>  3. 改进了SOTA的方法,使它们更有效,更适合单GPU训练,包括CBN [89],PAN [49],SAM [85]等。文章将目前主流的目标检测器框架进行拆分:input、backbone、neck 和 head 具体如下图所示:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fcba6d15ap00q9b2as004jd200u000e9g00it008x.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  对于GPU,作者在卷积层中使用:CSPResNeXt50 / CSPDarknet53</p><p>  对于VPU,作者使用分组卷积,但避免使用(SE)块-具体来说,它包括以下模型:EfficientNet-lite / MixNet / GhostNet / MobileNetV3</p><p>  作者的目标是在输入网络分辨率,卷积层数,参数数量和层输出(filters)的数量之间找到**平衡。文中称:CSPDarknet53在检测上的表现要优于CSPResNext50,关于CSP,不了解的同学可以看一下这篇文章:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fc7e4f91bp00q9b2as002qd200u0005ng00it003j.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  总结一下YOLOv4框架:</p><p>  <strong>Backbone:CSPDarknet53</strong></p><p>  <strong>Neck:SPP,PAN</strong></p><p>  <strong>Head:YOLOv3</strong></p><p>  <strong>YOLOv4 = CSPDarknet53+SPP+PAN+YOLOv3</strong></p><p>  其中YOLOv4用到相当多的技巧:</p><p>  <strong>用于backbone的BoF:CutMix和Mosaic数据增强,DropBlock正则化,Class label smoothing</strong></p><p>  <strong>用于backbone的BoS:Mish激活函数,CSP,MiWRC</strong></p><p>  <strong>用于检测器的BoF:CIoU-loss,CmBN,DropBlock正则化,Mosaic数据增强,Self-Adversarial 训练,消除网格敏感性,对单个ground-truth使用多个anchor,Cosine annealing scheduler,**超参数,Random training shapes</strong></p><p>  <strong>用于检测器的Bos:Mish激活函数,SPP,SAM,PAN,DIoU-NMS</strong></p><p>  看看YOLOv4部分组件:</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Feap00q9b2at006td200mz00hkg00d800a3.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F91b12f2dp00q9b2at002ud200io00n9g00cv00g0.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  感受一下YOLOv4实验的充分性(调参的艺术)</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F1d8bac99p00q9b2au0025d200jt00cfg00dx008q.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fap00q9b2au0046d200s900gig00ec008d.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  感受一下性能炸裂的YOLOv4实验结果</p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F08a8b3ebp00q9b2au0088d200u000o9g00it00f7.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Ffcd4cb58p00q9b2av00pgd200u0012qg00it00o9.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2F881efa6cp00q9b2aw00p9d200u0013eg00it00oo.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p class="f_center"><img src="https://nimg.ws.126.net/?url=http%3A%2F%2Fdingyue.ws.126.net%2F2020%2F0425%2Fe03f3083p00q9b2aw00k7d200u000w6g00it00k5.png&thumbnail=660x&quality=80&type=jpg"/><br/></p><p>  论文篇幅很长,高达17页,干货满满!推荐大家阅读原文和源码进行深入理解。</p><p>  <strong>跟我一起喊:大神接棒,YOLOv4 来了!</strong></p><p>  <strong>AI 科技评论系列直播</strong><br/></p><p>  <strong>1、</strong><strong>ACL 2020 - 复旦大学系列解读</strong></p><p>  <strong>直播主题:不同粒度的抽取式文本摘要系统</strong></p><p>  主讲人:王丹青、钟鸣</p><p>  直播时间:4月 25 日,(周一晚) 20:00整。</p><p>  <strong>直播主题:结合词典的中文命名实体识别【ACL 2020 - 复旦大学系列解读之(二)】</strong></p><p>  主讲人:马若恬, 李孝男</p><p>  直播时间:4月 26 日,(周一晚) 20:00整。</p><p>  <strong>直播主题:ACL 2020 | 基于对抗样本的依存句法模型鲁棒性分析</strong></p><p>  <strong>【ACL 2020 - 复旦大学系列解读之(三)】</strong></p><p>  主讲人:曾捷航</p><p>  直播时间:4月 27 日,(周一晚) 20:00整。</p><p>  <strong>2、ICLR 2020 系列直播</strong></p><p>  <strong>直播主题:ICLR 2020丨Action Semantics Network: Considering the Effects of Actions in Multiagent Systems</strong></p><p>  主讲人:王维埙</p><p>  回放链接:http://mooc.yanxishe.com/open/course/793</p><p>  <strong>直播主题:ICLR 2020丨通过负采样从专家数据中学习自我纠正的策略和价值函数</strong></p><p>  主讲人:罗雨屏</p><p>  回放链接:http://mooc.yanxishe.com/open/course/802(回放时间:4月25日上午10点)</p><p>  <strong>直播主题:ICLR 2020丨分段线性激活函数塑造了神经网络损失曲面</strong></p><p>  主讲人:何凤翔</p><p>  直播时间:4月24日 (周五晚) 20:00整</p> 

讯享网
小讯
上一篇 2025-05-04 09:17
下一篇 2025-04-14 16:59

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/183806.html