2025年ewma模型Excel(ewma模型衰减因子越趋近于0)

ewma模型Excel(ewma模型衰减因子越趋近于0)nbsp 本文转载自知乎 已获作者授权转载 链接 https zhuanlan zhihu com p nbsp 目标检测任务的损失函数由 Classificiti Loss 和 BBox Regeression Loss 两部分构成 本文介绍目标检测任务中近几年来 Bounding Box Regression Loss

大家好,我是讯享网,很高兴认识大家。



图片
讯享网

 

本文转载自知乎,已获作者授权转载。

链接:https://zhuanlan.zhihu.com/p/

 

目标检测任务的损失函数由Classificition Loss和BBox Regeression Loss两部分构成。本文介绍目标检测任务中近几年来Bounding Box Regression Loss Function的演进过程。

其演进路线是 Smooth L1 Loss

 

L1/L2 Loss

此前回归一般采用 图片 Loss,定义如下:

图片

但是这两者存在一些缺点:

Smooth L1 Loss

针对 图片 Loss 存在的缺点,修正后得到 图片 [1]

图片

图片 在 x 较小时为 L2 Loss,在 x 较大时为 L1 Loss,扬长避短。应用在目标检测的边框回归中,位置损失如下所示:

图片

其中 图片 表示 bbox 位置的真实值, 图片 表示 bbox 位置回归的预测值。

IoU Loss

针对 图片 Loss 的缺点,IoU Loss[2]如下:

图片

实现时甚至简化为:

图片

IoU 计算让 x, y, w, h 相互关联,同时具备了尺度不变性,克服了 图片 Loss 的缺点。

当然 IoU Loss 也并不完美:

图片

灰色框为真实框,虚线框为预测框。这两者情况的IoU相同,但是这两个框的匹配状态不一样。我们认为右边框匹配的好一点,因为它匹配的角度更好。故下文定义了GIoU。

GIoU Loss

承接上一小节提到的情况,IoU 不能区分一些相交的情况,故论文[3]提出GIoU作为度量指标。

图片

GIoU 的实现方式如上式,其中 C 为 A 和 B 的外接矩形。用 C 减去 A 和 B 的并集除以 C 得到一个数值,然后再用 A 和 B 的 IoU 减去这个数值即可得到 GIoU 的值。可以看出:

定义了 GIoU 之后,按照 IoU Loss 的思路定义 GIoU Loss:

图片

当目标框完全包裹预测框的时候,IoU 和 GIoU 的值都一样,此时 GIoU 退化为 IoU, 无法区分其相对位置关系。

图片
灰色框为真实框,绿色为预测框,上图三种情况GIoU均相同,但是我们认为中间的预测框应该由于另外两个框。

DIoU Loss

针对 IoU和GIoU 的缺点,论文[4]总结提出了边框回归的三个重要几何因素:重叠面积、中心点距离和长宽比,提出 DIoU和CIoU,本节先介绍 DIoU。

首先,论文[^ 4]总结了 IoU-based loss 的范式:

图片

图片 表示预测框与真实框的惩罚项,将惩罚项设置为:

图片

其中 图片 表示框的中心点, 图片 表示欧氏距离,c 表示最小外接矩形的对角线距离,故 DIoU 如下所示:

图片

DIoU 就是在 IoU 基础上加入中心点归一化距离,所以可以更好地表达两个框的距离。同时,文章利用 DIoU 距离,设计了 DIoU-nms。

根据范式,DIoU Loss:

图片

边框回归的三个重要几何因素:重叠面积、中心点距离和长宽比,DIoU 没有包含长宽比因素。

CIoU Loss

CIoU[^ 4] 在 DIoU 的基础上,增加了长宽比影响因子 图片 ,合并到惩罚项:

图片

其中 v 用于衡量长宽比的一致性, 图片 用于平衡 v 的值,设为:

图片

图片

v的导数:

图片

在CIoU的定义中,衡量长宽比的$v$过于复杂,从两个方面减缓了收敛速度:

EIoU Loss

论文[5]图片 取代图片 即可。

图片

focal loss可以理解为对损失加权,常见的分类focal loss为 图片 。本文首先尝试直接将EIoU带入,但是效果不好,最后得到:

图片 Conclusion

 

参考资料:

[1]^Girshick R. Fast r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2015: 1440-1448.

[2]^Yu J, Jiang Y, Wang Z, et al. Unitbox: An advanced object detection network[C]//Proceedings of the 24th ACM international conference on Multimedia. 2016: 516-520.

[3]^Rezatofighi H, Tsoi N, Gwak J Y, et al. Generalized intersection over union: A metric and a loss for bounding box regression[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 658-666.

[4]^Zheng Z, Wang P, Liu W, et al. Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression[J]. arXiv preprint arXiv:1911.08287, 2019.

[5]^Focal and Efficient IOU Loss for Accurate Bounding Box Regression

END

小讯
上一篇 2025-05-12 12:41
下一篇 2025-06-15 13:49

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/182123.html