2025年resnet网络的作用(resnet的原理)

resnet网络的作用(resnet的原理)深度残差网络是 ImageNet 比赛中 效果最好的网络 在深度学习的探究过程中 发现对深度的扩展远远比广度的扩展效果要达到的好的太多 理论认为 同层的不同神经元学习不同的特征 越往后层的神经元学习特征的抽象程度越高 可以这样理解 如果要识别一个汽车如下图 上面的图我画的有些粗糙 但是意思应该表达清楚了 特征的组合识别一个物体 如果特征越抽象则识别物体更加简单 也就是说网络模型越深越好了

大家好,我是讯享网,很高兴认识大家。



深度残差网络是ImageNet比赛中,效果最好的网络,在深度学习的探究过程中,发现对深度的扩展远远比广度的扩展效果要达到的好的太多。理论认为,同层的不同神经元学习不同的特征,越往后层的神经元学习特征的抽象程度越高。可以这样理解,如果要识别一个汽车如下图:

resnet shortcut作用 resnet原理详解_映射函数
讯享网

resnet shortcut作用 resnet原理详解_resnet shortcut作用_02

resnet shortcut作用 resnet原理详解_网络层_03

resnet shortcut作用 resnet原理详解_网络模型_04

进一步理解:如果F’(5)=5.1 ,现在继续训练模型,使得映射函数F’(5)=5。(5.1-5)/5.1=2%,也许你脑中已经闪现把学习率从0.01设置为0.0000001。浅层还好用,深层的话可能就不太好使了。如果设计为残差结构呢?5.1变化为5,也就是F(5)=0.1变化为F(5)=0.这个变化率增加了100%。引入残差后映射对输出变化变的更加敏感了,这也就是为什么ResNet虽然层数很多但是收敛速度也不会低的原因。明显后者输出变化对权重的调整作用更大,所以效果更好。残差的思想都是去掉相同的主体部分,从而突出微小的变化,看到残差网络我第一反应就是差分放大器。这也就是当网络模型我们已经设计到一定的深度,出现了精准度下降,如果使用残差结构就会很容易的调节到一个更好的效果,即使你不知道此刻的深度是不是**,但是起码准确度不会下降。代码实现也比较简单,原本的输出结果由F(x)替换为输出F(x)+X,如果维度相同则直接相加,如果维度不同则利用1*1的卷积核变换。当然残差网络还有很多细节, 比如使用预batch normalize ,ResNet-v1 由relu非线性变换,替换为ResNet-v2恒等变换。

小讯
上一篇 2025-04-18 18:08
下一篇 2025-05-14 22:28

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/184304.html