2025年resnet50网络结构简图(resnet152网络结构图)

resnet50网络结构简图(resnet152网络结构图)ResNet Residual Neural Network 由微软研究院的 Kaiming He 等四名华人提出 通过使用 ResNet Unit 成功训练出了 152 层的神经网络 并在 ILSVRC2015 比赛中取得冠军 在 top5 上的错误率为 3 57 同时参数量比 VGGNet 低 效果非常突出 ResNet 的结构可以极快的加速神经网络的训练 模型的准确率也有比较大的提升

大家好,我是讯享网,很高兴认识大家。



ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快的加速神经网络的训练,模型的准确率也有比较大的提升。同时ResNet的推广性非常好,甚至可以直接用到InceptionNet网络中。

在ResNet网络中有如下几个亮点:

  • 提出residual结构(残差结构),并搭建超深的网络结构(突破1000层)
  • 使用Batch Normalization加速训练(丢弃dropout)

在ResNet网络提出之前,传统的卷积神经网络都是通过将一系列卷积层与下采样层进行堆叠得到的。但是当堆叠到一定网络深度时,就会出现两个问题。

  • 梯度缺失或梯度爆炸。
  • 退化问题

RESNET 50 网络结构图 resnet18网络结构图_RESNET 50 网络结构图
讯享网

  • identity mapping,指的就是下图中“弯弯的曲线”
  • residual mapping,指的是除了“弯弯的曲线”的部分

所以最后的输出为:RESNET 50 网络结构图 resnet18网络结构图_RESNET 50 网络结构图_02identity mapping顾名思义,就是指本身,也就是公式中的x,而residual mapping指的是“差”,也就是RESNET 50 网络结构图 resnet18网络结构图_2d_03部分。

RESNET 50 网络结构图 resnet18网络结构图_卷积_04

RESNET 50 网络结构图 resnet18网络结构图_卷积_05

这部分是在执行完residual mapping部分之后,对identity mapping部分的实现,如上图右半部分可知,可知,stride != 1或者in_channel=64 不等于out_channel=128。故当满足此条件时执行。

RESNET 50 网络结构图 resnet18网络结构图_卷积_06

RESNET 50 网络结构图 resnet18网络结构图_卷积_07

RESNET 50 网络结构图 resnet18网络结构图_2d_08

resnet.py

train.py

predict.py

RESNET 50 网络结构图 resnet18网络结构图_2d_09

在PyCharm中打开QtDesigner进行界面布局设计,具体步骤参考:链接

RESNET 50 网络结构图 resnet18网络结构图_ide_10

注意一下此处代码是转换后经过修改得到的:

后台代码main.py

RESNET 50 网络结构图 resnet18网络结构图_RESNET 50 网络结构图_11

小讯
上一篇 2025-05-16 18:16
下一篇 2025-06-15 17:40

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/151480.html