resnet50网络结构详解(resnet101网络结构)

resnet50网络结构详解(resnet101网络结构)ResNet 的网络结构有 ResNet18 ResNet34 ResNet50 ResNet101 ResNet152 其中 ResNet18 和 ResNet34 属于浅层网络 ResNet50 ResNet101 ResNet152 属于深层网络 1 超深的网络结构 突破 1000 层 2 提出 Residual 模块 3 使用 Batch Normalizatio 加速训练 ResNet 有两种残差结构

大家好,我是讯享网,很高兴认识大家。



resnet50 top1到top5详解 resnet50和resnet101_pytorch
讯享网

ResNet的网络结构有:ResNet18、ResNet34、ResNet50、ResNet101、ResNet152.其中ResNet18和ResNet34属于浅层网络,ResNet50、ResNet101、ResNet152属于深层网络。

1.超深的网络结构(突破1000层)

2.提出Residual模块

3.使用Batch Normalization加速训练

resnet50 top1到top5详解 resnet50和resnet101_卷积_02

ResNet有两种残差结构,左边这种称为BasicBlock,包含2个3*3的卷积层,用于ResNet18、ResNet34中,右边这种称为Bottleneck,包含3个卷积层,依次为1*1、3*3、1*1,用于ResNet50、ResNet101、ResNet152。

resnet50 top1到top5详解 resnet50和resnet101_pytorch

我们把残差结构称为block,每个stage都是由若干个block组成。再由若干stage组成整个网络。这里把开始时7*7的卷积层和3*3的maxpool层称为stem层,除去stem层每种ResNet都是4个stage。图中一个方括号就是一个Block,由若干个Block组成一个stage,图中conv2_x对应stage1,conv3_x对应stage2,conv4_x对应stage3,conv5_x对应stage4.

各ResNet网络都具有以下的共同点:

  • 网络一共有5个卷积组,每个卷积组都进行若干次基本的卷积操作(Conv->BN->ReLU)
  • 每个卷积组都会进行一次下采样操作,使特征图的尺寸减半。在卷积组2中使用最大池化进行下采样;在其余4个卷积组中使用卷积进行下采样。
  • 每个网络的第一个卷积组都是相同的,卷积核7*7,步长为2。
  • 第2-5卷积组均由若干残差结构组成,称为stage1-4.

下面以ResNet34和ResNet50为例介绍网络的结构。

resnet50 top1到top5详解 resnet50和resnet101_python_04

resnet50 top1到top5详解 resnet50和resnet101_pytorch_05

处理流程是:卷积->BN->ReLU->池化->BN->ReLU

卷积:输入图片的尺寸为3*224*224(channel*height*width),使用64个3*7*7的卷积核进行卷积,padding=3,stride=2.输出为64*112*112。

池化:使用64个3*3,padding=1,stride=2的池化单元进行maxpooling,输出为64*56*56。

resnet50 top1到top5详解 resnet50和resnet101_卷积_06

处理流程是:(卷积->BN->ReLU)*3

stage 1由3个BasicBlock组成,每个BasicBlock由两层卷积层组成,每层64个64*3*3的卷积核,stride=1,padding=1。输出仍为64*56*56.

resnet50 top1到top5详解 resnet50和resnet101_pytorch_07

处理流程是:(卷积->BN->ReLU)*4

stage 2由4个BasicBlock组成,与stage 1不同,第一个BasicBlock的卷积层1是128个64*3*3的卷积核,stride=2,padding=1;卷积层2是128个128*3*3的卷积核,stride=1,padding=1.输出128*28*28.

resnet50 top1到top5详解 resnet50和resnet101_人工智能_08

到第一个Block末尾处,需要在output加上residual,但输入为64*56*56,所以在输入和输出之间加一个1*1的卷积层,stride=2,使得输入和输出尺寸一致。(代码中downsample部分)

第二、三、四个BasicBlock由两层卷积层组成,每层128个128*3*3的卷积核,stride=1,padding=1。输出为128*28*28. 由于这些Block没有降低尺寸,residual和输出尺寸相同,所以没有downsample部分。

resnet50 top1到top5详解 resnet50和resnet101_人工智能_09

stage 3-4与stage 2类似,都使通道数变多,输出尺寸变小。stage 3的输出为256*14*14,stage 4的输出为512*7*7.

了解网络的结构后,我们发现:ResNet中的下采样操作发生在每个Stage的第一个Block或最大池化层,实现方式是操作都是通过在卷积或者池化中取步长为2。

resnet50 top1到top5详解 resnet50和resnet101_python_10

resnet50 top1到top5详解 resnet50和resnet101_卷积_11

所有ResNet的stem layer均是相同的。

处理流程是:卷积->BN->ReLU->池化->BN->ReLU

卷积:输入图片的尺寸为3*224*224(channel*height*width),使用64个3*7*7的卷积核进行卷积,padding=3,stride=2.输出为64*112*112。

池化:使用3*3,padding=1,stride=2的池化单元进行maxpooling,输出为64*56*56。

resnet50 top1到top5详解 resnet50和resnet101_python_12

与Basicblock不同的是,每一个Bottleneck都会在输入和输出之间加上一个卷积层,加入卷积层的原因是使得输入和输出尺寸一致。只不过在stage 1中还没有downsample,这点和Basicblock是相同的。

处理流程是:(卷积->BN->ReLU)*3

stage 1由3个Bottleneck组成,每个Bottleneck由三层卷积层组成,第一层64个1*1的卷积核,stride=1,padding=0。输出为64*56*56;第二层64个64*3*3的卷积核,stride=1,padding=1,输出为64*56*56;第三层256个64*1*1的卷积核,stride=1,padding=0,输出为256*56*56.此操作重复3遍,输出为256*56*56.

resnet50 top1到top5详解 resnet50和resnet101_ide_13

由4个Bottleneck组成,不同的是第一个Bottleneck,第一层128个1*1的卷积核,stride=1,padding=0,输出为128*56*56;第二层128个128*3*3的卷积核,stride=2,padding=1,输出为128*28*28;第三层512个128*1*1的卷积核,stride=1,padding=0,输出为512*28*28.在第一个Bottleneck输出尺寸发生变化,需要downsample,使用512个1*1,stride=2的卷积层实现。

resnet50 top1到top5详解 resnet50和resnet101_ide_14

之后的3个Bottleneck,第一层128个1*1的卷积核,stride=1,padding=1,输出为128*28*28;第二层128个3*3的卷积核,stride=1,padding=1,输出为128*28*28;第三层512个1*1的卷积核,stride=1,padding=0,输出为512*28*28. stride均为1,均不改变图像的尺寸,不需要downsample。

resnet50 top1到top5详解 resnet50和resnet101_ide_15

stage 3-4与stage 2类似,都使通道数变多,输出尺寸变小。stage 3的输出为1024*14*14,stage 4的输出为2048*7*7.

我们可以发现:ResNet18/34下采样发生在每个stage(不包括stage 1)的第一个Block的第一个卷积层。ResNet50/101/152下采样发生在每个stage(不包括stage 1)的第一个Block的第二个卷积层。

Batch Normalization 的目的是使我们的一批(1个Batch)的特征图满足均值为0,方差为1的高斯分布(正态分布)。通过该方法能够加速网络的收敛并提升准确率。

在图像预处理过程中对图像标准化处理,这样可以加速网络的收敛。Batch Normalization的目的就是使我们的feature map满足均值为0,方差为1的分布规律(batch越大越接近整个数据集的分布,效果越好)。计算方法如下:

resnet50 top1到top5详解 resnet50和resnet101_卷积_16

  1. 首先计算每个batch同一个通道所有的对应的均值和方差。
  2. 然后对原参数进行标准化,即可得到经标准化处理后的数值,其中 为极小数(防止分母为0)。
  3. 最后通过 和  对特征图的数值进一步调整,其中  和 分别用于调整方差均值的大小。如果不进行  和  调整,那么整批(Batch)的数据符合均值为0,方差为1的高斯分布规律。

resnet50 top1到top5详解 resnet50和resnet101_卷积_17

resnet50 top1到top5详解 resnet50和resnet101_python_18

  • 是用来调整数值分布的方差大小,是用来调节数值均值的位置(均值的中心位置)。这两个参数是在反向传播过程中学习并更新的,而不像均值和方差那样正向传播中更新的。
  • 均值和方差的默认值分别为0和1.

我们在预测过程中通常都是输入一张图片进行预测,此时batch size为1,如果再通过上述方法计算均值和方差就没有意义了。所以我们在训练过程中要去不断的计算每个batch的均值和方差,并使用移动平均(moving average)的方法记录统计的均值和方差,在训练完后我们可以近似认为所统计的均值和方差就等于整个训练集的均值和方差。最后在我们验证以及预测过程中,就使用统计得到的均值和方差进行标准化处理。

resnet50 top1到top5详解 resnet50和resnet101_pytorch_19

resnet50 top1到top5详解 resnet50和resnet101_人工智能_20

resnet50 top1到top5详解 resnet50和resnet101_卷积_21

resnet50 top1到top5详解 resnet50和resnet101_ide_22

resnet50 top1到top5详解 resnet50和resnet101_人工智能_23

resnet50 top1到top5详解 resnet50和resnet101_pytorch_24

resnet50 top1到top5详解 resnet50和resnet101_python_25

resnet50 top1到top5详解 resnet50和resnet101_python_26

resnet50 top1到top5详解 resnet50和resnet101_pytorch_27

ResNet的几种典型网络结构 | Meringue’s Blog

小讯
上一篇 2025-04-16 23:54
下一篇 2025-06-12 18:50

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/192360.html