resnet网络图(resnet网络图像分类)

resnet网络图(resnet网络图像分类)在第三章我们介绍了计算机视觉常见任务 其中一个就是图像分类 本节简单回顾 图像分类利用计算机对图像进行定量分析 把图像或图像中的每个像元或区域划归为若干个类别中的某一种 下图展示了分类经典数据集 ImageNet 包含 2 万多类图片 图 1 ImageNet 数据集图片示意图 图像是计算机视觉的核心 是物体检测 图像分割 物体跟踪 行为分析 人脸识别等其他高层次视觉任务的基础

大家好,我是讯享网,很高兴认识大家。



在第三章我们介绍了计算机视觉常见任务,其中一个就是图像分类。本节简单回顾,图像分类利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,下图展示了分类经典数据集ImageNet,包含2万多类图片。

图1:ImageNet数据集图片示意图

图像是计算机视觉的核心,是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用,如:安防领域的人脸识别和智能视频分析等,交通领域的交通场景识别,互联网领域基于内容的图像检索、相册自动归类、商品识别、医学领域的图像识别等。

ResNet是2015年ImageNet比赛的冠军,将识别错误率降低到了3.6%,这个结果甚至超出了正常人眼识别的精度。

随着深度学习的不断发展,模型的层数越来越多,网络结构也越来越复杂。那么是否加深网络结构,就一定会得到更好的效果呢?从理论上来说,假设新增加的层都是恒等映射,只要原有的层学出跟原模型一样的参数,那么深模型结构就能达到原模型结构的效果。换句话说,原模型的解只是新模型的解的子空间,在新模型解的空间里应该能找到比原模型解对应的子空间更好的结果。但是实践表明,增加网络的层数之后,训练误差往往不降反升

Kaiming He等人提出了残差网络ResNet来解决上述问题,在残差网络中最基本的单位为残差单元,其基本思想如图2所示。

  • 图6(a):表示增加网络的时候,将x映射成 y = F ( x )输出。
  • 图6(b):对图6(a)作了改进,输出 y = F ( x ) + x 。这时不是直接学习输出特征 y 的表示,而是学习 y − x

<ul><li style="text-align:left;">如果想学习出原模型的表示&#xff0c;只需将 F ( x ) 的参数全部设置为0&#xff0c;则 y &#61; x 是恒等映射。</li><li style="text-align:left;">F(x) &#61; y - x 也叫做<span style="color:#c21c13;"><strong><strong><span style="color:#c21c13;"><strong>残差项</strong></span></strong></strong></span>&#xff0c;如果 x → y的映射<span style="color:#c21c13;"><strong><strong><span style="color:#c21c13;"><strong>接近恒等映射</strong></span></strong></strong></span>&#xff0c;图6(b)中通过学习残差项也比图6(a)学习完整映射形式更加容易。</li></ul></li></ul> 

讯享网

图2:残差块设计思想

一个残差网络通常有很多个残差单元堆叠而成,下面我们来构建残差网络。

4.2.2.1 残差单元

残差单元也叫做残差块(Residual block),输入x通过跨层连接,能更快的向前传播数据,或者向后传播梯度。通俗的比喻,在火热的电视节目《王牌对王牌》上有一个“传声筒”的游戏,排在队首的嘉宾把看到的影视片段表演给后面一个嘉宾看,经过四五个嘉宾后,最后一个嘉宾如果能表演出更多原剧的内容,就能取得高分。我们常常会发现刚开始的嘉宾往往表演出最多的信息(类似于Loss),而随着表演的传递,有效的表演信息越来越少(类似于梯度弥散)。如果每个嘉宾都能看到原始的影视片段,那么相信传声筒的效果会好很多。类似的,由于ResNet每层都存在直连的旁路,相当于每一层都和最终的损失有“直接对话”的机会,自然可以更好的解决梯度弥散的问题

残差块的具体设计方案如图3所示,这种设计方案也常称作瓶颈结构(BottleNeck)

1*1的卷积核可以非常方便的调整中间层的通道数,在进入3*3的卷积层之前减少通道数(256-&gt;64),经过该卷积层后再恢复通道数(64-&gt;256),可以显著减少网络的参数量。这个结构(256-&gt;64-&gt;256)像一个中间细,两头粗的瓶颈,所以被称为“BottleNeck”。

图3:残差块结构示意图


讯享网

这里,我们实现一个算子来构建残差单元。ResNet中使用了BatchNorm层,在卷积层的后面加上BatchNorm以提升数值稳定性,首先定义卷积批归一化块包含卷积层和BatchNorm层:

In [1]

讯享网

然后定义残差块,每个残差块会对输入图片做三次卷积,然后跟输入图片进行短接,如果残差块中第三次卷积输出特征图的形状与输入不一致,则对输入图片使用1 x 1卷积,将其输出形状调整成一致。


1 × 1卷积:与标准卷积完全一样,唯一的特殊点在于卷积核的尺寸是1 × 1,也就是不去考虑输入数据局部信息之间的关系,而把关注点放在不同通道间。通过使用1 × 1卷积,可以起到如下作用:

  • 实现信息的跨通道交互与整合。考虑到卷积运算的输入输出都是3个维度(宽、高、多通道),所以1 × 1卷积实际上就是对每个像素点,在不同的通道上进行线性组合,从而整合不同通道的信息;
  • 对卷积核通道数进行降维和升维,减少参数量。经过1 × 1卷积后的输出保留了输入数据的原有平面结构,通过调控通道数,从而完成升维或降维的作用;
  • 利用1 × 1卷积后的非线性激活函数,在保持特征图尺寸不变的前提下,大幅增加非线性

4.2.2.2 整体结构

残差网络就是将很多个残差单元串联起来构成的一个非常深的网络,下图表示出了ResNet-50的结构,一共包含49层卷积和1层全连接,所以被称为ResNet-50。

图4:ResNet-50模型网络结构示意图

ResNet的具体实现如下代码所示:

In [3]

 
       

4.2.2.3 飞桨分类网络高层API

飞桨开源框架除了基础API外,还支持了高层API。通过高低融合实现灵活组网,让飞桨API更简洁、更易用、更强大。高层API支持paddle.vision.models接口,实现了对常用模型的封装,包括ResNet、VGG、MobileNet、LeNet等。使用高层API调用这些网络,可以快速完成神经网络的训练和Fine-tune。

代码示例如下:

In [1]

讯享网

/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/nn/layer/norm.py:654: UserWarning: When training, we now always track global mean and variance.

“When training, we now always track global mean and variance.”)

[1, 1000]

使用paddle.vision中的模型可以简单快速的构建一个深度学习任务,如下示例,仅14行代码即可实现resnet在Cifar10数据集上的训练。

 

在这一节里,给读者介绍了图像分类,以及ResNet的网络结构和代码实现。除此之外,还介绍了高层API直接调用常用深度神经网络的方法,方便开发者们快速完成深度学习网络迭代。


小讯
上一篇 2025-06-13 16:55
下一篇 2025-06-16 12:58

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/207679.html