Resnet101模型(resnet1001)

Resnet101模型(resnet1001)p id main toc strong 目录 strong p 5 5 实践 基于 ResNet18 网络完成图像分类任务 5 5 1 数据处理 5 5 1 1 数据集介绍 5 5 1 2 数据读取 5 5 1 3 构造 Dataset 类 5 5 2 模型构建 5 5 3 模型训练 5 5 4

大家好,我是讯享网,很高兴认识大家。



 <p id="main-toc"><strong>目录</strong></p> 

讯享网

5.5 实践:基于ResNet18网络完成图像分类任务

5.5.1 数据处理

5.5.1.1 数据集介绍

 5.5.1.2 数据读取

 5.5.1.3 构造Dataset类

5.5.2 模型构建

5.5.3 模型训练

5.5.4 模型评价

5.5.5 模型预测

什么是“预训练模型”?什么是“迁移学习”? 

比较“使用预训练模型”和“不使用预训练模型”的效果。

思考题

1.阅读《Deep Residual Learning for Image Recognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自己的看法。(选做)

用自己的话简单评价:LeNet、AlexNet、VGG、GoogLeNet、ResNet(选做)

总结


在本实践中,我们实践一个更通用的图像分类任务。

图像分类(Image Classification)是计算机视觉中的一个基础任务,将图像的语义将不同图像划分到不同类别。很多任务也可以转换为图像分类任务。比如人脸检测就是判断一个区域内是否有人脸,可以看作一个二分类的图像分类任务。

这里,我们使用的计算机视觉领域的经典数据集:CIFAR-10数据集,网络为ResNet18模型,损失函数为交叉熵损失,优化器为Adam优化器,评价指标为准确率。

5.5.1.1 数据集介绍

CIFAR-10数据集包含了10种不同的类别、共60,000张图像,其中每个类别的图像都是6000张,图像大小均为32×3232×32像素。CIFAR-10数据集的示例如 图5.15 所示。
讯享网

 5.5.1.2 数据读取

cifar-10数据集直接从官网下载http://www.cs.toronto.edu/~kriz/cifar-10-python.tar.gz

  • 训练集:50 000条样本。
  • 验证集:10 000条样本。
  • 测试集:10 000条样本。

读取一个batch数据的代码如下所示:

讯享网

查看数据的维度,可视化观察其中的一张样本图像和对应的标签,代码如下所示:

 

 得到以下结果:

讯享网

 5.5.1.3 构造Dataset类

 构造一个CIFAR10Dataset类,其将继承自类,可以逐个数据进行处理。代码实现如下:

 

使用torchvision API中的Resnet18进行图像分类实验。

讯享网

我们总是可以在各种博客中看到用高层API中层API低层API构建网络,但是这不同层次的API是什么意思呢?又有什么区别呢?

API这个次相信大家不陌生,而且也很好理解。API是(应用程序接口)的缩写。是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。

低阶API主要包括张量操作,计算图和自动微分。Pytorch的中阶API主要包括各种模型层,损失函数,优化器,数据管道等等。高层API用torchkeras举例torchkeras是仿照tf.keras.Model的功能对Pytorch的nn.Module进行了封装。torchkeras实现了 fit, validate,predict, summary 方法,相当于用户自定义高阶API。用起来可keras一样的爽!

越高级的API里封装的函数越多,用起来也就越方便。

API的好处也有很多:

外用

如果您的应用变得流行,其他技术可能会要求 API 与您的系统进行交互。因此,您基本上会收到免费宣传,并最终获得用户,因为它会将您的产品介绍给新的用户群。

安全

由于 API 充当系统之间的缓冲区,它们允许您选择允许和不允许的行为。用户可以根据自己的隐私偏好做出更个性化的选择,而不是全有或全无。

更快的生产

API 使程序员可以更轻松地快速构建应用程序,因为它们简化了他们必须考虑的设备数量,并允许他们导入外部 API 以添加某些关键功能。例如,您可以创建一个应用程序,让用户可以找到他们所在地区新晋艺术家的活动。

自动化

API 对于自动化测试也非常有用。以前,测试人员必须依靠自定义脚本、外部 Web 服务和直接集成来处理他们的测试需求。虽然这适用于小规模,但直接集成使测试环境在处理不同工具时变得不灵活,并且仅限于少量测试。API 提供的抽象允许测试人员在 XML 或 JSON 文件中创建通用测试套件,并在与其 API 集成的任何系统上使用它们。

复用RunnerV3类,实例化RunnerV3类,并传入训练配置。
使用训练集和验证集进行模型训练,共训练30个epoch。
在实验中,保存准确率最高的模型作为**模型。代码实现如下:

 
讯享网

 我用的是cpu训练,是i7 10750H的cpu训练了23319秒emm,差不多六个半小时吧。

 在本实验中,使用了第7章中介绍的Adam优化器进行网络优化,如果使用SGD优化器,会造成过拟合的现象,在验证集上无法得到很好的收敛效果。可以尝试使用第7章中其他优化策略调整训练配置,达到更高的模型精度。

使用测试数据对在训练过程中保存的**模型进行评价,观察模型在测试集上的准确率以及损失情况。代码实现如下:

 

得到以下结果:

讯享网

同样地,也可以使用保存好的模型,对测试集中的数据进行模型预测,观察模型效果,具体代码实现如下:

 
讯享网

迁移学习,顾名思义,就是要进行迁移。放到人工智能和机器学习的学科里,迁移学习是一种学习的思想和模式。
首先机器学习是人工智能的一大类重要方法,也是目前发展最迅速、效果最显著的方法。机器学习解决的是让机器自主地从数据中获取知识,从而应用于新的问题中。迁移学习作为机器学习的一个重要分支,侧重于将已经学习过的知识迁移应用于新的问题中。
迁移学习的核心问题是,找到新问题和原问题之间的相似性,才可顺利地实现知识的迁移。

迁移学习的定义:
迁移学习,是指利用数据、任务、或模型之间的相似性,将在旧领域学习过的模型,应用于新领域的一种学习过程。

那为什么需要迁移学习?

1. 大数据与少标注之间的矛盾。

2. 大数据与弱计算之间的矛盾。

3. 普适化模型与个性化需求之间的矛盾。

4. 特定应用的需求。

预训练模型可以把迁移学习很好地用起来。这和小孩读书一样,一开始语文、数学、化学都学,读书、网上游戏等,在脑子里积攒了很多。当他学习计算机时,实际上把他以前学到的所有知识都带进去了。如果他以前没上过中学,没上过小学,突然学计算机就不懂这里有什么道理。这和我们预训练模型一样,预训练模型就意味着把人类的语言知识,先学了一个东西,然后再代入到某个具体任务,就顺手了,就是这么一个简单的道理。

为什么要做预训练模型

自然语言处理(NLP),目的是使得计算机具备人类的听、说、读、写、译、问、答、搜索、摘要、对话和聊天等能力,并可利用知识和常识进行推理和决策,并支持客服、诊断、法律、教学等场景。

预训练模型,则是使自然语言处理由原来的手工调参、依靠 ML 专家的阶段,进入到可以大规模、可复制的大工业施展的阶段。而且预训练模型从单语言、扩展到多语言、多模态任务。

为什么我们要做预训练模型?

  • 首先,预训练模型是一种迁移学习的应用,利用几乎无限的文本,学习输入句子的每一个成员的上下文相关的表示,它隐式地学习到了通用的语法语义知识。
  • 第二,它可以将从开放领域学到的知识迁移到下游任务,以改善低资源任务,对低资源语言处理也非常有利。
  • 第三,预训练模型在几乎所有NLP任务中都取得了目前**的成果。
  • 最后,这个预训练模型+微调机制具备很好的可扩展性,在支持一个新任务时,只需要利用该任务的标注数据进行微调即可,一般工程师就可以实现。

 

用这一行代码不使用预训练,得到结果 :

讯享网

可以发现不使用预训练效果会差一些。

所以预训练的优点有:

但是预训练也是有缺点的:

缺点:
1、预训练模型大、参数多、模型结构灵活性差、难以改变网络结构,计算量大,限制应用场景
2、分类和检测任务损失函数和类别分布不同,优化空间存在差异
3、尽管微调可以减少不同目标类别分布差异性,差异太大时,微调效果不明显

1.阅读《Deep Residual Learning for Image Recognition》,了解5种深度的ResNet(18,34,50,101和152),并简单谈谈自己的看法。(选做)

ResNet分为18层的,34层的,50层的,101层的,152层的。每种都是由两种block结构堆叠而成,一种是叫做BasicBlock,一种叫做BottleneckBlock。

 ResNet 的前两层在输出通道数为 64、步幅为 2 的 7 × 7 7×77×7 卷积层后接步幅为 2 的 3 × 3 3×33×3 的最大池化层。不同之处在于 ResNet 每个卷积层后增加的批量归一化层ResNet 使用 4 个由残差块组成的模块,每个模块使用若干个同样输出通道数的残差块。第一个模块的通道数同输入通道数一致。由于之前已经使用了步幅为 2 的最大池化层,所以无须减小高和宽。之后的每个模块在第一个残差块里将上一个模块的通道数翻倍,并将高和宽减半。最后,加入全局平均池化层后接上全连接层输出

用自己的话简单评价:LeNet、AlexNet、VGG、GoogLeNet、ResNet(选做)

1 .lenet:始祖,瞎组合的一个结构,很多设计思想已经过时了,实践中切勿使用。

2.alexnet:近古老物,relu还能用,drop-out已经用的比较少了而且不太好用。lrn之类的已经不好用了,一般是论文里当被吊打的baseline用

3.vgg:老物,光芒被googlenet给掩盖了,真正的优点是 a.feature-map不变则conv-kenel-width这些不变 b.用一次pooling,width提升一倍

4 .GoogLeNet,核心亮点就是Inception,网络的最大特点是用全局平均池化取代全连接层,减少了模型计算量,使得模型训练速度更快并且减轻了过拟合

5.resnet:主流网络,在vgg基础上提升了长度,而且加入了res-block结构,还有resnext,也可以尝试下

这次训练用了resnet18模型,我当时下载torch的时候下的是没有cuda版本的,这次本来想下载的,但是我看我的电脑cuda版本是12.0而torch刚出到11.7版本,再加上我已经开始训练了,后面想了想就没加,不过我问过别的同学,他们用gpu训练需要的时间短一点,大概几十分钟就好了。

至此卷积神经网络的学习结束了,下面开始的就是循环神经网络,加油! 

参考链接:

(25条消息) vgg和alexnet,lenet resnet等网络简要评价和使用体会_crazy-ye的博客-CSDN博客_lenet的优缺点

(25条消息) torch学习笔记之——高阶,中阶,低阶API,构建网络对比_卖香油的少掌柜的博客-CSDN博客

(25条消息) 什么是 API?_我是不会选择做一个普通人的的博客-CSDN博客_什么是api

小讯
上一篇 2025-05-05 15:15
下一篇 2025-04-14 13:24

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/189209.html