2025年cnn是监督还是非监督的(cnn是监督还是非监督的缩写)

cnn是监督还是非监督的(cnn是监督还是非监督的缩写)一 卷积神经网络基本概念 卷积神经网络 Convolutiona Neural Networks CNN 是一类包含卷积计算且具有深度结构的前馈神经网络 Feedforward Neural Networks 是深度学习 deep learning 的代表算法之一 是深度学习算法在图像处理领域的一个应用 机器学习分类 监督学习 分类 回归 无监督学习 聚类 降维 强化学习

大家好,我是讯享网,很高兴认识大家。



一、卷积神经网络基本概念

卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一,是深度学习算法在图像处理领域的一个应用。

机器学习分类:监督学习(分类,回归),无监督学习(聚类,降维),强化学习,半监督学习,深度学习。

卷积神经网络是一种特殊的深层的神经网络模型,它的特殊性体现在两个方面,一方面它的神经元间的连接是非全连接的, 另一方面同一层中某些神经元之间的连接的权重是共享的(即相同的)。它的非全连接和权值共享的网络结构使之更类似于生物 神经网络,降低了网络模型的复杂度(对于很难学习的深层结构来说,这是非常重要的),减少了权值的数量。

卷积神经网络与普通神经网络非常相似,它们都由具有可学习的权重和偏置常量(biases)的神经元组成。每个神经元都接收一些输入,并做一些点积计算,输出是每个分类的分数,普通神经网络里的一些计算技巧到这里依旧适用。

所以哪里不同呢?卷积神经网络默认输入是图像,可以让我们把特定的性质编码入网络结构,使是我们的前馈函数更加有效率,并减少了大量参数。

二、 CNN网络层级结构

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型
讯享网

1.输入层:

  • 去均值
  • 归一化
  • PCA/SVD降维等

2.卷积层(convolution layer):初步提取特征

卷积层的作用:提取图片每个小部分里具有的特征

假定我们有一个尺寸为6*6 的图像,每一个像素点里都存储着图像的信息。我们再定义一个卷积核(相当于权重),用来从图像中提取一定的特征。卷积核与数字矩阵对应位相乘再相加,得到卷积层输出结果。

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积_02

卷积核的取值在没有以往学习的经验下,可由函数随机生成,再逐步训练调整。

当所有的像素点都至少被覆盖一次后,就可以产生一个卷积层的输出(下图的步长为1)

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_03

机器一开始并不知道要识别的部分具有哪些特征,是通过与不同的卷积核相作用得到的输出值,相互比较来判断哪一个卷积核最能表现该图片的特征——比如我们要识别图像中的某种特征(比如曲线),也就是说,这个卷积核要对这种曲线有很高的输出值,对其他形状(比如三角形)则输出较低。卷积层输出值越高,就说明匹配程度越高,越能表现该图片的特征。

卷积层具体工作过程:

比如我们设计的一个卷积核如下左,想要识别出来的曲线如下右:

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_04

现在我们用上面的卷积核,来识别这个简化版的图片——一只漫画老鼠

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积核_05

当机器识别到老鼠的屁股的时候,卷积核与真实区域数字矩阵作用后,输出较大:6600

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积_06

而用同一个卷积核,来识别老鼠的耳朵的时候,输出则很小:0

cnn能用于无监督学习 cnn属于有监督还是无监督_cnn能用于无监督学习_07

我们就可以认为:现有的这个卷积核保存着曲线的特征,匹配识别出来了老鼠的屁股是曲线的。我们则还需要其他特征的卷积核,来匹配识别出来老鼠的其他部分。卷积层的作用其实就是通过不断的改变卷积核,来确定能初步表征图片特征的有用的卷积核是哪些,再得到与相应的卷积核相乘后的输出矩阵。

Zero Padding

我们的图片由4*4,通过卷积层变为3*3,再通过池化层变化2*2,如果我们再添加层,那么图片岂不是会越变越小?这个时候我们就会引出“Zero Padding”(补零),它可以帮助我们保证每次经过卷积或池化输出后图片的大小不变,如,上述例子我们如果加入1的Zero Padding,再采用3*3的卷积核,那么变换后的图片尺寸与原图片尺寸相同,如下图所示

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积核_08

通常情况下,我们希望图片做完卷积操作后保持图片大小不变,所以我们一般会选择尺寸为3*3的卷积核和1的zero padding,或者5*5的卷积核与2的zero padding,这样通过计算后,可以保留图片的原始尺寸。那么加入zero padding后的feature_map尺寸 =( width + 2 * padding_size - filter_size )/stride + 1

  注:这里的width也可换成height,此处是默认正方形的卷积核,weight = height,如果两者不相等,可以分开计算,分别补零

空间排列(Spatial arrangement)

一个输出单元的大小有以下三个量控制:depth, stridezero-padding

  • 深度(depth) : 顾名思义,它控制输出单元的深度,也就是filter的个数,连接同一块区域的神经元个数。又名:depth column
  • 步幅(stride):它控制在同一深度的相邻两个隐含单元,与他们相连接的输入区域的距离。如果步幅很小(比如 stride = 1)的话,相邻隐含单元的输入区域的重叠部分会很多; 步幅很大则重叠区域变少。
  • 补零(zero-padding)

局部感知:人的大脑识别图片的过程中,并不是一下子整张图同时识别,而是对于图片中的每一个特征首先局部感知,然后更高层次对局部进行综合操作,从而得到全局信息。

卷积层使用“卷积核(滤波器filter)”进行局部感知。举个例子来讲,一个32×32×3(彩色图为3通道或深度为3)的RGB图经过一层5×5×3的卷积后变成了一个28×28×1的特征图,那么输入层共有32×32×3=3072个神经元,第一层隐层会有28×28=784个神经元,这784个神经元对原输入层的神经元只是局部连接,如下图所示:

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_09

通过局部感知特性,大大减少了模型的计算参数。但是仅仅这样还是依然会有很多参数。这就有了权值共享机制:

在上面的局部感知中,假设有1m的隐层神经元,每个神经元10*10的连接,这样就会有1m*10*10个参数。实际上,对于每一层来讲,所有神经元对应的权值应该是相等的,也就是说,第一个神经元的参数向量为[w1,w2,…,w100],那么其他同层的神经元也是[w1,w2,…,w100],这就是权值共享。

为什么需要权值共享呢?同一层下的神经元的连接参数只与特征提取的有关,而与具体的位置无关,因此可以保证同一层中所有位置的连接是权值共享的。例如:第一层隐层是一般用边缘检测,第二层是对第一层学到的边缘曲线组合得到一些特征,比如:角度、线形等;第三层会学到更加复杂的特征,比如:眼睛、眉毛等。对于同一层来说,他们提取特征的方式是一样的,第三层的神经元都是用来提取“眼睛”的特征,因此,需要计算的参数是一样的。

3激活层

所谓激励,实际上是对卷积层的输出结果做一次非线性映射

卷积之后,通常会加入偏置(bias), 并引入非线性激活函数(activation function),这里定义bias为b,activation function 是

,经过激活函数后,得到的结果是,

.

这里请注意,bias不与元素位置相关,只与层有关。主流的activation function 有,

  • 线性整流单元(ReLU):

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积核_10

  • Sigmoid函数:

cnn能用于无监督学习 cnn属于有监督还是无监督_cnn能用于无监督学习_11

  • tanh函数:

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_12

根据实际参数大小等性质调整。

图中feature maps volume的每个元素就是由

,这里的feature map是可以可视化的

cnn能用于无监督学习 cnn属于有监督还是无监督_卷积核_13

例如采用277*277的RGB图像, 采用96个11*11*3的kernels(卷积核)同时扫描,很容易得到输出的feature maps是96个267*267的二维 feature map, 267*267是单个图像feature map的x,y轴大小,96是卷积核个数,原本的3通道在积分的时候会被作为一个元素加起来。 如上图,这些feature map可视化之后,可以看到4 和35表示边缘特征,23是模糊化的输入,10和16在强调灰度变化,39强调眼睛,45强调红色通道的表现。

4、池化层(pooling layer):提取主要特征,减少特征数目

池化(Pooling):也称为欠采样下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的容错性。

  • 为了减少训练参数的数量,降低卷积层输出的特征向量的维度
  • 减小过拟合现象,只保留最有用的图片信息,减少噪声的传递

最常见的两种池化层的形式:

  • 最大池化:max-pooling——选取指定区域内最大的一个数来代表整片区域(提取图片纹理)
  • 均值池化:mean-pooling——选取指定区域内数值的平均值来代表整片区域(保留背景特征)

举例说明两种池化方式:(池化步长为2,选取过的区域,下一次就不再选取)

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_14

5、Flatten层(扁平化层)

做完Pooling层后,我们就会把这些数据“拍平”,丢到Flatten层,然后把Flatten层的output放到full connected Layer里,采用softmax对其进行分类。

cnn能用于无监督学习 cnn属于有监督还是无监督_tictoc正方形网络模型_15

6、全连接输出层(fully connected output layer)

出现在CNN中的全连接网络(fully connected network)主要目的是为了分类, 这里称它为network的原因是,目前CNNs多数会采用多层全连接层,这样的结构可以被认为是网络。如果只有一层,下边的叙述同样适用。它的结构可能如下图所示:

cnn能用于无监督学习 cnn属于有监督还是无监督_cnn能用于无监督学习_16

图2,全连接层结构

不同于CNN的滑动卷积,全连接网络每一层的所有单元与上一层完全连接。通常,除了输入层和输出层的其他层,都被认为是隐含层。如图2所示,对于第

层的第

个神经元,它的输出计算方式是,

考虑activation function之后,对于第

层的第

个神经元,输出是

计算这一层中的所有神经元之后, 作为下一层的输入。

全连接网络和CNN的数学表达结构其实很相似,只是不存在关于图像空间上的滑动卷积。

目标函数与训练方法

CNN网络的训练误差需要通过一个目标函数来衡量,目前比较流行的目标函数是均方误差(Mean Square Error)和K-L散度(K-L divergence),对于输出层的误差公式很容易判断:

  • MSE: —————————-(1)
  • K-L divergence :

其中

是期望输出(标注标签),

是第

层的第

个神经元的输出。

K-L divergence 和MSE原理本文不再过多介绍,通常K-L divergence的权重更新会比MSE更快。

小讯
上一篇 2025-05-02 11:53
下一篇 2025-05-16 11:25

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/187210.html