机器学习之卷积神经网络
卷积神经网络卷积神经网络(CNN):卷积+池化+全连接卷积:特征的自动提取局部特征提取训练中进行参数学习每个卷积核提取特定模式的特征卷积降低了网络模型的复杂度,减少了权值的数量卷积所进行的操作也可以说是加权求和的操作大矩阵称为原始图像, 橙色的部分的每个小框的右下角为卷积核为 原始图像 和 卷积核 点积运算之后得出的 卷积特征池化(下采样): 降维的一种方式降低数据维度增强局部感受野提高平移不变性
卷积神经网络
卷积神经网络(CNN):卷积+池化+全连接
卷积:特征的自动提取
- 局部特征提取
- 训练中进行参数学习
- 每个卷积核提取特定模式的特征
卷积降低了网络模型的复杂度,减少了权值的数量


卷积所进行的操作也可以说是加权求和的操作

大矩阵称为原始图像, 橙色的部分的每个小框的右下角为卷积核

为 原始图像 和 卷积核 点积运算之后得出的 卷积特征
池化(下采样): 降维的一种方式
- 降低数据维度
- 增强局部感受野
- 提高平移不变性
全连接:分类,并且可以换成KNN,决策树,SVM等分类算法
- 特征提取到分类的桥梁
Padding操作:用额外的‘假像素’(通常值为0,因此称为‘零填充’)填充边缘。这样,滑动时的核可以延伸到边缘之外的假像素,允许原始边缘像素位于核中心,从而产生与输入相同大小的输出。
也就是在图像边缘填充0
-
无Padding:
产生一个比原矩阵小的矩阵,为(n-2)*(n-2)的矩阵
-
加上Padding:
卷积核Kernel也叫作滤波器filter,代表图像的而某些特征,也称为神经元。比如垂直边缘,水平边缘,颜色,纹理等等,所有这些神经元加起来就相当于整张图的特征提取器集合。卷积其实就是加权求和,卷积核就是权重
卷积操作其实就是相似度匹配

卷积神经网络训练的就是卷积核,
池化:
-
池化层主要的作用是下采样,通过去掉Feature Map中不重要的样本,进一步减少参数数量
-
池化的方法很多,最常用的是Max Pooling。Max Pooling实际上就是在n*n的样本中取最大值,作为采样后的样本值
最大值池化:也就是相当于找出窗口中的最大值,将其组装成一个新的小矩阵(上图的步长为2,如果步长为1,可以得到一个3*3的小矩阵)
均值池化:也就是找出窗口中的数据的均值,组装成一个小矩阵
更多推荐
所有评论(0)