深度学习-----简单入门卷积神经网络CNN的全流程

发布于:2025-09-04 ⋅ 阅读:(14) ⋅ 点赞:(0)
(一)卷积神经网络(CNN)的核心思想
  1. 传统全连接网络的缺陷
    • 图像平铺展开后,旋转或位置变化会导致输入差异大,难以识别
    • 举例:手写数字“8”在不同位置或旋转后的识别困难(图像在计算机中是一堆按顺序排列的数字,数值为0到255。0表示最暗,255表示最亮) 

  2. CNN的改进
    • 模拟人类视觉,通过卷积层、池化层和全连接层组合,局部扫描图像提取特征
    • 关键优势:对图像的位置、旋转等变换具有鲁棒性(鲁棒性(Robustness)是系统或算法在面对不确定性、异常输入、噪声或环境变化时,仍能保持稳定性能的能力。它是衡量系统可靠性和抗干扰能力的重要指标)
(二)卷积层的原理
  1. 卷积核(Filter/Kernel)
    • 固定权重矩阵(如3x3),作为滤波器扫描图像局部区域
    • 作用:提取局部特征(如边缘、纹理),类似图像滤波操作
    • 对图像(不同的窗口数据)和卷积核(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源
  2. 滑动窗口计算
    • 卷积核在图像上滑动,与覆盖区域逐元素相乘后求和,生成特征图
    • 公式示例:窗口内元素与卷积核对应位置相乘后累加(如-8的计算过程)
    • 激活函数
      • 通常使用ReLU等非线性激活函数增强特征表达能力
(三)卷积神经网络(CNN)的核心原理及计算流程

1. 卷积核与特征提取

  • 卷积核是固定权重矩阵,通过与图像局部窗口做内积(逐元素相乘后求和)生成特征值,类似“滤波器”提取特定模式(如边缘、纹理)
  • 训练中动态调整卷积核权重以优化分类效果(如区分猫狗)

2. 多通道与多卷积核

  • 彩色图像分RGB三通道,需对应三个卷积核分别处理,结果叠加生成特征图
  • 多卷积核生成多特征图,模拟人眼多视角观察,捕捉不同特征(如形状、颜色分布)

3. 关键参数与计算

  • 步长(Stride):滑动窗口每次移动的步长,决定输出特征图尺寸
  • 填充(Zero Padding):在图像边缘补0,平衡边缘与中心区域的计算次数,并适配步长整除需求
  • 输出尺寸公式

    示例:32×32图像用5×5卷积核、步长1、填充2,输出仍为32×32特征图
    4. 多层卷积与特征抽象
  • 多层卷积逐步过滤噪声,保留核心特征(如从模糊轮廓到清晰物体形态)
  • 每层输出作为新“图像”(特征图),继续输入下一层卷积或全连接层

5. 网络结构与流程

  • 输入层:原始图像(如224×224×3)
  • 卷积层:多组卷积核生成多通道特征图(如55×55×48)
  • 池化层(后续讲解):压缩特征图尺寸,减少计算量
  • 全连接层:展平特征图后接全连接神经元,输出分类概率(如飞机/汽车/行人等)

6.池化层(Pooling Layer)

  • 作用:降采样减少特征图尺寸,降低计算量与参数量;控制过拟合。
  • 常见方法
    • 最大池化:选取窗口内最大值作为输出。
    • 平均池化:计算窗口内平均值作为输出。
    • 全局平均池化、全局最大池化:无滑动窗口,直接对整个特征图计算平均值或最大值。
  • 实现方式:通过滑动窗口(如2×2)和步长(如2)遍历特征图。

7.全连接层(FC)

  • 将多通道特征图展平为一维向量,用于分类任务(输出类别概率)
  • 因卷积/池化层仅生成特征图,需全连接层完成最终预测

8.感受野(Receptive Field)

  • 定义:一个神经元或像素点对应原始图像的区域大小
  • 计算示例
    • 单层7×7卷积核的感受野为7×7
    • 多层叠加时,感受野呈指数级扩大(如三层3×3卷积核的感受野为7×7)
  • 参数优化:小卷积核(如3×3)优于大卷积核(如7×7),因前者参数更少且效果相同

9.经典卷积神经网络

  • LeNet:首个成功应用的卷积网络(辛顿发明)
  • AlexNet:依托ImageNet数据集(李飞飞主导)推动深度学习爆发
  • VGGNet:全堆叠3×3卷积核与2×2池化层
  • ResNet(残差网络):引入跨层连接,成为大模型基础
  • DenseNet:基于ResNet的改进,进一步整合跨层连接
(四)感受野