【学习笔记】机器学习(Machine Learning) | 第七章|神经网络(1)

发布于:2025-05-17 ⋅ 阅读:(20) ⋅ 点赞:(0)

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源



机器学习之深度学习神经网络入门

在人工智能技术浪潮席卷全球的今天,深度学习神经网络作为其核心驱动力,正以前所未有的速度重塑各行业格局。本文将以学习笔记的视角,系统梳理神经网络的基础概念与核心架构,为深入探索深度学习打下坚实基础。

一、神经网络的起源与发展

神经网络的理论雏形可追溯至 1943 年 McCulloch 和 Pitts 提出的MP 神经元模型,该模型首次将生物神经元的工作机制抽象为数学计算单元。在 20 世纪 80 年代,反向传播算法(Backpropagation)的提出推动神经网络进入第一次发展高峰,在光学字符识别(OCR)等领域取得显著成果。但受制于当时有限的计算资源和梯度消失问题,90 年代后期神经网络逐渐陷入发展瓶颈。

转折点出现在 2006 年,Hinton 等人提出深度信念网络(DBN)和预训练 - 微调策略,结合 GPU 算力的爆发式增长,神经网络迎来复兴。如今,基于 Transformer 架构的大语言模型(如 GPT 系列)、计算机视觉领域的卷积神经网络(CNN),以及自动驾驶中的端到端神经网络系统,都印证了其强大的泛化能力与应用潜力。

二、神经元模型

(一)生物神经元与数学模型对比

对比维度 生物神经元 数学神经元模型
结构特征 由树突(接收信号)、细胞体(整合信号)、轴突(输出信号)构成 由权重矩阵、偏置向量和激活函数组成计算单元
信号传输 通过电信号与化学递质传递脉冲信号 通过矩阵乘法和非线性变换传递数值信号
信息处理 非线性加权求和并阈值化输出 通过 z = ∑ i = 1 n w i x i + b z = \sum_{i=1}^{n}w_ix_i + b z=i=1nwixi+b 计算加权和,再经激活函数处理

(二)数学模型示例

以电商平台商品需求预测为例,构建单神经元模型:

输入层:接收商品价格 x x x(如 x = 99 x = 99 x=99 元)

计算过程

加权求和: z = w x + b z = wx + b z=wx+b,假设 w = 0.3 w = 0.3 w=0.3 b = − 5 b = -5 b=5,则 z = 0.3 × 99 − 5 = 24.7 z = 0.3 \times 99 - 5 = 24.7 z=0.3×995=24.7

激活函数:采用 sigmoid 函数 a = 1 1 + e − z = 1 1 + e − 24.7 ≈ 1 a = \frac{1}{1 + e^{-z}} = \frac{1}{1 + e^{-24.7}} \approx 1 a=1+ez1=1+e24.711

输出层:输出值 a a a 代表商品成为爆款的概率(接近 1 表明高可能性)

该过程通过调整权重 w w w 和偏置 b b b(训练过程),使模型预测与实际销售数据匹配,从而实现需求预测。

三、神经网络性能与数据量、硬件的关系

模型类型 数据需求特征 性能曲线特点 典型应用场景
传统 AI 算法 依赖人工特征工程,数据规模 < 1 万条 线性增长后趋于饱和 规则明确的结构化数据处理
小型神经网络 数据规模 1 万 - 10 万条 初期提升快,后期出现过拟合 简单图像分类(MNIST 数据集)
中型神经网络 数据规模 10 万 - 100 万条 保持稳定性能提升 医疗影像辅助诊断
大型神经网络 数据规模 > 100 万条 呈指数级性能提升 自然语言处理(BERT 模型)

硬件层面,GPU 的并行计算能力使神经网络训练效率提升数百倍。以 ResNet - 50 模型为例,在 CPU 上训练 ImageNet 数据集需耗时数周,而使用 NVIDIA A100 GPU 仅需 1 - 2 天。

四、神经网络架构

(一)基本架构

输入层: 商品特征
价格/销量/评价
隐藏层1: 特征提取
性价比/竞争力
隐藏层2: 语义理解
市场潜力
输出层: 预测结果
未来销量

每个神经元通过连接权重与下一层交互,如输入层到隐藏层的连接可表示为:

[ a 1 ( 1 ) a 2 ( 1 ) ] = [ σ ( w 11 ( 0 ) x 1 + w 12 ( 0 ) x 2 + b 1 ( 0 ) ) σ ( w 21 ( 0 ) x 1 + w 22 ( 0 ) x 2 + b 2 ( 0 ) ) ] \begin{bmatrix} a_1^{(1)} \\ a_2^{(1)} \\ \end{bmatrix} = \begin{bmatrix} \sigma(w_{11}^{(0)}x_1 + w_{12}^{(0)}x_2 + b_1^{(0)}) \\ \sigma(w_{21}^{(0)}x_1 + w_{22}^{(0)}x_2 + b_2^{(0)}) \\ \end{bmatrix} [a1(1)a2(1)]=[σ(w11(0)x1+w12(0)x2+b1(0))σ(w21(0)x1+w22(0)x2+b2(0))]

其中, σ \sigma σ 为激活函数, w ( l ) w^{(l)} w(l) 为第 l l l 层权重, b ( l ) b^{(l)} b(l) 为偏置。
在这里插入图片描述

(二)多层隐藏层

随着隐藏层增加,网络表达能力呈指数级增长:

2 层隐藏层:可拟合复杂非线性边界,如手写数字识别

3 - 5 层隐藏层:适用于图像语义分析(识别图片中的多物体)

10 层以上:在 Transformer 架构中实现长距离依赖建模(如机器翻译)

但层数增加会引入梯度消失 / 爆炸问题,需通过残差连接(Residual Connection)、批量归一化(Batch Normalization)等技术优化。

深度学习神经网络通过模拟人类大脑的信息处理机制,在理论与实践的双重驱动下不断进化。后续学习将聚焦于网络训练的优化算法(如 Adam、Adagrad)、正则化技术(Dropout、L1/L2 范数)以及经典网络架构(CNN、RNN、Transformer)的具体实现,进一步解锁其在复杂任务中的应用潜力。


continue…


网站公告

今日签到

点亮在社区的每一天
去签到