打开深度学习的锁:(0)什么是神经网络?

发布于:2024-05-07 ⋅ 阅读:(26) ⋅ 点赞:(0)

PS:每每温故必而知新

一、一个单神经元的神经网络

深度学习中的神经网络是一种受人脑结构启发的算法模型,主要用于模拟人脑处理和学习信息的方式。这种网络包括多层的 “神经元” 节点。

每个节点都是一个计算单元,它们通过层与层之间的连接互相传递信息。

每个连接都有一个权重,这些权重在学习过程中会不断更新,以帮助网络更好地完成特定任务,如图像识别、语音理解或文本翻译。

神经网络的基本组成包括:

  1. 输入层:接收原始数据输入,如图像的像素值、音频信号或文本数据。
  2. 隐藏层:一个或多个,负责从输入中提取特征。每个隐藏层都会将前一层的输出作为输入,通过激活函数进一步处理这些数据。
  3. 输出层:生成最终的输出,如分类任务中的类别标签。

举个简单的例子:我们希望预测房间大小房价之间的关系。

假设我们有6个房价变化和房间大小变化的数据,我们把它们放在一个直角坐标系上。

在这里插入图片描述
我们希望通过六个数据的信息,找到一个 “房间大小和房价的关系函数”
当我们获得这个 “函数” ,我们只需要输入 房间大小 就可以计算出对应的 房价

对于这个简单的任务,函数即是初始为0的一个线性回归函数(X轴为房间大小,Y为价格)。

在这里插入图片描述
进一步,我们把这个 “房间大小和房价的关系函数” 抽象成一个小圆点,当输出房间大小X的时候,我们会得到一个对应的房价Y
在这里插入图片描述

所以这个小圆点,就是神经网络中的一个 “神经元(Neurons)”
在这里插入图片描述

二、多个单神经元的神经网络

之前的输入数据,只有一个简单的"房子大小X". 即我们只需要考虑房子大小对于房价的影响。
那么,如果存在多个因素,比如房子的房间数房子处于的地段位置房子的使用寿命等…

这些考虑因素,输入数据中的 属性 或组成部分,在机器学习中叫 特征(Feature)

假设,对于 每一个房子,现在我们要输入的特征有四个,分别是房子的大小(Size)、房间数量(Bedrooms)、房子的位置(Position)、周边富裕情况(Wealth)

在这里插入图片描述
接下来,我们可以根据 每一个房子 的Size和Bedrooms,学习到一个函数(“小圆点/ 神经元”),来预测房子可以容纳人口的数量(Familys)

在这里插入图片描述
然后,我们可以根据 每一个房子 的Position,来预测房子的交通是否便利(Convenience)

在这里插入图片描述
然后,我们也可以根据 每一个房子 的Position和Wealth来预测附近的教学质量(School)

在这里插入图片描述
最后,我们可以通过 每一个房子 的人口的数量(Familys)、便利程度(Convenience)、教学质量(School)来学习到一个函数(“小圆点/ 神经元”),来预测 每一个房子 的价格。
在这里插入图片描述
对于输入的,每一个房子 的四个原始特征,记作X。
对于最后得到的 每一个房子 的预测价格,记作Y

在这里插入图片描述

三、到底什么是机器学习?(重点)

1:什么是机器学习的训练?

1:我们需要搭建好神经网络的框架,设定好有多少层,每一层有多少神经元。
2:我们需要给每一个神经元设置一个固定的公式,和两个可变的参数(权重 W W W和偏差 b b b
3:向这个框架给定 训练数据集中的每一个数据的多个特征X,然后也给定 每一个数据的希望预测结果Y
4:然后计算机就会根据“输入数据”和“理想结果”,自动学习 “怎么调节权重 W W W和偏差 b b b,可以使X变成Y?"

找权重 W W W和偏差 b b b的过程,就称为训练!

2:什么是模型?权重 W W W和偏差 b b b又是什么?

W W W:输入特征的权重

微观到每一个神经元来看,它们接受的输入的 训练数据集中的每一个数据的多个特征 N ≥ 1 N\geq1 N1,对于这多个特征,我们需要知道每一个输入特征在预测输出中的贡献大小

哪些对于渴望的预测是是重要的,哪些是不重要的?
在这里插入图片描述

在每一个神经元中,我们给接收到的每一个特征一个自己的可变的权重,也就是 W W W

通过“学习”,模型可以自动增大对于渴望的预测有利的特征的权重
通过“学习”,模型可以自动减小对于渴望的预测有利的特征的权重

所以可以说,权重 W W W是作用于每一个神经元接收的多个输入的特征上

b b b:每一个神经元的专属偏差

如果,无论怎么调整输入特征的权重,得到的计算公式还是不能把数据拟合成我们理想的输出该怎么办呢?
这个时候,我们可以引入偏差 b b b,来辅助权重 W W W调整神经元中的公式

在每一个神经元中,权重 W W W的个数等于输入的特征的个数即每一个特征都有一个自己的权重来微调
而对于每一个神经元,有且只有一个单独的 b b b,用来直接调控当前神经元(当前的计算公式)。

此外,偏差的引入还有以下好处:

  1. 增加偏移能力
    假设一个线性模型没有偏差项,即模型的表达式为 ( y = Wx ),其中 ( W ) 是权重,( x ) 是输入。这种模型限制了输出 ( y ) 必须通过原点,即当 ( x = 0 ) 时 ( y ) 也必须为 0。这种限制减少了模型的灵活性,因为现实世界的数据往往不是完全通过原点的。引入偏差 ( b )(即 ( y = Wx + b ))可以允许输出有一个基线偏移,无论输入 ( x ) 的值如何

  2. 适应数据偏差
    实际数据往往包含不同的偏差,如数据集整体可能偏向某个数值。没有偏差项的模型可能很难适应这种类型的数据结构,因为模型无法通过简单的权重调整来补偿这种偏向。偏差项可以帮助模型更好地适应数据的中心位置或其他统计特征。

  3. 提高非线性
    在包含非线性激活函数的神经网络中,每个神经元的输出不仅取决于加权输入和偏差,还取决于激活函数如何处理这个加权和。偏差可以调整在激活函数中加权和的位置,从而影响激活函数的激活状态。这种调整是非常重要的,因为它可以帮助网络捕捉更复杂的模式和关系。

  4. 增加决策边界的灵活性
    在分类问题中,决策边界是模型用来区分不同类别的界限。==如果没有偏差项,模型的决策边界可能只能是通过原点的直线或超平面,这大大限制了模型的有效性。==通过引入偏差,模型的决策边界可以是任意位置的直线或超平面,这大大提高了模型解决实际问题的能力。

3:神经元的里面是什么?

神经元里的基础函数:线性变换函数

在深度学习中,每一个神经单元(通常称为神经元或单元)的基础,都是执行一个线性变换函数
即:
y = w ∗ x + b y=w*x+b y=wx+b
其中, w w w 是权重, b b b 是偏置, x x x是输入数据或前一层的输出, y y y是得到的预测结果。
在这里插入图片描述

神经元里为了多样化任务的函数:激活函数

可以看到,线性变化的范围, x x x y y y成正比,无限增长或无限缩小。
单单依靠这简单的线性变化,无法满足多样的需求。

因此,我们需要在这个线性变化函数的外面嵌套一个函数,这样的函数也成为激活函数(Activation Function)

那什么又是嵌套呢?即,线性变化函数的输出结果,作为激活函数的输入值

举例:

对于逻辑回归任务,即预测一个事件发生的概率,有发生不发生两种情况(二分类任务)
如果我们只是使用简单的线性变化函数,得到的得到的结果、输入 x x x和输出 y y y的关系可能是这样(假设不考虑 w w w b b b

在这里插入图片描述
X有5种类型的输人,Y也有5种类型的输出,这样怎么判断事件发生的概率是发生了还是不发生呢?

聪明的小朋友也许想到了,我们可以以数字4为分界线,大于4的视为发生了,小于4的视为不发生

在机器学习种,有一个思路和这样一模一样的函数专门应用于逻辑回归任务,即sigmoid函数

对于它,只需要明白两点。

  1. 无论输入大小,它的输出范围:[0,1],它的图像是这样

在这里插入图片描述
2. 公式如下:
y = 1 1 + e − x y = \frac{1}{1 + e^{-x}} y=1+ex1
这个时候,我们就可以把得到的线性变化函数结果 y y y放到sigmoid函数里面— 或者直接将线性变化函数与sigmoid函数合并计算:

y = 1 1 + e − ( w ⋅ x + b ) y= \frac{1}{1 + e^{-( w \cdot x + b)}} y=1+e(wx+b)1

那么得到的输出结果可能就是这样:
在这里插入图片描述

这里的sigmoid函数,即嵌套在线性函数外面用于多样化功能的函数,就叫激活函数.

四、什么是深度学习?

深度学习的 “深度” 指的是神经网络中隐藏层的数量
在这里插入图片描述
随着层数的增加,网络能够学习更复杂的特征,但同时也可能导致计算成本增加和模型训练难度加大。

神经网络通过一种叫做反向传播的学习算法来训练,它涉及到对网络输出的误差进行评估,并将误差反向传递回网络,以调整连接的权重,从而减少未来输出的误差。这个过程通常需要大量的数据和计算资源,这些我们下一篇再说。