scikit-learn/sklearn学习|岭回归解读

发布于:2025-08-12 ⋅ 阅读:(18) ⋅ 点赞:(0)

【1】引言

前序学习进程中,对用scikit-learn表达线性回归进行了初步解读。
线性回归能够将因变量 y y y表达成由自变量 x x x、线性系数矩阵 w w w和截距 b b b组成的线性函数式:
y = ∑ i = 1 n w i ⋅ x i + b = w T x + b y=\sum_{i=1}^{n}w_{i}\cdot x_{i}+b=w^T{x}+b y=i=1nwixi+b=wTx+b实际上很多时候数据之间不一定是理想化的线性关系,所以需要对线性关系式进行修正,这个时候就可以考虑岭回归。

【2】岭回归的原理

岭回归是修正后的线性回归,所以描述岭回归,必须先会议线性回归。
用scikit-learn表达线性回归中,我们在代码中使用了一个参数:均方误差。

【2.1】线性回归均方误差

对于线性回归,均方误差的计算式子为:
L ( w , b ) = ∑ i = 1 n ( y i − y i ^ ) 2 = ∑ i = 1 n ( y i − ( w T x i + b ) ) 2 L(w,b)=\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2=\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2 L(w,b)=i=1n(yiyi^)2=i=1n(yi(wTxi+b))2在这里, y y y是第i个样本的真实值, y ^ \hat{y} y^是第i个样本的预测值。
线性回归的均方误差将真实值和预测值作差后求平方和即可。

【2.2】岭回归均方误差

岭回归相对于线性回归,均方误差的计算式子增加了对参数权重平方和的计算,称之为L2正则化惩罚项:
L ( w , b ) = ∑ i = 1 n ( y i − y i ^ ) 2 + α ∑ j = 1 m w j 2 = ∑ i = 1 n ( y i − ( w T x i + b ) ) 2 + α ∑ j = 1 m w j 2 L(w,b)=\sum_{i=1}^{n}(y_{i}-\hat{y_{i}})^2+\alpha\sum_{j=1}^{m}w_{j}^{2}=\sum_{i=1}^{n}(y_{i}-(w^Tx_{i}+b))^2+\alpha\sum_{j=1}^{m}w_{j}^{2} L(w,b)=i=1n(yiyi^)2+αj=1mwj2=i=1n(yi(wTxi+b))2+αj=1mwj2在这里, y y y是第i个样本的真实值, y ^ \hat{y} y^是第i个样本的预测值。
新增加的L2正则化惩罚项 α ∑ j = 1 m w j 2 \alpha\sum_{j=1}^{m}w_{j}^{2} αj=1mwj2包括两部分:
第一部分 α > 0 \alpha>0 α>0代表正则化强度,可以控制对第二项惩罚的力度;
第二部分 ∑ j = 1 m w j 2 \sum_{j=1}^{m}w_{j}^{2} j=1mwj2是所有线性系数的平方和。
α \alpha α越大,惩罚项整体就会越大,这个时候往往需要将 w j w_{j} wj调小,也就是通过调整 w j → 0 w_{j}\rightarrow 0 wj0来避免过度拟合;
α = 0 \alpha=0 α=0,此时惩罚项不起作用,岭回归退化为线性回归。

【2.3】岭回归的意义

岭回归通过添加惩罚项解决了线性回归至少两个问题:
多重共线性,当变量之间高度相关时,在线性回归计算中可能获得极大的 w j w_{j} wj,通过惩罚项可以将这些参数下降到较小的范围,使得模型对数据波动的敏感性降低,从而获得更加稳健的效果;
过拟合,当变量过多或者噪声过大时,线性回归可能过度拟合数据,惩罚项通过将线性系数 w j w_{j} wj调小,让模型更倾向于关注整体趋势而非噪音。

【3】总结

岭回归和线性回归都是线性关系式的推演,但岭回归通过L2正则化惩罚项让线性系数 w j w_{j} wj保持在合理且较小的范围,让回归模型更稳健、更准确。