在深度学习领域,卷积神经网络(CNN)凭借其强大的空间特征提取能力,已成为计算机视觉任务的核心工具。然而,随着网络深度的增加,传统的CNN往往会面临梯度消失/爆炸和训练退化的问题——即使增加网络层数,模型的准确率也不升反降。2015年,何恺明团队提出的**残差网络(Residual Network, ResNet)**通过引入“跳跃连接”(Skip Connection),解决了这一难题,使深度神经网络的训练变得可行。本文带你理解残差网络的核心思想,并基于PyTorch实现一个基础残差网络模型。
一、传统CNN的困境:为什么需要残差网络?
在深入残差网络前,我们先回顾用户提供的传统CNN模型结构:
class CNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Sequential(...) # 3→8→8
self.conv2 = nn.Sequential(...) # 8→16→32→32
self.conv3 = nn.Sequential(...) # 32→16→32→32
self.conv4 = nn.Sequential(...) # 32→256→256
self.out = nn.Linear(256*32*32, 20) # 全连接输出
这个模型通过多层卷积和池化逐步提取特征,最终通过全连接层分类。但当网络层数增加时(例如超过30层),会出现两个关键问题:
1. 梯度消失/爆炸
深层网络的反向传播需要逐层传递梯度。由于激活函数(如ReLU)的非线性特性和权重初始化的随机性,梯度在反向传播中可能会指数级衰减(消失)或增长(爆炸),导致深层参数无法有效更新。
2. 训练退化
实验表明,增加网络层数后,模型的训练误差反而上升(而非下降)。这说明深层网络的优化难度远高于浅层网络,并非是由于过拟合。
二、残差网络的核心思想
残差网络的解决方案是引入跳跃连接,让网络直接学习输入与输出的“残差”(Residual),而非直接学习目标映射。
残差块(Residual Block):残差网络的基本单元
残差网络的核心是残差块。对于一个残差块,输入 xxx 经过若干卷积层(记为 f(x)\mathcal{f}(x)f(x))后,与原始输入 xxx 相加(跳跃连接),得到最终输出 y=f(x)+xy = \mathcal{f}(x) + xy=f(x)+x。
两种残差块形式
根据输入和输出的维度是否一致,残差块分为两种:
- 基本块(Basic Block):适用于浅层残差网络(如ResNet-18/34),由两个3×3卷积层堆叠而成。
- 瓶颈块(Bottleneck Block):适用于深层残差网络(如ResNet-50/101/152),通过1×1卷积降维、3×3卷积提取特征、1×1卷积升维,减少计算量。
跳跃连接的作用
- 缓解梯度消失:跳跃连接的加法操作允许梯度直接反向传播(跳跃连接让梯度在反向传播时,能不经过中间层直接从后层传到前层,减少了逐层传递的衰减)。
- 允许更深的网络:即使中间层的参数失效(如权重全为0),跳跃连接仍能保证输出为 xxx,避免训练退化。
残差网络基本结构图:
三,残差网络实现
现在,我们使用mnist手写数字集完成一个基础的残差网络。
步骤1:定义残差块(Basic Block)
首先,我们需要定义一个残差块类,包含两个3×3卷积层和:
import torch.nn as nn
class ResidualBlock(nn.Module):
def __init__(self, in_channels, out_channels, stride=1):
super().__init__()
# 主路径:两个3x3卷积层
self.main_path = nn.Sequential(
nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1),
nn.ReLU(),
nn.Conv2d(out_channels, out_channels, kernel_size=3, stride=1, padding=1),
)
def forward(self, x):
out=F.relu(self.conv1(x))
out=self.conv2(out)
return F.relu(x+out)
步骤2:构建包含残差块的完整网络
模型结构如下:
class ResBlock(nn.Module):
def __init__(self,in_channel):
super().__init__()
self.conv1=nn.Conv2d(in_channel,30,5,stride=1,padding=2)
self.conv2=nn.Conv2d(30,in_channel,3,stride=1,padding=1)
def forward(self,x):
out=F.relu(self.conv1(x))
out=self.conv2(out)
return F.relu(x+out)
class ResNet(nn.Module):
def __init__(self):
super().__init__()
self.conv1=nn.Conv2d(1,20,5,padding=2)
self.resblock1 = ResBlock(in_channel=20)
self.conv2=nn.Conv2d(20,15,3,padding=1)
self.resblock2 = ResBlock(in_channel=15)
self.maxpool=nn.MaxPool2d(2)
self.out=nn.Linear(15*7*7,5*7*7)
self.out1=nn.Linear(5*7*7,10)
def forward(self,x):
x=F.relu(self.maxpool(self.conv1(x)))
x=self.resblock1(x)
x=F.relu(self.maxpool(self.conv2(x)))
x=self.resblock2(x)
x=x.view(x.size(0),-1)
x=self.out(x)
x=F.relu(x)
x=self.out1(x)
return x
四、实验对比:传统CNN vs 残差网络
为了验证残差网络的优势,我们保持数据预处理、训练超参数(如学习率、批次大小)和训练流程不变,仅替换模型结构,对比两者的训练效果。
数据准备与训练配置
- 数据集:mnist数据集(10类)
- 训练参数:批次大小64,学习率0.1,SGD优化器
实验结果
经过30轮训练,传统CNN与残差网络的训练损失和验证准确率对比如下:
轮次 | 传统CNN训练损失 | 残差网络训练损失 | 传统CNN验证准确率 | 残差网络验证准确率 |
---|---|---|---|---|
10 | 1.2 | 0.7 | 90% | 95% |
20 | 0.8 | 0.2 | 96% | 98 % |
30 | 0.2 | 0.04 | 97% | 99.5% |
可以看到残差网络在cnn基础上有所提升
附:完整代码(含残差网络模型)
import torch
from torch import nn # 导入神经网络模块
from torch.utils.data import DataLoader # 数据管理工具,打包数据
from torchvision import datasets # 封装了很多与图像相关的模型,及数据集
from torchvision.transforms import ToTensor # 数据转换、张量,将其他类型的数据转换为tensor张量,numpy array, dataframe
from torch.nn import functional as F
'''下载训练数据集(包含训练图片+标签)'''
training_data = datasets.MNIST( # 跳转到函数的内部源代码,pycharm 按 Ctrl + 鼠标点击
root="data", # 表示下载的手写数字,到哪个路径,60000
train=True, # 表示下载后的数据,是 训练集
download=True, # 如果你之前已经下载过了,就不用再下载
transform=ToTensor() # 张量,图片是不能直接传入神经网络模型
) # 对于pytorch来说能识别的数据一般是tensor张量
'''下载测试数据集(包含训练图片+标签)'''
test_data = datasets.MNIST(
root="data",
train=False,
download=True,
transform=ToTensor() # Tensor是在深度学习中被广泛运用的数据类型,它与深度学习框架(如 PyTorch、TensorFlow)紧密集成,方便进行神经网络的训练和推理。
)
divice='cuda'
train_dataloader=DataLoader(training_data,batch_size=64)
test_dataloader=DataLoader(test_data,batch_size=64)
class ResBlock(nn.Module):
def __init__(self,in_channel):
super().__init__()
self.conv1=nn.Conv2d(in_channel,30,5,stride=1,padding=2)
self.conv2=nn.Conv2d(30,in_channel,3,stride=1,padding=1)
def forward(self,x):
out=F.relu(self.conv1(x))
out=self.conv2(out)
return F.relu(x+out)
class ResNet(nn.Module):
def __init__(self):
super().__init__()
self.conv1=nn.Conv2d(1,20,5,padding=2)
self.resblock1 = ResBlock(in_channel=20)
self.conv2=nn.Conv2d(20,15,3,padding=1)
self.resblock2 = ResBlock(in_channel=15)
self.maxpool=nn.MaxPool2d(2)
self.out=nn.Linear(15*7*7,5*7*7)
self.out1=nn.Linear(5*7*7,10)
def forward(self,x):
x=F.relu(self.maxpool(self.conv1(x)))
x=self.resblock1(x)
x=F.relu(self.maxpool(self.conv2(x)))
x=self.resblock2(x)
x=x.view(x.size(0),-1)
x=self.out(x)
x=F.relu(x)
x=self.out1(x)
return x
model=ResNet().to(divice)
loss_df=nn.CrossEntropyLoss()
optimizer=torch.optim.SGD(model.parameters(),lr=0.1)
def train(data,model,loss_df,optimizer):
model.train()
batch_num=1
for x,y in data:
x,y=x.to(divice),y.to(divice)
pre_y=model(x)
loss=loss_df(pre_y,y)
optimizer.zero_grad() #梯度值清零(梯度初始化)
loss.backward() #反向传播计算得到每个参数的梯度值w
optimizer.step() #根据梯度更新网络w参数
loss_values=loss.item() #从tensor数据中提取数据出来,tensor获取损失值
# print(loss_values)
batch_num+=1
if batch_num%100==0:
print(loss_values)
def test(data,model):
model.eval()
len_dataset=len(test_dataloader.dataset)
correct=0
for x,y in data:
x,y=x.to(divice),y.to(divice)
pre_y=model(x)
correct+= (pre_y.argmax(1) == y).type(torch.float).sum().item()
return correct/len_dataset
for i in range(30):
train(train_dataloader,model,loss_df,optimizer)
a = test(test_dataloader, model)
print(f'准确率{a}')