从代码学习深度学习 - 小批量随机梯度下降 PyTorch 版

发布于:2025-04-19 ⋅ 阅读:(55) ⋅ 点赞:(0)


前言

深度学习是人工智能领域的核心技术之一,而小批量随机梯度下降(Mini-Batch Stochastic Gradient Descent, SGD)是训练神经网络的基石算法。本文将通过一个完整的 PyTorch 实现,带你深入理解小批量 SGD 的工作原理。我们以 NASA 的 Airfoil Self-Noise Dataset 为例,展示如何使用 PyTorch 构建数据加载器、定义模型、训练神经网络,并可视化训练过程。

小批量随机梯度下降公式:在这里插入图片描述

本文的目标是通过代码逐步解析深度学习的核心组件,帮助初学者从实践中掌握理论知识。所有代码均来自附件,涵盖数据处理、训练工具、可视化工具和主训练逻辑。让我们开始吧!

完整代码:下载链接

一、数据准备与处理

1.1 数据集简介

我们使用的是 Airfoil Self-Noise Dataset,一个用于回归任务的经典数据集,来自 UCI 机器学习库。它包含 1503 条记录,每条记录有 5 个输入特征和 1 个目标变量(缩放后的声压级,单位为分贝)。特征包括:

  • 声音频率(Frequency, Hz)
  • 攻角(Angle of attack, degrees)
  • 翼弦长度(Chord length, m)
  • 来流速度(Free-stream velocity, m/s)
  • 吸力面位移厚度(Suction side displacement thickness, m)

目标是预测给定气动参数下的声压级。

1.2 数据加载与预处理

以下代码(utils_for_data.py)实现了数据加载和预处理逻辑。它从 airfoil_self_noise.dat 文件中读取数据,进行标准化处理,并构造 PyTorch 数据迭代器。

import torch
from torch.utils import data
from torch.utils.data import TensorDataset, DataLoader
import numpy as np


def load_array(data_arrays, batch_size, is_train=True):
    """构造一个PyTorch数据迭代器
    
    参数:
    data_arrays (tuple of tensors): 包含特征和标签的张量,
                                    通常为 (X, y),其中
                                    X 维度: (样本数, 特征数)
                                    y 维度: (样本数, 1) 或 (样本数,)
    batch_size (int): 批量大小,决定每次迭代返回的样本数量
    is_train (bool): 是否为训练模式,若为True则打乱数据
    
    返回:
    DataLoader: PyTorch数据加载器,每次迭代返回一个批次,
               批次中的X维度: (batch_size, 特征数)
               批次中的y维度: (batch_size, 1) 或 (batch_size,)
    """
    dataset = data.TensorDataset(*data_arrays)  # 创建数据集,将多个张量组合成一个数据集
    return data.DataLoader(dataset, batch_size, shuffle=is_train)  # 返回数据加载器,控制批次大小和是否打乱


def get_data(batch_size=10, n=1500):
    """获取气动翼型自噪声数据集并构造数据迭代器
    
    参数:
    batch_size (int): 批量大小
    n (int): 使用的样本数量,默认为1500
    
    返回:
    data_iter: 数据迭代器,每次返回一个批次的数据
    input_size: 特征维度数量
    """
    # 从本地文件加载数据,维度: (总样本数, 特征数+1)
    data = np.genfromtxt('airfoil_self_noise.dat', dtype=np.float32, delimiter='\t')
    
    # 数据标准化处理,维度保持: (总样本数, 特征数+1)
    data = torch.from_numpy((data - data.mean(axis=0)) / data.std(axis=0))
    
    # 构造数据迭代器
    # data[:n, :-1] 维度: (n, 特征数),选取前n个样本的所有特征
    # data[:n, -1] 维度: (n,),选取前n个样本的标签
    data_iter = load_array((data[:n, :-1], data[:n, -1]),
                          batch_size, is_train=True)
    
    # 返回数据迭代器和特征维度
    # data.shape[1]-1 为特征数量(减去标签列)
    return data_iter, data.shape[1]-1

代码解析

  • load_array:将特征和标签张量封装成 TensorDataset,并通过 DataLoader 提供批量数据加载功能,支持训练时的随机打乱。
  • get_data:加载数据集,标准化数据(零均值、单位方差),并返回数据迭代器和特征维度(5)。

二、训练工具与辅助类

为了支持训练过程,我们需要一些辅助工具,包括计时器、累加器、GPU 检查函数和损失评估函数。这些工具定义在 utils_for_train.py 中。

import time
import torch
import torch.nn as nn
import numpy as np
import utils_for_huitu  # 这个是你自己的工具包


class Timer:
    """记录多次运行时间"""
    def __init__(self):
        """Defined in :numref:`subsec_linear_model`"""
        self.times = []
        self.start()

    def start(self):
        """启动计时器"""
        self.tik = time.time()

    def stop(self):
        """停止计时器并将时间记录在列表中"""
        self.times.append(time.time() - self.tik)
        return self.times[-1]

    def

网站公告

今日签到

点亮在社区的每一天
去签到