如何保存训练的最优模型和使用最优模型文件

发布于:2025-09-08 ⋅ 阅读:(25) ⋅ 点赞:(0)

一 保存最优模型

主要就是我们在for循环中加上一个test测试,并且我还在test函数后面加上了返回值,可以返回准确率,然后每次进行一次对比,然后取大的。然后这里有两种保存方式,一种是保存了整个模型,另一个是保存了模型参数。

1 仅保存模型参数

torch.save(model.state_dict(),'best_model.pth')

然后后面我们使用的时候

model =torch.load('best1.pth')#
model.to(device)
model.load_state_dict(torch.load("best.pth", map_location=device))
model.eval()
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
test(test_dataloader,model,loss_fn)

注意这里要设置eval模式,因为我们要保证我们的模型参数不再变化了。

2 保存整个模型

torch.save(model,'best1.pth')

在调用的时候

model = torch.load('best1.pth', map_location=torch.device('cuda'))
model.eval()
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
test(test_dataloader,model,loss_fn)

直接调用就好。

注意这两种必须要有定义好的网络,不然无法运行(保存整个网络也要定于一个完全相同的网络)。

完整代码

epochs=20
for i in range(epochs):
    print(f"Epoch {i+1}")
    train(train_dataloader,model,loss_fn,optimizer)
    corrects = test(test_dataloader,model,loss_fn)
    accuracy_list.append(corrects)
    if corrects>best_acc:
        print(f"Best Accuracy: {corrects}%")
        best_acc=corrects
        #第一种
        # torch.save(model.state_dict(),'best_model.pth')
        #第二种
        torch.save(model,'best1.pth')

完整代码含网络

import numpy as np
import torch
from PIL import Image
from torch import nn
from torch.utils.data import DataLoader, Dataset
from torchvision import transforms


class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.conv1 = nn.Sequential(
            nn.Conv2d(  # 2d一般用于图像,3d用于视频数据(多一个时间维度),1d一般用于结构化的序列数据
                in_channels=3,  # 图像通道个数,1表示灰度图(确定了卷积核 组中的个数),
                out_channels=16,  # 要得到多少个特征图,卷积核的个数
                kernel_size=5,  # 卷积核人小,5*5
                stride=1,  # 步长
                padding=2  # 填充值
            ),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),  # 进行池化操作(2x2 区域)
        )
        self.conv2 = nn.Sequential(
            nn.Conv2d(16, 32, 5, 1, 2),
            nn.ReLU(),
            nn.Conv2d(32, 32, 5, 1, 2),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size=2),
        )
        self.conv3 = nn.Sequential(
            nn.Conv2d(32, 64, 5, 1, 2),
            nn.ReLU(),

        )
        self.out = nn.Linear(64 * 64 * 64, 20)  # 全连接层得到的结果

    def forward(self, x):  # 前向传播,你得告诉它 数据的流向 是神经网络层连接起来,函数名称不能改
        x = self.conv1(x)
        x = self.conv2(x)
        x = self.conv3(x)
        x = x.view(x.size(0), -1)  # view和reshape是一样的作用,但此处是tensor形式
        output = self.out(x)
        return output


data_transform={
    # 'train': transforms.Compose([
    #     # 调整图像大小为300x300像素
    #     transforms.Resize([256, 256]),
    #
    #     # # 随机旋转:-45到45度之间随机选择角度
    #     # transforms.RandomRotation(45),
    #     # #
    #     # # # 从中心裁剪出256x256的区域
    #     # transforms.CenterCrop([256, 256]),
    #     #
    #     # # 随机水平翻转:以50%的概率进行水平镜像
    #     # transforms.RandomHorizontalFlip(p=0.5),
    #     #
    #     # # 随机垂直翻转:以50%的概率进行垂直镜像
    #     # transforms.RandomVerticalFlip(p=0.5),
    #     #
    #     # # # 颜色抖动:随机调整亮度、对比度、饱和度和色调
    #     # # transforms.ColorJitter(
    #     # #     brightness=0.2,    # 亮度变化幅度为20%
    #     # #     contrast=0.1,      # 对比度变化幅度为10%
    #     # #     saturation=0.1,    # 饱和度变化幅度为10%
    #     # #     hue=0.1            # 色调变化幅度为10%
    #     # # ),
    #     # #
    #     # # # 随机灰度化:以10%的概率将图像转换为灰度图
    #     # transforms.RandomGrayscale(p=0.1),
    #
    #     # 将PIL图像转换为PyTorch张量,并自动归一化到[0,1]范围
    #     transforms.ToTensor(),
    #
    #     # 标准化:使用ImageNet数据集的均值和标准差进行标准化
    #     transforms.Normalize(
    #         [0.485, 0.456, 0.406],  # 均值(R, G, B通道)
    #         [0.229, 0.224, 0.225]   # 标准差(R, G, B通道)
    #     )
    # ]),

    # 验证/测试数据的预处理(通常不需要数据增强)
    'test': transforms.Compose([
        transforms.Resize([256, 256]),
        # transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ])
}

class food_dataset(Dataset):
    def __init__(self, root, transform=None):
        super().__init__()
        self.root = root
        self.transform = transform
        self.images = []
        self.labels = []
        with open(root,encoding='utf-8') as f:
            samples = [i.strip().split() for i in f.readlines()]
            for img_path,label in samples:
                self.images.append(img_path)
                self.labels.append(label)

    def __len__(self):
        return len(self.images)


    def __getitem__(self, index):
        image=Image.open(self.images[index]).convert('RGB')
        if self.transform:
            image=self.transform(image)

        label = self.labels[index]
        # print(label)
        label = torch.from_numpy(np.array(label,dtype=np.int64))
        # print(label)
        return image, label

def test(dataloader,model,loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    model.eval()
    batch_size_num=1
    loss,correct=0,0
    with torch.no_grad():
        for X, y in test_dataloader:
            X,y=X.to(device),y.to(device)
            pred = model(X)
            loss = loss_fn(pred,y)+loss

            correct += (pred.argmax(1) == y).type(torch.float).sum().item()
    loss/=num_batches
    correct/=size
    print(f'Test result: \n Accuracy: {(100*correct)}%,Avg loss: {loss}')


device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

test_data=food_dataset('test_data',transform=(data_transform['test']))
test_dataloader = DataLoader(test_data, batch_size=16, shuffle=True)

# model =CNN()
# model.to(device)
# model.load_state_dict(torch.load("best.pth"))
model=torch.load('best.pt')
model.eval()
loss_fn = nn.CrossEntropyLoss()
test(test_dataloader,model,loss_fn)


网站公告

今日签到

点亮在社区的每一天
去签到