【pytorch】ValueError: Expected more than 1 value per channel when training

发布于:2022-10-15 ⋅ 阅读:(598) ⋅ 点赞:(0)

ValueError: Expected more than 1 value per channel when training

一、解决方案

  1. dataloader设置参数 drop_last=True1 丢弃掉最后单独的样本
  2. 在训练前用num_of_samples % batch_size 算一下会不会正好剩下一个样本2
  3. 如果模型只inference,无需更新参数可以设置model.eval()
  4. 修改源码,注释掉相关判断的源码3 (自己心理得有数)

我遇到的问题比较奇怪,使用BatchNorm1d报错,但是BatchNorm2d就正常…

二、问题分析

ValueError: Expected more than 1 value per channel when training, got input size torch.Size xxx
在这里插入图片描述

如果输入的batch size = 1就抛出ValueError,那我的BatchNorm2d是如何正常运行的?.. 继续调试
在这里插入图片描述
明明输入的batch_size=1,突然变成500了
擦。。输入的是:torch.Size([1, 128, 500, 1]) 经过上一行标黄处代码size_prods变了
如果输入torch.Size([1, 512]),size_prod不会改变

  • 为什么使用BatchNorm1d报错,但是BatchNorm2d就正常... 原来是我应用它俩的场景不一样

三、深入分析,修改源码

BN详解4:Batch Normalization 学习笔记
需要明确,输入的batch_size=1 或者较小的话确实会影响BN参数的更新,以至于可能影响模型最后的效果

在这里插入图片描述
由于个人原因,需要batch_size=1时候的实验数据,故此记录
在这里插入图片描述
将相关代码注释,保留源函数 加个pass空操作 - 插眼


  1. 解决报错:ValueError: Expected more than 1 value per channel when training ↩︎

  2. Pytorch的12个坑 ↩︎

  3. 解决raise ValueError(“Expected more than 1 value per channel when training, got报错(亲测有效) ↩︎

  4. Batch Normalization 学习笔记 ↩︎

本文含有隐藏内容,请 开通VIP 后查看

网站公告

今日签到

点亮在社区的每一天
去签到