Code|Pytorch每次训练到Epoch1最后出现size不匹配的一个可能原因
原因: 在网络本身有随机变量的情况下,随机变量很可能是在定义网络时按照预设的batchSzie确定的维度。这样,如果总的训练集的Size不能被batchSize整除,就会出现网络输入数据的Size和生成的随机变量的size在Batchsize那个维度上不匹配的问题,从而报错。
解决: 调整BatchSize使其能够整除Size;
或
调整数据集大小使其能够被BatchSize整除。
或
检查输入数据的batchsize,当它和预设的batchsize不匹配时强行补齐;
总结 【Code|Pytorch每次训练到Epoch1最后出现size不匹配的一个可能原因】之前一直以为在使用dataLoader的时候不会出现这种问题,而且也没有跑过额外产生随机变量的网络。今天首次遇到这个问题。在训练有自生成随机变量的网络时要特别注意该问题。
推荐阅读
- 【Leetcode/Python】001-Two|【Leetcode/Python】001-Two Sum
- leetcode|leetcode 92. 反转链表 II
- LintCode|LintCode 545 [Top k Largest Number II]
- pytorch|使用pytorch从头实现多层LSTM
- 二叉树路径节点关键值和等于目标值(LeetCode--112&LeetCode--113)
- LeetCode算法题-11.|LeetCode算法题-11. 盛最多水的容器(Swift)
- Pytorch|Pytorch AlexNet Fashion-MNIST
- LeetCode(03)Longest|LeetCode(03)Longest Substring Without Repeating Characters
- iOS,打Framework静态库
- #01秋分