当前位置: 代码迷 >> 综合 >> 解决问题:pytorch奇怪错误,网络完全不训练,参数不更新,没有梯度
  详细解决方案

解决问题:pytorch奇怪错误,网络完全不训练,参数不更新,没有梯度

热度:28   发布时间:2024-02-08 00:04:26.0

遇到奇怪的问题的时候总是会特别绝望,比如,网络参数完全不更新

不知道怎么解决,所以就查看了一下参数的梯度,结果发现完全没有梯度

[x.grad for x in optimizer.param_groups[0]['params']]

惊不惊喜,意不意外

非常生气,我都是copy的以前的代码,结果,调了两天,就是自己的沙雕错误,我copy代码copy太多了,网络被写了两遍,删掉重复的就好了,不过不清楚为什么,反正网络调通了。。