2021
07-22
07-22
解决Pytorch内存溢出,Ubuntu进程killed的问题
pytorch显存越来越多的一个原因optimizer.zero_grad()loss.backward()optimizer.step()train_loss+=loss参考了别人的代码发现那句loss一般是这样写loss_sum+=loss.data[0]这是因为输出的loss的数据类型是Variable。而PyTorch的动态图机制就是通过Variable来构建图。主要是使用Variable计算的时候,会记录下新产生的Variable的运算符号,在反向传播求导的时候进行使用。如果这里直接将loss加起来,系统会认为这里也是计算图的一...
继续阅读 >