logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

optimizer.zero_grad()

Pytorch中的optimizer.zero_grad和loss和net.backward和optimizer.step的理解引言一般训练神经网络,总是逃不开optimizer.zero_grad之后是loss(后面有的时候还会写forward,看你网络怎么写了)之后是是net.backward之后是optimizer.step的这个过程。上图为一个简单的梯度下降示意图。比如以SGD为例,是算一

#python
到底了