logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

探索loss.backward() 和optimizer.step()的关系并灵活运用

loss.backward() 和optimizer.step()的关系及灵活运用在deep learning的模型训练中,我们经常看到如下的代码片段:loss.backward()optimizer.step()那么,这两个函数到底是怎么联系在一起的呢?loss.backward()的作用我们都知道,loss.backward()函数的作用是根据loss来计算网络参数的梯度,其对应的输入默认为网

#pytorch#深度学习#神经网络
暂无文章信息