简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
探索loss.backward() 和optimizer.step()的关系并灵活运用
loss.backward() 和optimizer.step()的关系及灵活运用在deep learning的模型训练中,我们经常看到如下的代码片段:loss.backward()optimizer.step()那么,这两个函数到底是怎么联系在一起的呢?loss.backward()的作用我们都知道,loss.backward()函数的作用是根据loss来计算网络参数的梯度,其对应的输入默认为网
暂无文章信息