“loss的各种情况”

【基础情况】

train losstest loss情况解决办法
下降下降网络仍在学习(😄)增加EPOCH直到不再下降
下降下降网络过拟合(😦)减小层中units数 / 减小层数 / 简化网络结构
不变下降数据集有问题(😡)检查数据集
不变不变学习遇到瓶颈(😦)减小学习率 / 减小BATCH SIZE
【补充情况】
train losstest loss情况解决办法
下降波动下降学习率过大 或 BATCHSIZE过大如果收敛,可以不管 / 如果不收敛,减小学习率或BATCHSIZE
收敛到较大值收敛到较大值可能是陷入了局部极小值换一种带动量的optimizer试试
Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐