logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

model.eval()和loss.backward(retain_graph = True)

1:model.eval()会固定网络的nn.BN层和nn.Dropout层,nn.BN层在train的时候针对每一个batch会计算一次均值方差,然后最后归纳整个训练集的均值方差,所以在test的时候就不能再让BN层的均值方差发生变化了。参考文章:(1条消息) Pytorch model.eval()的作用_嘿,兄弟,好久不见的博客-CSDN博客_model.eval()作用2:loss.bac

#深度学习#pytorch
model.eval()和loss.backward(retain_graph = True)

1:model.eval()会固定网络的nn.BN层和nn.Dropout层,nn.BN层在train的时候针对每一个batch会计算一次均值方差,然后最后归纳整个训练集的均值方差,所以在test的时候就不能再让BN层的均值方差发生变化了。参考文章:(1条消息) Pytorch model.eval()的作用_嘿,兄弟,好久不见的博客-CSDN博客_model.eval()作用2:loss.bac

#深度学习#pytorch
model.modules()和model.children()以及model._modules.items(),buffer / name_buffer()

两者包含的其实是你所定义的网络中继承自nn.Module的模块,比如nn.Relu,nn.Conv2d等,并不是你整个网络的forward()结构,而且你自定义的函数模块也是没有的,实验如下:

#pytorch#深度学习
暂无文章信息