Pytorch *号传参用法 -- nn.Sequential(*layers)
*作用在形参上,代表这个位置接收任意多个非关键字参数,转化成元组方式;*作用在实参上,代表的是将输入迭代器拆成一个个元素。nn.Sequential一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。举例(手动创建的VGGNet网络的 init 函数。 self.features 和 self.classifier):
·
*作用在形参上,代表这个位置接收任意多个非关键字参数,转化成元组方式;*作用在实参上,代表的是将输入迭代器拆成一个个元素。
nn.Sequential
一个有序的容器,神经网络模块将按照在传入构造器的顺序依次被添加到计算图中执行,同时以神经网络模块为元素的有序字典也可以作为传入参数。
举例(手动创建的VGGNet网络的 init 函数。 self.features 和 self.classifier):
def __init__(self, num_classes = 1000):
super(VGG, self).__init__()
layers = []
in_dim = 3
out_dim = 64
# 循环结构卷积层,一共有13个卷积层
for i in range(13):
layers += [nn.Conv2d(in_dim, out_dim, 3, 1, 1), nn.ReLU(inplace=True)]
in_dim = out_dim
# 在第2、4、7、10、13个卷积层后增加池化层
if i == 1 or i == 3 or i == 6 or i == 9 or i == 12:
layers += [nn.MaxPool2d(2, 2)]
# 在第10个卷积后,保持和前面的通道数一致,都为512,其余加倍
if i != 9:
out_dim *= 2
self.features = nn.Sequential(*layers)
# VGGNet的3个全连接层,中间有 ReLU 与 Dropout 层
self.classifier = nn.Sequential(
nn.Linear(512 * 7 * 7, 4096),
nn.ReLU(True),
nn.Dropout(),
nn.Linear(4096, 4096),
nn.ReLU(True),
nn.Dropout(),
nn.Linear(4096, num_classes),
)
更多推荐
已为社区贡献2条内容
所有评论(0)