logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Overlapping patches理解——深度学习基本概念

  Overlapping patches从中文角度直译成“部分重叠的图像块”,Patch的概念就好比对于一张100 x 100大小的图像来说,其中一个30 x 30的局部就能称为图像的一个Patch。所谓的Overlapping(部分重叠)可以用下图来解释:  即两个Patch之间重叠的部分构成的一个新的Patch,就称之为“Overlapping Patches”。...

Pytorch的nn.Conv2d()详解

Pytorch的nn.Conv2d()详解nn.Conv2d()的使用、形参与隐藏的权重参数in_channelsout_channelskernel_sizestride = 1padding = 0dilation = 1groups = 1bias = Truepadding_mode = 'zeros'nn.Conv2d()的使用、形参与隐藏的权重参数  二维卷积应该是最常用的卷积方式..

Overlapping patches理解——深度学习基本概念

  Overlapping patches从中文角度直译成“部分重叠的图像块”,Patch的概念就好比对于一张100 x 100大小的图像来说,其中一个30 x 30的局部就能称为图像的一个Patch。所谓的Overlapping(部分重叠)可以用下图来解释:  即两个Patch之间重叠的部分构成的一个新的Patch,就称之为“Overlapping Patches”。...

Overlapping patches理解——深度学习基本概念

  Overlapping patches从中文角度直译成“部分重叠的图像块”,Patch的概念就好比对于一张100 x 100大小的图像来说,其中一个30 x 30的局部就能称为图像的一个Patch。所谓的Overlapping(部分重叠)可以用下图来解释:  即两个Patch之间重叠的部分构成的一个新的Patch,就称之为“Overlapping Patches”。...

PyTorch的nn.Linear()详解

  PyTorch的nn.Linear()是用于设置网络中的全连接层的,需要注意的是全连接层的输入与输出都是二维张量,一般形状为[batch_size, size],不同于卷积层要求输入输出是四维张量。其用法与形参说明如下:  in_features指的是输入的二维张量的大小,即输入的[batch_size, size]中的size。  out_features指的是输出的二维张量的大小,即...

PyTorch一些有趣而又实用的小操作

PyTorch有趣而又实用的小操作如何取出高维张量中满足一定条件的值(比如大于0.5),其余设为零?解决方案一,张量花式索引解决方案二,torch.where()的API如何取出高维张量中满足一定条件的值(比如大于0.5),其余设为零?解决方案一,张量花式索引  代码如下:a = t.randn([2,3])print(a)a[a<0.5] = 0print(a)  结果:...

Pytorch的nn.Conv2d()详解

Pytorch的nn.Conv2d()详解nn.Conv2d()的使用、形参与隐藏的权重参数in_channelsout_channelskernel_sizestride = 1padding = 0dilation = 1groups = 1bias = Truepadding_mode = 'zeros'nn.Conv2d()的使用、形参与隐藏的权重参数  二维卷积应该是最常用的卷积方式..

到底了