logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习框架_PyTorch_torch.view()函数

用法:torch.view()返回的数据和传入的tensor一样,只是形状不一样。注意:返回的tensor和传入的tensor共享内存,也就是修改其中一个,数据都会变。接下来我们举一个例子:>>> a = torch.ones(6,3)>>> atensor([[1., 1., 1.],[1., 1., 1.],[1...

#深度学习#机器学习#神经网络 +1
深度学习_GAN学习(广度知识)_GAN各分支网络的学习总结及介绍(持续更新)

生成对抗网络是目前深度学习领域中发展最快的一个分支之一,它可以用于图像编辑和着色、风格转换、物体变形、照片增强等多个领域。二.根据特定条件或者特性来生成或者编辑图像的技术1.CGAN(Condition GAN)主要用于图像生成Conditional Generative Adversarial Nets在条件GAN中,生成器并不是从一个未知的噪声分布开始学习,而是通过一个特定的条件或者某...

#深度学习#生成对抗网络#机器学习 +1
深度学习_GAN_DCGAN论文详解

原始GAN的思想非常伟大,但是我们在实际运用中很少会直接使用最基础的版本,比如在视觉问题中,如果使用原始的基于DNN的GAN,则会出现许多问题。如果输入GAN的随机噪声为100维的随机噪声,输出图像为256 * 256大小的话,也就是说,要将100维的信息映射为65536维。如果单纯用DNN来实现,那么整个模型参数会非常巨大,而且学习难度很大(低维度映射到高维度需要添加许多信息)。因此,原始G..

#深度学习#机器学习
深度学习_目标检测_Focal Loss详解

Focal Loss本质Focal Loss本质上解决了分类问题中类别不均衡、分类难度差异的一个损失函数,使得训练更加聚焦在困难样本上。Focal Loss的发展演化Focal Loss是从二分类问题出发,同样的思想可以迁移到多分类问题上。标准交叉熵我们知道二分类问题的标准loss是交叉熵:对于二分类问题我们也几乎适用sigmoid激活函数y^=σ(x)\hat{y} = \sigma(x)y^​

#深度学习#机器学习#目标检测
工程实践_深度学习模型后台训练不挂断命令

nohup和&组合使用nohup python file.py > filelog.txt 2>&1 &上述代码的组合使用就能够避免终端关闭、服务器断开等情况导致的模型训练终止。参数解释:filelog.txt:> 表示把标准输出(STDOUT)重定向到这个文件,这里重定向到了当前目录下的filelog.txt里,若没有此文件会自动生成。若没有特别指定,默

#python#深度学习#linux +1
深度学习框架_Caffe_Caffe框架入门简介

一.什么是CaffeCaffe的全称应该是Convolutional Architeure for Fast Feature Embedding,它是一个清晰、高效的深度学习框架,它是开源的,核心语言是C++,他支持命令行、Python和Matlab接口,它既可以在CPU上运行也可以在GPU上运行。它的liense是BSD 2-Clause。二.Caffe的特点模块化:Caffe从一开始就...

#深度学习#机器学习
深度学习_GAN_Pix2Pix

匹配数据的图像转换Pix2Pix在图像到图像的转换这个领域中有很好的应用,它能够面向所有匹配图像数据集的训练和生成。匹配数据集是指在训练集中两个互相转换的领域之间有很明确的一一对应数据。比如下面的三个例子:在工程实践中研究者需要自己收集这些匹配数据,但有时同时采集两个不同领域的匹配数据是非常麻烦的,通常采用的方案是从更完整的数据中还原简单数据。有了匹配数据集的存在,深度学习领域的研究...

#深度学习#机器学习#神经网络
深度学习框架_PyTorch_repeat()函数

PyTorch中的repeat()函数可以对张量进行复制。当参数只有两个时,第一个参数表示的是复制后的列数,第二个参数表示复制后的行数。当参数有三个时,第一个参数表示的是复制后的通道数,第二个参数表示的是复制后的列数,第三个参数表示复制后的行数。接下来我们举一个例子来直观理解一下:>>> x = torch.tensor([6,7,8])>>> x.r...

#深度学习#机器学习#人工智能
深度学习_GAN_WGAN与WGAN-GP

一.原始GAN存在的训练崩溃问题所谓GAN的训练崩溃,指的是训练过程中,生成器和判别器存在一方压倒另一方的情况。GAN原始判别器的Loss在判别器达到最优的时候,等价于最小化生成分布与真实分布之间的JS散度,由于随机生成分布很难与真实分布有不可忽略的重叠以及JS散度突变特性,使得生成器面临梯度消失的问题;可是如果不把判别器训练到最优,那么生成器优化的目标也就失去了意义。因此需要我们小心的平衡二..

#深度学习#机器学习
深度学习_深度学习基础知识_全局平均池化(Global Average Pooling)

全局平均平均池化就是对最后一层卷积的特征图,每个通道求整个特征图的均值。如下图所示:然后再接一层全连接,因为全局池化后的值相当于一像素,所以最后的全连接其实就成了一个加权相加的操作。这种结构比起直接的全连接更加直观,并且泛化性能更好。如下图所示:总结:降低参数量。减少过拟合(正则化),增加泛化能力。...

#深度学习#机器学习#计算机视觉 +1
    共 172 条
  • 1
  • 2
  • 3
  • 18
  • 请选择