logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

optimizer注意点

转载:https://blog.csdn.net/gdymind/article/details/82708920重点是这句:注意,如果想要使用.cuda()方法来将model移到GPU中,一定要确保这一步在构造Optimizer之前。因为调用.cuda()之后,model里面的参数已经不是之前的参数了。以下是原文与优化函数相关的部分在torch.optim模块中,其中包含了大部分现在已有的流行的

清华大学综述:A Survey on Deep Transfer Learning

本文是清华大学智能技术与系统国家重点实验室近期发表的深度迁移学习综述,首次定义了深度迁移学习的四个分类,包括基于实例、映射、网络和对抗的迁移学习方法,并在每个方向上都给出了丰富的参考文献。机器之心对该综述进行了全文编译。论文:A Survey on Deep Transfer Learning论文地址:https://arxiv.org/pdf/1808.01974v1.pdf摘要...

optimizer注意点

转载:https://blog.csdn.net/gdymind/article/details/82708920重点是这句:注意,如果想要使用.cuda()方法来将model移到GPU中,一定要确保这一步在构造Optimizer之前。因为调用.cuda()之后,model里面的参数已经不是之前的参数了。以下是原文与优化函数相关的部分在torch.optim模块中,其中包含了大部分现在已有的流行的

【基础知识】pytorch:nn.Softmax()

转载:https://blog.csdn.net/weixin_41391619/article/details/104823086这篇讲的很清楚,转一下本篇主要分析softmax函数中的dim参数, 首先介绍一下softmax函数:设则接下来分析torch.nn里面的softmax函数y = torch.tensor([[[1.,2.,3.],[4.,5.,6.]],[[7.,8.,9.],[1

【基础知识】Warmup预热学习率

转载:https://blog.csdn.net/sinat_36618660/article/details/99650804学习率是神经网络训练中最重要的超参数之一,针对学习率的优化方式很多,Warmup是其中的一种(一)、什么是Warmup?Warmup是在ResNet论文中提到的一种学习率预热的方法,它在训练开始的时候先选择使用一个较小的学习率,训练了一些epoches或者steps(比如

【转载】一文看懂PatchGAN

最近看到PatchGAN很是好奇原理是什么,发现网上很多介绍的并不清楚.故墙外墙内来回几次,大概是清楚了.PatchGANPatchGAN其实指的是GAN的判别器,将判别器换成了全卷积网络.这么说并不严谨,PatchGAN和普通GAN判别器是有区别的,普通的GAN判别器是将输入映射成一个实数,即输入样本为真样本的概率.PatchGAN将输入映射为NxN的patch(矩阵)X,Xij的值代表每个pa

Pytorch预训练模型以及修改

转载:https://www.cnblogs.com/wmlj/p/9917827.htmlPytorch预训练模型以及修改pytorch中自带几种常用的深度学习网络预训练模型,torchvision.models包中包含alexnet、densenet、inception、resnet、squeezenet、vgg等常用网络结构,并且提供了预训练模型,可通过调用来读取网络结构和预训练模型(模型参

【损失函数】MSE, MAE, Huber loss详解

转载:https://mp.weixin.qq.com/s/Xbi5iOh3xoBIK5kVmqbKYAhttps://baijiahao.baidu.com/s?id=1611951775526158371&wfr=spider&for=pc无论在机器学习还是深度领域中,损失函数都是一个非常重要的知识点。损失函数(Loss Function)是用来估量模型的预测值 f(x) 与真

cityscapesScripts使用笔记

cityscapesScripts是cityscapes数据集的官方公开工具集,第一次用的时候有点迷茫,记录下使用笔记官方github:https://github.com/mcordts/cityscapesScripts/tree/master/cityscapesscripts数据集链接:www.cityscapes-dataset.net百度云下载:https://pan.ba...

1*1卷积核的作用

作用:跨通道的特征整合特征通道的升维和降维减少卷积核参数(简化模型)1 跨通道的特征整合如果当前层和下一层都只有一个通道那么1×1卷积核确实没什么作用,但是如果它们分别为m层和n层的话,1×1卷积核可以起到一个跨通道聚合的作用,所以进一步可以起到降维(或者升维)的作用,起到减少参数的目的。这里通过一个例子来直观地介绍1x1卷积。输入6x6x1的矩阵,这里的1x1卷积形式为1x1x1,即为元素2,输

    共 16 条
  • 1
  • 2
  • 请选择