
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1.概念1.1 什么是迁移学习?深度学习算法应用过程中,数据规模大,训练时间长是我们遇到到一大问题,那么在搭建好深度神经网络模型后,我们还需要大量的算力和时间训练和参数的优化,使得性价比非常低。我们就考虑同类问题的模型迁移,这样提高模型的性价比。考虑刀片没有免费午餐原理,我们尽可能的提高模型的泛化能力以及鲁棒性。需要注意的是,我们在使用迁移学习的过程中有事会导致迁移模型的负迁移,我们可以理...
在写深度学习相关论文时,我们常常需要把模型机构画出来。绘图工具也千差万别,我们一般采用PPT和Visio画图工具。画图以后我们尽可能的使得图片美观,且图片最好为矢量图,图片中的文字可以复制,更重要的是分辨率不会下降。下面就说明一下步骤:个人觉得PPT画图比Visio好用一些,所以画图都是在PPT上进行的,然后全选复制。下面主要说明一下Visio中的操作步骤。新建空白绘图,将从PPT(Wor...
关于全连接层的理解:全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。首先看经典网络VGG16:从左至右,一张彩色图片输入到网络,白色框是卷积层,红色是池化,蓝色是全连接层,棕色框是预测层。预测层的作用是将全连接层输出的信息转化为相应的类别概率,而起到分类作用。在学习VGG过程中一直有一个疑问,...
在配置过程中出现的坑,我也会提出来,以便大家以后避免踩坑!一 、硬件环境显卡:NVIDIA RTX 2080ti *4内存:32G*4CPU:2630V4* 2电源:2000 W硬盘: 1T+ 4T*2二、软件环境Linux系统:Ubuntu16.04CUDA:10.1CUDNN: 7.5一些说明:因为服务器预装系统,所以在安装系统这一步没有步骤说明,可以...
目录前言:GPU基础知识卷积神经网络参数参数的显存占用梯度与动量的显存占用输入输出的显存占用节省显存的方法减少卷积层的计算量常用模型 显存/计算复杂度/准确率建议前言:在训练自己的模型时常常出现显存不足等问题,这个时候我们常用的方法就是调参。一般常用的方法有以下几点:模型压缩网络参数调整,比如减小训练图像大小,降低FC output个数,使...
在配置过程中出现的坑,我也会提出来,以便大家以后避免踩坑!一 、硬件环境显卡:NVIDIA RTX 2080ti *4内存:32G*4CPU:2630V4* 2电源:2000 W硬盘: 1T+ 4T*2二、软件环境Linux系统:Ubuntu16.04CUDA:10.1CUDNN: 7.5一些说明:因为服务器预装系统,所以在安装系统这一步没有步骤说明,可以...
以下笔记来源:[1] . Andrew Ng的卷积神经网络week3[2] .【吴恩达课后编程作业】Course 4 - 卷积神经网络 - 第三周作业 (https://blog.csdn.net/u013733326/article/details/80341740#commentsedit)[3].yolo.h5文件问题的解决 -...
目录1.摘要2.GAN原理介绍2.1 网络概况2.1.1 Discriminator Network2.1.2 Generator Network2.2 数学理解3.代码实现1.摘要前面学习的自动编码器和变分自动编码器都是通过计算生成图像和输入图像在每个像素点的误差来生成 loss,这样就会造成,因为不同的像素点可能造成不同的视觉结果,但是可能他们的 loss...
在利用graphviz进行模型可视化时,调试出现如下报错:graphviz.backend.ExecutableNotFound: failed to execute ['dot', '-Tpng', '-O', 'test.gv'],make sure the Graphviz executables are on your systems' PATH在Windows中直接利用pip...
目录DenseNet:论文解读1.Abstract2. Related work2.1 通过级联来加深网络2.2 通过 shortcut 连接来加深网络2.3 通过加宽网络来使网络更深2.4 提高特征重用2.5 其他一些工作:3. DenseNet3.1 Composite functio...







