logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习基础--各种Dropout--Targeted Dropout

更详细的资料整理到了个人的github上,地址为https://github.com/whitenightwu/11-Algorithm_and_Data/02-深度学习(部件)\类dropoutTargeted Dropout介绍date:NIPS/NeurIPS 2018keywords:Targeted Dropout;将剪枝带到训练中去;偏向于压缩算法author:google...

资讯--2018年10月

2018年10月华为hc大会  华为的全栈方案具体包括:  1)Ascend: 基于统一、可扩展架构的系列化AI IP 和 芯片,包括Max,Mini,Lite,Tiny和Nano等五个系列。包括我们今天发布的华为昇腾910(Ascend 910),是目前全球已发布的单芯片计算密度最大的AI芯片,还有Ascend 310,是目前面向边缘计算场景最强算力的AI SoC。  2)CANN:...

如何完整离线保存网页,包括网页完整特效?

虚拟打印为PDF格式,可以保存静态内容。(推荐,直接ctrl+p,然后另存为)保存为MHTML格式,可以重现部分JavaScript功能。(还有Firefox专用的MAFF格式)使用Scrapbook、Pocket等快照软件,可以重现部分JavaScript功能。如果希望100%重现,那么最好使用录屏软件进行录像。作者:asukaid链接:https://www.zhihu.com/...

深度学习基础--卷积--非对称卷积(googlenet系列)

非对称卷积(googlenet v3)  1)先进行 n×1 卷积再进行 1×n 卷积,与直接进行 n×n 卷积的结果是等价的。  2)非对称卷积能够降低运算量,这个很好理解吧,原来是 n×n 次乘法,改了以后,变成了 2×n 次乘法了,n越大,运算量减少的越多。  3)虽然可以降低运算量,但这种方法不是哪儿都适用的,非对称卷积在图片大小介于12×12到20×20大小之间的时候,效果比较好,...

最小二乘的优化算法

最小二乘的优化算法  最小二乘法的目标是“求误差的最小平方和”。最小二乘的概念解释  找到一个(组)估计值,使得实际值与估计值的距离最小。本来用两者差的绝对值汇总并使之最小是最理想的,但绝对值在数学上求最小值比较麻烦,因而替代做法是,找一个(组)估计值,使得实际值与估计值之差的平方加总之后的值最小,称为最小二乘。“二乘”的英文为least square,其实英文的字面意思是“平方最小”。这时...

特征金字塔网络 (FPN)

特征金字塔网络 (FPN)  特征金字塔网络 (FPN) 发表在 2017 年的 CVPR 上。  FPN 是基于一个特征提取网络的,即是基于一个主干模型的,它可以是常见的 ResNet 或者 DenseNet 之类的网络(常见的命名方法是:主干网络-层数-FPN,例如:ResNet-101-FPN)。  这是个万金油网络,可以用在目标检测、实例分割、姿态识别、面部识别等各种各样的应用里。文...

α-β剪枝算法和蒙特卡洛树搜索【转】

本文摘自下面链接的部分内容。原文入口:http://blog.sina.com.cn/s/blog_73040b820102wrme.html深蓝采用的是前面提到的约翰·麦卡锡提出的α-β剪枝算法。该算法的基本思想是,利用已经搜索过的状态对搜索进行剪枝,以提高搜索的效率。算法首先按照一定原则模拟双方一步步下棋,直到向前看几步为止,然后对棋局进行打分(分数越大表明对我方越有利,反之表明对对方有利)

#算法
生成模型--稀疏自编码器(sparse autoencoder,SAE)

稀疏自编码器(sparse autoencoder,SAE)  在自动编码的基础上加上稀疏性限制,就可得到稀疏自动编码器(Sparse AutoEncoder)。  用来约束自动编码器重构的方法,是对其损失函数施加约束。比如,可对损失函数添加一个正则化约束,这样能使自编码器学习到数据的稀疏表征。  一般用来学习特征,以便用于像分类这样的任务。稀疏正则化的自编码器必须反映训练数据集的独特统计特...

机器学习基础--碎片知识点(3)

predictor  predictor是指:基于这个变量,我们可以预测另一个变量的值。也就是说,predictor是自变量。在英文专业术语中,自变量被称为predictor或者independent variable。相对应地,因变量的专业术语可以是dependent variable或者outcome variable。统计学机器学习术语  特征向量:模型接受的输入通常称为...

最小二乘法(Least Square)和最大似然估计

最小二乘法(Least Square)线性最小二乘(OLS,online Least Square)  最小二乘,其实就是最小方差。  找到一个(组)估计值,使得实际值与估计值的距离最小。本来用两者差的绝对值汇总并使之最小是最理想的,但绝对值在数学上求最小值比较麻烦,因而替代做法是,找一个(组)估计值,使得实际值与估计值之差的平方加总之后的值最小,称为最小二乘。“二乘”的英文为least s...

    共 73 条
  • 1
  • 2
  • 3
  • 8
  • 请选择