logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习C++代码配套教程(1. 总述)

本贴为"深度学习C++实现" github.com/fansmale/cann 的配套教程.1. 动机作为一个程序员,必须时刻把show me the code摆在第一位. 使用C++的原因如下:使用python很容易成为调包侠,不符合我程序员的身份;java虽然是我的最爱, 但它GPU的支持不行, 后期扩展不好办.2. 特点为增强可读性和可维护性,我希望自己的程序具备如下特点:不需要外部包的支持

#c++#深度学习
论文笔记: 分类不确定性计算的证据深度学习方法

摘要: 本文描述对论文 Murat Sensoy, Lance Kaplan, Melih Kandemir, Evidential deep learning to quantify classification uncertainty, NIPS 2018 的理解.

#论文阅读#分类#深度学习
论文写作 12: 算法伪代码 (含实例)

算法伪代码是论文的核心之一.需要说明输入、输出;方法 (函数) 名可写可不写, 如果被别的方法调用就必须写;需要写出主要步骤的注释;长度控制在 15-30 行;可使用数学式子或对已有数学式子的引用;不重要的步骤可以省略;一般需要进行时间、空间复杂度分析, 并写出配套的 property 以及相应的表格, 以使其更标准.例子:...

文章图片
#算法#开发语言#线性代数
论文笔记: 分类不确定性计算的证据深度学习方法

摘要: 本文描述对论文 Murat Sensoy, Lance Kaplan, Melih Kandemir, Evidential deep learning to quantify classification uncertainty, NIPS 2018 的理解.

#论文阅读#分类#深度学习
算法设计与分析 (4. 贪心算法, 含正确性证明)

贪心算法并不从整体最优考虑,它所做出的选择只是在某种意义下的局部最优选择。贪心算法的优点:时间复杂度低。

文章图片
#算法#开发语言#线性代数
深度学习C++代码配套教程(4. ANN 经典神经网络)

经典神经网络用 java 实现只需要不到 100 行, 作为我的风格, 肯定会扯到很多倍.1. 网络结构神经网络由多层构成, 如图 1 所示. 我们先建立单层, 然后获得整个的网络.图 1 神经网络2. MfAnnLayer 类每一层包括输入、输出, 因此图 1 仅有两个 MfAnnLayer.2.1 成员变量成员变量说明如下://The size of the input.//第 1 层的 in

#深度学习#c++
深度学习C++代码配套教程(5. CNN 卷积神经网络)

CNN 的 Java 代码在 , 我照着翻译成 C++. 好消息是可以运行了, 坏消息是结果还不正确, 边写贴子边改吧.

#深度学习#c++
深度学习基础技术分析x:顶层视图

根据前面几个贴子的分析,可以从顶层视图对深度学习的方法进行总结。1. 输入对于属性独立的样本,nnn个属性需要nnn个输入端。2. 输出各个输出端一般输出实数,特别是[0,1][0, 1][0,1]区间的实数。3. 节点结构节点也常被称为“神经元”。3.1 加权和感知机使用的运算。3.2 卷积神经网络常用运算。3.3 softmax3.4 多层运算见LSTM.4. 网络拓扑这里主要讨论节点4.1

#神经网络#深度学习
深度学习C++代码配套教程(5附1: CNN代码调拭)

CNN 的代码出了问题, 这里把调拭过程展示出来, 希望对读者有用.1. 问题网络训练好后, 对不同的输入产生了相同的输出. 例如, 预测值总是 7.将训练过程的预测值打印, 发现同一批的输出都是相同的, 但不同批的输出可能不同. 网络是在每批数据 forward 和 backPropagation 之后进行 updateParameters, 因此, 预测值主要由网络确定.进一步打印每次预测的分

#机器学习#c++
    共 35 条
  • 1
  • 2
  • 3
  • 4
  • 请选择