logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【深度学习系列(三)】:基于CNN+seq2seq公式识别系统实现 (1)

这段时间一直在做公式识别相关的项目,尝试了传统的方法,效果不怎么好。想到能不能使用深度学习的方法进行相关方法。然后在github找到了相关代码,这里做下分析。具体github地址:https://github.com/LinXueyuanStdio/LaTeX_OCR。废话不多说开始搞起。一、模型细节神经网络模型是 Seq2Seq + Attention + Beam Search。S......

#深度学习#cnn#神经网络 +1
【深度学习系列(六)】:RNN系列(4):带注意力机制的seq2seq模型及其实战(1)

参考链接:Seq2Seq模型讲解完全图解Seq2Seq Attention模型完全解析RNN, Seq2Seq, Attention注意力机制

【深度学习系列(二)】:基于c++实现一个简单的神经网络(1)

      学习深度学习首先得知道反向传播,这是神经网络能够学习得重要原因,也是深度学习得基石。所以,本系列以此为开篇,着重介绍神经网络得正向/反向传播得流程。哈哈,肯定有人会问为什么用C++实现,python不是更好吗?哈哈,本人严重C++控,好吧后续得一些文章大多是基于c++实现的,所以,最好有一定的c++基础。本文代码得配置要求:C++OpenCV3.4完整的代码工程可以访问我的g...

【深度学习系列(二)】:基于c++实现一个简单的神经网络(2)

2、模型的搭建及初始化      在我们读取数据集时我们已经知道输入的神经元个数,在构造NN类时我们需要设置分类数,也就是说我们已经知道输入和输出的神经元个数,所以只要知道隐藏层的层数及每层的神经元个数,那么整个神经网络也就搭建完成了。本程序中通过容器保存插入每层隐藏层神经元个数来确定隐藏层的层数和个数。搭建整个网络,其实就是依次创建每一层的权重和偏置的矩阵,并分别保存到存储权重和偏置的容器中..

【深度学习系列(六)】:RNN系列(2):RNN的基础单元之LSTM、GRU以及SRU

目录一、LSTM网络1.1、遗忘门1.2、输入门1.3、输出门二、GRU网络2.1、重置门2.2、更新门三、SRU网络3.1、SRU网络结构3.2、SRU并行优化四、总结人对一个问题的思考不会完全从头开始。比如你在阅读本片文章的时,你会根据之前理解过的信息来理解下面看到的文字。在理解当前文字的时候,你并不会忘记之前看过的文字,从头思考当前文字的含义...

无参考图像的清晰度评价方法及c++实现

     本文只是在别人博客的基础上完成实现的,具体参考博客地址:无参考图像的清晰度评价方法,对于每个具体算法原理就不一一讲解了,在看本文时最好参考上述链接进行理解。1、Brenner 梯度函数/*** Brenner梯度方法** Inputs:* @param image:* Return: double*/double bre...

c++ jsoncpp中文和\uXXXX使用toStyledString生成字符串中文乱码解决方案

一、中文乱码解决方法1.1、乱码展示在使用jsoncpp解析含有中文的字符串的时候,使用toStyledString()函数生成的字符串中的中文部分将变成\u加4个16进制数字会出现解析乱码的情况。比如:1.2、乱码原因及解决方法jsoncpp的源码来分析(官方下载地址:http://sourceforge.net/projects/jsoncpp/files/)。通过分析StyledWriter

【深度学习系列(三)】:基于CNN+seq2seq公式识别系统实现 (1)

这段时间一直在做公式识别相关的项目,尝试了传统的方法,效果不怎么好。想到能不能使用深度学习的方法进行相关方法。然后在github找到了相关代码,这里做下分析。具体github地址:https://github.com/LinXueyuanStdio/LaTeX_OCR。废话不多说开始搞起。一、模型细节神经网络模型是 Seq2Seq + Attention + Beam Search。S......

#深度学习#cnn#神经网络 +1
无参考图像的清晰度评价方法及c++实现

     本文只是在别人博客的基础上完成实现的,具体参考博客地址:无参考图像的清晰度评价方法,对于每个具体算法原理就不一一讲解了,在看本文时最好参考上述链接进行理解。1、Brenner 梯度函数/*** Brenner梯度方法** Inputs:* @param image:* Return: double*/double bre...

【深度学习系列(六)】:RNN系列(5):RNN模型的奇淫巧技之动态路由

动态路由与注意力机制类似,其主要目的是为序列数据分配对应参数c这点有点类似与注意力机制。从实践中证明,与注意力机制相比,动态路由的算法在精度有所提升。与注意力机制中采用相似度算法计算权重不同,本文采用动态路由的算法来分配权重。动态路由算法使用于胶囊网络,这里主要借鉴这一算法,并运用于RNN中。在实践中证明,CNN或RNN中的一些算法可以相互借鉴,有时会有奇效。具体实践细节看一看本篇。。。

    共 43 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择