
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这里先分享两个分享:一个是用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践,另一个是 brightmart 的 text_classification,里面用 Keras 实现了很多文本分类的模型)以及下面的各种分享:2017 知乎看山杯从入门到第二知乎看山杯夺冠记深度学习与文本分类总结第二篇–大规模多标签文本分类2017知乎看山杯总结
EMD,(Empirical Mode Decomposition),经验模态分解Time Series Data,时间序列数据
在普通的全连接网络或CNN中,每层神经元的信号只能向上一层传播,样本的处理在各个时刻独立,因此又被称为前向神经网络 (Feed-forward Neural Networks)。而在RNN中,神经元的输出可以在下一个时间戳直接作用到自身,即第i层神经元在m时刻的输入,除了 (i-1) 层神经元在该时刻的输出外,还包括其自身在 (m-1)时刻的输出!RNN和传统的多层感知机不同的就是和时间沾上边..
近年来,一些新的研究方法,如蚁群算法、人工神经网络、细胞自动机、人工免疫算法、进化算法等,它们通过模拟某一自然现象或过程(“拟物”或“仿生”)来求得问题解决的办法,具有高度并行与自组织、自适应和自学习等特征,已经在人工智能、机器学习、数据挖掘等领域中显示出强大的生命力与进一步发展的潜力。在论文 基因表达式编程理论及其监督及其学习模型研究- 张克俊 中 提到:通过构造独特的适应值函数和交叉验...
动态时间规整(DTW) Dynamic Time Warping(DTW)诞生有一定的历史了(日本学者Itakura提出),它出现的目的也比较单纯,是一种衡量两个长度不同的时间序列的相似度的方法。应用也比较广,主要是在模板匹配中,比如说用在孤立词语音识别(识别两段语音是否表示同一个单词),手势识别,数据挖掘和信息检索等中。一、概述 在大部分的学科中,时间序列是数据的一种常见表示...
TICCGitHub代码解释
注意力机制即 Attention mechanism在序列学习任务上具有巨大的提升作用,在编解码器框架内,通过在编码段加入Attention模型,对源数据序列进行数据加权变换,或者在解码端引入Attention 模型,对目标数据进行加权变化,可以有效提高序列对序列的自然方式下的系统表现。Attention:Attention模型的基本表述可以这样理解成:当我们人在看一样东西的时候,...







