
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
该文章从鲁棒性扰动的角度出发,对深度学习模型的可解释性进行分析。
网上用逻辑回归做分析的例子不少,但很多都是建了一个逻辑回归模型就结束了,这里将展示一个完整的分析过程,包括建模之后的分析和改进,我觉得这些过程有时候甚至比建一个模型重要,也要花费更多的时间。首先我们来看一下问题,主要是分析一个人年薪能不能达到十万和什么因素有关(wage_status),响应变量是就是能不能达到年薪十万,解释变量就是年龄、婚姻状况等等:第一步,我们可以探索一下数据,变量主要...
之前提到,seq2seq的一大缺点是单一的语义向量难以表达长序列的完整语义,而改善这一问题的一个有效方法就是结合注意力机制,在不同的时刻针对输出计算包含不同语义的语义向量:所谓注意力机制,本质上就是在分析过程中引入权重,在本文,我主要介绍两种注意力计算框架:原始的计算框架和multi-head attention,从原始的框架中又进一步划分为:soft attention(key=value)、s
之前提到,seq2seq的一大缺点是单一的语义向量难以表达长序列的完整语义,而改善这一问题的一个有效方法就是结合注意力机制,在不同的时刻针对输出计算包含不同语义的语义向量:所谓注意力机制,本质上就是在分析过程中引入权重,在本文,我主要介绍两种注意力计算框架:原始的计算框架和multi-head attention,从原始的框架中又进一步划分为:soft attention(key=value)、s
核回归和loess类似,都是非参数回归方法。整体来说,核回归和loess有点接近,但又有点不同,首先,loess对于在x0估计y的取值,它会选择划定一个范围,通过该范围的样本去估计x0的y值,但是核回归不一样,它会考虑选择全部样本去估计这个x0的y值。另一方面,loess在估计关于x0的y值,计算各点的权重需要先计算距离再通过权重函数计算,而loess则直接把核函数作为权重函数,因为核函数本身..
一般来说,全连接层和卷积层已经可以处理大部分的情况了,而RNN的出现,主要是针对两个问题,第一,处理变长的输入,第二,分析序列的顺序信息。虽然目前我们可以通过空间金字塔池化搭配卷积网络实现不定长度序列的处理分析,可是池化操作会丢失输入的顺序信息,所以RNN还是有他的作用的,而且他的结构是如此的简单和巧妙,所以这次我就想先回顾一下RNN,然后详细探讨一下它的长期依赖问题,最后再分析LSTM到底为什么
之前提到,seq2seq的一大缺点是单一的语义向量难以表达长序列的完整语义,而改善这一问题的一个有效方法就是结合注意力机制,在不同的时刻针对输出计算包含不同语义的语义向量:所谓注意力机制,本质上就是在分析过程中引入权重,在本文,我主要介绍两种注意力计算框架:原始的计算框架和multi-head attention,从原始的框架中又进一步划分为:soft attention(key=value)、s
我们之前介绍了线性回归,在面对非线性问题的时候线性回归是行不通的,所以就有了多项式回归,可是多项式回归也有缺点,比如当多项式的幂较高时,可能特征的一个微小变化都会被很大地方法,也就是很容易过拟合,另一方面它是非局部的,也就是说我改变一下训练集上某一点的y值,即使其他离他很远的点也会受到影响。为了改进多项式回归的缺点,就有了回归样条法(regression splines)(样条指的是一种分段的低.
一般来说,全连接层和卷积层已经可以处理大部分的情况了,而RNN的出现,主要是针对两个问题,第一,处理变长的输入,第二,分析序列的顺序信息。虽然目前我们可以通过空间金字塔池化搭配卷积网络实现不定长度序列的处理分析,可是池化操作会丢失输入的顺序信息,所以RNN还是有他的作用的,而且他的结构是如此的简单和巧妙,所以这次我就想先回顾一下RNN,然后详细探讨一下它的长期依赖问题,最后再分析LSTM到底为什么
之前我们简单介绍了怎么构建一个知识图谱,这次就来看看一个完整的构筑流程,以QASystemOnMedicalKG作为参考,主要想展示一下从最初收集非结构化的数据、到一步步处理并通过知识图谱展示的简单流程。具体的爬虫过程可以看看这个博客的文章,我主要想快速过一遍这个流程,看看最后知识图谱是如何辅助对话系统的。首先,我们的数据来源是寻医问药,随便打开一个疾病,可以看到基本的信息:需要爬取的信息包括疾病







