logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

数据挖掘面试笔试题(附答案)

一、单选题(共80题)1、( D )的目的缩小数据的取值范围,使其更适合于数据挖掘算法的需要,并且能够得到和原始数据相同的分析结果。A.数据清洗       B.数据集成C.数据变换       D.数据归约2、某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?(A)   A. 关联规则发现       B. 聚类   C. 分类    ...

#数据挖掘
数据挖掘面试笔试题(附答案)

一、单选题(共80题)1、( D )的目的缩小数据的取值范围,使其更适合于数据挖掘算法的需要,并且能够得到和原始数据相同的分析结果。A.数据清洗       B.数据集成C.数据变换       D.数据归约2、某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?(A)   A. 关联规则发现       B. 聚类   C. 分类    ...

#数据挖掘
图示Softmax及交叉熵损失函数

Softmax函数Softmax是将神经网络得到的多个值,进行归一化处理,使得到的值在之间,让结果变得可解释。即可以将结果看作是概率,某个类别概率越大,将样本归为该类别的可能性也就越高。Softmax就如下图(借鉴李宏毅老师的课件)SoftMax为了更加清晰的看清整个过程,我将其制作成gif,如下图所示:Softmax的工作过程交叉熵:假设和是关于样本集的两个分布,其...

白话信息熵

距离有近有远,时间有长有短,温度有高有低,我们知道可以用米或者千米来度量距离,用时分秒可以来度量时间的长短,用摄氏度或者华氏度来度量温度的高低,那么我们常说这个信息多,那个信息少,那么信息的多少用什么度量呢?熵!信息量是了解一个未知事物需要查询的

详细阐述基于时间的反向传播算法(Back-Propagation Through Time,BPTT)

上一节我们说了详细展示RNN的网络结构以及前向传播,在了解RNN的结构之后,如何训练RNN就是一个重要问题,训练模型就是更新模型的参数,也就是如何进行反向传播,也就意味着如何对参数进行求导。本篇内容就是详细介绍RNN的反向传播算法,即BPTT。首先让我们来用动图来表示RNN的损失是如何产生的,以及如何进行反向传播,如下图所示。上面两幅图片,已经很详细的展示了损失是如何产生的, 以及...

Linux下安装任意版本的tensorflow命令

终端或命令行下输入:    sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.12.1-cp27-none-linux_x86_64.whl上述只是一个样例,安装任意版本的tensorflow,只需修改相应的版本号,比如,我现在想下载tensorflow

#tensorflow
python 从TXT中解析json格式

txt中的json格式:with open(r'Zhan.txt','r', encoding = 'utf-8') as file_open:data = json.load(file_open)for line in data:print(line['title'])print(line['content'])但是提示错误:...

#json#python
poj 1204 Word Puzzles

题目来源:http://poj.org/problem?id=1204

彻底理解样本方差为何除以n-1

设样本均值为,样本方差为,总体均值为,总体方差为,那么样本方差有如下公式:    很多人可能都会有疑问,为什么要除以n-1,而不是n,但是翻阅资料,发现很多都是交代到,如果除以n,对样本方差的估计不是无偏估计,比总体方差要小,要想是无偏估计就要调小分母,所以除以n-1,那么问题来了,为什么不是除以n-2、n-3等等。所以在这里彻底总结一下,首先交代一下无偏估计。无偏估计    以例子来说明,假如你

白话EM算法

EM算法其实就是一种函数的近似求解方法,它是一种迭代算法,在很多算法中都有着重要的应用,比如HMM的学习问题,GMM,语音识别中的MM-GMM以及主题模型PLSA等等,所以掌握EM的求解方式还是很必要的。本文参考李航博士的《统计学习方法》,但前提是需要了解EM以及高斯混合分布的基本概念,我不从最基础说起,希望能说的明白。EM算法可以解决极大似然估计参数的求解方法,只不过当问题的分布包含一个隐藏..

    共 14 条
  • 1
  • 2
  • 请选择