原文网址:http://blog.sina.com.cn/s/blog_870a639201019fbl.html

【1】A fast learning algorithm for deep belief nets: 2006

Hinton关于deep learning的代表作。Papershows how to use “complementary prior” to eliminate the explaining away effects that make inferencedifficult in densely-connected belief nets that have many hidden layers. 文章讲了deeplearning的整个体系机构,尤其对于用Restricted Boltzmann machine 和contrastivedivergence learning方法的阐述。对于整个deep

Learning结构的把我是很好的文章。

 

【2】To Recognize Shapes, First Learn to Generate Images: 2006

Hinton报告文章。文章从脑神经的角度讲了为什么要研究deep learning。列举了learning multilayer networks所面临的five strategies。Pretraining,fine-tuning等等概念讲解的更加的详细。

 

【3】Learning multiple layers of representation:2007

这篇文章给我的最大收获就是了解了这个方向的很多vocabulary:top-dowm connections,distributed representations,fine-tuned,generativemodel,discriminate model,stochastic generative model。我也认为这是目前我所看文献中对于pretraining讲得最好的一篇,至少对于初学者比较好懂。

 

【4】Reducing the dimensionality of data with neural networks:2006

这篇文章的重要性不用敷述,science的文章,也是因为这篇文章,deep network开始改变整个机器学习的格局,neural network开始进入deep network时代。版面的原因只要三页纸,但字字金贵,值得读上四五面。

 

【5】Representation learning:a review and newperspectives :2012

综述性质的文章,对于deep architecture 整个领域的阐述。适合看了Restricted Boltzmann machine和auto-encoder这些方法之后再去看这篇,会有豁然开朗的感觉。

 

【6】深度学习研究综述:2012

这是这个领域我阅读的第一篇也是唯一一篇中文文献,对于我刚开始看起到了很大的启发作用,很多名词就是从这篇文章中得到启发的。

 

【7】How neural networks learning from experience:1992

这篇文章很早,但是我认为对于进入neural networks 领域非常的有价值,对于之前应用的最成功的back-propagation neural networks 进行了非常详细的讲解和推导。

 

【8】Learning deep architecture for AI:2009

Deep learning领域另一个学派创始人:YoshuaBengio  写的一篇综述。文章很有厚度:126页,是deeplearning必看的文章,也是学习的好文章。里面的内容很详细,而且references也很详细,200多篇。

 

【9】Human detection in images via piecewise linear support vectormachines:2012

Human detection 从2005年的dalal的historgramsof oriented gradients for human detection后基本上都会采用SVM的方法来解决问题。这篇文章讲述了SVM的一种变形结构。

 

【10】Historgrams of oriented gradients for human detection:2005

在human detection 领域一篇意义很重大的文章,提出了Historgrams of oriented gradients的方法。

 

1月21日:

【11】A practical guide to training restricted Boltzmann machines:2010

Hiton讲解的Restrical Boltzmanmachines的详细的训练方法。

 

1月22日:

【12】Measuring Gaze Depth with an Eye Tracker During StereoscopicDisplay:2011

新课题组老师的一篇文章,主要讲eye tracking的,但是使用3 dimension的方式。文章中用到了Butterworth filter 和 quadratic regressionb。

 

1月23日:

【13】Online Gaze Disparity via Binocular Eye Tracking on StereoscopicDisplays: 2012

Gaze depth and disparity 的online 方式。这篇文章和上面的文章是一个体系的,但是方法不一样,这篇文章用了triangulation using onscreen horizontal disparity 来对Gaze 进行 depthestimate。

 

1月27日:

【14】Deep Mixtures of Factor Analysers: 2012

Hinton学派的一篇文章,提出了一种greedylayer-wise learning algorithm for Deep Mixtures of Factor Analysers。

 

1月28日:

【15】Deep Lambertian Networks: 2012

论文为了解决face detection中的illumination的问题,提出了Deep Lambertian Networks。

 

1月29日:

【16】Training Hierarchical Feed-Forward Visual Recognition Models UsingTransfer Learning from Pseudo-Tasks:2009

国内机器学习大牛于凯老师的文章,Building visual recognition models that adapt across differentdomaine is a challenging task for computer vision.

 

1月30日:

【17】卷积神经网络(百度文库上的一篇文章,没有具体的发表信息,但是对于卷积神经网络讲解的比较好)

神经网络的学习主要把握三个方面的知识点:网络结构,神经元的方程,学习方法。卷积神经网络的创新点主要是在于网络结构。卷积神经网络是一个多层网络,且分为特征提取层和识别层。

 

【18】Notes on Convolutional Neural Networks:2006

Jake Bouvrie,This documentdiscusses the derivation and implementation of convolutional neuralnetworks(CNNs), followed by a few straightforward extensions。

 

1月31日:

【19】 http://deeplearning.net/tutorial/lenet.html#lenet:

讲解了CNNs的两个主要概念:Sparse Connectivity和Shared Weights,并且有python的代码。

【20】http://www.codeproject.com/Articles/16650/Neural-Network-for-Recognition-of-Handwritten-Digi#topmost

从神经网络的概念开始讲,并且有很详细的C++代码。


欢迎登陆我的个人主页,hello2019,查看原文:http://richardliu.cn/

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐