56a8d9f844ed0471e69bbadc610da2ee.png

好久没有更新了。

3b21131e333ef135f6c3f96ad867b7ef.png

深度学习无疑是目前最火的计算机方向,并且也成为了人工智能技术领域最重要的技术之一。在最近数年中,计算机视觉、语音识别、自然语言处理和机器人取得的爆炸性进展都离不开深度学习。

就在不久,ACM(计算机协会)宣布把 2018 年度 ACM A.M. 图灵奖颁给了 Yoshua Bengio、Geoffrey Hinton 和 Yann LeCun,以表彰他们在深度学习中提出的概念和工作。

下面我们分别来看三位的贡献是什么!

Geoffrey Hinton

谷歌副总裁兼工程研究员,Vector Institute 的首席科学顾问,同时也是多伦多大学的名誉大学教授。Hinton 最重要的贡献来自他 1986 年发明 反向传播 的论文“Learning Internal Representations by Error Propagation”,1983 年发明了 玻尔兹曼机(Boltzmann Machines)。2012年Hinton 和他的学生 Alex Krizhevsky 以及 Ilya Sutskever 通过 Rectified Linear Neurons 和 Dropout Regularization 改进了 卷积神经网络,并在著名的 ImageNet 评测中取得了很好的成绩,在计算机视觉领域掀起一场革命。

Yoshua Bengio

蒙特利尔大学教授,魁北克人工智能研究所 Mila 科学主任。Bengio 的主要贡献是在 1990 年代发明的 Probabilistic models of sequences。他把神经网络和概率模型(例如隐马尔可夫模型)结合在一起,用于识别手写的支票。现代深度学习技术中的语音识别也是这些概念的扩展。此外 Bengio 还于 2000 年还发表了划时代的论文“A Neural Probabilistic Language Model”,使用 高维词向量 来表征自然语言。他的团队还引入了 注意力机制,让机器翻译取得重大突破,并成为了让深度学习处理序列的重要技术。

Yann LeCun

纽约大学的教授,也是 Facebook 的副总裁和首席人工智能科学家。Yann LeCun 的代表贡献之一是卷积神经网络。1980 年代,LeCun 发明了 卷积神经网络,现在已经成为了机器学习领域的基础技术之一,也让深度学习效率更高。1980 年代末期,Yan LeCun 在多伦多大学和贝尔实验室工作期间,首次将卷积神经网络用于手写数字识别。今天,卷积神经网络已经成为了业界标准技术,广泛用于计算机视觉、语音识别、语音合成、图片合成,以及自然语言处理等学术方向,以及自动驾驶、医学图片识别、语音助手、信息过滤等工业应用方向。

LeCun 的第二个重要贡献是改进了 反向传播算法。他提出了一个早期的反向传播算法 backprop,并根据变分原理给出了一个简洁的推导。他的工作让反向传播算法更快,比如描述了两个简单的方法可以减少学习时间。

LeCun 第三个贡献是拓展了 神经网络的应用范围。他把神经网络变成了一个可以完成大量不同任务的计算模型。他早期引进的一些工作现在已经成为了人工智能的基础概念。

让我们一起期待更多深度学习的发展和进步!

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐