系列文章目录

第一章 人工智能发展大事件
第二章 PyTorch基础



前言

随着人工智能的不断发展,机器学习这门技术也越来越重要,本章为作者的机器学习文章记录的第一篇章。

一、了解什么是人工智能

        人工智能是一门复杂的交叉学科,所有用于模拟、延伸、扩展人的智能的理论、方法、技术都属于人工智能。简单来说就是研究如何让机器像人一样,能看、能听、能说、能想、能动的技术。
        能看:图像处理技术(人脸识别、物体识别、文字识别)
        能听:语音识别技术
        能说:语音合成技术
        能想:自然语言处理(文本分类、信息检索、机器翻译、问答系统等)
        能动:机器人技术

二、人工智能发展史

       在AI发展历程中研究者们形成了多个思维学派。主要包括:符号主义、连接主义、行为主义。
       (1)  符号主义(symbolicism),又称为逻辑主义(logicism)、心理学派(psychologism)或计算机学派(computerism),其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。
       代表:专家系统、知识工程、形态语法
       (2)  连接主义(connectionism),又称为仿生学派(bionicsism)或生理学派(physiologism),其主要原理为神经网络及神经网络间的连接机制与学习算法。
       代表:神经网络
       (3)  行为主义(actionism),又称为进化主义(evolutionism)或控制论学派(cyberneticsism),其原理为控制论及感知-动作型控制系统。
       代表:进化算法、多智能体

在这里插入图片描述

              1956年,在达特茅斯大学组织了一个为期2个月的研讨会。在这次会议上,介绍了下国际象棋和跳棋的程序,证明定理和解释文本的程序。这些程序被认为是模拟人类智能行为的。与会者包括约翰·麦卡锡(术语“人工智能”的发明者),克劳德·香农(信息理论的创始人),马文·明斯基(首位图灵奖获得者,1969年),艾伦·纽威尔(1975年图灵奖获得者),赫伯特·西蒙(1978年诺贝尔经济学奖获得者),亚瑟·塞缪尔(由于提出“机器学习”的概念,而被称为机器学习之父)。
              1957年,弗兰克·罗森布拉特发明感知机。艾伦·纽威尔、J.C.肖和赫伯特·西蒙演示通用解题程序(GPS)。
              1960年:弗吉尼亚理工学院教授亨利·凯利发表了“最佳飞行路径梯度理论”,这是他所在航空航天和海洋工程领域的一篇重要的、被广为认可的论文。多年来,他关于控制理论的许多观点——有输入的系统的行为,以及反馈如何改变这种行为——已经被直接应用到人工智能和人工神经网络中。它们被用来开发用于训练神经网络的连续反向传播模型(也称为误差反向传播)的基础
              1964年:丹尼·博布罗在麻省理工学院的论文(麻省理工学院人工智能小组MAC项目的tech.report#1)表明,计算机能够很好地理解自然语言,能够正确地解决代数问题。伯特·拉斐尔(Bert Raphael)在麻省理工学院关于SIR项目的论文展示了问答系统知识的逻辑表示能力。霍兰德(John Holland)发明遗传算法,由他和他的学生及同事开发。
              1974年,马文·明斯基提出表示知识的框架(Frame)。框架理论的核心是以框架这种形式来表示知识。框架的顶层表示固定的概念、对象或事件。下层由若干槽(slot)组成,其中可填入具体值,以描述具体事物的特征。
             1975年,保罗•沃博(Paul Werbos)利用2层反向传播网络学习,有效地解决了异或问题(XOR)。
             1977年,提出了脚本理论(Script Theory)和脚本应用机制(SAM)。他们指出我们的部分知识是围绕着数百种常规活动的情景组织起来的。“脚本”一词指一个人对某个情景动作的常规知识进行编码的记忆结构。脚本理论可以看作明斯基框架理论的细节具体化。
             1978年,吴文俊提出的几何定理机器证明新方法,获得全国科学大会重大科技成果奖。赫伯特·西蒙因其有限理性理论获得诺贝尔经济学奖,该理论是人工智能的基石之一。
              1982年,霍普菲尔德提出新的神经网络结构,后被称为Hopfield网络。同时,反向传播算法被提出。
              1986年,昆兰提出了决策树。
              1989年,杨乐昆提出了一种用反向传播算法进行求导的人工神经网络LeNet(卷积神经网络的入门结构),但在1991年,由于训练人工神经网络的BP算法被指出梯度消失问题,人工神经网络发展降到了冰点。

             1993年,德国计算机科学家施密德胡贝尔(Jürgen Schmidhuber)解决了一个“非常深度的学习”任务,这个任务需要1000多个递归神经网络层。这是神经网络在复杂性和能力上的一个巨大飞跃。
             1995年:支持向量机标准模型。
             1996年:拉里·佩奇和谢尔盖·布林(Sergey Brin)基于斯坦福校园网络共同创建了谷歌。10-11月,阿尔贡国家实验室的EQP定理证明程序在数学上证明了罗宾斯猜想。
             1997年:递归神经网络框架——长短期记忆(LSTM),提高了递归神经网络的效率和实用性。
             1998年:基于梯度的学习。随机梯度下降算法(又称基于梯度的学习)与反向传播算法相结合,是深度学习的首选和越来越成功的方法。
             2000年:Kernel SVM算法
             2001年:随机森林
             2006年:深度学习、云计算概念被提出。
             2009年:ImageNet教计算机理解图片。
             2010年:谷歌无人驾驶
             2011年:NLP代表 苹果Siri
             2013年:深度学习在语音和视觉识别上的巨大突破
             2014年:微软小冰和Cortana
             2016年:Google AlpahGO
             2017年:Tensorflow 、PyTorch

三、常见的深度学习框架

             现如今,人工智能已经走向了百花齐放的时代。全球积极拥抱智能时代的到来。这带动了深度学习相关硬件、通用框架、算法等基础技术的发展和成熟。 目前最常见深度学习框架:
1)Tensorflow

2)Pytorch

总结

之前一直零零碎碎的学习使用深度学习,最近突然发现需要记录一下自己的学习历程,不仅方便自身回顾总结所学内容,形成自身的知识体系框架。同时,结交一些共同学习进步的朋友。
Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐