人工智能的发展史:硬件的更新史、数据的积累史、算法的迭代史

来源:解放军新闻传播中心 | 2019-03-15 09:49:48 |

从出生到经历“寒冬”

1956年夏,群山环抱的达特茅斯学院掩映在一片葱绿之中,夕阳在康涅狄格河上涂画着自己的模样。此刻,约翰·麦卡锡正站在学院计算机机房的窗边,望着波光粼粼的水面,大口地呼吸着新鲜空气,以平复激动的心情。我在一旁听到了他拨给克劳德·香农的电话——决定开展一次关于人工智能的研究。

约翰·麦卡锡、克劳德·香农和另外8位计算机科学领域内的大咖,在达特茅斯讨论了两个月,制定了一个极其宏大的目标——在机器上搭建人工智能。因此,1956年被称为人工智能元年。约翰·麦卡锡也被后人冠以“人工智能之父”的称号。

人工智能的“出生”吸引了全世界的目光。兴奋之余,科学家们也在思考如何“养育”它。随即,分成了两个主要阵营:其一主张规则式方法,其二选择人工神经网络方法。

规则式方法即用一系列写好的逻辑规则教人工智能如何思考。比如,通过教授机器语法规则,解决机器翻译问题;通过向机器描述物体的特征,解决图像识别问题。

选择人工神经网络方法的科学家则另辟蹊径,模仿人脑结构,构建类似大脑的神经元网络。他们不给机器构建逻辑规则,而是把大量数据“喂”给人工神经元网络,让它从实例中学习、找规律。

让机器具备人类智能,这个命题本身就足以引人注目。人工智能的“童年”是在聚光灯下度过的。随着人工神经网络研究的深入和计算机技术的发展,人工智能领域取得了让人振奋的成果。

人工智能离不开算法,在计算机上编写的算法都要用到我小白,这也让我可以近距离陪伴人工智能的成长。

“童年”的人工智能进步非常快,IBM公司的内森尼尔设计的几何定理证明程序,在一些定理的证明上甚至超过了数学专业的学生。1962年,阿瑟·萨缪尔(参加达特茅斯会议的10位科学家之一)制作的西洋跳棋程序,经过屡次改进后,终于战胜了州冠军。机器在智力的角逐中战胜人类,这还是第一次。

然而人工智能的发展不像计算机那样一帆风顺。在人工智能13岁那年,正值茁壮成长之时却遇到了它人生中的第一道坎儿。

1969年,一系列研究结果差点浇灭了人们对人工神经网络的热情。这些研究显示,当时的人工神经网络难以解决基本逻辑问题。随即,一些机构停止了对人工智能项目的资助。没有了资本,也就没有了发展动力。

与此同时,规则式方法也遇到了瓶颈。面对纷繁复杂的文字世界,只学习了基本语法规则、掌握基本词汇量的机器根本招架不住,难以再向纵深挺进。

此刻,人工智能的处境与卖火柴的小女孩相差无几,它不知道能不能挨过寒冷的冬夜。究其原因,首先,在算法模型上存在缺陷;其次,笨重的晶体管计算机制约了机器运算能力。

迎来“春天”又遇“倒春寒”

在人工智能“而立之年”时,我无法平静地等待,尝试着找寻这位老朋友的音讯。1986年的一天,我在卡内基梅隆大学的计算机上闲逛时,看到了一篇题为《反向传导误差的学习表征》的论文,其中有一位作者叫杰弗里·辛顿。没多久,这篇论文火了,把沉寂已久的人工神经网络拉回了人们的视线。

这篇论文怎么会有如此大的魔力呢?

今天的我们对某综艺节目的“传声筒”游戏应该不会陌生:一段台词传到最后一个人时往往面目全非。反向传导的原理则可以理解为,将这段台词给最后一个人看,让他对比其中的误差,再将误差依次传给前面的人,让每个队友分析误差中有多少是自己的,下次描述时哪里需要改进。如此一来,就能提高机器学习的准确度。这种机制极大提高了人工神经网络的性能。

另外,好奇心强的我还扒了扒杰弗里·辛顿的成长历程,想看看他是怎么想到这一巧妙方法的。

20世纪60年代,辛顿还在上高中时,一个朋友就向他描述过大脑的工作原理——类似3D全息图的工作原理,这让小辛顿着了迷。

有时一句话就能在一个人的心里埋下一粒种子。后来即使在当木匠时,每个星期六早上,他都会去伊斯灵顿的埃塞克斯路图书馆,在笔记本里记下关于大脑工作原理的理论。

人工智能能走出“寒冬”,离不开辛顿和像他一样擎着火把前行的人。但这并没有改变人工智能再度失宠的命运,刚刚有了“春天”的气息却再一次遭遇“倒春寒”,而且持续了整个20世纪90年代。

“倒春寒”的“寒流”源自哪里?原来,人工神经网络需要用数据“喂养”,然而当时网络技术才刚刚起步,与今天的互联网世界相比,数据量简直就是“九牛一毛”,人工神经网络在“供血不足”“营养不良”的情况下举步维艰,也就不足为奇了。

用数据“喂养”焕发勃勃生机

进入新世纪,随着互联网技术的发展和普及,呈指数增长的数据量为人工神经网络发展提供了优渥土壤。

2005年,新成立不久的谷歌公司参加了美国国家标准与技术研究院主持的世界机器翻译系统评测。评测结果出人意料,谷歌在中英、阿(拉伯语)英互译中获得了第一名,且遥遥领先在此领域浸淫了数十年的IBM公司。

值得一提的是,编写谷歌机器翻译程序的负责人弗朗兹·奥科不懂中文、更不懂阿拉伯语,他教机器学外语的方法是将大量的数据输入给人工神经网络,让它自己找到规律。

在与规则式方法竞争了几十年后,几经浮沉的人工神经网络方法终于赢了。

2006年,杰弗里·辛顿找到了在有效训练人工神经网络中新增神经元层的方法。这给旧的人工神经网络仿佛打了一针强心剂。辛顿和他的小组还为性能大增的人工神经网络起了个新名字——“深度学习”。

相较于人工神经网络算法,“深度学习”算法中的神经元更多、层次结构更复杂。例如我们训练“深度学习”算法识别图片中的猫,当我们把含有猫的图片交给“深度学习”算法时,算法内部神经元就会做出调整,让输出结果更接近猫。经过大量训练后,它就“认识”猫了。“深度学习”算法的内部结构就像是一个黑箱,我们不清楚每个神经元具体是如何做出调整的,但它通过识别大量数据后,具有了识别“猫”的能力。

今天,人们也终于明白,数据是驱动人工智能发展的能源。不知道聪明的你是否发现,智能问题已悄然变成了如何处理数据的问题。这与飞机的诞生有相似之处:在飞机出现之前,人们认为人类要想飞行就得像鸟一样有双翅膀。后来才发现,飞行利用的是空气动力学原理,而不是仿生学原理。对人工智能来说,不一定要像人类大脑一样去思考,利用数据同样能解决问题。

人工智能的发展史,可以说是硬件的更新史、数据的积累史、算法的迭代史。

互联网技术的发展则为人工智能带来了大量的数据:你点的每一个赞、浏览的每一个网页、扫描的每一个二维码,都会成为人工智能的“数据养料”。

杰弗里·辛顿、吴恩达、吴军等人工智能专家,还有百度、谷歌等高科技公司,一次次革新人工智能算法,让无人驾驶车辆、无人工厂等变为可能。

弄清楚了它从哪里来,很多问题才能看得深、把得准,才能更好地迎接它的未来。人工智能虽已“年过花甲”,但它的发展势头却如朝阳般蓬勃。

关键词: 人工智能 硬件 数据 算法