1.3.6 三大突破让人工智能近在眼前
人工智能过去60年来的发展道路曲折,几度陷入低谷。而最近人工智能得到飞速发展,主要得益于计算机领域三大技术的突破。
(1)神经网络的低成本并行计算
思考是一种人类固有的并行过程,数以亿计的神经元同时放电以创造出大脑皮层用于计算的同步脑电波。搭建一个人工神经网络需要许多不同的进程同时运行。神经网络的每一个节点都大致模拟了大脑中的一个神经元与其相邻的节点互相作用,以明确所接收的信号。一个程序要理解某个口语单词,就必须能够听清(不同音节)彼此之间的所有音素;要识别出某幅图片,就需要看到其周围像素环境内的所有像索——二者都是深层次的并行任务。此前,标准的计算机处理器一次仅能处理一项任务。
10多年前图形处理单元(Graphics Processing Unit, GPU)的出现,使情况发生了改变。GPU最先用于满足可视游戏中高密度的视觉以及并行需求,在这一过程中,每秒都有上百万像素被多次重新计算。到2005年,GPU 芯片产量颇高,其价格降了下来。2009年,吴恩达和他所在的斯坦福大学的研究小组意识到,GPU芯片可以并行运行神经网络。
这一发现开启了神经网络新的可能性,使神经网络能容纳上亿个节点间的连接。传统的处理器需要数周才能计算出拥有1亿节点的神经网的级联可能性。而吴恩达发现,一个GPU集群在一天内就可完成同一任务。现在,应用云计算的公司通常会使用GPU来运行神经网络。2010年吴恩达被谷歌招募进入Google X实验室。2014年吴恩达加入百度。
(2)大数据人工智能训练的前提
每一种智能都需要被训练。哪怕是天生能够给事物分类的人脑,也仍然需要看过十几个例子后才能够区分猫和狗。人工思维则更是如此。即使是(国际象棋)程序编得最好的计算机,也得在至少对弈1000局之后才能有良好表现。人工智能获得突破的部分原因在于,能够收集到来自全球的海量数据,以给人工智能系统提供其所需的充分训练。巨型数据库、自动跟踪(Self-Tracking)、网页Cookie、线上足迹、数十年的搜索结果、维基百科以及整个数字世界都成了老师,是它们让人工智能变得更加聪明。
(3)深度学习更优的算法
20世纪50年代,数字神经网络就被发明了出来,但计算机科学家花费了数十年来研究如何驾驭百万级乃至亿级神经元之间庞大的组合关系。这一过程的关键是将神经网络组织成为堆叠层(Stacked Layer)。一个相对来说比较简单的任务就是人脸识别。识别一张人脸可能需要数百万个这种节点(每个节点都会生成一个计算结果以供周围节点使用),并需要堆叠高达15个层级。2006年,当时就职于多伦多大学的杰夫·辛顿(Geoffrey Hinton)教授对这一方法进行了一次关键改进,并将其称为“深度学习”。2013年辛顿创立的公司DNNresearch被谷歌收购,他加入谷歌。他能够从数学层面上优化每一层的结果从而使神经网络在形成堆叠层时加快学习速度。数年后,当深度学习算法被移植到GPU集群中后,其速度有了显著提高。仅靠深度学习的代码并不足以能产生复杂的逻辑思维,但它是包括IBM的“沃森”计算机、谷歌搜索引擎以及Facebook算法在内,当下所有人工智能产品的主要组成部分。
随着网络发展壮大,网络价值会以更快的速度增加,这就是网络效应(Network Effect)。为人工智能服务的云计算技术也遵循这一法则。使用人工智能产品的人越多,它就会变得越聪明;它变得越聪明,就有越多的人来使用它;然后它变得更聪明,进一步就有更多人使用它。
未来10年,人们与之直接或者间接互动的人工智能产品,有99%将是高度专一、极为聪明的“专家”。