黑科技亿欧智库:深度学习之后是什么?——《人工智能的未来》书评

2017年7月5日

智库图书推荐,深度学习,脑科学,智库

《的未来》,是Palm公司、Numenta公司及Handspring公司的创办者、计算机科学家与神经科学家Jeff Hawkins写于2004年的科学著作。本书从神经科学和人脑研究的角度,对神经网络与理论的不足进行批判;跳出应用层面,从“何为智能的本质”的视角出发,本书搭建了一套经典的智能模型,并希望以此启发人工智能研究超越当前深度学习框架,向真正的强智能迈进。

纠正图灵的错误:智能≠行为

本书从批判现有人工智能算法与理论体系入手,指出目前学界商界研究人工智能的诸多误区,其中最重要的一点便是“将智能简单的等同于智能行为”。这一谬误起源于经典“图灵测试”,企图用行为主义框架定义智能本质。

通过“中文屋”实验,可以对“智能=行为”这一论断进行证伪。中文屋实验旨在证明我们不能通过黑箱机制和大量计算的方式得到智能。假设一位只说英语的人身处一个密闭房间中,并随身带着一本写有中文翻译程序的书,将写着中文的纸片通过小窗口送入房间中,房间中的人可以对任何中文做出翻译,房间外的人也就将误以为该翻译者可以理解中文;同理,通过“简单算法+海量计算”提升算法精准度的方法具有局限,部分学者“通过并联深度学习模型得到强人工智能“的设想是不可实现的。在开始“创造智能”之前,应先理解现存智能,即人脑智能的运作方式,并对某些元素进行借鉴。

智库:深度学习之后是什么?——《人工智能的未来》书评

从神经科学角度解释人类智能的特征:层级、封装与知识模块

在理解人脑智能的运作方式前,需要先从生物解剖学的角度,大致理解人脑的功能。人脑包含大脑、小脑、脑干等部分,其中大脑可分为左右脑、前后脑等若干部分,由300亿神经元细胞组成的新大脑皮层是产生智能的最重要器官;新皮层包裹在大脑最外侧,包含6层细胞,展开后面积约同一张纸巾。

6层神经细胞的层级结构,帮助人类完成了复杂的识别、思考和预测。根据作者的观点,人脑相当于一个巨大的素材库,信息从底层向上层传递,下层细胞不同的兴奋组合,可以引起不同高层细胞的兴奋;越上层的神经元细胞,包含的信息越多,从而形成一个底部异常活跃,顶部逐渐趋于平稳的结构。“垂直柱”是一系列神经元的组合,具有相同或相近的周围感受野,即倾向于同时兴奋;一个垂直柱很可能储存着一个认知对象,如一个物体或一个完整动作。一个名为“联合区”的区域,将视觉、听觉、触觉等信息整合到一起,因此当我们“听到某人声音”和 “看到某人图像”的时候,大脑可以匹配同一个对象。

“反馈性”、“层级性”和“序列性”,是人脑功能的主要特征。神经元细胞的反馈是双向的,即时的反馈保证了对错误的即时修正;层级性将复杂的任务分解,类似于程序语言中的封装;序列性是人脑对信息的组织形式:信息通过序列的方式,在一个垂直柱内被“物理储存”。

智能本质新论:记忆-预测模型

作者认为,智能的本质不能通过行为因素进行判断,“预测”能力应当作为衡量智能的标准。换言之,智能的核心,是通过已知推测未知的能力。人类智能和动物最主要的区别,在于人类智能不仅停留在应激反应级别,更能通过类比、阅读等间接方式进行学习,并在未亲身经历的情况下形成经验和预判。作者将人类的认知模式总结为“记忆-预测”模型。

在“记忆”阶段,人脑大量吸取信息素材和这些素材的组合序列,并为它们“命名”:将一系列神经元兴奋储存成垂直柱,在再次受到特征刺激时同时兴奋。在预测阶段,一个人接触到具有一定特征的刺激后,大脑对刺激进行拟合,并匹配最适的“兴奋序列”。当后续刺激和预测相一致时,大脑兴奋的神经元序列保持不变,个体的认知也不发生改变;当后续刺激和预测相异时,大脑会根据最新的信息,重新进行预测;当已有的知识(兴奋序列)不能解释当前的刺激时,大脑将在已有的垂直柱上进行修改,并形成新的“命名”。

举例而言,当一个人听到一段音乐时,他立刻会和自己已经听过的最相似的音乐进行对比,并得出“这是我听过的A音乐”,或“这与我听过的A音乐有若干不同”的判断。人脑“记忆-预测”模型中,已有知识(兴奋序列)的复用率很高;各层皮质细胞储存的信息相当于一个素材库,知识相当于一个个兴奋序列;通过对已有序列最小限度的修改,大脑就形成了新知识。这些兴奋序列或知识被称为“恒定表征”,相似于很多学者一直呼吁、建议运用在人工智能算法中的“知识结构”。

智库:深度学习之后是什么?——《人工智能的未来》书评

对比深度学习算法,指明人工智能未来

可以发现,相比于人脑的认知机制,神经网络和深度学习的机制显得简陋许多。首先,神经网络和深度学习对神经元机制的模仿是粗略的,这一算法仅模仿了两个神经元之间“增强”或“减弱”刺激的关系,鲜明的层次结构、封装处理、和“垂直柱”知识储存机制,都没有在深度学习算法中体现;其次,神经网络算法建立在一系列“IF-THEN”判断语句上;而人脑认知则建立在“预测-证伪”机制上;对比可发现,前者对于已有知识和“记忆-素材”的复用率极低。因此,神经网络算法仅是对人类神经系统的粗劣模仿;通过更量、更强计算能力、和更多的训练,不能弥补算法本身的拙劣性。

同时应该发现,一些科学家“通过串联各弱智能的深度学习模式识别算法,形成强智能”的想法,很难真正实现。深度学习算法不能很好的识别主体,不同类型的信息(图像、文字等)难以被整合;命名机制和特征序列提取并不能通过深度学习算法实现。深度学习在人工智能“识别”层面具有优势,而进入“认知”层面,其他机器学习算法协同深度学习,才能达到更佳效果。

最后,在本书中作者无意为人工智能的发展指明明确的方向,也并未做出“仿生和人脑智能是实现强智能的最好方式”之论断。然而,通过参考人脑机制,我们发现了“垂直柱”、“层级制”、“记忆-预测”等尚未充分应用于机器学习、可能对机器学习有所裨益的机制和模式,这些才是真正具有价值的。

本文作者杜博伟,专栏作者;微信:dubowei950814(添加时请注明“姓名-公司-职务”方便备注);转载请注明作者姓名和“来源:”;文章内容系作者个人观点,不代表对观点赞同或支持。

This entry was posted in 人工智能 and tagged , , . Bookmark the permalink.

发表评论

电子邮件地址不会被公开。 必填项已用*标注