专业提供论文发表咨询,国际出版,专利申请,英文期刊投稿咨询,SCI,SSCI,EI源刊,A&HCI,SCOPUS等高端学术咨询服务

推荐好友
扫一扫,关注最新学术知识和资讯

扫码关注公众号

职称驿站官方公众号

微信扫码加好友

职称驿站官方微信号
论文发表指导_期刊投稿推荐_期刊论文发表咨询_职称驿站

论文发表职称晋升 全方位咨询服务

学术出版,国际教著,国际期刊,SCI,SSCI,EI,SCOPUS,A&HCI等高端学术咨询

人工智能技术的未来通途刍议

来源:职称驿站所属分类:智能科学技术论文发布时间:2018-07-25 10:17:10浏览:

   现在关于人工智能的发展,社会上(甚至在行业内部)普遍存在这样的一种误解 :“通用人工智能”的目标本身可以通过“专用人工智能”领域内的技术累积来逐渐达成。然而,这种观点的持有者,既没有意识到将现有主流深度学习技术升级为通用人工智能技术所面临的巨大困难,也没有意识到人工智能工业的人为行业分工与人脑既有自然分工之间所存在的重大区别。在揭示这些困难的基础上,文本将给出一个消极性论点与一个积极性论点。前者是 :目前的主流人工智能技术离达到“通用人工智能”的标准还很远,遑论达到“强人工智能”的标准 ;后者是 :通向“通用人工智能”的真实道路从演化论思维“取经”,即从认知主体对于环境挑战的“适应性”与“节俭性”入手,来理解智能体运作的一般原理。

模式识别与人工智能

  《模式识别与人工智能》是由中国自动化学会、国家智能计算机研究开发中心和中国科学院合肥智能机械研究所共同主办、科学出版社出版的学术性期刊。本刊主要发表和报道模式识别、人工智能、智能系统等方面的研究成果与进展,旨在推动信息科学技术发展。

  然而,这种观点的持有者,既没有意识到将现有主流深度学习技术升级为通用人工智能技术所面临的巨大困难,也没有意识到人工智能工业的人为行业分工与人脑既有自然分工之间所存在的重大区别。在揭示这些困难的基础上,本文将给出一个消极性论点与一个积极性论点。前者是:目前的主流人工智能技术离达到“通用人工智能”的标准还很远,遑论达到“强人工智能”的标准 ;后者是 :通向“通用人工智能”的真实道路借鉴了演化论思维,即认知主体对于环境挑战的“适应性”入手,来理解智能体运作的一般原理。

  二、专用人工智能与通用人工智能之间的巨大距离

  顾名思义,“专用人工智能”就是指专司某一个特定领域工作的人工智能系统,而所谓的“通用人工智能”(Artificial General Intelligence,简写形式 :AGI),就是能够像人类那样胜任各种任务的人工智能系统。富有讽刺意味的是,符合大众对于 AI 之未来期待的虽然是 AGI, 而且西方第一代人工智能研究者——如明斯基(Marvin Minsky)、纽艾尔(Allen Newell)、司马贺(Herbert Simon)①,还有麦卡锡(John McCarthy)等——所试图实现的机器智能,肯定也是具有鲜明 AGI 意蕴的②,但是目前主流的 AI 研究所提供的产品都不属于 AGI 的范畴③。譬如,曾经因为打败李世石与柯洁而名震天下的谷歌公司的 AlphaGo,其实就是一个专用的人工智能系统——除了用来下围棋之外,它甚至不能用来下中国象棋或者是日本将棋,遑论进行医疗诊断,或是为家政机器人提供软件支持。虽然驱动 AlphaGo 工作的“深度学习”技术本身,也可以在进行某些变通之后被沿用到其他人工智能的工作领域中去,但进行这种技术变通的毕竟是人类程序员,而不是程序本身。换言之,在概念上就不可能存在着能够自动切换工作领域的深度学习系统。由于一切真正的 AGI 系统都应当具备在无监督条件下自行根据任务与环境的变化切换工作知识域的能力,所以上面笔者的这个判断本身就意味着 :深度学习系统无论如何发展,都不可能演变为 AGI 系统。

  同情深度学习技术的读者或许会反驳说:为何我们不能研发出能够同时处理多个领域问题的深度学习系统呢?面对这一质疑,笔者还有一个非常重要的补充性论证。了解近年来西方认知科学哲学研究动态的读者都应当知道,美国哲学家佛笃(Jerry Fodor)曾提出过一个论证,以否定人工神经元网络能够支撑起一个完整的人类认知架构 [4]。而在笔者看来,考虑到所谓的“完整的人类认知架构”与 AGI 之间的类似性,以及现有的深度学习机制对于传统的人工神经元网络的继承性,我们完全可以按照本文的语境要求,将佛笃的论证改造为一个对深度学习机制的“AGI 化”进行质疑的论证。该论证如下大前提 :任何一个 AGI 系统都需要能够处理那种“ 全局性性质 ”(Global Properties),比如在不同的理论体系之间进行抉择的能力(其根据或是“其中哪个理论更简洁”,或是“哪个理论对既有知识体系的扰动更小”,等等。

  此论证的大前提之所以是真的,是因为任何 AGI 系统都必须具有人类水准的常识推理能力,而常识推理的一个基本特征,就是推理过程所会涉及到的领域乃是事先无法确定的。譬如,人类投资家对于金融业务的谈论就很难规避对于国际政治军事形势的讨论(因为金融市场往往对国际军事形势的变化有非常敏感的表现),因此,我们就很难在讨论金融问题的时候预先规定“哪些领域一定不会被关涉到”。这一点甚至在做家务之类的看似琐碎的日常劳作中,也会得到体现——譬如,对于居室环境的整理在很大程度上并不仅仅关涉到“整洁”这一要求,而且还要兼顾“方便用户”这一要求,而该要求本身又指向了保洁员对于所有家庭成员的生活习惯的额外知识。换言之,跨领域的思维能力是即使连做家务的简单日常活动都需要具备的。也就是说,在涉及多样性的问题领域的时候,行为主体就必须具备对于来自不同领域的要求进行全局权衡的能力,而这就是佛笃所说的处理“全局性质”的那种能力(比如,在整理家居的时候,保洁员就必须对“视觉整洁性”与“家居物品的易取性”这两项要求进行调和或者取舍)。不难想象的是,上述要求不仅是被施加给人类的,而且也是被施加给一个理想的 AGI 系统的——如果我们希望 AGI 具有人类水准上的通用问题求解能力的话。具体而言,家政机器人、聊天机器人与军用机器人所面临的环境的开放性与复杂性,都要求支持这些机器人运作的人工智能系统具有类似于人类的处理“全局性性质”问题的能力。

  上述三段论的小前提也是真的,即深度学习机制在原则上就难以处理这种具有领域开放性的全局性问题。要说清楚这一点,我们必须用最简单的语言厘清深度学习机制的基本运作原理。前面笔者已经提到,深度学习机制的前身乃是人工神经元网络,而非常粗略地说,人工神经元网络技术的实质,就是利用统计学的方法,在某个层面模拟人脑神经元网络的工作方式,设置多层彼此联结成网络的计算单位(如输入层—隐藏单元层—输出层等)。由此,全网便可以以类似于“自然神经元间电脉冲传递,导致后续神经元触发”的方式,逐层对输入材料进行信息加工,最终输出某种带有更高层面的语义属性的计算结果。至于这样的计算结果是否符合人类用户的需要,则取决于人类编程员如何用训练样本去调整既有网络各个计算单位之间的权重。

  一般而言,隐藏层计算单元只要受过适当的训练,就能够初步将输入层计算单元递送而来的“材料”归类为某个较为抽象的范畴,而所有的这些抽象范畴之间的语义关系,则可以通过某种记录隐藏层计算单元之触发模式的所谓“矢量空间”,而得到一种立体几何学的表征。至于作为人工神经元网络之升级版的“深度学习”,其与自己的前身之间的区别则主要在于两个方面:(1)其隐藏计算单元层的层次更多(因此可以通过更为复杂的概念层级来处理材料);(2)系统的反馈学习算法一般会比传统人工神经元网更为复杂。

  而从佛笃哲学的立场上看,深度学习技术相对于传统神经元网络的这种进步,只具有有限的工程学意义,而缺乏重大的哲学意义。这是因为:深度学习机制也好,传统的神经元网络也罢,它们全都缺乏跨领域的学习能力。其背后的道理在于 :任何一个深度学习系统的顺畅运作,将取决于如下关键要素 :(甲)一个专门为特定任务(如人脸识别任务)打造的计算单元多层次框架(具体而言,程序员必须预先设置好每个计算单元的信息汇总函数与激发函数、计算单元的总数与层次安排方式、每一层计算单元所要提取的性质类型、整个框架的反馈算法,等等);(乙)为系统提供大量的人脸图片识别样本。不难看出,其中的要素(甲)与要素(乙)都具有极强的领域专门性——譬如,专用于人脸识别的深度学习框架不能直接用于下围棋,而专门用于下围棋的深度学习框架不能直接用于下中国象棋,等等。同样的道理,用于人脸识别的训练样本对下围棋的训练样本也是无效的,因为二者的编码方式或许从头至尾都会有巨大的区别。

  有的读者或许会感到奇怪 :为何我们不能建造一个超级深度学习系统,让它能够处理不同的任务呢?说得具体一点,既然一个用来辨别物体颜色的深度学习系统能够对颜色的不同面相——亮度、饱和度、透明度,等等——进行有效的信息处理,那么,为何一个超级下棋系统就不能够对不同种类的下棋游戏进行统一有效的信息处理呢?但不幸的是,这种超级深度学习系统其实是无法被研制出来的。相关意见如下:

  第一,机器人的视觉传感器所捕捉到的一个蓝色花瓶的某种特定的蓝色色调,固然是具有亮度、饱和度与透明度等不同维度的,但这些维度都自然地依附在同样一个外部对象之上——因此,一个机器视觉系统不需要思考它自己究竟应当如何将不同的颜色属性捆绑在某个特定对象之上。与之相比较,任何一盘具体的围棋对弈与任何一盘具体的中国象棋对弈,所各自对应的都是不同的外部物理事件——除非有某种系统内部的“精神力量”将它们归为同样的范畴,否则,它们就是毫不相干的两个事件。或用哲学的行话来说,我们人类对于棋类的分类显然已经自觉地运用了某种抽象的分类概念,而深度学习运作的第一步所蕴含的视角却只能是面向“个例”(Token)而非“类型”(Type)的。退一步说,即使我们姑且承认深度学习系统是具备某种抽象概念形式的,我们也必须立即补充说:在深度学习中,那种随时可以成为人类的反思对象的概念分级系统,只能以一种前反思的形式,僵化地存在于计算单元的网状组织结构之中,而因此缺乏任何灵活性。

  第二,即使前面提到的这个麻烦不存在,我们也要认识到 :任何一个既有深度学习的运作,一般都会牵涉到大量的训练样本,并消耗大量的计算资源①。 由此,一个能够跨越更多工作领域的深度学习系统,将会在相当程度上涉及到“训练样本从何处来”以及“计算资源从何处来”这两个棘手的问题——而与之相比较,人类自身却往往可以在训练样本稀缺的情况下,通过触类旁通学会新领域内的新技能。

  面对以上批评,目前主流人工智能技术的支持者或许还会有如下回应意见 :我们可以从认知科学

  认知架构——其中每个认知模块用一种深度学习机制来实现,但对于它们的联合调用却使用某种传统的符号 AI 技术。这样一来,“专”与“通”的问题就可以得到某种一揽子的解决方案了。

  但笔者认为,上述回应意见依然有很大问题。上述回应预设了某种比深度学习更高级的“调用系统”的存在——换言之,深度学习解决不了的处理

  “全局性质”的难题,可以通过该调用系统来解决。但问题是:我们从哪里找到具有这种神奇功能的高级调用系统呢?上面的论证已经说明了 :这样的调用系统不可能是某种更为高级的深度学习系统。那么,我们就只能期望这种调用系统乃是某种符号 AI 系统(因为只有符号 AI 系统才在某种意义上接近人类大脑的中央语义调配系统)。但既有的公理化进路的符号 AI 系统在对各个模块进行指挥与资源调配时,却只能预先将系统所可能遇到的所有问题语境予以预先规定,而这种预先规定显然会使得系统在遭遇程序员并未设想到的问题求解语境时陷入手足无措的窘境②。

  另一个麻烦的问题是 :即使上述困难可以得到某种意义上的克服,我们也无法保证对于现有深度学习模块的累积可以达到 AGI 的水平。这是因为 :人类既有的大脑皮层分工是为了满足人类在采集—狩猎时代的生存需要而被缓慢演化出来的,而现有的人工智能研究内部的工程学分工方案,则主要是为了满足人类当下的商业与社会需求而被人为地制定出来的——举个例子来说,在围棋发明之前就已经出现的人类大脑架构,必定是没有一个专门用于下围棋的模块的——因此,在 AI 领域内对于诸如“围棋”模块的累积,显然无法帮助我们把握 AGI 所应当具有的认知架构的本质。或用带有中国哲学色彩的话来说,对于智能活动的“末”“流”与“用”的渐进式模拟,是无法帮助我们认识到智

  三、如何向自然智能学习?

  在通俗网络媒体中我们常常听到这样的评论 :某某公司宣扬他们研制的人工智能系统已经达到了四岁或者五岁儿童的智商水准。使得这种说法具有意义的前提显然是:存在着某种横跨机器与人类智力的某种通用的“智商”概念——因此,心理测量学对于人类智商的测算方式,也可以被运用到测量机器智商之上。

  的智商测量方式具有针对人类而言的物种特异性,但只要我们小心甄别其中的内容,我们依然可以从中寻找到某种能够沿用到 AGI 研究之上的一般性因素。

  那么,心理测量学研究中的哪些因素是“特异于物种”的,而哪些因素又是具有普遍意义的呢?按照笔者的浅见,心理测量学的典型手段——如“问卷调查”——显然是带有明显的物种特异性的,因为该方法只适用于作为“语言动物”的成年人类,而不适用于动物,甚至是婴幼儿时期的人类。由此看来,在自然语言处理技术还没有完全成熟的今天,通过问卷调查来对机器智能进行测量是没有意义的。但我们同样需要看到的是:心理测量学通过此类手段所要把握的心智能力要素,却很可能是具有横跨自然心智与机器心智普遍意义的。举例来说,心理测量学的鼻祖高尔顿(Francis Galton)就认为知觉的速度与智能的程度存在正相关关系 [6]——而从计算机科学的角度看,如果“知觉速度”与传感器和相关支持软件的运作效率相关的话,那么,此类效率的提高当然就意味着系统智力的提高(当然是在其他条件保持不变的情况下)。

  一个很容易想到的策略便是 :心理学家所刻画的种种人类智力的分类形式,归根结底乃是由人类的神经系统所执行的。因此,只要我们对人类大脑的神经运作细节进行精确的描述,就可以从中抽象出一张精确的 AGI 工作图纸来。而时下方兴未艾的“类脑人工智能”(Brain-Inspired AI)研究路数,便是该思路的体现①。

  不得不承认,与前面提到的深度学习的进路相比,类脑人工智能的研究思路的确更可取一些。虽然从字面上看,深度学习的前身——人工神经元网络——也是基于对人类大脑的仿生学模拟,但是在专业的神经科学家看来,传统的神经元网络也好,结构更为复杂的深度学习机制也罢,其对于人脑的模拟都是非常低级与局域的。与之相比较,类脑人工智能的野心则要大得多:它们要对人脑的整体运行机制作出某种切实的研究,并将其转化为某种数学形式,使计算机也能够按照

  “人脑蓝图”来运作。考虑到人类大脑的整体运作——而不是局域神经网的某种低端运作——能够以“神经回路”的方式向我们提示出更多的关于人类智力整体运作的信息,类脑人工智能的研究显然能够比主流的深度学习研究减少类似“盲人摸象”的错误几率。

  不过,基于如下理由,笔者依然认为类脑人工智能研究还是隐藏了不少的风险。

  理由之一 :人脑的运作机制非常复杂,譬如,关于人类大脑的海马区是如何处理记忆信息的,现在的神经科学家也无法打包票说我们目前得到的认识是基本准确的。换言之,脑科学研究投入大,研究前景却不确定。在这种情况下,如果我们将 AI 研究的“鸡蛋”全部放在脑科学研究的

  “篮子”里,那么,AI 研究自身的发展节奏也将完全“受制于人”,而无法有效地分摊研究风险。

  理由之二 :目前对于神经回路的研究,占据了类脑人工智能研究者的主要注意力,因为对于神经回路的模拟似乎是相对容易着手的。但是我们很难保证某些神经细胞内部的活动不会对智能的产生具有关键性作用。而这一点也就使得类脑人工智能研究陷入了两难:如果不涉及这些亚神经细胞活动的话,人工智能研究或许就会错过某些关键性的大脑运作信息 ;但如果这些活动也都成为模拟对象的话,由此带来的计算建模成本将会变得完成不可接受(因为单个神经细胞内部的生化活动所对应的数学复杂性,就可以与整个大脑的神经网络所对应的数学复杂性相提并论 [8])。

  四、引申性讨论:再谈“强人工智能”与“超级人工智能”

  本文既有的讨论,其实已经足以澄清这样一个论点 :既有的专用人工智能之路,并不能真正通向 AGI,因为后者对于智能活动本质的涉及,并不是前者的题中应有之义。而对于有些读者来说,这样的澄清似乎还漏掉了在目前的媒体中被广泛炒作的两个概念 :一个是“强人工智能”又是什么呢?

  首先可以肯定的是,强 AI 既不是 AGI 的对立面,也不是其同义词。与强 AI 对应的概念乃是“弱 AI”(Weak AI),而弱 AI 也既非专用 AI 的对立面,亦非其同义词(尽管二者在外延上有高度重合,详后)。说得更清楚一点,弱 AI 指的是计算机对于自然智能的模拟,而强 AI 指的是计算机在上述模拟的基础上对于真实心智的获得,二者之间的区分,牵涉到的乃是“ 虚拟心灵”与“真实心灵”之间的区别②。与之相比较,专用 AI 与 AGI 之间的区分则是 AI 系统自身运用范围宽窄之间的区别。因此,从概念的外延角

  首先可以肯定的是,强 AI 既不是 AGI 的对立面,也不是其同义词。与强 AI 对应的概念乃是“弱 AI”(Weak AI),而弱 AI 也既非专用 AI 的对立面,亦非其同义词(尽管二者在外延上有高度重合,详后)。说得更清楚一点,弱 AI 指的是计算机对于自然智能的模拟,而强 AI 指的是计算机在上述模拟的基础上对于真实心智的获得,二者之间的区分,牵涉到的乃是“ 虚拟心灵”与“真实心灵”之间的区别②。与之相比较,专用 AI 与 AGI 之间的区分则是 AI 系统自身运用范围宽窄之间的区别。因此,从概念的外延角再来看“超级 AI”这个概念。笔者个人认为这是一个非常含糊的字眼,因为“超级”本身的含义就非常含糊。如果就 AI 系统在单项能力上对于人类的超越的话,那么现在的 AlphaGo 就已经是这样的超级 AI 了。但如果“超级 AI”指的是某种能够比人类更为灵活地统调各种能力与知识领域的 AI 系统而言,很显然这样的系统还没有出现。但即使存在着这样的系统,如何界定“超级”二字的真正含义,依然会成为一个值得商榷的问题。其背后的道理是:正如前面笔者已经指出,任何智能体都无法不在尽量节俭地使用资源的前提下,对开放环境中存在的挑战进行“无所顾忌”的回应,因此,即使是所谓的“超级 AI”,也不可能在其运作中无限地挥霍其运算资源,并要求无限的前设知识作为其推理前提。换言之,这样的系统依然是与我们人类一样的“有限的存在者”,并与我们人类一样面临着某种终极的脆弱性。

  不过,如果我们将“超级”的门槛降低,并在“比人类稍微更灵活、更具创造性一点”这一意义上使用“超级 AI”这个字眼的话,那么,制造出这样的系统,在概念上是可能的。说得更具体一点,我们当然可以由此设想 :某种 AGI 系统能够

  即使有一天这样的 AGI 系统问世了,其技术路径也会与主流的人工智能技术非常不同。因此,那种凭借主流人工智能技术的进展就大喊“奇点时刻即将到来”①的论调,依然是站不住脚的。换言之,虽然“AI 威胁论”并非永远会显得不合时宜,至少就目前的情况而言,高唱此论调,的确显得有些杞人忧天。

  参考文献:

  [1]黄欣荣.大数据 、人工智能与共产主义[J].贵州省党校学

  报 ,2017(5).

  [2]李飞飞.我曾在北京最冷的冬天感受到了人工智能的狂热[N].

  电脑报 ,2017-11-06.

  [3]徐英瑾.心智 、语言和机器 —— 维特根斯坦哲学与人工智能科学的对话[M].北京:人民出版社 ,2013.

  [4] J. Fodor. The Mind Doesn’t Work That Way: The Scope and Limits of Computational Psychology[M]. Cambridge, MA: MIT Press, 2000:5.

  [5] Peter Carruthers. The Architecture of Mind[M]. Oxford: Oxford University Press, 2006.

  [6] J. Hernández-Orallo. The Measure of All Minds: Evaluating Natural and Artificial Intelligence[M]. Cambridge: Cambridge University Press, 2017: 64,68,145.

  [7]S. Adams et al. Mapping the landscape of human-level artificial general Intelligence[J].AI Magazine, 33(1): 25-42.

  [8][英]玛格丽特•博登.人工智能的本质与未来[M].孙诗惠 ,

  译. 北京:中国人民大学出版社 ,2017 :106-107. [9]Roger Penrose. Shadows of the Mind: A Search for the

  Missing Science of Consciousness[M].New York: Oxford University Press, 1994.

  [10]E. Ben-Jacob. Learning from bacteria about natural information processing[J].Annals of the New York Academy of Sciences, 2009(1): 78-90.

  [11]Gigerenzer, G, Todd, P., the ABC Research Group. Simple Heuristics that Make Us Smart[M].Oxford: Oxford University Press, 1999.

《人工智能技术的未来通途刍议》

本文由职称驿站首发,您身边的高端论文发表学术顾问

文章名称: 人工智能技术的未来通途刍议

文章地址: http://www.zhichengyz.com/lunwen/keji/zn/36712.html

我们的服务
  • 稿件预审

    快速预审、投刊前指导、专业学术评审,对文章进行评价

    立即咨询
  • 润色编辑

    校对编辑、深度润色,让稿件符合学术规范,格式体例等标准

    立即咨询
  • 学术翻译

    适用于语句和结构尚需完善和调整的中文文章,确保稿件达到要求

    立即咨询
  • 文章查重

    数据库包括:期刊、文章、书籍、会议、预印书、百科全书和摘要等

    立即咨询
  • 期刊推荐

    让作者在期刊选择时避免走弯路,缩短稿件被接收的周期

    立即咨询
  • 稿件格式修改

    根据目标期刊格式要求对作者文章进行全面的格式修改和调整

    立即咨询
  • 协助提交稿件

    帮助作者将稿件提交至目标期刊投稿系统,降低退稿或拒稿率

    立即咨询
  • 投稿附言指导

    按照您提供的稿件内容,指导完成投稿附信(cover letter)

    立即咨询
未能解决您的问题?马上联系学术顾问

未能解决您的问题?

不要急哦,马上联系学术顾问,获取答案!

免费获取

职称驿站 www.zhichengyz.com 版权所有 仿冒必究 冀ICP备16002873号-3