资源行业动态新一代人工智能基础与架构导论

新一代人工智能基础与架构导论

2020-02-11 | |  81 |   0

原标题:新一代人工智能基础与架构导论

来源:AI 研习社          链接:https://www.yanxishe.com/blogDetail/13341


说起人工智能,其热度由阿尔法狗的人机大战再次真正进入大众视野好像就是近两年的事,各行各业也开始大规模提倡“人工智能 +”的热潮。但事实上人工智能并不算一个新鲜事物,从 1956 年达特茅斯会议上被提出至今,拥有六十多年历史的人工智能可以说是计算机学科的三朝元老了。一路走来,磕磕绊绊,经历了三起两落之后,人工智能似乎终于迎来了一轮爆发式的发展,无论是在政策环境上还是在硬件支撑上都得到了从未有过的支持。


这段时间里人工智能接连在图像识别、语音识别等关键领域正确率屡创新高;阿尔法狗 2.0 也再次横扫各人类顶尖棋手,则继续将普通民众对人工智能的热情推向高潮;应用方面,各大技术厂商纷纷入局,人工智能相关的初创公司如雨后春笋般涌现,各行各业都在进行智能化的转变,落地应用也层出不穷;政策方面,中国的国务院和工信部先后印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020 年)》,旨在全面部署构筑国家人工智能发展的竞争力和制高点。


在浮华的光环掩映之下,穿透历史就更需要勇气;在经历过数次沉浮之后,人工智能是否真正迎来属于自己的时代?现在的跟以前的人工智能又有什么不同,或者只是硬件增强了、数据增多了?为了区别于以往的人工智能,这里将本篇所涉及的人工智能简称为新一代人工智能,痛定思痛,本文从人工智能的基础出发,适当参照人类智能与人工智能的对应关系,简单梳理了一下人工智能的应有的基础与架构,浅望抛砖引玉做个导引。


当前人工智能的进退现状

当前,人工智能的发展虽然很热,各行各业各种“智能”的新包装层出不穷,但却有些悖论的发现,似乎一时还并没有在大众生活中被普遍切身感受到,好像还似当年的深蓝或者今天的阿尔法狗一样遥远,至少没有身边的那种强人工智能被强烈感受到(相对于那些具体某个体验或小器件提高,即所谓的弱人工智能而言);其实这也不能怪大众,因为无论是技术落地层面还是理论支撑层面,当前流行的人工智能都有许多不够完备之处,存在许多问题需要解决,更遑论“最后一公里”。

引用 MIT 人工智能实验室主任丹妮拉·鲁斯的话说:“首先是机器人解决问题的能力没有那么好,比如说清理桌子我们觉得很简单,但是对于机器人来说它们会做得特别差。第二,机器人很难提升表现率,将 90% 提升到 99% 是特别难的。第三,是解决互动和交流,你需要一系列语言上的沟通和机器人交流,然后互相共享工作,这方面我们仍需改进。”

这其实比较好的解释了上述的悖论,在人工智能领域工作和沉浮很多年的技术人员都有真切的体验,从 10 分的落后表现做到及格 60 分,可能需要一周时间原型就能出来;而从 60 做到 80-90 分,则至少需要数月;但从 90 分做到 99 分,则每提高一个百分点都需要以年计的付出;满分 100 的难度可想而知。但可惜的是,基本除了泛娱乐领域,在典型的制造、金融、安全、医疗、军事等传统最需要 AI 的领域,对于容错却又恰恰是工业级要求的,比如自动驾驶,就是必须 99 分往上。而当前绝大多数人工智能的底层建设基础和工艺,其诞生起的天花板,就已经在这个水准位之下,所以一初就盛开的鲜艳之花,却永远绽放在路边,结不出丰收的果实。


【人工智能起落的痛点】

简而言之,传统流行人工智能的主要痛处大致可以粗划以下三点:

1581391875581405.png

1、缺乏根基性,没有完整、统一和成熟的理论基础

传统上人工智能的主要三个流派,耳熟能详大家都知道的是,符号主义、连接主义和行为主义。不同学派对人工智能的研究方法与发展各执一词,人工智能历史上与 AI 并行的还有个 CI;各种争论导致人工智能学派起源与根基一直没有统一,从某种程度上也多少限制了人工智能的发展与进步。反过来看,也是因为没有一套令人信服的完整理论出来统一大家认识。不过,当前随着各方面的发展,随着涌现出了诸多引人瞩目的进展,以及代表性事件,当前可认为已悄然演变为新三大流派:

(1)以 IBM 深蓝、沃森为代表的、在传统人工智能技术上继续阶进的穷举派;

(2)以谷歌 AlphaGo 为代表的、深挖神经网络和各种模型的(调)参数派;

(3)以及从感知进展到认知的理解派(意识派)。

2、缺乏通用性,多数成就局限于特定领域或个案

人工智能领域目前相对比较有起色的,是相对狭隘的专有系统,通常擅长于做特定的事情,比如国际象棋、围棋,比如一定场景下的语音识别,比如分析特定的基因数据,以及了解特定的治疗方案;更早的比如指纹、车牌识别等等。由于其特定平台导向的限制,导致对应的人工智能项目,都局限于在特定的领域做特定的工作,一旦应用环境发生变化则会失去扩展性,更难像人类那样举一反三,触类旁通。

3、缺乏聚焦性,现有技术并未触及人工智能本质

目前已有的研究方案和人工智能技术,包括专家系统、神经网络、机器学习、模式识别、语言处理、虚拟现实、机器人等等,乃至近年一些相对理论透明一些的,基于数理统计方法的成果,都常常令人灰心于其好像南辕北辙于人工智能研究的本质,似乎并未触及人工智能的核心部分。缺乏聚焦性的研究好像有些隔靴搔痒,无法从根子上解决人工智能的核心问题,具体表现为人工智能研究虽然一直在阶段性进步,一直有螺旋式上升,但引发人工智能自学习并开始指数性增长的奇点,却始终迟迟没有来临(参见科兹维尔《奇点来临》)。

就像前面章节所述,底层建设基础和工艺很重要。就像中国农村流行的旧式的砖瓦小楼一般两层一样,再请人努力,估计也很难盖上十数层;后来混凝土浇筑的建筑,则开始占据市镇高层的主流;而能描绘城市天际线的摩天大楼,则多是新一代框架金属结构;虽然开始的两层大家看着进度都相似,但最后能盖多高,却由其建筑原理和结构一开始就注定了。若不去寻求和采用更先进的基础架构,却一味追求用美轮美奂的榫卯、伴随着绝活的调泥、烧砖,但又能盖多高呢?


【人工智能与人类智能】

人工智能无论是从技术结构,还是从原理上来说不可以形而上学的要求都与人类智能极其相似,但必须有使命完成某种程度上对人类智能的模拟、拓展,甚至超越。人类可以完成的复杂任务一般主要由感知、认知(思考)和行动三个环节构成,人工智能在某种意义上是机器(含计算机)对这些环节的模拟、延伸和拓展。


不妨以功能比较全面的机器人作为人工智能的典型示例,将其与人类来做一个对应,从而对人工智能的结构与内涵有个直观的感觉。

1581391971822779.png

图|人类与人工智能的对应 从上图类比可看出,人类智能的感知环节包括常说的视觉、听觉、嗅觉、味觉、触觉(第六感之前的五感,其实人体的感觉,最新的科技研究表明,至少达到二十多种)等,对应的人工智能就有机器视觉感知、机器听觉感知、机器嗅觉感知、机器味觉感知、机器触觉感知等等。


人类智能的认知(思考)环节包括学习、思维、理解等,对应的人工智能就有机器思维、机器理解、机器学习等等。而人类智能的行动环节包括语言、表情、动作等,对应的人工智能就有声音合成、情感计算与智能控制等等。

因此,如果将人类智能看作是以人脑为基础的神经感受、计算与控制,人工智能实际上更像以机器、数据和算法为核心的计算与控制。


新一代人工智能的原则

人工智能发展至今,在经历了多次的迭代与更新后,似乎一直没法设立相对完整的大厦体系。参看人工智能过往的起起落落,有的滴流绵延,有的烟消云散;痛定思痛,如果纯粹从技术角度来看,冒昧地列出,新一代的人工智能应当具备如下几大原则:


【坚实的理论基础】

俗话说“万丈高楼平地起”,任何一个领域,如果没有一个坚实的理论基础作为支撑,之后的发展都将是不稳定,且伴随着越往上走摇摆越大的风险。对于能够获得快速发展的科技领域来说,夯实的理论基础自然也必不可少,计算机领域比较典型的例子如二进制对于冯·诺依曼体系计算机发展的重要推动。且不说数学体系中依靠自律性、奠基性很强的交换律、结合律、分配律等等来构建大厦,就是计算机科学中的信息熵(香农)、机器学习中的统计公式(像贝叶斯条件概率),还有数据结构及其算法复杂度等等,也无一不透着其基石自完备的光芒。

1581391999392153.png

在新一代人工智能中,我们也需要有几个基石性的底线:


1、数据的扩展性

现有的人工智能学习方式,比如以深度学习为代表的神经网络,建立知识体系的方式都是通过训练网络中各个连接参数并赋予其权重,在指定的输入与输出条件之下,计算出任意旧的或新的激励下的响应或者执行。这类学习方法在获其益处的同时弊端也很明显,即针对任何一个新的领域,已经得到的数据很难继续使用,需要进行新的学习与计算;退一步讲,即使对于同一领域的问题,当输入或输出的维度简单发生改变时,也常常涉及到新的学习与计算。当数据量很大时,这一特性对机器学习和处理信息效率的影响也会被放大。

1581392043119840.png


数据的爆发性增长一方面给人工智能带来了海量的学习素材,另一方面也给目前处理数据的方式带来了巨大的挑战。目前处理数据的很多方式大多是封闭的、先验的以及定向探寻的,而人工智能处理下的大数据模型应该是开放的、外延且全面的,任何小数据都能成为敏感点,能关联热点,具备良好的拓展性与关联性。


2、算法的收敛性

所谓算法的收敛性,教科书上的定义一般是:随着迭代的进行,算法的结果与真实结果的误差越来越小,且趋近于一个固定的值。通俗点说,就是已经得到了数值计算的解,再继续迭代,结果也不会有太大变化了。与算法收敛性相对应的是算法发散性,算法发散性指的是无论迭代次数多大,收敛曲线均一直跳动而无法趋于一个固定值。

1581392112786518.png

图|算法的收敛性 

考察算法收敛性的好坏与否,一般的指标是局部收敛能力与全局收敛能力。局部收敛能力指的是该算法在一定区域内能够无穷接近最优解的能力,全局收敛能力是指找到全局最优解所在的大致位置的能力。

这两种能力,对于任何智能算法的性能都是很重要的,对于新一代人工智能亦是如此,只有兼具这两种能力,才算得上是真正的智能,缺少其中任何一种,都可能产生丢失标靶、无法聚焦,无法确定性的分析理解和判断等问题,无法形成真正的智能。


3、平台的一致性

所谓平台的一致性,简单点来说就是适应性与通用性。对比人工智能,人类大脑的适应性和通用性显然更强,可以适应各种各样的复杂的新环境而不用针对某种特定的环境去学习。以游戏为例,现在小朋友玩游戏是很常见的事情,但是玩游戏这件事既没有人特意去教,也不存在某些历史经验的累积,小朋友看到游戏,通过自身特有的适应能力,能够在很短的时间内掌握一款游戏的玩法。这种天然的一致性平台,使人类能够在处于任意一个新兴领域时可以迅速了解其背景知识,并利用通用智能找到解决方案。

1581392150416054.png

按照目前的发展趋势来看,未来人工智能将会越来越通用,不仅是自身的知识结构,在使用范围上也会越来越通用。要做出通用性的人工智能,新一代人工智能必须突破平台一致性所带来的限制,只有承载它的平台是一致性的,面对各种范围和场景有同构的核与异构的表,才有可能产生多能,甚至全能的人工智能。


4、模型的通用性

除了上文提到的平台一致性,代表的通用智能的另一面,则是模型的通用性,即伴随的另一个轮子。按照当前科学界流行的分类法,AI 被分为强人工智能和弱人工智能,强 AI 在学术界一般指通用人工智能,即借助通用的数学模型,能够最大限度概括智能的本质。

1581392214668246.png

通用模型的建立,相比于现有的单一模型复杂很多。首先横向看,通用模型面向的对象十分广泛且复杂,世间万物事无巨细都在其处理范围之内;其次纵向看,任何事物都是在发展变化中,那么通用模型就必须具有开放的品质,可以自动适应最新的演变。打个比方,目前自然语言处理能力有限,计算机无法弄清特殊语境下具有多重意思的真正句子,而且随着互联网社交的兴起,不断的有各种新词汇甚至新成语冒出。


因此,建立全方位知识体系的通用模型相比单一模型困难很多,但同时,也重要得多。


5、社会的融入性

前面几个特性都侧重于技术范畴,除了技术层面,新一代人工智能在主观接触和体验等方面也有一定的要求。随着技术的日渐成熟,目前各类智能产品已经渐渐融入了我们的生活,潜移默化改变着我们的生活习惯。比如 2017 年大热的智能音箱就是一个例子,建立在优秀语音识别技术基础上的说话交互有可能颠覆了我们传统通的交互方式。

换句话说,就是 AI 即 UI 的设定,在未来 AI 即 UI 的时代里,人们的很多生活习惯和行为方式将被打破,代之以全新的人机互动体验。

但目前市场上的智能产品大都处于试水阶段,并未真正达到“智能”的级别。比如智能家具为例,一个成熟的人工智能产品不应该需要我们去下达指令才去完成某个任务,能通过传感器等外设感知我们的潜在需求,例如在检测到我们体征温度过高时自动调整空调温度,检测到我们进入睡眠会自动调暗灯光等。未来的人工智能将不是一个辅助性工具,而是能准确揣测并自动执行用户的需求,能在问题被提出之前就感知问题并做出相应的动作。


【全链路径上形成闭环】

1、有并行与分层能力的感知

1581392243705624.png

并行与分层能力是对输入环节的直观要求。目前实现人工智能感知这块的手段都是盯住某个目标来来回回去尽可能的找特征拟合。但人类的智能行为,明显与主流做法存在着巨大差别,主要体现在以下两点:

第一点是是并行和分层计算的能力。比如人哪怕处于一个全新的环境时,能通过感官在一瞬间接受该环境的各种细节,比如墙壁、窗户、桌椅;墙壁的颜色、窗户的大小、桌椅的摆放等等,这种能力,哪怕是计算能力巨大的超级电脑,都难以望其项背。毕竟当前计算机本质上是串行计算的,并且以逻辑处理的方式去分析感知目标对象,而不是人脑这种天然并行与分层的融和计算方式。

图|并行处理的某种实现

1581392269959236.png


另外一点是前馈的机制和能力。当前主流实现主要是面向应用收集一些相关的数据,通过统计学习或网络训练等方法,来提取一些显式或隐式的规则以解决问题。而人脑是一个不断学习、不断进化的信息处理系统;人从一出生开始,人脑就在通过视觉、听觉、触觉等多感知通道获取知识,而后在学习和感知过程中,这些通过各种场景、经历等长期积累的知识,都在感知过程中发挥着潜移默化的作用。换句话说,没有核心大脑的前馈参与,只是单纯的去感知,并不是完全意义上的智能感知。

2、基于理解和自学习的认知

图|基于理解的人工智能

1581392301141821.png

基于理解和自学习主要是对中枢环节的要求,至少要包含信息、记忆、知识等这些是以何种方式来组织并高效的起作用。

打个比方,比如当前的机器翻译,通常并不需要去理解所要翻译句子的意思,翻译过程要么是分词,机器将句子打碎成一个个单词,再将这些单个词汇机械性翻译成对应的外语,最后拼凑起来输出翻译结果。对于一些句子结构简单、不带有任何复杂内涵的句子,这种模式翻译结果勉强能够接受,但是一旦句子结构复杂或者带有一些情感色彩,所输出的翻译结果则往往令人捧腹。要么是另外一种蛮算,连分词都不用太仔细的分解与拼凑,直接按贝叶斯条件概率,就是倒过来考虑,假设已知最终目标是当前的原文,那么哪种输入才能最大条件的达到这个目标,那么该输入就是最大可能的翻译结果;

而基于理解的人工智能自然会在很大程度上弥补这个不足,以理解句子为基础,不仅仅从句子的字面入手,还从最根本上弄清句子的含义,从定位命中簇到映射概念簇,最后序列化热点簇,最终得到翻译结果。

从这个例子推而广之,理解和自学习能力的重要性在其它很多领域一样重要;目前机器处理信息的主流方式,更多的是单纯的、机械式的抽取和比对特征,而不是去理解对象目标,像真正人类所做的那样;退一步讲,“不谋全局者,不足以守一城”,毕竟即使是翻译人类的语言,语言自身也是一直在不断进步和多样化。

与此对应,鉴于已知与未知的海量与浩瀚,毋庸置疑,这个过程显然需要有很好的相对精巧的自学习能力。如果这方面能力不足,人工智能所获取的知识都是人工梳理完的,计算机的知识相对有限,同时人工智能也从无可能超越人类。

3、决策变换下的合成与执行

并行与分层能力是对输入环节的直观要求,合成与执行能力则是对输出环节的简单要求。真正的智能,不仅能感知和理解目标对象,还应该能灵活的应对各种场合,这对于新一代人工智能的模型来说,也应该是必备的部分。

1581392340362077.png

在这方面有个比较典型的例子,就是目前相对比较热的自动驾驶,自动驾驶汽车需要具备多种处理能力,例如障碍识别、推理、规划以及记忆能力等。模式识别能力让汽车可以对障碍物和街道标志做出反应;确定障碍物之后需要推理、规划等能力,及时作出反应避开障碍物或者选择其他路径等。在无人汽车的行驶过程中,它需要不断重复做这些事,但又不是简单的重复,同时不断更新它的解决方案,以确保汽车正常、安全地行驶。


【工程实施上的可行性】

1581392393275572.png

1、可控学习过程和生长

对于一个优秀的人工智能模型,具备可持续发展性,以及自学习和生长的能力,是十分必要的;通过不断的可控学习和生长,该模型的功能就会越来越全面,规模会越来越庞大,体系也会越来越健壮。新一代人工智能在迈向超级智能的途中,其自学习能力和生长能力是必过的独木桥,否则所谓的“智能”,将会只是一个验证知识的程序式实现而已。

当前人工智能流行的模型,无论是统计模型,还是(深度)神经网络模型,都算得上是比较好的工程实现方法,这些模型具备可建模、可计算、可量化以及可达到特定目标的特征,否则不会得到如此广泛的认可与应用。其实反过来,当前流行的模型也从侧面证明了工程可行性对于科技的重要程度。

另一方面,目前的人工智能范例功能还比较单一,通常只学习了一种或者几种技能,例如阿尔法狗,只是学习了如何下围棋;新一代的人工智能应该是更强大更全能的,不仅要会下棋,还应该能绘图、作曲,甚至洗衣做饭完成日常保姆工作等等,换句话说,新一代的人工智能应该是一个全能型的机器人,需要同时掌握多种技能和知识。

1581392422321831.png

2、降维的速度和精度

在处理数据时,现有的模型都会遇到一个问题--数据维度较高。为了控制整体的收敛性和计算速度,处理数据的前、中、后期可能都会涉及到部分对数据进行降维处理。高维度的数据一方面可能会导致“维灾难”的问题,另一方面,较高维度的数据也不利于人们对数据所隐含之结构信息的理解与发现。因此,在争夺人工智能制高点的角逐中,在数据降维领域的实力是一个很重要的衡量标准。

通常来讲,降维一般都伴随着微小量处理,这里就有个粒度与精度的权衡。粒度不同,导致计算的精细度不同,导致摒弃的小量数不同;所以需要计算出一定误差范围内,需要的粒度指标,这也是里面的一个核心数学问题。

1581392468979192.png


3、泛化的处理和能力

泛化能力多少可以理解为,是否具有高度的普适性;可以是往上走的更抽象的东西,比如爱因斯坦从相对论导出的质能方程 E=MC2(平方);也可以是往下走的更铺开的范畴,比如共享经济,从出租车、到家庭旅馆、到共享单车。

人工智能需要泛学习的能力,对于不同的标的,都应有相对比较一致的做法。比如谷歌的索引、关键词归类和 PageRank 等技术综合,就属于一种泛化处理,无论专业医学文献还是游戏玩法的讨论,都是同样的爬取、摘要、索引和入库的办法,所以当前持互联网界牛耳也无可厚非;如果因为人工智能的再次兴起就妄论,借助人工智能弯道超车超越谷歌等旧的搜索引擎,其实本质上是对于泛化的威力还不够敬畏。其实神经网络也属于一种泛学习,处理预测、处理语音、处理图像等等,所以能有这么多子派别,CNN、RNN、GNN 等等;所以能有这么大市场,当年 DeepMind 能被谷歌高价收购,很重要的就是其对深度神经网络的泛化能力。

新一代人工智能不仅要像谷歌那样处理好文字的泛化,更要对于多通道来源的曲线、图像等多形态数据处理好泛化,有个一致的耦合逻辑,类似于人类对于视觉、听觉、触觉、味觉、痛觉等的综合处理一样。

1581392501739269.png


4、迁移学习的能力

所谓迁移学习(Transfer Learning),顾名思义就是把已学到的信息、知识迁移到新的领域,就像中国成语里说的“举一反三”、“触类旁通”。比如在神经网络中,考虑到大部分数据或任务是存在相关性的,通过迁移学习我们就可以将已经学到的模型参数通过某种方式来分享给新模型,从而加快并优化模型的学习效率,不用像大多数网络那样从零学习。

对于迁移学习的重要性,斯坦福的教授吴恩达曾在 2016 年 NIPS 会议中说过:“在监督学习之后,迁移学习将引领下一波机器学习技术商业化浪潮”,并针对未来 AI 的技术发展方向,给出了一张发展图:

1581392535897820.png


AI的技术发展方向

可以看出,除了监督学习,迁移学习也将会是一个很有活力的领域,其中一个很重要的原因在于,迁移学习对于数据量不足领域的重要意义。

目前深度学习虽然很热,但其数据的处理方式的局限性在于,一旦网络结构发生变化,整个知识体系好多时候都要推倒重来,甚至对数据从零开始进行新的学习与训练。相比于人类大脑处理信息与数据的方式,神经网络的这种学习方法无疑是低效率且不适用的,所以,如果新一代的人工智能想在信息处理方面取得突破,就需要像人类大脑一样,能对已有的知识进行累积此外还要具备可拓展性。而某些领域的既有数据量不足,恰恰是制约行业快速发展和应用的问题之一。

比如,对于数据量不足的问题,以语音识别领域为例。如果我们想针对某些方言做语音识别,由于特定方言的使用人数较少,数据量不足,就无法建立模型对该语种进行分析。但是另一些语言,例如普通话,我们拥有大量的数据,由于二者的模型结构相似度很高,我们就可以使用迁移学习将普通话的模型迁移到对方言的分析中。

再比如,行业个性化的问题:比如金融领域的客户,他们都希望在通用的大数据高级分析模型的基础上,构建属于自己独有的模型,这个模型来源于共知模型又区别于共知模型,还需要快速进行构建和应用,对于此也可以通过迁移学习来有效解决这类问题。

5、形态的多样性

很多人对人工智能的印象还停留在“机器人”这个概念上,但实际上机器人外型只不过是人工智能的容器之一,人工智能早已经以多种形态出现在我们的日常生活当中。比较常见的有各大搜索引擎的搜索算法、目前很火的无人驾驶汽车以及一些手机内置的智能芯片,这些外型上与机器人毫不相关的事物,全都使用了人工智能技术。未来,人工智能将以更多样的形态存在于我们的生活当中,为我们处理各种复杂的事物。

1581392573852023.png


新一代人工智能的基础

1956 年,麦卡锡在达特茅斯会议上第一次提出人工智能概念时曾表示,人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。判断一台设备是否具备智能,目前通用的准则是被誉为人工智能之父的图灵提出的图灵测试--如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。


随着后来专家学者的补充与不断完善,人工智能目前被广泛认可的定义是:人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等等。

以上的定义或许比较相对抽象不容易理解,而实现上自然也是百花绽放,包括前面提到的“老三派”与“新三派”。那么,要如何理解本文提起的,新一代人工智能呢?它和人工智能的传统与现实,又有何本质异同?下面我们以概念树为载体,通过分解概念树的基础组成来进一步了解新一代人工智能的定义与要义:

1581392625151689.png


如果把新一代人工智能类比成一棵概念树,每一个微小的概念则是这棵树的树叶部分,概念是智能形成的素材与原料;概念之间相互关联的部分则相当于树枝,树枝将每一个小的概念联系在一起形成一个整体;树枝错综复杂交叉在一起形成一个网络,而很多个树与网络的集合最终构成了人工智能概念树网;多根、立体、交网是它的一般性特点。其要义包括以下几点:

要义一:概念是智能形成的基点(节点);概念具有组合性,对象性,参与性,抽象性;

要义二:关联是智能活动的路径(边);关联具有混合性,切面性,多维性,强弱性;

要义三:切面是智能活动的平台;一个节点可以参与多个切面;多个(同/异)节点间在不同切面里是不同的关系,有组合性;有效插入、构造、训练、建立概念树(网)的过程是自学习的核心;

要义四:集合是智能活动的约束(判定);

要义五:没有智能参与的输入输出,很难有完美确证(特征);打个比方,一个好的输入识别,和一个好的输出合成,都需要在智能运算领域向外扩张,并切入输入输出这一块,才有可能做得很好。

1581392660102617.png


在树的组织过程中,原则上要遵守克劳德·香农在信息论中的一些原则;大家都知道,当取自有限的样本时,信息熵的公式可以表示为:

20.png

在这里 b 是对数所使用的底,通常是 2,自然常数 e,或是 10。当 b = 2,信息熵的单位就是大家所熟识的 bit;基于此方法,可以逐步构造或求解获得智慧树或子树里的最小本征树,就是能够纲举目张的支撑起该部分子树的其主枝干。

最小本征树是智慧树网中的负责某个具体理解的子集,不同的领域或者不同的标的,其最小本征树都不完全一样;该树能以最小集合与枝桠,完整的表示出该子智慧树网,就像渔网中的网线。最小本征树具有如下几点特征:

(1) 可以在一个复杂的树网中,寻找(高亮)出该本征树;

(2) 类似于多个方程中形变根不变的伽罗华群,或矩阵的本征向量;

(3) 但仅有向量肯定是不够的,必须用张量来计算;

其核心门槛有两点:

(1) 收敛性与发散控制,毕竟存在多个智慧树的生长算法;

(2) 当前计算机领域,公众尚集中在研究到图论和树,还未研究到树网,尤其是其中的本征树计算;

大家还知道,在一定条件下或者说事件下,可以定义事件 X 与 Y 分别取 xi 和 yj 时的条件熵为:

21.png

其中 p(xi,yj)为 X=xi 且 Y=yj 时的概率,这个量理解为知道 Y 的值前提下随机变量 X 的随机性的量。基于此,对于一个新输入(无论是文字、曲线、声音或者影像),判断其对应的目标(认知),就可以理解为在智慧树或子树上寻找其最大似然结构。

最大似然结构的找寻,可以借鉴最大似然估计的一些做法,比如确定参数值的过程,是找到能最大化模型产生真实观察数据可能性的那一组参数。对比一组序列时,由于被研究序列的共同祖先序列是未知的,概率的计算变得复杂;又由于可能在一个位点或多个位点发生多次替换,并且不是所有的位点都是相互独立,概率计算的复杂度进一步加大。尽管如此,还是能用客观标准来计算每个位点的概率,计算表示序列关系的每棵可能的树的概率。然后,根据定义,概率总计最大的那棵树,则最有可能是反映真实情况的系统发生树。

在此基础上,可以做一些相对具体的延伸,举几个例子,比如联想、假设和抽象:

(1)联想方式

1581392711763298.png


普通人类面对某个问题时,思维方式很容易就会有四面八方、并行发散的能力,从多个角度考虑问题,而不是拘泥于某个现成的笼子(比如像神经网络模型那样的)里,有时也会冒出一些奇点共振的特性;而新一代人工智能的模型,其思维方式和逻辑性上,也是能通过关联节点从一个切面进入另一个切面,或者沿着概念树从一个节点到另一个节点,也具备人类的开放式发散思维的能力。

(2)假设方式

真实的激励响应,可以在人的思维空间中激荡与传导,而人类还有一个比较大的本事,可以做出各种假设,来推演可能发生的结果,那人类凭什么可以有资格来推演呢?因为他/她已经有了潜在的知识树网。打个比方,可以参考的例子是,比较著名也比较具有代表性的弗洛伊德的梦的解析。弗洛伊德相信人类现实中一些未开口的想法或者希望会通过潜意识释放出来,梦境在某些程度上折射了人类真实的内心活动,可以通过分析梦境的内容对人类的想法和目的做出合理的假设与猜想。

1581392806733871.png

弗洛伊德的理论很多基于心理学和主观意识,如果让新一代人工智来处理,会发现惊人的相似。人类睡觉时大脑如果做梦,大家知道常常会有三大类,其引发条件我们这里分别称之为外波、余波和杂波:

(1) 外波主要表示身体部位受到刺激,例如在睡觉时手放胸口,可能会梦见自己被石头压住,可以通过外波的波形判断身体目前所处状态的变化;

(2) 余波则是密集脑力活动残留刺激,我们常说的日有所思,夜有所梦就是这个意思,余波可以用来表示入睡前大脑活动的剧烈程度以及思维的活跃度;

(3) 杂波则属于随机无序的脑电波火花,也是最接近弗洛伊德梦的解析理论中关于梦境暴露的潜意识与渴望的说法的波形,杂波可以用来判断某个人思想的知识结构,理论上类似于弗洛伊德梦的解析,具有有参考价值。

总体来说,人类可以通过主观意识做出假设,而新一代人工智能则同样可以给出某种数据来模拟尚未发生的激励脉冲,来观察它在智慧树网中的响应,从而预测未来可能的结果。

(3)抽象方式

抽象能力就是在思维活动中,通过对事物整体性的科学分析,把自己认为是事物的本质方面、主要方面提取出来,舍弃非本质、非主要的东西,从而形成概念和范畴的思维能力。历史上一些具有里程碑意义的理论和公式,例如爱因斯坦的相对论,就和抽象能力有着不小的关系。

爱因斯坦所提出的相对论,如果按照新一代人工智能的思维方式来理解,抽象工作就变得相当有迹可循,易于复现:

1581392846994758.png

通过上述三个举例,人类思维与新一代人工智能思考模型的类比,可以看出,新一代人工智能在利用算法理论,和实现人工智能对知识的学习、对问题的思考,和对现象的理解等方面,都具有相当的系统性、关联性和一致性。


新一代人工智能的架构

鉴于篇幅,本章节并不便于详细展开当前具体的框架与实现的细节;但会从行文的完整性角度,在这里概述相对公知的内容。

从前述人工智能的定义以及人工智能与人类智能之间的类比关系来看,人工智能最基本的架构目标,是机器包括在感知、思考、行动这几个主要环节的技术实现。

在感知环节,所涉及的关键技术包括机器听觉、机器视觉、机器触觉等;在思考环节,所涉及的关键技术包括机器学习、机器理解、机器思维等;在行动环节,所涉及的关键技术包括声音合成、情感计算、智能控制等。

1581392883507514.png

对于人类智能,也就是基于人脑的神经计算和控制来说,其能力和智力的提升主要是依赖学习和理解,而学习与理解的核心是算法、数据与结构。对于人工智能虽然基于机器,但其能力与智力的提升也主要是依赖机器学习和机器理解,因而其核心也是机器算法和理论。因而可以粗浅地将人工智能基础架构分为两个层面:

(1) 关键技术层(外围),主要包括感知、思考、行动等环节的模拟和实现技术;

(2) 核心技术层(内核),则主要包括人工智能的算法、结构与理论。

1581392914529237.png

【关键技术层】

1、感知环节

机器感知环节包括及其感知所涉及的关键技术,主要实现对人的感知能力的模拟和拓展,包括对声音、图象、温度、生物特征等,实现数据的采集和初步处理。

由于技术发展的阶段性问题,人工智能在很多方面尚未完成人类感知的所有功能;但与此同时,由于人类通过技术实现可以让机器设备探测到一些人类所不能感知到的讯息,目前机器感知能力已经有很多方面甚至超越了人类,今后还会有越来越多人工智能发展出比人类更强的机器感知能力。

1581392953777181.png

举几个例子,机器感知方面主要使用的技术有自然语言处理、计算机视觉以及生物特征识别等技术等。

(1)自然语言处理

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向,研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,涉及的领域较多,主要包括机器翻译、机器阅读理解和问答系统等。

(2)计算机视觉

计算机视觉是使用计算机模仿人类视觉系统的科学,让计算机拥有类似人类提取、处理、理解和分析图像以及图像序列的能力。自动驾驶、机器人、智能医疗等领域均需要通过计算机视觉技术从视觉信号中提取并处理信息。近来随着深度学习的发展,预处理、特征提取与算法处理渐渐融合,形成端到端的人工智能算法技术。根据解决的问题,计算机视觉可分为计算成像学、图像理解、动态视觉等。

(3)生物特征识别

生物特征识别技术是指通过个体生理特征或行为特征对个体身份进行识别认证的技术。生物特征识别技术涉及的内容十分广泛,包括指纹、掌纹、人脸、虹膜、指静脉、声纹、步态等多种生物特征,其识别过程涉及到图像处理、计算机视觉、语音识别、机器学习等多项技术。目前生物特征识别作为重要的智能化身份认证技术,在金融、公共安全、教育、交通等领域得到广泛的应用。下面将对指纹识别、人脸识别、声纹识别等较成熟领域。

2、思考环节

机器学习部分主要是将所获得的数据信息利用各种高级算法理论来进行处理,比如贝叶斯方法、关联规则学习、神经网络、深度学习、类脑智能等等等,挖掘出有价值规律性的知识,提升人工智能的思维和理解能力。

机器理解部分主要是利用一些高级算法来理解所获得的数据含义,主要包括声音理解、自然语言理解、图形图像理解、运动影像理解、行为动作理解等。目前,RNN(回归神经网络)、LSTM(长短记忆神经网络)已成为常用的语音识别算法,卷积神经网络(CNN)也已经广泛运用于自然图像、指纹、人脸以及物体的检测之中。

机器思维部分主要是在已经获得的知识的基础上,利用各种的算法以及决策树学习等算法进行推理,从而得出问题求解、智能搜索、自动规划、辅助决策、程序验证和自动程序设计等需要解决的问题的答案。

3、行动环节

行动环节主要是实现思考环节的结果输出、执行与控制,包括决策执行、声音合成(尤其是自然语音合成)、智能控制、情感表达等。不过决策执行概念比较宽泛,依据各自不同的需求执行具体的动作。

举个例子,声音合成技术目前已经基本成熟,通过数字化频率控制,可以将声音惟妙惟肖地模仿出来。尤其是自然语音合成(TTS)技术能将任意文字信息实时转化为标准流畅的语音朗读出来。自然语音合成技术在与声纹技术的结合后,还可以逼真地模仿出各个人物的声音。

1581392990620086.png

而智能控制包括平衡控制、动作控制等。智能控制(尤其是工业智能控制)在与通信系统的结合后,有利于实现远程智能控制与服务。目前,智能控制技术已经在生产制造领域已经获得了较大范围的应用,智能设备以及各类生产型机器人开始在工厂车间出现,甚至出现了无人车间、智能空调、扫地机器人以及其他一些社会服务性机器人也已经陆续产品化。

情感表达则主要是让机器人能够表达人类的喜、怒、哀、乐、悲、忧等情感,主要用于类人服务机器人,也是目前人工智能领域的研究热点之一。


【核心技术层】

之所以将算法理论列为人工智能基础架构的核心层,主要是人工智能首要考虑的问题就是算法。算法理论主要涉及最早出现的机器定理证明和后来出现的专家系统、神经网络、深度学习,以及类脑智能等。

首先,我们对一些主流技术做个大致肤浅的扫描。其实人工智能中最先应用的算法是机器定理证明以及其他类似问题的求解,这是由于在人工智能发展初期,符号主义学派认为人的智能主要体现在具有推理和思考能力,因此也就自然而然地将机器定理证明作为了人工智能研究的第一个切入点,并将相关成果应用于问题求解、自然语言理解、程序验证和自动程序设计等方面。

至于回归算法、基于实例的算法、贝叶斯方法、正则化方法、聚类算法、基于核的算法、降低纬度算法以及专家系统等,都是不具备学习能力的算法。而决策树学习、关联规则学习等属于具备学习能力的算法,但效率上相对较低。

1581393032613378.png

人工神经网络则是借鉴了人类神经计算的原理而形成的算法,其效率得到了大幅度提高。深度学习则是进一步在传统神经网络的基础上,通过构建多隐层神经网络模型和海量训练数据,来学习更有用的特征,最终提升分析准确性,具备了自动学习数据特征的能力,尤其适用于包含少量未标识数据的大数据集。

1581393060741346.png

由于深度学习采用层次网络结构进行逐层特征变换,将样本的特征表示变换到一个新的特征空间,从而使分类或预测更加容易,也使其成为了推动本次人工智能浪潮的热点。由于神经网络和深度学习都只是刚刚采用了一点点的脑科学与神经科学中的研究成果,就使得人工智能发展获得了如此显著的进步,因此人们相信,大脑中还有非常非常多的计算与控制机制可供人工智能借鉴,这也是业界普遍关注类脑智能的最主要原因。

对于新一代人工智能而言,除了做好最小本征树与最大似然结构的计算,也借鉴大脑中“内存与计算单元合一”等信息处理基本规律,在硬件实现与软件算法等多个层面做出调整;相信在未来,亦会对现有的计算机体系做出本质性的冲击与变革。


结束语

人工智能作为当前最受关注的领域之一,其逐渐广泛的渗透与应用,势必将为我们的经济与生活带来方方面面的便利与冲击;随着各方面的支持也在不断快速提升,人工智能无疑已经迎来了自身发展的新一轮“黄金时代”。不过从热点到落地、从科研到造福千家万户,只能依靠实事求是,痛定思痛、继往开来,在新一代人工智能的基础上,发挥出其真正的威力,体现其真正的价值。

我们在经历人工智能发展的同时,人工智能也在审视着我们的科技进步,人工智能发展的起起落落,又何尝不是检验我们科学能力的晴雨表呢?

THE END

免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。

合作及投稿邮箱:E-mail:editor@tusaishared.com

上一篇:简单理解 GAN

下一篇:谷歌开源强化学习深度规划网络 PlaNet

用户评价
全部评价

热门资源

  • 国内人才报告:机...

    近日,BOSS 直聘职业科学实验室 &BOSS 直聘研究院...

  • AI使物联网更智能...

    看到微软对物联网和人工智能的结合感兴趣是一个明...

  • 推荐一批学习自然...

    这里推荐一批学习自然语言处理相关的书籍,当然,...

  • 安防智能化大势下...

    大部分传统安防设备不仅拍摄视野有限,而且无法事...

  • 20亿创业基金、10...

    近日,杭州举办了建设国家新一代人工智能创新发展...