下载
登录/ 注册
主页
论坛
视频
热股
可转债
下载
下载

(zt)计算机会有超人的智能吗?

16-03-09 18:38 1251次浏览
kxc0405
+关注
博主要求身份验证
登录用户ID:
人机大战赛前思考?|?计算机会有超人的智能吗?

赛先生mp2016-03-09 07:32:59阅读(60) 评论(0)
  王培 ( 美国天普大学计算机与信息科学系)

  上个月,谷歌 计算机系统AlphaGo战胜欧洲围棋冠军樊麾的新闻又一次让人工智能上了头条。今天开始,AlphaGo将升级和人类的围棋对决,与更胜一筹的韩国著名棋手李世石对战5局。据报道,李世石对赢得比赛很有信心,认为AlphaGo只有三段棋手的水平,但他同时觉得,如果人工智能技术继续发展的话,再过一至两年,比赛的结果将很难预料。
  很少有人料到,人工智能能和人类围棋高手一决高下的日子到得如此之早。现在的问题是:接下来会怎样?对关注科技多于关注围棋的人来说,计算机是否能在围棋上打败所有人已经不太重要,而重要的是: 人工智能全面达到甚至超越人类智能的时候是否快到了?
  
两派对立观点
  一种常见观点认为,既然人工智能通常是指“用计算机完成那些需要人类智能的任务”,那么随着计算机科技的进展,自然不断有任务会从“只有人能完成”的单子中被移到“计算机也能完成”的单子中。这种情况在历史上已经发生多次了,而“在围棋上达到职业棋手水平”只不过是最新的一次而已。这当然不会是最后一次,计算机也一定会越来越多地接管人类的脑力劳动,就像其它技术接管人类的体力劳动一样。但每个任务都有自己的特点,计算机在围棋上的进展不会直接对应于在其它领域中的进展。由于人能干但计算机不能干的事还数不胜数,人工智能全面达到甚至超越人类智能仍只是一种遥远的可能性,甚至可能根本就是天方夜谭。
  这个观点在历史上能找到很多证据。大众常常误判人工智能的发展水平,其思路是“计算机连这么难的事都能干,别的事自然是不在话下了”,或者“计算机连这么容易的事都干不了,别的事自然是无从谈起了”。殊不知由于计算机和人脑在结构和机制上的各种重大差别,任务的难易程度在这两种系统中有非常不同的次序。“人工智能已经达到几岁孩子的水平了?”是一个错误的问题,因为计算机在一些任务上早已超过所有人类,而在另一些任务上还远不如任何人,这怎么比?最容易误导大众的要算某些机器人 或计算机系统的演示了。这些系统在某些精心设计的任务上的出色表现使得人们想象它们在其它任务上也已经达到了同样水平,实际上完全不然。“内行看门道,外行看热闹”在这里是再恰当不过了。
  与此相反的观点认为这次的情况和以往不同。上面的分析的确适用于“深蓝”战胜国际象棋世界冠军的例子,但AlphaGo是基于“深度学”技术的,其围棋知识不是设计者编进程序里的,而是系统自己从大量的棋谱和对局学到的。这就是说系统的围棋水平会在没有人类介入的条件下不断提高。由于计算机的学速度远高于人类,其水平超过所有人似乎只是个早晚的事。如果计算机能学围棋,它为什么不能通过学在任何任务上赶上以至超过人类呢?
  这种观点的代表作是库兹韦尔的《奇点临近》和博斯特罗姆的《超级智能》。据他们的看法,技术水平的进步是不断加速的。尤其是对人工智能而言,由于聪明的机器会设计更聪明的机器,这种自我强化的智能最终会远远超过人类的智能水平,甚至超出我们的理解能力。我们和它们的智能差别会像低等动物和我们的智能差别那样。这种预测让不少人不寒而栗,以至于把人工智能看作人类最大威胁的观点得到了不少科技界名人的响应。

  “计算”与“学”
  我认为上述两种观点都是错的。关于人工智能的讨论常常陷入混乱,是因为其中的一些核心概念在该领域内的工作定义和其日常含义不同。在《当你谈论人工智能时,到底在谈论什么?》中,我列出了几种对“人工智能”的不同理解,而在《人工智能迷途:计算机的高技能等于高智能吗?》之中,我分析了把“智能”看成“解决问题的能力”和“学的能力”所造成的不同后果。在这篇短文中,让我们看看“学”在今天的人工智能领域中到底是什么意思。
  在计算机科学中,“计算”这个词是有明确定义的。如果一个问题的解决过程在一个系统中表现为“计算”,那就是说对这个问题的每个实例(输入),系统的解答过程必须遵循某个预定的方法(算法),而且答案(输出)一定符合某个确定的标准。而与此相反,“学”恰恰意味着对同一个输入,输出的质量随着经验的积累而逐渐提高,因而不是确定的。对同一个过程而言,这两个标签是不能同时适用的。在目前的“机器学”研究中,“学”及其效果通常是通过两个“计算”过程实现的,各有其输入和输出(详见参考文献[1])。如下图所示,AlphaGo在“训练”阶段靠“学算法”从训练数据(输入)中总结出一个“下棋模型”(输出);在学成之后转入“实战”阶段,这时的输入就是对手的走法,而输出是由下棋模型(作为算法)选择的走法。尽管在实战阶段对系统的性能进行进一步的改善仍是可能的,但这种调整不会造成模型的根本性改变。
[不支持站外图片]

  因此,这种学预设了一个“计算”(在AlphaGo里就是理想的围棋模型)作为终点,也就是说每个局面都有一个最好的下法,而学就是找到或接近这一下法的过程。一旦对每个局面都找到了最好的下法,学的使命也就结束了。由于围棋的变化实在太多,学的任务就很艰巨,但这并未改变上述对学的理解。尽管“深度学”的算法可以用在不同领域中,其每个具体应用仍是针对一个给定的输入输出关系的。比如说AlphaGo还能在围棋上继续提高,但现在再教它学象棋已是不可能的,更不要说教它学兵法了。这显然和人类学所体现的“触类旁通”或“功夫在棋外”完全不同。
  现有的主流机器学技术可以有效地学很多问题的解决方法,或称“技能”,但不适用于问题和学方法都无法预先确定,并且系统需要随时对新情况做出反应的情景。像我在《人工智能迷途:计算机的高技能等于高智能吗?》所介绍的,这种更具一般性的学能力目前是“通用人工智能”(AGI)的研究课题。我设计的AGI系统“纳思”在参考文献[2]中有详细介绍,其基本想法是把系统的目标、知识、操作等表示成一个概念网络,其中所有成分都可以在新经验的影响下被修改。这样,“学”就是系统内部的自组织活动,而不是以获得某个特定技能为目标的。这种学机制由一组规则来实现,其中每条规则会被特定的情境所触发,而整个学过程并非遵循一个有预定途径和终点的学算法。纳思可以学多种不同的技能,但往往没有一个明确的“学成”时刻,而且已经“学到的”知识仍可能被修改。在这种系统中,学是终生的,是无时无处不在的,而且“学”和“工作”通常是同一个过程的不同侧面,因此不属于上图所示的“机器学”。
  
四类“智能系统”
  为了描述的直观性,让我们假定一个系统的总技能水平可以度量,比如说是它能解决的问题的数量。这样一来,系统的学能力就体现为这个量和时间的关系,而根据前面的讨论,我们可以区分四类不同的系统,如下图所示:
  
[不支持站外图片]

  (1) 蓝线对应于一个完全没有学能力的系统。这样的系统仍然可能有很高的技能(如“深蓝”),但其技能完全来自于初始设计,而和系统的经验无关。传统的计算系统都属于这一类,其优点是可靠、高效,但没有灵活性、适应性和创造性等。
  (2) 紫线对应于一个学能力有限的系统。这里“有限”是指系统的总技能会趋近于一个常量,即这个学系统最终会转化成一个计算系统。现有的“机器学”系统(包括AlphaGo)大体是属于这一类。这种系统在学阶段有适应性,但模型形成后就基本不变了。
  (3) 绿线对应于一个学能力基本固定的系统。这种系统的“智能”(元能力)是先天设计的,且基本保持稳定,但在得的“技能”(具体能力)的增长上没有限制,最后在输入输出关系上也不会转变成一个计算系统。纳思和其它一些AGI系统属于这一类。
  (4) 红线对应于一个学能力本身在增长的系统。这大致上就是库兹韦尔和博斯特罗姆所说的“超人智能”了。
  上图只是一个形象化的说明,而非对这些系统的严格刻画。以纳思为例,因为其中所有的学都是以过去经验为依据的,所以在经验不足、思虑不周或时过境迁时也会犯错,这时候其总技能水平很可能不升反降了。这四类系统的实质性差别是:系统整体的输入输出关系是通过设计确定的还是通过学得到的,以及系统的学能力是否随时间而有根本性改变。
  按我的观点(见《人工智能迷途:计算机的高技能等于高智能吗?》),“智能”应指学能力,而非解决具体问题的能力(那是“技能”),因此上面四种系统的次序也就是智能由无到有,由低到高的次序。
  在一个特定时刻,智能更高的系统未必技能也更高。而且从具体应用的角度看,并不是智能越高越好。实际上往往相反:在能满足使用要求的前提下,系统的智能越低,可靠性和效率通常越高。高智能只有在低智能不胜任的时候才是有效益的。当然,从理论研究的角度看,高智能系统更有意思,也更具挑战性。
  
有“超人智能”这回事吗?
  按上述分类标准,人类大致属于“绿线族”。这是因为一个人在正常情况下总是可以学新技能或修改已有技能的,但不能对自己的思维规律做根本性修改。不同的人的智力有高低及特征上的不同,但在这一点上和其它三类系统的差别还是明显的。
  因为主流人工智能的目标是拥有或超过人类技能,其中大多成果属于“蓝线族”;机器学以技能得为己任,造出的系统基本是“紫线族”;“绿线族”目前是通用人工智能(AGI)的研究范围,应用技术尚未成熟。目前并没有人在研发“红线族”的系统,而其它三类系统的进展也不会“跨界”,因为它们对应于不同的技术,而并非同一个技术的不同发展水平。
  以纳思为例,其设计中确定了目标、知识、操作等成分的表示方式,从已有成分中生成新成分的规则,在系统运行时分配计算时间和存储空间的策略等等,但系统中不需要有任何“先天技能”(尽管有为具体应用定制的可能)。这个设计包含了某种对智能的认识,而对系统来说这些认识就是“元知识”。在元知识指引和控制下,系统会从经验中总结出它自己的知识和技能,但这种学不会导致对元知识(即系统设计)的根本修改,尽管局部的调整和补充是可以的。
  人类智能当然未必是智能的最高形式,所以 “超人智能”是个有意义的概念,尽管我们至今尚未得到任何关于其确实存在的证据。但即使是作为一个纯粹理论上的可能性来说,目前相关的议论仍充斥着大量的概念错误,如“智能”与“技能”的混淆以及不同类的“学系统”之间的混淆。在“奇点”这个提法背后的基本假设就是智能系统的智力会加速增长,以至于会造成质的差别。这个假设至少在人类历史的尺度上是没有证据的。和先秦诸子或古希腊先贤相比,今天的我们可以说知识和技能水平要高很多,但未必智力水平更高吧?就凭你会编程序或知道量子力学,就敢说自己比诸葛亮聪明?
  在物种进化的尺度上说,人类智能的确是从低智能的动物中发展出来的,但这不意味着这种能力会无限制地继续发展。实际上,在任何领域中假定某个量以往的增长趋势会自然推广到未来的预测都是不可靠的。一个流行的说法是人工智能会通过“给自己编程序”来进化,但这是缺乏计算机知识所导致的误解。在设计一个计算机系统时,“程序”和“数据”的区分常常是相对的,而这二者的功能也或多或少可以互相替代。允许程序自我修改的程序设计语言早已存在几十年了(如Lisp和Prolog),但只要这种修改是基于系统过去经验的,那么这种“自我编程”和通过修改知识来改变系统行为并无本质区别(仅仅是改变了“知识”和“元知识”的区分方式而已) ,而且未必是个更好的设计。这样的“自我编程系统”仍属于“绿线族”。
  随着计算机的发展,人工智能系统的运行速度、存储容量、数据拥有量都会继续大幅提升,这会使得计算机在越来越多的技能上赶上以至超过人类,但这都不意味着计算机因此拥有了超人的智能。这就好比把同一个程序系统从一个普通计算机上移植到一台超级计算机上:这以后它自然在解决问题的能力上有极大提高,但这个系统并没有因此而变得“更聪明”。真能达到“红线族”的计算机系统在我看已经不是“人工智能”,而应该被称为“人工神灵”了,因为它们的工作原理不再是我们所谓的“智能”,而是像“如来掐指一算”那样完全超出我们的理解能力。和其它根据定义就超出我们理解力的对象一样,我们当然没办法证明这种计算机系统不可能存在,但忧心于如何防范它们也同样毫无意义。
  我的观点是:通用人工智能将会在“元知识”层面上(即基本工作原理)和人类大致相当,既不更高也不更低。如果这种系统真能造出来,那说明我们已经基本搞清了智能是怎么回事。在那以后即使计算机在大量具体问题的解决能力上超过人类,并且可以通过学进行自我提高,人类仍然可以根据其工作原理(包括其学过程的原理)寻找用其利避其害的办法。至于这些工作原理到底是什么,得容我以后逐步解释,有干劲的读者也可以去读参考文献[2]和我主页上的几十篇文章。
  
参考文献
  [1]Peter Flach, Machine Learning: The Artand Science of Algorithms That Make Sense of Data, Cambridge University Press, 2012
  [2]Pei Wang, Rigid Flexibility: The Logic of Intelligence, Springer, 2006
打开淘股吧APP
0
评论(13)
收藏
展开
热门 最新
kxc0405

16-03-14 19:13

0
人类是唯一能够将直觉(隐式的)和符号(显式的)知识结合起来的物种。

符号(显式的)决策可以通过定量决策得出,直觉(隐式的)决策需要定性决策的开发,这就带来了定量和定性的障碍;
决策的可能数目没有限制,因此在搜索树中以指数形式增长。

通过单个方案克服这两个挑战,可以说是DeepMind工程师的关键成就。
600998

16-03-09 20:22

0
李世石中后盘有重大失误
kxc0405

16-03-09 20:19

0
樊麾:之前的围棋程序,包括Zen,CrazyStone我都跟他们下过,其实还是之前的模式,就是死算,纯计算机的方式。而AlphaGo最厉害的,是除了算的部分,还有一个另外的“判断”的部分,这就往前迈了一大步。
记者:能用普通人能听懂的话,跟我们解释一下AlphaGo和之前围棋程序最大的区别吗?
樊麾:之前所有(围棋)软件最大的毛病,就是会下一些“电脑棋”,电脑棋就是那些毫无理由的奇怪的招,跟短路了一样,可以简单理解成“昏招”。只要它下了电脑棋,和它对垒的你顺间就会充满自信,觉得不过如此,你就放松了。之前所有的围棋程序,都会下一些电脑棋。
AlphaGo最厉害之处,就是不下电脑棋,不下特别奇怪的愚蠢的棋。如果你不提前告诉我,我完全感觉不出来对面是一个程序,它下棋的方式,很像真正的人类棋手。
这还不是说我升级的概念,而是提升了一个层次。很多人看到那篇论文来找我,问我是不是真的输了。我说我虽然下的不好,但是我尽力了,是真的输了。AlphaGo的水平超出了我的想象。
kxc0405

16-03-09 20:14

0
樊麾说,“阿尔法围棋”的另一个特点是从始至终的“选择”都是一样的。“围棋最难的就是选择。人的选择更多和心态有关,计算机则是简单直接。我觉得这不算谁的优势,只能说是不同。对计算机而言,不在乎赢多赢少,也不在乎赢得好不好看。之前和我下,有时候它明明能吃我一大块棋,但他没有吃。我觉得它不是看不到这步棋,而是判断认为没必要吃我,对它来说,赢是唯一的目标,能按部就班完成这个就行了。我们人下棋的时候就会不一样,面对这种情况就会想我前面要多赢一点,因为谁都不敢说自己一盘棋里不犯错。”

  据开发者称,“阿尔法围棋”拥有强大的学和进步能力。樊麾说:“人总会疲劳的,不可能一直练比赛,而且人类的传承是慢慢积累的,计算机则可以一直进步。
kxc0405

16-03-09 20:11

0
专访樊麾:“阿尔法围棋”比“石佛”更石佛
2016年02月28日 20:02:20  来源: 新华社

“阿尔法围棋”下棋有什么特点呢?樊麾表示,“阿尔法围棋”的棋风很像人,如果是在网络上对局,恐怕猜不到对手是个计算机程序。“整体来看,我觉得它定式不好,战斗还可以,官子很好。毕竟开始布局的时候选择太多,到了官子阶段,会更容易计算一些。但计算机的强大处不能只从技术上考虑,关键它很少有致命弱点。像我这水平,肯定要出‘勺子’(指:错着或漏着),但如果李世石出了‘大勺子’,也肯定赢不了。”
kxc0405

16-03-09 20:07

0
人会犯错,而且会懊悔,然后想翻本,然后输光老本
机器没有感情,只要优化策略正确,就不会犯错
[引用原文已无法访问]
永长

16-03-09 19:29

0
围棋是唯一人类没被机器战胜的项目。。。李世石是顶尖选手,谷歌AI却不一定是完美机器。。。悲哀
abcxs

16-03-09 19:11

0
凡是可以量化的东西,人类已经远远落后于人工智能。
kxc0405

16-03-09 18:53

0
AlphaGo:从直觉学到整体知识

谷歌AlphaGo最近战胜了欧洲顶尖职业围棋玩家,这一壮举被广泛认为是人工智能(AI)的重大突破,因为AlphaGo所具有的功能(围棋的复杂度是国际象棋的指数倍)以及出现的时间(比预期要早出现许多)。它的产生所带来的飞跃就像是发达肌肉和大脑,前者在计算能力上大幅增加,后者创新组合建立好的算法。

这项突破以及它实现的方式可能会对未来IA带来对立的观点:任一当前概念框架都是最好的选择,随着健壮的机器变得更聪明,它们迟早会超过它们的人类制造者;或者这是一种迷惑,可能让更健壮的机器和无助的人类陷入其中。

AlphaGo和DeepMind的开发人员可以在这困境中指出一条整体出路吗?

来源分类法
借用斯宾诺莎的话,人们可以从考虑来源知识类别开始:

第一类是通过我们的感官(视觉,听觉,嗅觉,触觉)或信念(通过我们共同的“感觉”作为培育)来实现。这一类天生容易受环境和偏见影响。
第二类是通过内置推理,即符号表示的心理过程。其目的是普及和开放分析,但它无法保证与实际现实的一致性。
第三类是通过哲学实现,它本质上将认知,直觉和符号表示结合。
然而对于第一点不会有太多的争议,第三类对哲学原理有广泛的空间,从宗教到科学,集体意识形态,或精神超越。随着今天的知识横跨智能设备,并由群众智慧驱动,哲学似乎更关注大数据而不是它原本关注的领域。

尽管(或者是因为)它的重点是第二类,AlphaGo和它的创建者的壮举仍然可以为整个人工智能的努力带来一些经验。

表示分类法
如前所述,IA支持范式的有效性已经由指数形式增长的数据和处理能力支撑着。毫不奇怪,那些范式在知识来源,隐式感觉,显式推理上与两种基本的表示形式有关:

基于符号表示的设计可以处理显式信息:数据被“解释”成信息,然后当做知识使用,用来主导行为。
基于神经网络的设计具有处理隐式信息的特征:数据被“编译”成神经元连接,他们的权重(可以理解为知识)根据行为反馈迭代地进行调整。
由于该二元性反映了人类的认知能力,建立在这些设计上的智能机器是为了将合理性与有效性结合:

符号表示支持两端的透明性和方式的溯源性,可以对目的性,实际性或社会性进行分类。
神经网络,在它们学内核的帮助下,可以直接在数据上操作,加快了具体目标的实现,这基于支持知识,这些知识隐式地以加权连接呈现。
这种方法的潜能已经由基于互联网的语言处理展现了:实际的关联分析“观察”了数以亿计的话语,它们正在逐步补充甚至取代基于Web解析器的语法语义规则。

在这一点上,AlphaGo有它的野心,因为它只处理非符号的输入,即围棋高手玩家落子的集合(共约3千万)。但是,这个限制也可以成为一个优势,因为它带来了同质性和透明性,使得算法有了更高效的组合:健壮的组合用来进行实际行动,使用最好玩家的直觉知识,聪明的组合用来进行推断行动、计划和策略。

教它们如何协同工作,可以说是这项突破的关键因素。

学分类法
对于智能机器,应该可以预料到,它们骄人的成就完全取决于它们的学能力。而这些能力通常分别运用到隐式(或是非符号)和显式(或是符号)内容上,让它们在同一个认知引擎的管控之下,就如人脑通常那样,这也成为IA的长期首要目标。

实际上,这已经由神经网络实现了,它将监督式和非监督式学结合:人类专家帮助系统去其糟粕,然后通过系统自己百万次的训练来提高它们的专长。

然而,领先的AI玩家的成就已经揭露出了这些解决方案的局限性,即扮演最好人类玩家并打败他们性质上的差距。而前者的结果可以通过似然决策得出,后者需要原始方案的开发,这就带来了定量和定性的障碍:

与实际动作相反,可能的动作没有限制,因此在搜索树中以指数形式增长。
原始计划根据估值和策略制定。
通过单个方案克服这两个挑战,可以说是DeepMind工程师的关键成就。

掌握搜索树的广度和深度
使用神经网络对实际状态评估以及来自于搜索树中以指数形式增长的广度和深度的策略采样。然而蒙特卡洛树搜索(MCTS)算法可以用来解决这个问题,用有限的能力扩大处理性能仍然只能处理树较浅的部分;直到DeepMind的工程师将MCTS运用到分层的估值和策略网络上,成功解除了深度的障碍。

AlphaGo无缝使用了分层的网络(即深度卷积神经网络)进行直觉学,强化,评估和策略,围棋的棋盘和规则(与国际象棋一样,无差异性移动和搜索陷阱)的同质性使之成为可能。

从直觉到知识
人类是唯一能够将直觉(隐式的)和符号(显式的)知识结合起来的物种,人类具有这样的双重能力,将前者转换成后者,然后通过后者的反馈反过来改善前者。

用在机器学方面的话需要监督式和非监督式学的连续性,这应该可以通过神经网络达到,这种神经网络可以用来符号表示和处理原始数据:

从显式到隐式:为特定情境和目的建立的符号描述将被输入到神经网络之中,在目标环境的数据上进行测试和改善。
从隐式到显式:一旦通过百万次在相关目标上运行对设计进行了测试和强化,将有可能对结果重新设计,用来改善符号描述。
然而深度符号知识的非监督式学超出了智能机器的范围,显著的结果可以在“平坦”的语义环境下得到,比如,如果同一个语义可以用来评估网络状态和策略:

在百万次落子中由人类专家观察到的直觉部分的监督式学。
自我对弈中的非监督式强化学。
使用蒙特卡洛树搜索(MCTS)构建,评估和完善自我策略的规划和决策。
没有围棋整体性的性质,将不可能有这种深度和无缝的集成。

美学评估和整体知识
围棋的特异性是双重的,定量侧的复杂性,定性侧的简单性,前者是后者的代价。

与国际象棋相比,围棋的实际位置和潜在落子方式只能由整个棋盘进行评估,它使用了一个最具美学的标准,不会简化成任意度量和手工制作的专家规则。玩家不会在详细分析当前位置和评估可供选择方案后再落子,而是根据他们的对棋盘的直觉。

因此,AlphaGo的行为会完全按照上面所说的第二层次的知识进行:

作为游戏玩家,它可以从现实考虑中分离。
作为围棋玩家,它不需要解决任何语义复杂性。
给予足够的计算能力,DeepMind工程师的主要挑战是教AlphaGo将它的美学直觉转换成整体知识,而不需要定义它们的实质。

原文:AlphaGo: From Intuitive Learning to Holistic Knowledge (https://caminao.wordpress.com/2016/02/01/alphago/)
编译:刘翔宇 
责编:周建丁(zhoujd@csdn.net)
刷新 首页上一页 下一页 末页
提交