注册 找回密码
搜索
查看: 726|回复: 1
打印 上一主题 下一主题

哲学将是打开人工智能的钥匙

[复制链接]
跳转到指定楼层
1#
发表于 2016-1-15 23:20:34 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
哲学将是打开人工智能的钥匙

机器之心 Synced 01月15日 10:56

分类 :互联网

人工智能是可以实现的,但是,仅靠计算机科学和神经科学还无法令机器像人一样思考。智能存在,无论是人还是机器,在定义智能存在的属性时,都是一项具有创造性的工作。

人类大脑所具有的能力在某些方面要比任何宇宙中已知事物都更为强大,这一点毫无争议。大脑能够理解宇宙的存在,为什么会有无穷多质数,苹果坠落是因为时空曲率,遵循自身的生物本能在道德上可能是错误的,它也能理解自身的存在。大脑不仅是唯一能够理解上述现象的事物,它的独特还体现在这一冷冰冰的物理事实上:它是唯一能将自己送入太空,然后完好返回的事物,它能预测或预防陨石砸到自己,或者将物体冷冻到绝对零点之上数十亿分之一度,也只有大脑能够在银河远处寻找同类。

但是,对于以上所有被实现的事实和功能,这个星球上却没有一个大脑能够知道自己到底是怎么做出来的。人工地去实现它——AGI领域(AGI,artificial general intelligence,人工通用智能)——六十年来,没有任何进展。

尽管如此,AGI肯定有可能。这源于物理定律的一个深刻特性,计算的通用性(universality of computation,译者注:意思是说通过计算过程模拟自然过程的普遍可行性)。这一特点要求,只要时间和储存能力允许,通用(general-purpose)计算机上的某种程序能够模拟出物体遵循物理定律所做的每件事的任何细节。

那么,为什么这个领域却一直没有进展呢?在我看来,正如一位不知名的贤人曾经说过:「引起困惑的不是我们不知道的东西,而是我们以为知道,实际上并非如此的东西。」我想不出任何其他重要的知识领域会像这个领域一样,社会和专家中的主流智慧会如此深受根深蒂固根本错误的困扰。然而,这也是对预言——不久将来,AGI会取得终极突破——最具自信的领域之一。

1950年,艾伦·图灵预测,到2000年「人们能够谈论机器思考而毫无违和感」。1968年,阿瑟·C·克拉克预测这一情形会发生在2001年。直到今天,在对AGI的编程方面,仍然没有人超越图灵的范式。

这不会让那些对AGI可能性持反对态度的人(这个阵营的人数在减少)感到奇怪。但是,另一阵营(AGI迫近论者)也承认,失败过往亟需一个合理解释,至少能够说得通。

「AGI」这个用语就是一个合理化(解释)的例子,这个领域曾被称为「AI」——人工智能。但是,AI渐渐适合于描述各种不相关的计算机程序,比如,游戏玩家,搜索引擎和聊天机器人,直至G代表的「通用(general)」被加上去,人们才有可能再次(用这个单词)指代真实的事物,不过,现在的AGI不过是指更加聪明的聊天机器人。

另一类合理化(解释)偏离了总路线:AGI一点都不牛;现在的软件已经越来越智能,不过是以非人类(non-human)方式,而且我们太虚荣、太过秉持文化上的偏见以至于无法给它应有的认可。 这一解释获得了一定支持,因为它让人想起持续流行中文化相对主义的非理性以及相关修辞:「我们人类以身为动物典范而骄傲,但是这种骄傲放错了地方,因为动物也有着语言、工具……以及自我意识。」还记得电影《终结者》中计算机系统(天网,Skynet)变得具有「自我觉知」 而被如此关注吗?

那只是另一种哲学上的错误观念,本身足以屏蔽通往AGI的任何途径。事实上,现在的软件开发员能够直接为计算机编程,让它具有行为意义上「自我觉知」——例如,通过「镜子测试」 (mirror test,利用镜子推测关于自己的事实)——如果他们希望如此。就我所知,没人这么做,很可能因为这实在无关紧要。

自我觉知之所以会因其与AGI的联系而获得不应有的名声,原因可能在于任何一种自我参照都有这样的名声:迷信般的神秘性(woo-woo mystery),这还要感谢哥德尔定律(哥德尔不完备定理,1931年提出,哥德尔证明了任何一个形式系统,只要包括了简单的初等数论描述,而且是自洽的,它必定包含某些系统内所允许的方法既不能证明真也不能证伪的命题。——译者)和二十世纪各种形式逻辑争议(为我们揭示出这一真相)。意识(consciousness)也是如此。而且为了描述意识,我们又会遇到术语模糊的难题:意识这个术语的含义太广泛了。

在这个(含义广泛)术语的一个极端,有个关于主观感觉的本质,即「感觉质(qualia)」的哲学问题,这与AGI难题紧密相连;不过,另一方面,「意识」不过是麻醉状态时所失去的东西。许多动物当然也有这种东西。

未来,AGI确实会有自我觉知——但是,那是因为他们会变得通用(General):他们能觉知到各种深刻而微妙的事物,包括它们自己。那并不意味着通过镜子测试的黑猩猩被暗示具有「通用智能(general intelligence)」特征,AGI是这种「通用智能(general intelligence)」的人工版本。确实,Richard Byrne对大猩猩模因(memes)的精彩研究已经揭示出,黑猩猩如何能相互学习有用的行为,却不理解这些行为的意义:对黑猩猩认知原理的解释实际上是行为主义的。

讽刺的是,合理化阵营(AGI已经完成了/不重要/在黑猩猩中也存在/是一个文化虚构)的观点正是那些源于「AGI不可能」阵营观点的镜像。针对每个类似观点「你做不出AGI,因为你永远没法为灵魂编程,因为它是超自然的」,「AGI容易实现」阵营中的合理化观点会认为,「如果你认为人类认知与黑猩猩有本质不同,你一定信仰超自然灵魂。」

「我们至今所不可实现的是…『人类智能』」,这是另外一种合理化(解释)。这种解释的代表性人物是哲学家John Searle(他属于「不可能」阵营),他认为在计算机诞生之前,蒸汽发动机和后来电报系统都曾被用来隐喻人类心智的工作方式。他认为,AGI可能仅存在于类似脆弱的隐喻上,亦即心智「本质上(essentially)」是计算机程序。但是,那并不是一个隐喻:计算的通用性(universality of computation)遵循已知的物理定律。

有些人认为,大脑使用了量子计算,甚至使用了以量子理论无法解释的物理现象为基础的超量子计算(hyper-quantum computation),这就解释了为什么在现有计算机上创造AGI会失败。我和量子理论领域绝大多数研究人员都无法苟同那就是人类大脑拥有独特功能的原因之一,不过详加解释已经超出本文的讨论范围。

AGI是「人」,从一开始就是该概念的暗含之意。如果有一个程序,哪怕缺少一个人类特有的认知能力,那么,从定义上说,它就就不是AGI;使用非认知性特征( non-cognitive attributes)(比如碳含量的百分比)来定义人格,是种族主义的做法,赞同有机大脑优于硅大脑。但是,能够做出新解释是「人」(人类和AGI)的独特功能具有道德和智力上的重要性,他们借由推测和批评做出新的解释,这一事实改变了一切。

如今,人格(personhood)更具象征意义,而非真实意义——如同一种荣誉,作为某个实体(黑猩猩,胎儿,公司)是人,以实现某种哲学或实践目的承诺。这并不好。请不要在乎这些术语,如果乐意,你可以改变它,对不同的实体都尊敬有嘉,使他们免于伤害及其他。那个客观标准定义下的真实人类与其他实体之间的区别具有重大的道德和实践意义,对包括AGI在内的文明功能也非常重要。

比如,不是计算机而是运行的程序才是人——仅这一事实就会提出一个未解的哲学难题,一旦AGl存在,这个难题就会变成现实的政治争议。因为一旦AGI在计算机上运行起来,再从计算机上剥离它无异于谋杀(或者至少会是错误的监禁),就像从人体剥夺掉他的思想。但是,和人体不同的是,仅需按钮,一个AGI程序就能复制到许多台计算机上。

虽然他们的运行步骤相同,但是,那些程序是同一个人还是多个不同的人?一个投票权还是多个投票权?删除程序是谋杀,还是较轻的攻击?如果一个流氓程序员在一台或者多台电脑上编制出成千上万个不同的AGI人群,也许这是违法的,会发生什么?他们都是人,享有人权。他们都能拥有选举权吗?

而且,考虑AGI,如同思考其他有创造力的实体,我们必须忘掉单词「程序」的全部既有含义。将AGI视为任何其他计算机程序会带来类似洗脑,奴役,暴虐的效果。这对小孩也同样残酷,因为和其他编程行为不同,「编程」一个已经处在运行中的AGI意味着教育。这会引发道德和事实层面的争议。忽视AGI的权利与人格,不仅是邪恶的化身,还会制造灾难:有创造力的存在不能永远被奴役。

有些人想知道,我们是否应该欢迎新的机器人负担,并且/或者如何装备他们的程序,让其本质上对人类无害(就像阿西莫夫的「机器人三定律」),并且/或者防止他们掌握将宇宙变为回形针的理论。那都不是问题。 事实一直如此,生产力、经济能力、智力,无论哪个方面, 单个特别有创造力的人(的能力)都成千上万倍于绝大多数普通人;而且这种人如果将自己的能力用来作恶,会祸害无穷。

这些现象与AGI没关系。善恶之间的思想斗争和人类物种一样古老,还会继续持续下去,无论智能在什么事物上运行。问题在于:我们总是希望善的智能总能击败恶的智能,生物智能击败人工智能;但是我们错了,我们自己的「善」的概念需要不断发展。社会组织结构如何发展才算合理呢?「控制所有的智能」是一个巨大的错误,「控制所有看起来不同于我们的智能」也好不到哪里去。

我们必须停止使用的含义之一就是将(人类或类似AGI的)教育视为指令(instruction)——作为一种不加变更灌输既有知识的手段,让既有价值得以遵从。正如波普尔写道的(在科学的发现的语境下,它既适用于AGI编程也适用于孩子教育 ):「没有(不受认知框架影响的)指令…我们不是通过复制而发现新事实或新影响,也不是从观察中归纳推导出它们,或者用任何其他依靠环境指导的办法发现新事物。 毋宁说,我们的办法是试错。」(译者注:这是波普尔在其《The Myth of the Framework》中说的话)也就是说,推测和批判。学习一定是指新创造的智能为自己行事和控制自身。

我没有突出所有这些哲学论题,因为我担心在人类发展出理解AGI并将之融入人类文明的哲学解释之前,AGI就被研发出来了。这一担心出于几乎完全相反的原因:我确信,研发AGI的全部问题就是个哲学事实,而不是计算机科学或神经生理学问题,而且哲学研究进展是AGI未来融合的关键,它也是把研发AGI放在首位的先决条件。

错误观念阻碍了AGI的发展。没有了波普尔的认识论,我们甚至没办法开始猜测成就AGI必须实现什么样的细节功能。波普尔的认识论并不为众人所知,更别说充分理解并加以运用了。为了把经验,奖赏与惩罚翻译成想法(或者更糟,翻译成行为)而将AGI视为机器,这如同通过平衡身体幽默来治愈传染病:没用,因为它源于古老且错得离谱的世界观。

如果没有理解AGI功能和其他任何一种计算机程序功能存在质的不同,那么,这个人就是在完全不同领域工作。如果一个人努力制作出其「思维」天生就无法违背先决约束的程序,那么,这个人就是在设计定义智能存在,比如一个人的特征,也就是创造力。

清除这一障碍不会自动得出结论。然而,获得答案也不全然很难。既然人类能够设定目标而黑猩猩没有这一能力,理解这一能力质的不同就为我们提供了信息:如何获取这一能力,答案肯定被编码进了人和黑猩猩DNA的相对少量差异中。因此,在一方面,我赞同AGI迫近阵营的观点:有理由认为我们和突破之间仅隔着一个想法。但是,这个想法必须是最好的想法中的一个。

机器之心,最专业的前沿科技媒体和产业服务平台,每日提供优质产业资讯与深度思考,欢迎关注微信公众号「机器之心」(almosthuman2014),或登录机器之心网站www.almosthuman.cn查看更多精彩内容。

http://synchuman.baijia.baidu.com/article/297451

2#
 楼主| 发表于 2016-1-15 23:22:07 | 只看该作者
[转载]人类大脑优于人工智能的几大法宝

16-01月12日 08:26

要超越人类智能,机器人仍有很长路的路要走。这因为人类非常擅长展望未来与制定计划。同时质量非常重要(它使我们有别于其他动物),我们在机器人中真的无法对它们进行模拟。

据美国加州大学伯克利分校的计算机科学家Stuart Russell所说:「人类非常善于在不同的抽象层次上做决策,这是一种被称为『分层决策』的特性。」

计算机不能模拟分层决策也不能完成许多人类可完成的任务。人类可以展望未来、做计划以及基于抽象观点来做决策。想象一下去另一个城市开会。当你到达一个新城市,你不用思考你从机场到街上所走的每一步,而只需要根据指示牌走到机场出口。你不需要计划你要打车的动作,当你脑海中闪现「我要打车」这一想法时,身体就自然而然地做出相应动作。

「人类通过存储非常丰富的抽象、高级动作的方式来对此进行管理,」Russell在Quanta的访谈中说到,「这就是我们最基本的生活方式,未来是分散的,有许多细节非常接近我们现在的时间点,但是我们做出的大量决策都是非常抽象的,比如获得博士学位、生孩子等。」换句话说,我们对未来的假设是基于我们过去对世界的理解。幸运的是,我们拥有一些快捷键。

人类如何看待未来

首先,情感是非常重要的因素,它们帮助我们对事情和情况作出快速的决策。例如,当一个人在野外碰到一只熊的时候,会感到恐惧然后直接逃跑。但是人工智能没有这些天生的情感来帮其做决策。一个机器人(除非被特别编程将熊识别为威胁)不会自动辨别大型动物会对其造成伤害。

第二,人类大脑运用智慧和对世界的现存经验,能够看出一个从来没见过的事物是如何工作的。据NICTA(澳大利亚国家信息与通信技术研究院)计算机科学家Toby Walsh所说,这叫做「常识推理」。

例如,每一把椅子看起来都不一样,它们有不同的椅背、不同的细节、可能是木头、纤维或者塑料的,也会有不同的颜色。但是当我们这样由四条腿支撑、有靠背的东西时,我们就知道它是椅子,可以坐。



你知道这是椅子,但是你怎么知道这是椅子的?

想象一下打车的情景,你从来没见过出租车,更不用说打车了。你看到一个人挥舞手臂时有辆车会停下,那么根据常识,你推断出这是一辆出租车。人类能够注意到事情间的因果关系,并将其应用于决策。但是这种常识是基于先前的知识,而且我们很难将其编码到人工智能系统中。

对于使用因果推理的计算机来说,它们需要知道场景中每一件事的确切规范,纽约大学从事常识推理工作的计算机科学家 Ernest Daviss说。机器人也需要多次看到同一场景以便完全了解发生了什么。人类则不需要,我们能够采用想象未来的能力来思考不同场景以及推理它们是如何发生的。

人类目前领先机器人的另一点是同时处理很多不同任务的能力,我们现在拥有的大部分人工智能项目都对非常具体的任务很擅长,比如玩视频游戏或者下象棋。但是人类能同时进行多项任务,比如理财、运动、抚养孩子或者打开包裹。「人工智能系统不能同时拥有所有能力,特别是同时结合视觉、语言和身体操纵。」人工智能发展协会(the Association for the Advancement of Artificial Intelligence)主席Thomas Dietterich说。

如何改进人工智能

因此,我们如何创造能像人一样进行推理和决策的人工智能?Dietterich指出:「如何在人工智能中表示知识和信息」会是良好的开端。

Peter Norvig则认为阻止机器人和人类一样智能的最大原因是征服感知。对于Norvig来说,人工智能系统只有在它们能更好地看到和感觉到这个世界的时候才能更好进行推理。「我们很擅长收集数据,并用这些数据来发展算法,但是仅仅基于数据的推理会让我们远离真实情况,」Norvig说。「我认为只有我们不断地让系统感知世界并与其交互,而不是让其被动学习别人选择好的信息,才能更好地改善其推理能力。」



孩子与人工智能有很多共同点

通过试验和错误,机器人会像孩子一样学习如何看、听以及触摸。当你长大的时候,你会以很多种不同的方式了解世界。会有老师或者父母指着一个物体告诉你它叫什么,这非常像机器学习算法中我们用来训练人工智系统的方法。但是许多童年学习是隐式的,基于我们的能力进行推断,填补空白以及建立预先的知识。这种学习方式正是我们今天的智能程序中所缺失的。

今天的机器学习系统每次学习一个新任务都是从头开始。但是这非常耗时间,未来的智能机器需要摆脱这种方法来进行学习。「我们需要在持续学习(每次有新数据或算法需要测试时无需从头开始训练)上下功夫,」谷歌人工智能研究者Samy Bengio说,「这是非常困难的任务,需要花费很长时间来改进。」

http://synchuman.baijia.baidu.com/article/293424

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关于都市网 | 服务条款 | 开放平台 | 广告服务 | 商务洽谈 | 都市网招聘 | 都市网公益 | 客服中心 | 网站导航 | 版权所有

手机版|小黑屋|Comsenz Inc.  

© 2001-2013 源码论坛 Inc.    Powered by Weekend Design Discuz! X3.2

GMT+8, 2024-6-1 14:55 , Processed in 0.077861 second(s), 18 queries .

快速回复 返回顶部 返回列表