爱体育在线登录:人工智能真有那么可怕吗?从哲学看科幻电影的套路

2022-10-06 10:18:51

来源:爱体育官方网站 作者:爱体育网页版

  本年3月AlphaGo打败李世石的那一幕好像犹在眼前,最近美剧《西部国际》(Westworld)又引发了热议,有关人工智能的论题再度进入了群众的视界。在曩昔几年里,斯蒂芬·霍金、比尔·盖茨和埃隆·马斯克等人,在不同场合表达了对人工智能“奇点”(singularity)到来的忧虑。英国牛津大学的人类未来研讨所(Future of Humanity Institute)在2008年发布的一份陈述中提出,超级智能(superintelligence)在21世纪消除人类的概率达到了5%,仅位列纳米兵器之后。未来学家们依据摩尔规律纷繁做出了斗胆的猜测:强人工智能(strong AI)或许在2025年左右完结。这好像意味着,超级智能或许以出人意料的井喷办法呈现。不得不看到,这其间暗含了人工智能研制工作招引危险投资的策略性讲话,但技能演进或许引发的品德和社会危险,值得从哲学视点来加以有备无患的审视。

  从哲学视点来思考问题,首要要做的便是对每一件事物做清晰的界说,确定要评论目标的鸿沟与范畴。约翰·麦卡锡(John McCarthy)在1955年最早运用了“人工智能”一词,其界说是“规划和研讨智能的举动者(intelligent agents)”。这个界说先六合存在循环界说的问题,即用“智能”来界说“智能”。从后来人工智能范畴的开展来看,好像大部分工程师并不介意这些“界说”,而直接将智能分拆为各种详细的技能——弱人工智能(weak AI),例如推理、剖析、学习、方案、天然言语、感知等,期望它们能够部分代替人的才能。

  从哲学史视角来看,近代法国哲学家笛卡尔在《谈谈办法》(Discourse on the Method, 1637)中提到的“主动机”(Automaton),能够被视为“人工智能”抱负源头。像布谷鸟时钟、日本的机关木偶、达芬奇机器人和八音盒等机械人造物,都是他心目中的主动机。在笛卡尔看来,尽管这些主动机能够做出十分精妙的动作,乃至能够幻想它们能够说出几句话来,但归根结底它们只是是机械结构。主动机的一切动作和声响或许性都包括在其机械结构中。例如八音盒演奏的音乐来源于其间的音筒,它不或许播映超出音筒上预刻的内容。在笛卡尔的年代,人们现已具有了一些解剖知识,也有人将人体看作是一台有血有肉的“机器”。可是笛卡尔以为,有两种才能或许特征是人类特有的:言语和学习的才能。这两者在笛卡尔的身心灵二元论国际中,都归于心灵或许精力的特别才能,而不归于物理-机械国际。这使得人和其他天然界的造物有所不同,正是这些才能是人之为人的自豪之处。可是笛卡尔遗留了一个哲学难题:已然身体归于物理国际,心灵归于精力国际,那么这两个国际是怎么发生因果联络的?人工智能开展至今,显着对笛卡尔二元论的国际观构成冲击与应战,核算机这种机械-物理结构好像“具有”了一些开始的言语和学习才能。

  从另一方面来说,人类对本身思想-心灵的研讨也一向未呈现大的打破——大脑的作业机制没有得到翔实的解说。因而,除了人类本身的自豪之外,咱们还有什么理由深信,“智能”真的只能来源于这个几百克的器官之中,而在准则上不或许为人造物具有?也有人深信,要让机器具有智能并不必要仿照人类大脑。这比方飞机的飞翔并不必仿照鸟类翅膀的扑动。

  提到人工智能,当然不能不提闻名的“图灵测验”(Turing test)。1950年,英国数学家阿兰·图灵在其具有划年代含义的论文《核算机器与智能》( Computing Machinery and Intelligence )中提出,假如一台机器能够与人类打开对话(经过电传设备),而不能被辨别出其机器身份,那么称这台机器具有智能。这便是闻名的“仿照游戏”(The Imitation Game),即让机器来仿照人。可是要看到,图灵测验只是提出了一个行为主义式的操作界说,而且只是触及日常言语处理。即便如此,想要经过图灵测验并非易事。1952年,图灵在承受BBC访谈时提出了一个新主意,实际上进一步降低了规范:让核算机来假充人。假如超越30%的裁判误以为在和自己说话的是人而非核算机,那就算作成功。时隔几十年后,咱们日常运用的苹果Siri和微软cortana尽管具有了必定的对话才能,但常常呈现一些令人啼笑皆非的答复,很简单让人意识到它们不是人类对话者。

  不过,打破不期而至:2014年6月7日,谈天程序“尤金·古斯特曼”(Eugene Goostman)初次经过了图灵测验。当然该人工智能的成功引起了不小的争议。它的设定是一个出生在乌克兰的13岁男孩。两个特点让“他”占尽人类评委的廉价:一方面是他的孩子身份,另一方面,他的母语非英语。这无形中为降低了测验难度。假如他答非所问,人类评委会或许会以为,这是由于他还小或许英语欠好形成的。即便如此,这一打破也具有里程碑含义,它预示着人工智能以成年人、母语身份经过图灵测验指日可下。电影《她》(Her, 2013)以十分直观的办法呈现了一种状况:人和操作体系(人工智能)之间进行言语沟通,从而发生了深化的情感依靠联络。

  由于图灵测验现已被打破,一旦未来有强人工智能乃至超级智能呈现,咱们是否有一个具有可操作性的办法,来别离人类和人工智能。咱们乃至能够幻想,假如人工智能伪装或许成心不经过图灵测验,人类可当怎么应对?电影《机械姬》(Ex Machina, 2015)则用科幻的办法提出了一种令人忧虑的场景——人工智能诈骗人类,逃脱禁闭。

  对人工智能的警觉和防备,能够追溯到伊萨克·阿西莫夫提出的“机器人三规律”(Three Laws of Robotics):

  有必要指出的是,英语中的Law这个词具有两种天壤之别的含义:第一种是人类社会中的法令和品德律令。其意图是规范一个政治共同体中成员的根本权利与责任,乃至还要界说犯罪行为,并经过相应程序和组织对之进行审判和惩戒;第二种含义是天然(科学)中的规律和规律。例如牛顿力学中的三大规律,它一般是用数学符号的办法来表达的。上述这两种寓意之间存在底子的不同——后者对人来说是无法违背的,而前者在准则上是能够违背的,由于人类以为具有根本的形而上学自在,即自在毅力。或许说,准则上不行违背的法令(则)是没有必要制定的,只需求被发现和表达出来。因而,阿西莫夫的三条准则,归于前者的范畴,相似于品德与法令,而不是天然规律和规律。其初衷是避免机器人或未来的强人工智能(乃至超级智能)损害人类。

  有意思的是,阿西莫夫运用了不起(may not)和有必要(must)这样的语词,十分相似神学中的“神命”(divine command)——摩西十诫那样由天主公布给人的诫命。可是正如人类常常忤逆神的诫命相同,人工智能为何必定要恪守这些指令呢?假如没有技能的履行和确保,这一切都只是是人类的一厢情愿罢了——“造物主”也会遇到烦恼,被造物并非那么灵巧依从。

  人类在发明和制作机器人和人工智能时,是带有特定意图的,例如期望它们能够代替人类完结某些乃至悉数的作业,其间一些作业必定带有损害和危险。因而,从语义层面上来看,阿西莫夫的三则还有十分多语焉不详的当地:以第一条为例,它并未清晰界说“人类”和“损伤”。咱们能够幻想,未来工程师规划了一种履行护理功能的机器人,它要给病患打针。打针这个举动是“损伤”吗?依照咱们一般的了解,打针这个举动显着要刺穿人的皮肤,并形成微量的出血。不过人类的一般知识告知咱们,这种细微的损伤能够治好病患的疾病,而且得到了病患的认可。在疾病和打针之间,假如不是出于特定的崇奉考虑,一般沉着正常的成年人经过权衡比较都会挑选承受打针。可是要让人工智能进行这样的权衡比较,需求极为丰厚的知识(common sense)。还有,假如阿西莫夫的第一条准则树立,那么机器人和人工智能都不得被用于法令和军事作战范畴中,由于在这两个范畴中,直接需求损伤特定的人,例如暴力犯罪分子和敌国的作战武士。但显着依据咱们的历史经验,最新科技往往首要被运用在军事范畴中。人类本身能够据守阿西莫夫的第一条规律吗?

  第二条规律中语义存在的缝隙是“恪守指令”(obey orders)这个词。恪守指令能够有两种状况,第一种是恪守预先制定的规矩和程序,例如人工智能体系中的预存指令;第二种是人在当下环境中宣布的即时指令。为了不让人工智能堕入两难——成为布吕丹的蠢驴(Buridans ass)——其条件是人类预先制定的规矩和即时指令之间不存在对立或抵触。或许说,当人类的指令呈现对立时,人工智能有必要有规范来断定依照哪一个指令来行事。例如为了避免犯罪分子运用人工智能,需求让预设指令的优先度高于即时指令。其次的问题是,恪守谁。阿西莫夫运用了“人类”(human beings)。恪守一个特定的人(例如“我”),和恪守(复数方法的)人类之间存在显着差异。怎么让人工智能界说和辨认“人类”成为了关键问题。

  第三条规律的中心词是“自己”(its own existence)。要了解这一表述的意指,是否需求“自我”(self)的观念,而发生这一观念的条件是人工智能具有自指(self-referential)才能。

  针对机器人三则存在的问题,阿西莫夫自己后来增加了更有优先性的“第零规律”——机器人有必要维护人类的全体利益不受损伤。这是一个相似于边沁功利主义的准则,即确保机器人寻求人类共同体全体的最大福祉。问题在于,怎么界说“全体利益不受损伤”?这会面对传统功利主义的难题。例如从微观来看,现在地球上有70亿人口,咱们可不能够为了70亿全体人类消除傍边的30亿呢?从微观方面讲,咱们可不能够杀死一个健康的人,把他的器官拿出来给那些等候急需的人?这样杀死一个人能够解救七到八个人,是否契合所谓“人类的全体利益”?依照人类知识和良知,显着是不能够这么做的。由于除了人类的全体利益之外,还有许多需求考虑的问题,每个人的个别利益也有必要遭到尊重和维护。

  怎么让人工智能“恪守”规矩触及一个更深层级的问题,即它在什么含义上“了解”规矩。这个问题触及闻名的“中文屋”(Chinese Room)思想试验。它是由美国哲学家、加州伯克利大学教授约翰·塞尔(John Searle)在《心灵、大脑和程序》(”Minds, Brains, and Programs”, in: The Behavioral and Brain Sciences, 1980)中提出的。所谓“中文屋”,便是要求你幻想一位只说英语的人身处一个关闭的房间中,房间里有一些中英文互译的东西书。然后写着中文的纸片经过小窗口被送入房间中,房间中的人能够运用东西书来翻译这些文字并用中文回复。尽管他彻底不明白中文,但经过这个进程,房间里的人能够让房间外的人以为他会说流利的中文。

  塞尔以此来阐明,将机器等同于心灵的强人工智能是无法完结的,而仅作为东西的弱人工智能是或许的。他以为:“只要一种机器能够思想,……即大脑和那些与大脑具有相同因果才能的机器。”但关于“中文屋”思想试验的质疑与辩驳相同也从未隔绝。比方有人提出,屋中人和屋子以及一切东西书一同构成一个别系。屋中的人尽管不明白中文,但这个别系是懂得中文的。

  塞尔的中文屋思想试验的中心问题,后来在人工智能研讨中被称为“符号接地问题(symbol grounding problem)”。一般来说,至今中止机器只会处理符号和符号之间的联络和相关。可是,人们无法承受的是,符号“仅经过它们与其他符号的联络就变得有含义”。(劳伦斯·夏皮罗著:《具身认知》。华夏出版社,2014年,第107页。)例如,假如咱们修改了电脑中一个文件的文件名,电脑就很难找到这个文件。但假如打开文档,对人类而言其内容和含义并没有发生变化。人们信任,人能够了解符号的含义乃至知道到事物的同一性,是由于人的思想具有某种指向性(Aboutness/ directedness)。哲学史上,弗朗茨·布伦塔诺(Franz Brentano, 1838–1917)借用了中世纪经院哲学概念,将心灵这种特性称为“意向性”(intentionality),即人类的思想活动总是指向某物。因而意向性也被以为是“心灵的标志”。

  因而问题转化为,假如要让人工智能要实在“了解”含义,是否也需求符号和目标之间的“意向性”呢?假使不需求或不或许树立这种意向性,那么将经过什么办法来树立符号和目标之间的联络?

  事实上,在咱们现在的日子中,现已能够看到十分多弱人工智能的运用。从机场安检的人脸辨认体系,到现现在具有高度准确性的谷歌翻译;从特斯拉和谷歌的主动驾驭轿车,到美国军方现在的制式配备——X-47B无人机。人工智能好像正在以不行阻挠的趋势,浸透进入咱们日子的方方面面。这势必将引起人类社会中的法令与品德问题,人类关于技能“失控”的忧虑从未中止。

  例如,人工智能在股票买卖中的运用——高频买卖(high-frequency trading),现已在2010年5月6日形成了道琼斯工业指数的“闪电崩盘”。怎么加强这方面的监管现已成为全球资本市场的一个难题。又比方,本年初呈现了全球首例主动给驾驭轿车的致死事例。那么未来也会呈现这样的紧迫避险难题:当主动驾驭的人工智能在遇到紧迫状况时,是优先考虑维护车内乘客,仍是挑选优先避免损伤道路上的步行者?再比方,假如神经机器翻译(GNMT)在绝大多数状况下能够代替人类翻译,或许其本钱远远低于人类翻译时,翻译作为一个工作是否会消失呢?

  人类之所以要发明人工智能,原本是为了满意人的某些根本欲求。其间一些或许的失控状况,本质上是人类本身愿望失控的体现和连续。假如人工智能介入了家庭的私家范畴,它会对人类的日子-生计办法形成这样的影响?英国连续剧《实在的人类》(Humans, 2015)直接提出了这一问题:人工陪同(Artificial companion)将彻底推翻人类传统的家庭结构。反过来,假如人类以为人工智能也具有情感、智能和回忆,是否不能只是将之视为物品,而要赋予它们某些相似人类的根本权利呢?乃至未来人类也或许面对“举证倒置”的困境,即人要自证不是人工智能。这又怎么或许做到呢?

  不少科幻小说与影视剧中所体现的人工智能,最终反客为主控制了全人类。但这里有两个老套的幻想:首要,人工智能为什么必定要依照人的形状呈现呢?这里边躲藏了一个人类自我中心的知道,所以才会一向以人为模本,来类比幻想未来的人工智能。人类之所以长成现在的姿态,是几千上万年进化的成果;而人工智能彻底能够以一套非人类的相貌呈现;其次,在科幻电影中往往忧虑人工智能开展到某一天会对人类实施暴力控制。但彻底存在另一种或许,即人工智能以极端温顺的办法进行控制,让人处在十分舒适的境况中,察觉不到这是一种控制,从而浑浑噩噩、花天酒地。又或许,人类未来会以“超人类”(trans-humanism)的办法存在,仍是以“赛博智人”(homo cyber-sapien)的云端形状存在呢?

  与其说人工智能的技能危险引发了人类的忧虑,还不如说人类的“心魔”更要引起本身的警觉。在日益开展的人工智能面前,人应当反身自问,终究什么才是人——人之所以异于AI者几希?