学术会议 | 人机共存的未来攻略 2
10月27日,北京大学博古睿研究中心举办了第二期“人机共存的未来攻略”系列研讨会,主讲嘉宾围绕机器学习的前景、意识和道德等展开探讨。北京大学哲学系助理教授王小塞(Sebastian Sunday Grève)、小说作者郝景芳和北京大学哲学系长聘副教授吴天岳,分别讨论了机器能否获得意识、实现数字化人格的可能性以及对未来的想象、机器与人格的联系等。
机器也属于人的意识?
会议伊始,王小塞从活动海报讲起——一个巨大的“哭泣”机器人引起了他的思考。小塞说,海报非常契合活动主题及他的演讲题目——“机器能够获得意识吗?”。正像现代计算机科学之父艾伦·图灵(Alan Turing)的话:
“机器能思考吗?”……我相信,到本世纪末,我们对此的语言表述和一般受教育人群的观点将发生相当大的改观。到那时候,当人们再次谈论机器思考时,可能就不会招致反对意见了。”
如今就是这样,人工智能技术相当发达,“会思考的机器”这一概念已然得到了广泛讨论。王小塞首先尝试界定“机器”和“意识”的意义,鼓励大家先从“理解这个问题”开始。对于机器的定义,因学术背景差异,科学、哲学以及其他学科都有不同的解释。图灵从设备的角度给出定义:机器是一种新技术,电子和数字计算机之类的设备,是我们今天掌握的所有计算技术的基础。而王小塞认为定义无关宏旨,仅从现象世界找到熟悉的点切入研究意识问题即可。就意识而言,我们似乎对它如此熟悉。然而,又很难解释它——我们有触摸、感受和体验某种事物的能力——这是一种不同寻常的主观特质,也许连最好的机器或机器人尚不具备。
从这种理论前提出发,可以进而思考审视科学和工程学。王小塞以“主动肌—拮抗肌神经接口”为例,谈到这项具有意义的义肢新技术“将义肢双向连接,因此能够增强运动控制和感知”。它成功恢复两块互补肌肉之间的连接,通过肌肉协同工作,能够帮助一个人感知和移动自己的身体,从而在运动控制和感知之间建立直接联系。在这个过程中,王小塞提出了三个假设,分别是:
神经系统是意识的基本要素。如果人失去神经系统,就会失去意识。
意识状态包括基于肢体的感觉体验。例如,一个人移动手或腿,或者触摸计算机时,对此会有所感知。
正如主动肌—拮抗肌神经接口的案例所示,义肢触发的感觉体验有时可以等同于人的意识状态。
根据这些假设,王小塞得出初步结论,“如果人的意识状态包括义肢触发的感觉体验,那么机器也能部分构成人的意识。”基于此,他提出了一个思想实验:
100年后,技术不断进步。在这一期间的某个时间点上,一个叫布博的年轻女孩患上了某种新型神经系统疾病。不过,她很幸运,因为只要她愿意,随时可以进行植入手术。她另一个幸运的地方是,因为手术的间隔时间足够长,在下次进行手术替换其它部分之前,其神经系统的已植入部分一般都可以与其他部分完美融合——这要归功于各种治疗手段及神经系统本身的神经可塑性。
假设我们可以不断修复和替换部分神经系统,而且疾病从布博的边缘系统缓慢侵入她大脑的中枢神经系统。在这种情况下,这种方法不是改造意识或建造一个有意识的机器人,而是拿走一些有生命和有意识的东西,并通过重新应用一种方法,恢复部分形成意识的功能(主要是神经系统)。这是我们所知的一种可以保留意识的方法,但随着人体增添更多机器零件,人体中人工和生物部件的比例就会逐渐变得混沌不清。最终的结论是:神经系统可以由不同材料的替代零件取代,这样人就会在保持意识的同时,慢慢变成一台机器。
数字人格
郝景芳对王小塞的思想实验非常感兴趣,但质疑用非生物元件替换神经元是否真的可行性,以及未来进行这样的实验是否人道。她提出另一个思想实验:如果像AlphaGo一样,我们向人工智能输入编程代码,以决定它们说“是”或“否”,使它们能做到下棋或其他事情;如果选项、信息和决策流程的数量变得足够庞大、足够复杂,这时它们就能够自行决定回答“是”或“否”,或许在某个时刻,它们就可以开始像人类一样分析形势、进行思考。
接下来,郝景芳展开题为“50年之后的人类全景生活”的发言。第一种可能性是人工智能与人类共存。人工智能会为我们解答、记忆、打理一切,甚至发展到只要我们需要,它就知道何时、如何为我们做一杯热水。我们的思想和大脑信号被不断发送到机器上。当然,也许有些人会担心隐私问题。然而,郝景芳认为,人类的适应能力实际上比我们所想象的更为强大。譬如,我们现在就已经适应使用手机和互联网,而它们由超级人工智能算法运行,算法不断收集信息并分析我们的习惯和行为。她认为,长此以往,我们很可能会逐渐适应这种人类思维和机器之间的交互。
第二种和第三种可能性是人类未来生活在元宇宙,寿命大大延长。最终,我们可能会有一个数字人格,能够代表我们行事。当它发展到一定程度,人类和机器之间就变得无法区分。郝景芳的朋友中科院曾毅研究员最近扫描了小老鼠和猴子的神经元,并借此开发出一种新型人工智能程序,它与人脑有诸多相似之处。如果未来人脑和机器的交互设计相当完美,甚至于我们可以扫描自己所有的神经元,并将这些数据记录到机器系统之中,那么,到那时我们也许可以开发出自己的克隆程序,即一种人工智能。它可以代替我们回答简单的问题、出席会议、与人交谈、为我们买东西,因为我们相信它们会做出我们想要的正确决策。她说,“也许有一天我们肉体会死去,但数字人格可以永生。”
在演讲的最后,郝景芳提出了许多问题,这也是我们在商业世界和政治社会生活中的疑惑:谁有权决定我们未来的数字世界?数字信息应该自由共享,还是应该成为可以定价和购买的资产或资源?如果我们在元宇宙拥有数字人格,那么,这个新世界是乌托邦还是反乌托邦?在数字世界、机器和人类之间的界限愈加模糊不清的新世界,监管者又是谁?
郝景芳对未来的描述和思考,集结在她的新书《中国前沿:不如问问科学家吧》。该书记录了她和中国人工智能、太空探索和医疗保健等前沿科技领域十位顶尖科学家的对话。
机器成为人的“道德人格三论”
最后一位发言人吴天岳围绕“承认机器人格的可能性”进行了探讨。他认为,我们可能已经“理所当然”地将机器定义为“几个可拆卸部件组成,利用动力自动完成特定类型任务的某种设备”。人和机器之别在过去泾渭分明。前者发号施令,而后者不管其系统多复杂,只是接受命令。而如今,情况已然发生变化:人工智能兴起,似乎能够像人类一样做出计划和独特的决定,并进行思考。这样我们就需要面对以下重要问题:机器能思考吗?这有什么实际意义?我们应该如何对待机器?最重要的是,机器能够或者应该变得像我们一样吗?为此,吴天岳提供了两个视角:
机器能被赋予人类拥有的某些基本权利吗?
机器能对自己的决定负责吗?例如,如果乘客乘坐自动驾驶的汽车发生车祸并因此死亡,那么车辆应该受到惩罚或监禁吗?
某些国家正在审议相关的法律框架,并出台了一些颇具争议的举措。例如,2017年2月16日,欧洲议会通过了《机器人民事法律规则》,建议采取以下行动:
“从长远来看,赋予机器人特定的法律地位,这样至少最精细的有能力自主行动的机器人可以被认定为具有电子人的身份,能够对它们可能造成的任何损害负责和补偿,并有可能将电子人格应用于机器人独立做出自主决定或以其他方式与第三方互动的情况”
另外,沙特阿拉伯也迈出大胆的一步,授予了机器人索菲亚公民身份。然而,并非所有人都认同赋予人工智能人格的想法,正如来自欧盟的285名人工智能、机器人专家和行业领袖,法律、医疗和伦理等领域的学者联名向欧盟委员会发出的一封公开信中所述:
“我们认为,赋予机器‘电子人格’的法律地位是出于意识形态考虑,是不理智且非务实的。”
这封信的核心伦理问题之一是:机器人享有电子人格,也就享有尊严、正直、报酬或公民身份等人权,这可能会侵犯人类的权利。关于这一点,吴天岳介绍了戈登(J.S. Gordon)判断机器是否有资格成为人的“道德人格三论”。
1.第一种理论是“人的尊严进路”。该理论指出,只有享有尊严的生物才配享有完全的道德地位,因此才有资格拥有道德人格,而只有人拥有这样的尊严。吴天岳认为,这一定义将人类作为以自我为中心的生物,置于生态系统的顶端,会导致狭隘的物种歧视。
2.第二种理论是“理性或自主性进路”。一个有道德的人应该对自身的道德行为负责,只有当其决定根据自己接受的伦理原则理性或自主地行动时,才能做到这一点。吴天岳对这种方法的批评是,它从一开始就非法剥夺了动物和精神残疾者的道德人格。而且,它不合理地过于强调人类的认知能力,没有给予人类的情绪等方面充分的关注。此外,他认为这一方法错误地将道德人格等同于道德行为能力。
3.最后一种理论是“关系进路”。它强调道德的人出现的社会环境。戈登引用柯克尔伯格(M. Coeckelbergh)的一段话:“我们可能会想知道,机器人是否仍将是‘机器’,或者它们能否成为同伴……(因此)道德品质不是已经暗含在这里出现的关系中了吗?例如,如果一个老人非常依恋她的机器海豹帕罗,并将其视为宠物或婴儿,那么我们需要讨论的则是这种关系本身,而不是机器人的‘道德地位’。”吴天岳认为这种方法面临两个潜在的挑战:不受欢迎的社会排斥和陷入文化相对主义的危险。
吴天岳建议,我们可以通过波埃修(Boethius,477-524)和奥克塞尔的威廉(William of Auxerre,1150-1231)的作品,来了解中世纪的人格概念。根据中世纪哲学家的定义,人格作为理性存在者是独一无二的,是其生命时间内的存在的唯一所有者,而人格的尊严也正在于它作为个别存在者的独特性。 据此,吴天岳将戈登的“人的尊严进路(Human Dignity Approach)”修订为“人格尊严进路(Personal Dignity Approach)”,即只有拥有不可替代的独特存在的个体(亦即人格)享有完全的道德地位。然而,目前人工智能驱动的机器由计算机程序控制,而这些程序经设计在给定类型的机器中的运行方式也是相同的,并不具有人格所要求的独特性。而且,他们没有属于自己的个人生活;例如,一台能够思考的机器的生命或历史可以被数字化、保存,并在另一台机器上复制。最后,吴天岳的结论是,机器不可能具有人格,除非它能成为一个独特的,不可重复的生命。
采写:实习生林仁阳(Jin Young Lim)