如何让机器人明辨是非?
2018年5月20日晚上,博古睿研究院中国中心与北京大学出版社、北大博雅讲坛联合主办了第129期博雅讲坛暨新书《道德机器:如何让机器人明辨是非》作者见面会。
本次讲坛以“机器人能明辨是非吗?——人工智能伦理道德的未来走向”为主题。博古睿研究院中国中心主任宋冰作了开场致辞。她表示,温德尔·瓦拉赫(Wendell Wallach)的这本书是西方机器人伦理界 (machine morality)的开山大作之一。以前的计算机伦理强调更多的是对科学家和工程师的外部约束、行为规范以及科技带来的外部或溢出效应,比方说对隐私、财产权、防范病毒、提防骇客等方面的研究。新兴机器人伦理更多着眼如何在人工智能和机器人的研究与设计中融入保护人类利益的伦理框架。
耶鲁大学生物伦理学中心科技与伦理学科主任、黑斯廷斯中心高级顾问温德尔·瓦拉赫(Wendell Wallach)
温德尔·瓦拉赫在讲座过程中对《道德机器》的内容进行了深度阐释。他提出有道德的机器并不会自动出现,而是需要人为的设计和干预。目前有两种植入机器人伦理的方法。一种是由上至下的理论驱动做决策的进路,把伦理规范进行编程然后直接植入机器人的“大脑”,使其获得“道德认知”;另一种是自下而上式的数据驱动来学习和进化的方式,给智能机器人创造体验和学习环境,让他们逐渐学会什么是可接受的道德规范和行为准则。
自上而下模式的优点在于道德律令简明扼要,运行模式更为“安全”;难处在于如何将包括亚里士多德、康德、穆勒等在内的互相冲突的框架统一起来,并且将其转化为一系列算法规则。例如功利主义最大幸福量怎么计算,康德绝对律令又如何变成程序。即使是最为简洁的阿西莫夫三大定律,都难以改写成清晰的程序。
自下而上模式类似于模拟孩童的成长过程,让机器人在不同环境的相互作用中习得复杂行为。但是无法保证机器人在面对多个目标的过程中有一个明确的行动方针,而且当环境变化时不知道如何适应、无法确定这样真的能使其产生复杂的道德判断能力。
温德尔认为应该将这两种进路结合在一起,从而尽可能使得机器人在法律、道德等因素上符合社会的规范,朝着更为人性化的人工道德智能体(AMAs)迈进。因为目前的机器人系统要么是自主性和道德敏感性都很低的系统,尚处于完全受设计者和使用者控制的“操作性道德”区域内;要么是自主性高而伦理敏感性低、或自主性低而伦理敏感性高的系统,只具备有限的“功能性道德”。如何可以让具有高度自主性的机器人成为道德主体,即人工道德智能体(AMAs)呢?温德尔寄希望于未来应用联结主义网络来开发具有美德的系统。
还有一些同学对于AI如何应对囚徒困境和“电车难题”充满了好奇。温德尔以现实中难题发生的微小可能性对“电车难题”进行了回应。温德尔觉得机器人不同于自私的人类,当它们知道合作才是破解囚徒困境的最优方案时,一定会毫不犹豫选择合作,它们没有自私的基因。
正如博古睿研究院中国中心主任宋冰所言:“温德尔·瓦拉赫提出的问题可能比回答的还多,但这正反映出他学术上的诚实和知难而上的探索精神。”
简介
活动主办方:
活动时间:
2018-05-20
活动地点:
北大书店
活动状态: