科幻作家艾西莫夫曾提出了“机器人三定律”。如今,随着机器人以及智能设备不断增多,简单的定律可能无法满足需求了。最近,英国标准协会(BSI)编写了一份文件(编号 BS8611),以帮助设计师们创造出更有道德感的机器人。
据卫报的报导,在牛津大学召开的 Social Robotis and AI(社交机器人和人工智能)大会上,相关领域的专家谈到了这份文件,并发布了自己的看法。
西英格兰大学的机器人学教授 Alan Winfield 认为,这份文件代表了“把道德价值融入机器人和人工智能的第一步”。“据我所知,这是首个关于机器人道德设计标准的正规文件,”他说,“它比艾西莫夫的定律要更加复杂。基本上,它讲述的是如何对机器人做道德风险的评估。”
这份文件定义了一些宽泛的道德准则,比如机器人的设计不应该以杀害或者伤害人类为唯一或首要目的;责任人应该是人类而非机器人;任何机器人都应该有负责人,而这个人应该为机器人的行为负责。此外,文件还提到了一些有争议的话题,例如人类是否应该与机器人建立感情联系,特别是那些与儿童或老人互动的机器人。
文件还建议设计师遵循透明化的原则。不过,这可能难以实现。“人工智能系统,特别是深度学习系统的问题在于,你很难了解它们做决策的原因,”Alan Winfield 说,“在训练过程中,深度系统使用了网络上的大量数据,但是这些数据是有偏见的。这些系统倾向于关注中年白种人,显然这是一场灾难。它们可能会吸收人类的所有偏见,或者说,这是一种潜在的风险。”
一些宽泛的社会问题也出现在文件中,比如“对机器人的过度依赖”。不过,在如何避免这些问题上,文件并未给设计者指出明确的方向。“你与机器人共处一段时间后,它一直给予你正确答案,于是,你开始信任它并且变懒了。然后,它给了你超级愚蠢的建议,”雪菲尔大学机器人和人工智能教授 Noel Sharkey 说。
英国标准协会的 Dan Palmer 也评论了这份文件。他说,“透过机器人和自动化技术,生产过程会更有效率、更灵活和更具适应性,这也是制造业发展的必要阶段。因此,我们有必要辨识和处理一些道德问题,比如对机器人的过度依赖。这份新指导告诉人们如何处理不同的机器人应用,进而帮助机器人和自动化系统的设计师与用户更好地适应新的工作领域。”
- Do no harm, don’t discriminate: official guidance issued on robot ethics
(本文由 爱范儿 授权转载;首图来源:Pixabay)