当前位置: 首页 > 资讯

既然阿西莫夫的机器人三大定律不能保护人类,那就再定义一个更好的方案

中国机械工程学会       2017-09-15


如何阻止机器人伤害人类?许多现有的机器人,例如工厂里组装汽车的机器人,当一个人走近时立即关闭。


但是这种快速修复不会为像自动驾驶汽车这样的东西工作,因为它可能需要移动以避免碰撞,或者是一个护理机器人,如果他们摔倒,可能需要抓住一个老人。随着机器人将成为我们的仆人、伙伴和同事,我们需要处理越来越复杂的情况,这将产生和伦理和安全问题。


科幻小说已经预见了这个问题,并提出了各种可能的解决方案。最著名的是作家艾萨克·阿西莫夫(Isaac Asimov)的《机器人三定律》(Three Laws of Robotics),旨在防止机器人伤害人类。但自2005年以来,我和我在赫特福德大学(University of Hertfordshire)的同事们一直在研究一个可以替代的想法。


我们认为机器人应该被赋予最大限度的发挥作用,以便为任何给定的场景选择最佳的解决方案,而不是限制机器人行为的法律。正如我们在前沿的一篇新论文中所描述的那样,这一原则可能构成了一套全新的机器人普遍准则的基础,以保证人类的安全。


机器人三定律


阿西莫夫的三个法律如下:


机器人可能不会伤害人类,或者通过不作为,让人类受到伤害。


机器人必须服从人类的命令,除非这些命令与第一定律相冲突。


机器人必须保护自己的存在,只要这种保护不与第一或第二定律相抵触。


虽然这些法律听起来似乎有理,但很多论证都证明了它们的不足。阿西莫夫自己的故事可以说是对法律的解构,展示了他们在不同情况下的反复失败。大多数起草新准则的尝试遵循类似的原则,以创造安全、顺从和健壮的机器人。


任何明确规定的机器人指导方针的一个问题是,需要把它们转换成机器人可以使用的格式。理解人类语言的全部范围和它所代表的经验对于机器人来说是非常困难的工作。广泛的行为目标,例如防止对人类的伤害或保护机器人的存在,在不同的环境中可以有不同的含义。遵守规则可能会让机器人无法像其创造者希望的那样行事。


我们一直在开发将这个社会概念转换成可量化和操作的技术语言的方法。这将赋予机器人以使他们的选择开放和行动以增加他们对世界的影响的动力。


当我们试图模拟机器人如何在各种场景中使用授权原则时,我们发现它们常常会以令人惊讶的“自然”的方式行事。它通常只要求他们对现实世界的工作方式进行建模,但不需要专门设计来处理特定场景的人工智能编程。


但是为了保护人们的安全,机器人需要努力维持或提高人类的权力和他们自己的能力。这基本上意味着保护和支持。为别人打开一扇锁着的门会增加他们的权力。限制他们将导致权力的短期丧失。而且严重伤害他们可以完全解除他们的权力。与此同时,机器人必须努力维持自己的权力,例如,确保它有足够的能力运转,而且不会被卡住或损坏。


机器人可以适应新的方案


使用这个通用的原则,而不是预定义的行为规则,将允许机器人考虑上下文,并评估之前没有人设想过的场景。例如,机器人不会总是遵循“不推人”的规则,通常会避免推它们,但仍然能够把它们推离掉下来的物体。人类可能仍然受到伤害,但比机器人不推他们更少。


在电影《I, Robot》中,机器人根据阿西莫夫的一些故事,创造了一个压迫性的状态,它被认为是通过限制和“保护”来最小化对人类的整体伤害。但是我们的原则会避免这种情况,因为这意味着失去了人类的权力。


这是一种全新的方式来思考安全的机器人行为,我们仍有很多工作要做,以提高它的效率,这样它就可以轻松地部署在任何机器人上,并在所有方面转化为良好和安全的行为。这是一个非常困难的挑战。但我们坚信,授权能够引导我们找到一个切实可行的解决方案,来解决如何控制机器人的行为,以及如何让机器人(在最天真的意义上)保持“道德”的问题。


克里斯托夫·萨尔基,哈福德大学的玛丽·居里全球研究员


这篇文章最初发表在谈话上。



关键词:机器人