当前位置: 首页 > 资讯

对不起,禁止“杀人机器人”不实际

机器人家       2017-09-15


战狼2还没有下片,票房还在做最后的冲刺,电影里会发射子弹的无人机还高悬天空。科技给我们带来了便利,也给战乱地区的人们带来了更多的伤痛。




在星期天,包括埃隆·马斯克在内的116名企业家向联合国发出了一封信,信上写到“这些机器人可能成为恐怖武器,独裁者和恐怖分子可能对无辜人群使用,并以其他不可取的方式被利用。我们已经没有太多时间,一旦潘多拉之盒被打开,就很难再关闭。”


这封信引起各大媒体竞相报道,但是很多人却被报道的标题误导了。




虽然其中一个组织者认为一定要禁止“杀人机器人”,但是整体来说,这封信并没有明确建议禁止“机器人杀人”。相反,它向联合国在12月成立的自主武器委员会提供技术建议。该组织警告说,自动机器“可以成为恐怖武器”是有迹可循的,但试图彻底禁止它们可能是在浪费时间。


这并不是因为这项武器技术不可能被禁止。事实上,有192多个国家签署了禁止化学武器的化学武器公约,其中一项禁止使用激光武器来造成永久性失明的国际协议至今维持着被遵守的状态。




制造自主武器系统是一个非常不同的,更广泛的类别。由人类控制的武器和自主开火的武器之间的界线是模糊的,包括美国在内的许多国家已经开始约过这道界限。此外,诸如机器人飞机和地面车辆等技术已经被证明是非常有用的,武装部队可能会赋予它们更多的自主功能,包括杀人。


美国国家情报总监办公室最近的一份关于人工智能和战争的报告得出结论说,这项技术将极大地放大军事力量。该报告的合著者格雷格·艾伦现在是无党派智库“新美国安全中心”的兼职研究员,他并不认为美国和其他国家能够阻止人们自己建造能够随时开火的武器库。“你不太可能完全禁止自主武器,”他说。“使用它们的诱惑将会非常强烈。”


美国国防部在部署致命武力时,确实有一项政策,以保持“人类的循环”,但没有公开提出禁止自主武器的国际协议。2015年,英国政府回应了要求禁止自主武器的呼吁,称没有必要这样做,而且现有的国际法已经足够。


自主武器并不仅仅存在于概念里,根据CNAS的报告,美国海军使用的AEGIS舰载导弹和飞机防御系统能够在没有人为干预的情况下接近飞机或导弹。


其他的例子包括一种在以色列开发名为Harpy的无人机,它在搜索雷达信号的区域巡逻。如果它勘测到危险,会自动地对信号源进行俯冲轰炸。制造商以色列航空航天工业公司将Harpy作为“ Fire and Forget”自主武器。




早在2015年,马斯克就与数千名学术界和业内的人工智能专家签署了一封类似的信,呼吁禁止使用攻击性自主武器。它是由生命协会组织的,这是一个思考人工智能和其他技术长期影响的组织,马斯克为其捐赠了1000万美元。




耶鲁法学院的研究员Rebecca Crootof说,有关自主武器系统,人们应该考虑更有建设性的替代方案来进行全面的禁令。


她说:“这些时间和精力将会更好地用于完善法规。”例如,限制人类士兵活动的《日内瓦公约》等国际法律可以用来管理机器人士兵在战场上所做的事情。其他的一些规定也可能会试图解决一些模糊的问题。例如,当一个软件做出一个糟糕的决定——杀死平民时,谁将被追究法律责任。


关键词:机器人