无人驾驶汽车如何规避行车风险,一直颇具争议的话题。在遭遇突发状况下,撞人还是动物?全全交给人工智能处理当然不能让人放心了。于是,麻省理工(MIT)有了新主意。
近日,麻省理工学院发布了一款名为“道德机器(MoralMachine)”的调查平台。这个平台主要是用来采集用户对于无人驾驶汽车的道德倾向,以作为研究未来无人车道德决策的数据样本。被调查者要经受一系列考验,以确定各个道德维度上的倾向。
撞人还是撞猫狗?该如何选择?
是保护过马路的女性,还是保护车上的男性?
是保护车上的猫还是撞死罪犯?
在紧要关头做出正确反应,确实不是一件简单的事,难以抉择却又必须要面对。希望“道德机器(MoralMachine)”所采集的信息,能为未来无人驾驶的道德决断提供一个普世准则,不被道德绑架。