2016年06月27日 星期一
道德与利益冲突,我该怎么“拐”?
——无人驾驶车辆安全调查显示公众道德标准不一致
本报记者 常丽君
谷歌自动驾驶汽车最终样机

■今日视点

    给一台机器或“自主驾驶车辆”(AVs)编程,让它以道德原则为基础来做决策,目前要做到这一点并不难,难的是道德标准的考量,应该把自我利益还是公共利益放在首位?

    在道路安全问题上,自主驾驶车辆(简称,自主车辆)给人们抛出了一个两难之选。自主车辆包括无人驾驶的汽车、货车、巴士等,如果用交通规则给这些自主车辆编程,很容易出现规则之间互相矛盾的情景:车前面前突然出现一个行人,它要么撞上行人,要么突然急转弯,急转弯的话它又会撞上路障导致车祸,伤害车上的乘客,这种情况下应该给它什么指令?

    去年6月到11月,美国麻省理工学院和俄勒冈大学研究人员合作,对这方面问题专门做了一项调查,结果却发现公众的观点是互相矛盾的,而这种明显分歧可能真会出现在生活中。研究论文发表在最近出版的《科学》杂志上。

    道德标准遭遇社会困境

    在一系列调查中,研究人员发现,人们对自主车辆的道德标准通常采取一种“实用主义”的态度:在极端危险情况下,人们倾向于选择使事故伤亡最小的做法。这意味着如果车上有10个乘客只有1个行人,它可能撞上行人;如果车上只有1个乘客而对面有10个行人,它就会急转弯撞毁自己。参与调查的受访者同时又表示,真有如此编程的一辆自动驾驶车,他们自己并不想坐上去。基本来说,人们想要的自主车是对行人尽可能地友好——但他们自己乘坐的那辆除外。

    论文作者之一、麻省理工学院媒体实验室副教授亚德·莱万说:“大部分人想要的情况是,自主车能尽量减少伤亡,但每个人又都希望他们坐的那辆自主车辆能不计代价地保护自己。”这种结果就是所谓的“社会困境”:最终每个人都只按自己的利益行事,从而让其他人变得更不安全。“如果每个人都这么做,结果会成为一场悲剧——汽车不会减少伤亡。”

    研究人员指出,就目前来说,要想设计一种算法来调和道德价值和个人的自我利益,是很不容易的。

    调查结果彰显民意矛盾

    利用一种“亚马逊机器人塔克”(Amazon Mechanical Turk)的网上民意调查工具,研究人员进行了6次调查。每次结果都一致显示,人们更看重能挽救的生命的总体数量。76%的被调查者认为,对自主车辆而言这样更道德,如果车上只有1个乘客而行人有10个的话,则牺牲那1个乘客更为道德。

    但调查结果还显示,如果一辆自动驾驶汽车真的这样编程,牺牲乘客利益而保护行人,很少有人愿意买这种车。问卷中有一项是让人们对一辆会牺牲自己的乘客而保护10个行人的自动驾驶汽车评分,当被调查者考虑到自己可能坐在这辆车上,给它的评分顿时下降了1/3。

    如果让政府来管理无人驾驶汽车,确保按实用主义原则给它编程的话,这种设想同样遭到人们的反对。在调查中,人们买这种受管理的车的可能性只有1/3,而同时他们又反对不受管理的、假定能以任意方式编程的车。

    看来尚需实践经验指导

    大规模采用自主车辆的总体效果如何,尚不能确定。但人们基本上都同意,自主车辆能减少交通事故,要定义帮自主车辆做道德决策的算法,无疑是个艰难的挑战。

    研究人员认为,这项调查从可能出现的道德利益的角度,为人们提供了有益参考。他们也承认在这个问题上,公众的认识还处在一种早期阶段,即随着自主车辆的发展演变,目前得出的任何结论“不保证长期以后还是这样”。

    莱万说:“这个问题不仅需要从理论上探讨,重要的是还需要在实践中探讨。”

    论文中强调,这是一个挑战,任何汽车制造商和管理者都应记住这一点。此外,如果自主车辆经证明比接受政府管控更安全,强制实施实用主义算法可能导致矛盾的结果,即出于对管理的担忧而推迟采用更安全的技术,反而增加了伤亡。

京ICP备06005116