经典的思维实验被称为“电车难题”,问题是:你是否应该拉动控制杆使失控的电车改道,让它撞死一人而不是五人?或者:如果你必须把一个人推到轨道上才能让电车停下来呢?这些例子中的道德选择是什么?
几十年来,哲学家们一直在争论我们是否应该选择功利主义的解决方案(什么对社会更好;例如,更少的死亡)或一种重视个人权利的解决方案(例如不被故意置于伤害的权利)。
近年来,自动驾驶汽车设计师也在思考如何让自动驾驶汽车在遇到意外驾驶情况时解决类似的困境。例如:如果一辆自行车突然进入车道,自动驾驶汽车该怎么办?它应该转向迎面而来的车辆还是撞上自行车?
斯坦福大学机械工程荣誉退休教授、汽车研究中心(CARS)联合主任克里斯·格德斯(Chris Gerdes)表示,解决方案就在我们面前。这已经成为我们与其他司机之间的社会契约,就像我们的交通法规和法院的解释所规定的那样。Gerdes最近与福特汽车公司的合作者一起发表了一种在自动驾驶环境下解决电车问题的解决方案。在这里,Gerdes描述了这项工作,并建议它将对自动驾驶汽车产生更大的信任。
我们的交通法规如何指导自动驾驶车辆的道德行为?
福特的公司政策是:永远守法。这个项目源于几个简单的问题:这项政策适用于自动驾驶吗?什么时候,如果有的话,自动驾驶违反交通法规是道德的?
当我们研究这些问题时,我们意识到,除了交通法规,还有上诉裁决和陪审团指示,它们有助于充实我们驾驶汽车一百多年来形成的社会契约。这种社会契约的核心是通过遵守交通法规来履行对其他道路使用者的注意义务,除非是为了避免碰撞。
本质上:在同样的情况下,在道德上违反法律似乎是合理的,在法律上违反交通规则也是合理的。
从以人为本的人工智能角度来看,这是一个很大的问题:我们希望自动驾驶系统最终对人类负责。我们让它们对人类负责的机制是让它们总体上遵守交通法规。然而,自动驾驶汽车应该遵守法律这一基本原则并没有被整个行业完全接受。有些人谈论自然驾驶,意思是如果人类超速,那么自动驾驶汽车也应该超速。但是,无论是作为自动驾驶汽车,还是作为声称自己遵守法律的公司,这样做都没有法律依据。
因此,自动驾驶车违反法律的唯一依据应该是为了避免碰撞,事实证明,法律基本同意这一点。例如,如果没有迎面而来的车辆,一辆自动驾驶汽车为了避免与一辆自行车相撞而越过了双黄线,它可能违反了交通规则,但它并没有违反法律,因为它在履行对其他道路使用者的注意义务的同时,做了避免碰撞所必需的事情。
自动驾驶设计师必须处理的道德问题是什么?
自动驾驶程序员面临的道德困境主要是处理特殊驾驶情况,即汽车无法同时履行其对所有道路使用者和乘客的义务。
到目前为止,围绕着功利主义的方法有很多讨论,建议自动驾驶汽车制造商必须决定在这种两难情况下谁生谁死——例如,在自动驾驶汽车前面穿过马路的骑自行车的人还是迎面而来的行人。但在我看来,让汽车来决定谁的生命更有价值这一前提是有严重缺陷的。总的来说,自动驾驶汽车制造商拒绝了功利主义的解决方案。他们会说他们并不是在编写电车问题;他们把自动驾驶汽车设计得很安全。例如,他们开发了RSS(责任敏感安全)等方法,试图创建一套规则,在自动驾驶汽车周围保持一定的距离,这样如果每个人都遵守这些规则,就不会发生碰撞。
问题是:即使RSS没有明确地处理涉及不可避免的碰撞的困境情况,AV仍然会以某种方式表现出来——无论这种行为是有意识地设计的,还是只是从编程规则中产生的。虽然我认为从行业的角度来说,我们并不是在为电车问题编程,但我们也可以问:在这种情况下,汽车会怎么做?
那么我们应该如何编程自动驾驶汽车来处理不可避免的碰撞呢?
如果自动驾驶汽车可以通过编程来维护他们对所有道路使用者的法定注意义务,那么只有当其他人违反了他们对自动驾驶汽车的注意义务,或者出现某种机械故障,或者一棵树倒在路上,或者一个天坑打开时,碰撞才会发生。但是,假设另一个道路使用者违反了他们对自动驾驶汽车的注意义务,闯红灯或在自动驾驶汽车前面转弯。那么,我们所阐明的原则是,自动驾驶汽车仍然欠这个人的注意义务,应该尽其所能——在车辆的物理极限范围内——避免碰撞,而不把其他人拖进去。
从这个意义上说,我们有了AV电车问题的解决方案。我们不考虑一个人受伤的可能性和其他很多人受伤的可能性。相反,我们说,我们不允许选择违反我们对他人应尽的注意义务的行为。因此,我们试图在不把其他人牵扯进来的情况下,与制造冲突的人——即违反了对我们应尽的注意义务的人——解决冲突。
我认为这个解决方案满足了我们的社会契约。司机有一种期望,即如果他们遵守道路规则,并履行对他人的所有照顾义务,他们就应该能够安全地在道路上行驶。为什么避开一辆自行车,让一辆自动驾驶汽车偏离车道,撞上另一辆守法的汽车就可以了呢?为什么要做出一个伤害他人的决定呢?我们是否应该假设对骑自行车的人造成的伤害可能小于对骑自行车的人造成的伤害?我认为这不仅在道德上很难证明,在实践中也很难证明。任何机动车碰撞都有很多不可知的因素。你不知道不同的道路使用者会采取什么行动,你也不知道结果会产生什么样的特定影响。设计一个声称能够立即进行这种功利计算的系统不仅在道德上是可疑的,而且实际上是不可能的。如果一个制造商真的设计了一种牺牲一条生命来拯救五条生命的自动驾驶汽车,他们可能会为此承担重大责任,因为在我们的社会契约中,没有任何东西可以证明这种功利主义的想法是正确的。
你对电车问题的解决方案能让公众相信自动驾驶汽车是安全的吗?
如果你读了一些研究,你可能会认为自动驾驶汽车正在使用众包道德,并接受训练,根据一个人对社会的价值做出决定。我可以想象人们对此相当担忧。人们还表达了一些担忧,即如果他们认为这样做可以挽救更多人的生命,那么汽车可能会牺牲乘客。这似乎也让人难以接受。
相比之下,我们认为我们的方法很好地框架了事情。如果这些汽车的设计能够确保对其他道路使用者的责任始终得到维护,公众就会明白,如果他们遵守规则,他们就不必担心自动驾驶汽车。此外,即使人们违反了对自动驾驶汽车的注意义务,自动驾驶汽车也将被编程使用其全部功能来避免碰撞。我认为这应该让人们放心,因为它清楚地表明,自动驾驶汽车不会把他们的生命作为某种编程功利计算的一部分来衡量。
你对无轨电车问题的解决方案将如何影响自动驾驶汽车的发展?
我们与哲学家、律师和工程师的讨论现在已经达到了一个我认为我们可以在法律要求、我们的社会契约如何履行我们的道德责任和我们可以编写的实际工程要求之间建立清晰的联系的地步。
所以,我们现在可以把这个交给编程AV的人,用计算机代码实现我们的社会契约。事实证明,当你分解汽车注意义务的基本方面时,它可以归结为一些简单的规则,比如保持安全的跟随距离,以合理而谨慎的速度行驶。在这个意义上,它开始看起来有点像RSS因为我们基本上可以在飞行器周围设置各种安全边际。
目前,我们正在福特内部使用这项工作来开发自动驾驶汽车的一些需求。我们一直在公开发布它,与行业的其他人分享,希望如果其他人觉得它很有吸引力,它可能会被纳入最佳实践。
斯坦福人工智能研究院的使命是推进人工智能研究、教育、政策和实践,以改善人类状况。学习更多的知识。
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。