危险发生时该保护乘客还是行人?无人驾驶的道德困境

当危险发生,不得不进行生死抉择时;无人驾驶该牺牲谁?保护谁?

谁能为事故买单,是没有自然人格汽车或者厂商还是驾驶者?

危险发生时该保护乘客还是行人?无人驾驶的道德困境

危险突发时,保护乘客还是行人?

有人认为,在突如其来的危险情况下,无论是驾驶员还是行人,甚至是人工智能都很难及时去判断如何保护,而此时最保险也是最可控的办法就是——保护车内的人。

危险发生时该保护乘客还是行人?无人驾驶的道德困境

但是,这样的规则有一个极端的问题——如果将不同的危险划分等级,在面对突发危险时汽车自主选择保护主人。那么,是不是越有钱的人就可以买到更安全的车,而这种安全是一早就被价格赋予等级的。而穷人买的车在某些危险情况下会被降低保护其生命的优先级。

德国政府的“无人驾驶道德指引”

自动驾驶车辆的行为决策都依赖其算法,依靠不同的设置和规则,自动驾驶汽车可以有不同的决策行为。

这份指引规定,保护人类生命始终是首要任务,如果发生意外是不可避免的,无人驾驶车不能选择去救谁,不应该就年龄、性别、种族、残疾等做出决定,所有人类生命都是平等的。

危险发生时该保护乘客还是行人?无人驾驶的道德困境

同时,该规则还明确指出,在危险发生时应该不遗余力的去保护人类的生命,保证没有人员伤亡,即时必须造成财产损失。

安装有一个监视系统,以记录导致事故发生的过程,这样可知道当时是谁正在驾驶,谁应该负责:方向盘后面的人,还是计算机。将车主身份也记录在案,方向盘后面必须有人,可以随时接管危险。

无人驾驶事故该如何定责?

首先,不可能是汽车,汽车本身没有任何人格,汽车的行为逻辑都是根据出厂的算法来执行的,无人汽车造成的交通事故谁来负责呢?车主还是厂商?

2017年一月份,特斯拉的首起自动驾驶致死事故发生在中国,在京港澳高速河北邯郸段,一辆特斯拉轿车撞上了一辆正在作业的清扫车,司机不幸身亡,据报道,当时车主开启了特斯拉的自动驾驶模式。

一般来说,关于事故如何定责,更多的是立法部门和执法部门的职责,L3级别及以下的自动驾驶交通事故责任主体为驾驶员,L4及以上级别自动驾驶责任主体尚未有明确的法律法规可以依照。

危险发生时该保护乘客还是行人?无人驾驶的道德困境

无人驾驶的法律法规目前还不完善,定责尚不明确。

当危险发生时救人还是救自己,每个人在不同情况下有自己的选择,可现实往往比预想要复杂许多,将无数的意外情况和生命的选择提前写入程序面临诸多的道德问题。

“在未来,你会愿意购买一辆没有方向盘的汽车么?危险发生时汽车该怎么选择?”


分享到:


相關文章: