谷歌无人车再出事故,未来事故的责任是车内的人还是厂商呢?

随着科技的发展,和人工智能的普及,目前最火的“无人”技术了,无人驾驶技术也慢慢的进入我们的生活,谷歌号称要改变人们的驾驶方式,减少交通事故的发生,所以率先走上无人驾驶的路上。其他各路江湖豪杰们紧接着都跟上。于是各大品牌都开始闭门造车——生产无人车。但最近出了点小问题!

据美国网站《abc15》报道,今日下午,谷歌无人驾驶公司Waymo运营的无人驾驶测试车在亚利桑那州钱德勒市发生交通事故,与一辆正在转向的轿车发生碰撞,造成无人驾驶安全员受轻伤。

谷歌无人车再出事故,未来事故的责任是车内的人还是厂商呢?

在一个多月前的3月19日,亚利桑那州坦佩市发生了全球首次无人驾驶致死事故——Uber无人驾驶测试车撞击行人致死事件。

从abc15拍摄的视频来看,与Uber事故处于黑夜、行人突然出现类似,本次发生在钱德勒的无人驾驶车事故同样面临着相对复杂的场景。

事故发生在Chandler Village Drive(钱德勒村大道)和Chandler Boulevard(钱德勒大道)的十字路口附近,当时Waymo无人车沿着钱德勒大道由东向西行驶,而一辆本田银色轿车在对向车道朝东行驶。但是在本田轿车行驶途中,一辆黑色轿车突然从Waymo无人车左侧的十字路口向北驶入,本田轿车为避让黑色轿车,急打转向,逆行驶入Waymo无人驾驶所在车道,与Waymo无人车相撞。

当无人驾驶汽车行驶在这个人口稠密的世界时,电脑需要考虑更多的伦理道德问题。当汽车发现已经无法避免事故的发生时,驾驶员—电脑或是人类,该如何选择冲向马路的行人或直接撞击迎面而来的车辆类似的“两难问题”?

谷歌无人车再出事故,未来事故的责任是车内的人还是厂商呢?

人类每天都需要对突发而来的事件进行判断,人脑是一个卓越的数据收集和计算的系统,即使不算最好的。但实际上电脑可以做出更快更精确的反应,几乎没有,或者说也许存在一两个可以读取和分析人脑数据的车载电脑,甚至以伦理道德价值观对此类事件进行解释。

机器人伦理问题到现在仍然不是高度发达的领域。最伟大的科幻小说家之一艾萨克·阿西莫夫在50年代就谈到当机器人面对人类的危险或死亡时进行调节规范,后来在《我,机器人》中提出的“机器人三大定律”仍然是机器人道德规范的关键。

谷歌无人车再出事故,未来事故的责任是车内的人还是厂商呢?

假如我们依照阿西莫夫的法则创造机器人,那么人类也必须根据“三大定律”规划无人驾驶汽车,也意味着编写程序的厂商应该承担起相应的责任,而不是车内的乘客,但现实生活中,随时随地都存在发生事故的危险。

一旦发生,究竟是谁蹲大牢?树树觉得如此重要的问题也许还需要花上几代人的时间来攻破。


分享到:


相關文章: