危險發生時該保護乘客還是行人?無人駕駛的道德困境

當危險發生,不得不進行生死抉擇時;無人駕駛該犧牲誰?保護誰?

誰能為事故買單,是沒有自然人格汽車或者廠商還是駕駛者?

危險發生時該保護乘客還是行人?無人駕駛的道德困境

危險突發時,保護乘客還是行人?

有人認為,在突如其來的危險情況下,無論是駕駛員還是行人,甚至是人工智能都很難及時去判斷如何保護,而此時最保險也是最可控的辦法就是——保護車內的人。

危險發生時該保護乘客還是行人?無人駕駛的道德困境

但是,這樣的規則有一個極端的問題——如果將不同的危險劃分等級,在面對突發危險時汽車自主選擇保護主人。那麼,是不是越有錢的人就可以買到更安全的車,而這種安全是一早就被價格賦予等級的。而窮人買的車在某些危險情況下會被降低保護其生命的優先級。

德國政府的“無人駕駛道德指引”

自動駕駛車輛的行為決策都依賴其算法,依靠不同的設置和規則,自動駕駛汽車可以有不同的決策行為。

這份指引規定,保護人類生命始終是首要任務,如果發生意外是不可避免的,無人駕駛車不能選擇去救誰,不應該就年齡、性別、種族、殘疾等做出決定,所有人類生命都是平等的。

危險發生時該保護乘客還是行人?無人駕駛的道德困境

同時,該規則還明確指出,在危險發生時應該不遺餘力的去保護人類的生命,保證沒有人員傷亡,即時必須造成財產損失。

安裝有一個監視系統,以記錄導致事故發生的過程,這樣可知道當時是誰正在駕駛,誰應該負責:方向盤後面的人,還是計算機。將車主身份也記錄在案,方向盤後面必須有人,可以隨時接管危險。

無人駕駛事故該如何定責?

首先,不可能是汽車,汽車本身沒有任何人格,汽車的行為邏輯都是根據出廠的算法來執行的,無人汽車造成的交通事故誰來負責呢?車主還是廠商?

2017年一月份,特斯拉的首起自動駕駛致死事故發生在中國,在京港澳高速河北邯鄲段,一輛特斯拉轎車撞上了一輛正在作業的清掃車,司機不幸身亡,據報道,當時車主開啟了特斯拉的自動駕駛模式。

一般來說,關於事故如何定責,更多的是立法部門和執法部門的職責,L3級別及以下的自動駕駛交通事故責任主體為駕駛員,L4及以上級別自動駕駛責任主體尚未有明確的法律法規可以依照。

危險發生時該保護乘客還是行人?無人駕駛的道德困境

無人駕駛的法律法規目前還不完善,定責尚不明確。

當危險發生時救人還是救自己,每個人在不同情況下有自己的選擇,可現實往往比預想要複雜許多,將無數的意外情況和生命的選擇提前寫入程序面臨諸多的道德問題。

“在未來,你會願意購買一輛沒有方向盤的汽車麼?危險發生時汽車該怎麼選擇?”


分享到:


相關文章: