自動駕駛安全性挑戰

自動駕駛安全性挑戰

引用

Koopman P , Wagner M . Autonomous Vehicle Safety: An Interdisciplinary Challenge[J]. IEEE Intelligent Transportation Systems Magazine, 2017, 9(1):90-96.

摘要

確保自動駕駛的安全需要多種技術和方法,有以下挑戰:

1.怎樣面對新的環境輸入來驗證歸納的學習方法。

2. 實現大規模車群部署所需的很高的可靠性要求,不易達到。

3. 最大的挑戰可能是創建一個端到端的設計和部署過程,將無數技術專長的安全問題集成到統一的方法中。

介紹

安全的定義:至少實現車輛級別行為:比如遵守交通規則,能處理非常規路況。但是也同時意味著其他事情,例如:故障轉移任務計劃、找到一種驗證歸納學習策略的方法、對早期部署的系統要求可能存在的差異提供彈性, 制定適當的安全認證策略,以證明實際上已達到足夠的安全水平。

自動駕駛的安全性問題是一系列必須以協調,跨域的方式解決的問題。

安全工程

安全工程的挑戰:

單一車輛好管理,因為故障很少發生,但隨著車輛數增加,故障管理變得愈發困難。基於車輛計算機的系統安全性的當前公認做法通常基於功能安全性方法(即汽車特定的ISO 26262安全標準)。一個重要的安全認證問題是要驗證自動駕駛汽車對自適應系統行為的使用。請注意,“自適應”是指系統本質上根據其運行歷史使用在線機器學習來更改其行為。

對付高度自治系統的系統級安全性的一種常用方法是在設備出現故障時重新接合駕駛員,注意車輛將必須具有某種故障操作自主能力,直到人類能夠重新獲得控制為止,因為駕駛員需要時間進行當前形勢、狀況感知。

另一種有效的安全策略可能是使車輛將操作模式更改為短期的“安全任務”,這裡的策略是,自動駕駛系統必須足夠智能,以便在幾秒鐘的時間內將車輛拉到路邊,而不是完全駕駛自動駕駛系統。只要主要自治系統出現故障,確保調用安全任務就足夠了,可以降低系統成本和複雜性。

超可靠機器人

超可靠自動汽車的挑戰:

1.如何提高在惡劣環境下(例如處理碎屑,雜物和傳感器噪聲)的系統堅固性

2.機器學習技術,面對新穎的數據,很難推理出機器學習系統行為的正確性。

軟件

軟件安全挑戰:

對於自適應和機器學習系統,以支持V模型或其他傳統系統工程過程的方式來闡明系統要求可能是具有挑戰性的。(舉個例子:考慮基於一組訓練數據創建的行人分類器。 說該系統是安全的,因為其在驗證集上的準確性足夠高,這就引出了一個問題,即當面對現實世界的混亂情況時,該系統是否將按其實際需要工作)“ V”模型中,訓練集是我們最接近系統需求的集合,而驗證集是我們最接近測試計劃的集合。 但是,要知道訓練和驗證集足夠好並不是一件容易的事。 我們如何確定系統是否實際考慮了可能影響安全性的極端情況和微妙的行為交互?

此類系統的安全性最終取決於訓練和驗證數據收集的準確性,保證數據安全十分重要。驗證機器學習問題的一種潛在解決方案是分別並獨立定義“安全”操作的含義。 這套獨立的安全要求可以作為對自動駕駛汽車自主性的一組獨立監視的行為要求。

計算硬件

計算硬件挑戰:

1. 硬件挑戰在於創建具有安全故障行為的超低成本硬件。 這就需要創建一個組合的硬件/軟件體系結構,該體系結構將適當地採用冗餘。已有方法解決,但還可能需要更徹底的方法來確保足夠的冗餘性和容錯能力。

2. 一個更加微小但卻十分關鍵的挑戰是潛在故障檢測,重要的是要創建能夠在每個行駛週期之前進行自我測試且具有極高診斷覆蓋率的芯片。

測試

即使是基於非自主軟件的關鍵系統的安全,僅測試也是不足以的。全面部署任何對安全至關重要的汽車軟件,不僅需要測試。但徹底的測試是必不可少的。

有關測試的挑戰:

1.對自動系統進行嚴格的測試會遇到許多問題,因此,測試需要支持抽象的測試結果分析,而不是更傳統的技術(即將某些特定值輸入到軟件中,並期望從軟件中獲得特定,準確的結果、 計算)。

2.測試的另一個方面挑戰是故障注入和故障管理。

安全

除了對特定車輛的攻擊之外,安全措施還需要包括系統級攻擊和故障。至少,謹慎的做法是確保每臺獨立車輛均具有以下能力:在獲得不正確或惡意的外部信息時,能夠檢測出正在發生的攻擊,並在無法繼續全面運行時執行安全任務,面對襲擊。

人機交互

人機交互方面的挑戰:

1.自動駕駛要建立客戶信任,客戶信任並不是嚴格意義上的安全問題,但這對技術採用是至關重要的。

2.自動駕駛汽車將不得不與其他汽車的駕駛員互動。

3.混合交通情況需要處理,自動駕駛汽車與人類駕駛汽車混合出現。處理人的人類的異常行為(行為不良的行人、變幻莫測的小孩子等)

4.人類應該能夠容易地感知到自動化的意圖以及為什麼它表現出某些行為(車輛是因為看到一個孩子在人行橫道上停車,還是因為有些吹動的樹葉使它困惑而停車?)

法律

部署這些車輛的一個重要的早期問題將是法律責任問題。車輛數據日誌可能是有關不幸事件的主要信息來源。 但是,不能盲目信任來自發生故障的車輛的數據,因為這些數據可能不準確。一個關鍵的責任問題將是確定誰為正確的車輛操作負責。(乘車人、製造商、機械師、操作系統供應商等)

社會認同

獲取社會認同感無疑是個很難的過程,最初的期待是自動駕駛比人類駕駛更加安全,但是這是不現實的。我們將要解決的是,自動駕駛安全性標準是否應該是優於優秀的駕駛員,還是僅是典型的駕駛員,以及究竟如何衡量這種“典型”駕駛員。

許多不同領域需要一個協調、跨學科的方法來確保自動駕駛安全

自動駕駛安全性挑戰

總結

對於全自動駕駛汽車,必須有某種安全認證策略。該策略必須解決安全工程,硬件可靠性,軟件驗證,機器人技術,安全性,測試,人機交互,社會認可和可行的法律框架等跨學科問題。本文特別指出了將基於機器學習的系統驗證到自動駕駛車隊所需的超可靠級別所面臨的挑戰,以及這一挑戰如何與其他許多領域相關。文章使我們意識到我們面臨的是一項長期艱難的任務,該任務需要創建一種端到端的設計和驗證過程來解決所有這些安全問題,且這種方式在成本,風險和道德方面達到人們接受的標準。

致謝

本文由南京大學軟件學院2019級碩士郭安翻譯轉述。

感謝國家自然科學基金項目(重點項目)智能軟件系統的數據驅動測試方法與技術(61932012)資助


分享到:


相關文章: