倫理問題成人工智慧最艱巨挑戰

在1942年的短篇小說中,科幻作家伊薩克·阿西莫夫提出了機器人三定律——工程安全措施和內置的道德準則,以保證機器人會友善對待人類並使人們免於機器末日。這些定律一是機器人不能傷害人類,或無所作為而導致人類受傷害;二是機器人必須聽從命令,除非這些命令違背第一定律;三是機器人必須保護自身,但這些保護不能與第一和第二定律相違背。

不過,今年5月,在美國布魯金斯學會的一個無人駕駛汽車研討會上,專家討論了在危急時刻無人駕駛汽車應當怎樣做。如果汽車為了保護自己的乘客而急剎車,造成後方車輛追尾應如何?或當車輛為了躲避兒童而急轉,撞到旁邊其他人怎麼辦?隨著AI技術的不斷髮展,類似的倫理道德困境將很快影響到各類人工智能的發展,有一些問題甚至是目前就已經面臨的。針對人工智能已經產生或可能產生的更多倫理問題,各國在其戰略中都有所提及,除此之外,從事人工智能技術和研究的企業、組織等也採取了多種應對方式。

倫理問題成人工智能最艱鉅挑戰

目前,AI背後的倫理問題主要顯現於以下四個方面:

算法歧視

算法本身是一種數學表達,相對來說比較客觀,不像人類那樣容易產生偏見、情緒,受外部因素影響。但是,近年來,算法也在產生一些類似的歧視問題。如,美國一些法院使用的一個犯罪風險評估算法COMPAS被證明對黑人造成了系統性歧視。如果你是一個黑人,一旦你犯了罪,就更有可能被該系統錯誤地標記為具有高犯罪風險,從而被法官判處監禁,或者判處更長的刑期,即使你本應得到緩刑。此外,一些圖像識別軟件之前還將黑人錯誤地標記為“黑猩猩”或者“猿猴”;去年3月,微軟在Twitter上上線的聊天機器人Tay在與網民互動過程中,成為了一個集性別歧視、種族歧視等於一身的“不良少女”。隨著算法決策越來越多,類似的歧視也會越來越多。

一些推薦算法決策可能無傷大雅,但是如果將算法應用在犯罪評估、信用貸款、僱傭評估等關切人身利益的場合,因為它是規模化運作的,並不是僅僅針對某一個人,可能影響具有類似情況的一群人或者種族的利益,所以規模是很大的。而且,算法決策的一次小的失誤或者歧視,會在後續的決策中得到增強,可能就成了連鎖效應,這次倒黴了,後面很多次都會跟著倒黴。此外,深度學習是一個典型的“黑箱”算法,連設計者可能都不知道算法如何決策,要在系統中發現有沒有存在歧視和歧視根源,在技術上可能是比較困難的。

隱私

很多AI系統,包括深度學習,都是大數據學習,需要大量的數據來訓練學習算法,數據已經成了AI時代的新石油,但是這帶來了新的隱私憂慮。一方面,AI對數據包括敏感數據的大規模收集、使用,可能威脅隱私,尤其是在深度學習過程中使用大量的敏感數據,如醫療健康數據,這些數據可能會在後續過程中被洩露出去,對個人的隱私產生影響。如何在深度學習過程中保護個人隱私是現在很重要的問題。

另一方面,用戶畫像、自動化決策的廣泛應用也可能給個人權益產生不利影響。此外,考慮到各種服務之間的大量交易數據,數據流動越來越頻繁,數據成為新的流通物,可能削弱個人對其個人數據的控制和管理。當然,其實現在已經有一些可以利用的工具來在AI時代加強隱私保護,諸如經規劃的隱私、默認的隱私、個人數據管理工具、匿名化、假名化、加密、差別化隱私等等都是在不斷髮展和完善的一些標準,值得在深度學習和AI產品設計中提倡。

責任與安全

一些名人如霍金、施密特等之前都強調要警惕強人工智能或者超人工智能可能威脅人類生存。但AI安全,其實更多地指的是智能機器人運行過程中的安全性、可控性,包括行為安全和人類控制。從阿西莫夫提出的機器人三定律到2017年阿西洛馬會議提出的23條人工智能原則,AI安全始終是人們關注的一個重點。此外,安全往往與責任相伴。現在無人駕駛汽車也會發生車禍,智能機器人造成人身、財產損害,誰來承擔責任?如果按照現有的法律責任規則,因為系統自主性很強,它的開發者是不能預測的,包括黑箱的存在,很難解釋事故的原因,未來可能會產生責任鴻溝。

機器人權利

即如何界定AI的人道主義待遇。隨著自主智能機器人越來越強大,它們在人類社會到底應該扮演什麼樣的角色呢?是不是可以在某些方面獲得像人一樣的待遇,也就是說,享有一定的權利呢?我們可以虐待、折磨或者殺死機器人嗎?自主智能機器人到底在法律上是什麼?自然人?法人?動物?物?歐盟已經在考慮要不要賦予智能機器人“電子人”的法律人格,具有權利義務並對其行為負責。


分享到:


相關文章: