「布魯金斯」半數美國人支持AI軍事化

「布鲁金斯」半数美国人支持AI军事化

布魯金斯學會於2018年8月19日至21日期間,對2000名成人互聯網用戶進行了美國全國民意在線調查,調查旨在回答:美國人在戰爭中是否應該使用人工智能技術這一問題,尤其是在其他國家已經在發展軍事人工之智能的假設下美國人對這一問題的反應。這次調查數據及結果由學術plus編譯,僅供參考。文章版權歸原作者所有,觀點不代表本機構立場。

「布鲁金斯」半数美国人支持AI军事化

發佈日期:2018年8月29日

編譯:學術plus

原載:https://www.brookings.edu

態度鮮明的調查結果

據布魯金斯學會研究人員進行的一項調查顯示,30%的美國互聯網用戶認為人工智能技術應該用於戰爭,39%持反對意見,32%的人不確定。但是接近半數的美國人(45%)認為,如果對手已經在開發此類武器,美國也應該這樣做,25%反對,30%的人不確定。

不同的性別,年齡和地理差異,導致了人們對這一問題認識的區別。如果對手開發這類武器,男性(51%)比女性(39%)更支持AI戰爭。與18至34歲的老年人相比,老年人(53%)更支持使用AI作戰。與生活在西部的人(41%)相比,生活在東北地區(51%)的人最有可能支持這些武器。

「布鲁金斯」半数美国人支持AI军事化

AI應該基於人類價值觀

三分之二(62%)的人認為人工智能應該以人的價值觀為指導,而21%認為不用。男性(64%)比女性(60%)更認同AI應該遵循人類價值觀。

誰來決定部署?

該調查詢問誰應該決定如何設計和部署AI系統。19%認為一般公眾有權利參與決定,其次是11%投票給私人公司領導者,9%的人認為立法者應該決定,7%的人認為應由軟件編碼員決定,4%的人支持法官來裁決。但更重要的是,被調查者中有半數不知道應該由誰做出決定。

「布鲁金斯」半数美国人支持AI军事化

但在其中,男性(14%)比女性(8%)更希望私人公司領導者做出人工智能決策。此外,來自東北地區(14%)的人比中西部地區(9%)表示他們更傾向私人公司領導人。

「布鲁金斯」半数美国人支持AI军事化

道德保障

調查中列出了多種AI道德保障方案。每種方案都各具優勢和特色,但最受歡迎的是:人工智能道德準則(67%),AI審核委員會(67%),在受到傷害的情況下進行AI調解(66%),人工智能培訓計劃(65%),AI審計跟蹤(62%)和招聘倫理學家(54%)。

「布鲁金斯」半数美国人支持AI军事化

(全文完)


分享到:


相關文章: