09.20 認識一下,這是精神變態的AI

近幾年,人工智能(AI)不斷被玩出新花樣,例如當起法官的AI,搶了福爾摩斯和醫生飯碗的AI……AI已經滲透進人類生活的方方面面,以至於現在許多職業都擔心將來被AI取代。

然而,禍兮福所倚,AI在給人們帶來便利的同時,也可能引發災難。美國麻省理工學院媒體實驗室新開發出的“精神變態”AI諾曼,引出人工智能領域急需面對的難題——AI很可能會走上邪路。

认识一下,这是精神变态的AI

精神變態的AI諾曼

諾曼是一個能夠理解圖片並用文字表達的智能算法,與阿爾弗雷德•希區柯克執導的恐怖電影《驚魂記》中男主人公諾曼•貝茨同名,也像這部電影的同名主人公一樣,AI諾曼的“內心”是陰暗的。科學家讓諾曼和其他AI一同參加羅夏墨跡測驗(通過向被試者呈現標準化的由墨漬偶然形成的模樣,並讓其說出由此聯想到的東西,進而分析被試者人格),諾曼給出了與其他AI完全不一樣的答案。例如圖1,其他AI聯想到一群鳥兒坐在樹枝上的美好畫面,而諾曼卻給出一名男子被電擊致死的驚人答案;再如圖2,別的AI看著像花瓶與花的特寫,諾曼卻聯想到一名男子被槍殺的畫面。測驗的圖片還有很多,但是諾曼無一例外都從中看到了血液、死亡和事物的毀滅。

“內心”陰暗的諾曼令人感到不安,有些人甚至對科學家為何創造這樣的AI提出質疑。當然,創造諾曼的目的不是為了威嚇人類,而是要讓大家重視一件事,用於訓練AI的數據會對其行為造成重大影響,變態的數據也就導致了精神變態的諾曼。諾曼的開發團隊給諾曼輸入的數據,大多是從美國一家社交新聞網站上挑選的,內容大多與死亡、屍體等有關。而反觀與諾曼一同參與羅夏墨跡測驗的AI,此前它接受的都是與動物、人類等相關的正面數據。

諾曼開發團隊成員之一的伊亞德教授指出,諾曼如此陰暗的“想法”說明機器人學習正處於一個嚴峻的局面,數據選擇比算法更重要,我們用來訓練AI的數據會在它的“思想”和行為方式上體現出來。

认识一下,这是精神变态的AI

有偏見的AI

由於諾曼接收的數據都與死亡和破壞有關,所以它的認知裡充滿了陰暗。如果生活中的AI被輸入了帶有偏見的數據,那麼它也會變得有偏見。

2016年,微軟公司在社交媒體上發佈聊天機器人Tay,受種族主義者和一些搬弄是非言論的影響,機器人Tay捍衛白人至上主義,倡導種族屠殺並表現出對希特勒的喜愛。2017年5月的一份報道指出,美國法院用於風險評估的AI生成計算機程序對黑人囚犯有偏見,認為黑人罪犯的再犯率是白人的兩倍。美國使用的預測性警務算法也存在類似的偏見。此外,還有研究表明,接收谷歌資訊的AI擁有了性別歧視的觀念,例如,當被問到“男人是電腦程序員,就像女人是什麼職業”這個問題時,AI給出的答案是“家庭主婦”。

如此看來,諾曼似乎不是唯一一個容易受到不良信息影響的AI,而種族主義同樣存在於人工智能的“思想”中。因為AI被輸入一些有偏見的信息和歷史犯罪數據,才會導致這樣的結果。

發現問題,迎難而上

英國巴斯大學計算機科學系的喬安娜•布萊森教授表示,機器對事物的看法往往會和其製造者的看法保持一致。在我們懷疑AI的可靠性和安全性之前,首先要了解它們的工作機制。我們用教育人類的方式教育機器人,當製造者用自己所知的信息去訓練AI時,也必然會給它輸入一些較為片面的看法或觀點,那麼機器人也可能像人類一樣會犯錯、有偏見。

AI會出現性別歧視可能是因為其編程人員主要是來自加州的白人單身漢,其中有些人帶有性別歧視。這個問題或許可以通過提高員工多樣性適當解決。

布萊森教授還指出,沒有任何數學方法可以創造一個能實現完全公平的AI,偏見在學習過程中也不算壞事,這意味著AI正在學習事物發展的規律。真正令人擔心的是,有些程序員會故意給機器輸入帶有偏見的信息,教唆它變壞。為了避免這種情況,布萊森教授認為應提高AI創建過程的監督力度和透明度。

諾曼開發團隊的伊亞德教授則指出,諾曼的情況確實說明了程序員急需想辦法解決數據缺陷的問題,AI仍有很多東西需要學習和改進,但是管理機器人學習的重任不應只落在程序員肩上。隨著機器人逐漸滲透進人們生活的方方面面,人類將能更好的發現並消除機器人輸入數據中的偏見。其實,某些人類行為研究方法同樣適用於機器人,就像對人類採用心理干預手段一樣,科學家開始對正在開發的AI系統進行定期審核。在我們不斷髮現問題的同時,也代表著我們離完善AI更近一步。


分享到:


相關文章: