人類的噩夢要來了!MIT媒體實驗室創造出第一個變態AI!

人工智能(AI)可以從大量的數據資料中去模仿人類行為,今年的谷歌開發者大會上,我們看到Google Assistant新增的Duplex技術,除了可以代替人類打電話訂位,更能在面對突發狀況時,代替人類做決定,引發人們在道德上的許多討論。

我們常說有問題的不是算法,而是餵養給算法的訓練資料,最近在麻省理工學院媒體實驗室(The MIT Media Lab)的一項研究中,研究人員用大量不安的素材訓練一個叫諾曼(Norman)的人工智能,成功訓練出帶有偏見的模型,誕生了第一個如同患有神經病的AI

人類的噩夢要來了!MIT媒體實驗室創造出第一個變態AI!

用大量不安全的資料進行訓練,影響AI行為

最近谷歌因為與美國國防部簽約,試圖將AI科技用於軍事用途引發爭議,雖然本週谷歌已宣佈明年三月合約期滿後,將不再與國防部續約,爭議問題暫時畫下休止符,但卻也讓大眾重新思考AI應用的善與惡。

麻省理工學院媒體實驗室(The MIT Media Lab)最近就做了一項實驗,他們創造出一個叫諾曼(Norman)的人工智能,這個名字取自於有「懸疑電影大師」之稱的亞佛烈德·希區考克,一部著名電影《驚魂記》中的角色諾曼·貝茨( Norman Bates),諾曼是一個圖像、文本描述的深度學習方法,白話來說,是當諾曼看到一張圖片後,就會自動產生一段文字,來描述他認為在圖片中看到了甚麼。

研究團隊利用論壇Reddit上充滿死亡、屍體等不安內容的子論壇(subreddit)相關數據,來餵養給諾曼,接著進行了由瑞士精神醫生赫曼·羅夏克(Hermann Rorschach),所編制的墨跡測驗(Rorschach Inkblots)。

墨跡測驗是一項人格測驗,測驗由10張有墨漬的卡片組成,其中5張是白底黑墨水、2張是白底及黑色或紅色的墨水,另外3張則是彩色墨漬卡片,受試者要回答他們最初認為卡片看起來像什麼,以及後來覺得像什麼,心理學家會根據答案及統計數據判斷受試者的性格,研究結果顯示,研究團隊訓練出了

全世界第一個精神變態人工智能(World's first psychopath AI)

以下,是研究團隊進行墨跡測驗(Rorschach Inkblots)的部分結果,分別描述一般正常AI看到圖片的描述,以及諾曼再接受不安內容訓練後,所回答的結果。

人類的噩夢要來了!MIT媒體實驗室創造出第一個變態AI!

人類的噩夢要來了!MIT媒體實驗室創造出第一個變態AI!

人類的噩夢要來了!MIT媒體實驗室創造出第一個變態AI!

帶有偏見的AI,容易愚弄社會輿論

而從這次諾曼的AI實驗中可以發現,用帶有偏見的資料,就能訓練出帶有偏見的AI模型,如果加以操弄,就可能在特定的議題上成功帶風向,象是性別歧視、種族歧視、 廢死、LGBT議題等,都有可能因為算法的偏見,加速傳播或放大某些議題的極端立場或偏見。

麻省理工助理教授Iyad Rahwan就表示:諾曼反映出非常黑暗的事實,說明人工智能可以學習這個世界中的恐怖現實。算法本身並沒有錯,有問題的是帶有偏差的訓練資料,有偏見的資料會產生有偏見的AI,甚至預測出來的結果也會是帶有偏見的,而資料、AI之間的微妙關係,許多AI專家就以Garbage in, Garbage out(垃圾進,垃圾出)來形容,概念就像我們常說的,你跟怎樣的人當朋友,就會被影響成為一個怎樣的人。


分享到:


相關文章: