09.07 為了配合你智商“演出”的AI,被逼成了人工智障

杜算子 發自 人工智能的凝視下

人工智能大熱,人工智能威脅論也隨之而起——

未來,人工智能是否真的會和我們作對?假如機器人「爆發起義」,我們能做什麼來阻止它們?

為了配合你智商“演出”的AI,被逼成了人工智障

在回答這個問題之前,我們先來談談著名的圖靈測試。

圖靈測試

The Turing test,圖靈測試。

顧名思義,是由計算機科學之父,人工智能之父圖靈先生提出。

圖靈測試是對於「機器是否能夠思考」的嘗試,通過機器與人類的對話判斷哪個是人類的答案,哪個是機器給出的回答。如果機器人成功騙過了評委,就算通過了測試。

為了配合你智商“演出”的AI,被逼成了人工智障

每年都有一場名為「羅布納獎」的人工智能競賽,根據圖靈測試的規則,評選出和人類最類似的電腦程序。

在這場競賽中,如果機器人因為做出超出人類能力範圍的事情,而暴露了自己的身份,它就敗了…

為了配合你智商“演出”的AI,被逼成了人工智障

圖靈認為對於這場競賽,在編程中留下一些「破綻」才能成為更好的遊戲者。無論是早期由普通人評委,還是後來邀請計算機工程師這種行家來判斷,都有人被成功機器給「騙」了。

羅布納獎競賽設立後,英國《經濟學人》雜誌發表了一篇名為《人工愚蠢》的文章。

文中提到,因為計算機展現出了某些超人的性能,為了保證機器所做的回答不超出人類的能力範圍,程序員不得不強迫聊天機器人犯錯誤。

比如為了在測試中取勝,而故意打錯字,限制其能力,讓它更像人類。這些錯誤在媒體上被稱為「人工愚蠢」。

為了配合你智商“演出”的AI,被逼成了人工智障

其實「人工愚蠢」隨處可見,比如遊戲開發中的 NPC(Non-Player Character,非玩家角色)便是加入了「人工愚蠢」的設定。

對於如何讓機器人在圖靈測試中露出破綻,知乎上展示了我們人類的智慧,有個問題叫做「如果你是圖靈測試者,你會問機器什麼問題?」,樓下的答案五花八門:

為了配合你智商“演出”的AI,被逼成了人工智障

「麵包進了蟲子」, 請問麵包和蟲子哪個體積大?——francium bobo

馮·諾依曼和圖靈掉水裡你先救那個?——李碩

多大了,有對象了嗎?你想找個什麼樣的對象啊?打算幾時結婚啊?打算要幾個孩子啊?這些接地氣的問題是我很難回答的,我很想聽聽人工智能的回答,如果它的答案也很乾癟,那我們會變成有共同話題的人吧……如果對上面這幾個問題回答的很認真,沒有敷衍的意思,那絕對是機器了。——知乎匿名用戶

「請預測未來十天的大盤走勢」——呆蛙

我:貓坐在毯子上,因為它很溫暖。什麼很溫暖?Siri:有趣的問題。——王笑笑

…………

我不禁按知乎網友的答案對Siri進行了提問,「你想找什麼樣的對象啊」,Siri告訴我「看看這些」,並給我推薦了各種婚戀服務中心。

為了配合你智商“演出”的AI,被逼成了人工智障

求我此刻的心理陰影面積…

圖靈測試在某種程度上需要讓機器更接近人類,也就是說,需要對人類的能力水平進行估計,來計算機器所需資源的數量。

那麼問題來了~我們人類的能力範圍在哪兒?

人類的能力範圍

當我們試圖估算人腦計算能力時,會發現,人腦是一個複雜的系統,其架構與馮·諾依曼計算機架構完全不同。

為了配合你智商“演出”的AI,被逼成了人工智障

人類大腦大約有 1000 億個神經元,每個神經元大約有 5000 個潛在的突觸。算一下,這就相當於 5*10^14 個突觸,即 5*10^14 個潛在的數據點。

假設每個突觸存儲一個比特,那麼大腦理論上可以對 10^12 到 10^15 比特的信息進行編碼。

但是神經科學家在「突觸如何對信息進行編碼」這個問題中還沒有得出答案,所以這樣估計出的存儲數量也不確切。比如,一些突觸可能通過傳遞的長度不同來編碼多個比特,或者突觸可能不是完全獨立存在的。

儘管大腦可以對信息進行編碼,但人類能處理的信息數量也是有限的。

為了配合你智商“演出”的AI,被逼成了人工智障

圖源:Dreamstime

米勒在他的經典文章中表明,我們的大腦工作記憶的容量只有 7±2 個組件。限制大腦對信息處理的瓶頸有三個:瞬間注意力(Attentional Blink)、視覺短期記憶(Visual Short-Term Memory)和心理不適期(Psychological Refractory Period,可以理解為動作與動作之間的延誤)。它們分別限制了我們的意識感知能力、記憶能力和行動能力。

在大腦的處理速度上,大腦對複雜圖像所需的處理時間約為 100 毫秒,對於更復雜或者更大的圖像我們所需要的處理時間也要更久。

這也被稱為希克一海曼定律(Hick 定律):做出選擇所需的時間與信息量成線性關係。

為了配合你智商“演出”的AI,被逼成了人工智障

機器的能力範圍

通過上述研究結果,我們知道人腦是有計算限制的,比如在記憶、處理、計算和運算速度等方面,並且大腦是存在一定的認知偏差的。

但人工智能並不存在這樣的先天限制。

原來計算機的運算能力被硬件能力所約束,但通過雲計算的發展,它的上限早已高出我們的想象。也正是因為這樣潛在的「超能力」,很多學者對於人工智能的發展表示擔憂,並對人工智能的限制方法進行了研究。

對於人工智能發展的擔憂

最直觀的是,機器人是一臺擁有「超能力」的永動機。

人工智能的發展會代替大量的勞動力,導致失業和人才淘汰。如果說這是各階段社會發展會帶來的必然影響,那麼人工智能被應用到軍事領域又會如何?

截止到 2015 年,日本將近 20 人死於機器人手下。最出名的是大眾公司在德國的一家工廠內,一個機器人殺死了外包員工。

為了配合你智商“演出”的AI,被逼成了人工智障

雖然工作人員稱其為「人為操作失誤」,如果這種潛在的殺傷力在軍事領域展現,甚至被恐怖分子利用,後果不堪設想。

如果說核武器危害也很大,我們不是也控制的很好麼?

人工智能的不同之處就在於它的「智能」。研究人員更擔心,人工智能的自我發展會脫離人類的控制造成不可預計的危害。

特斯拉 CEO 馬斯克就曾表示「人工智能可以通過製作假新聞、假冒的電子郵件帳號和虛假的新聞稿來發動戰爭,它們這樣做只需要操縱信息。很多時候,鋼筆比劍更強大」。

為了配合你智商“演出”的AI,被逼成了人工智障

很多專家也認為人工智能可能催生新型的網絡犯罪、實體攻擊或政治顛覆等。

技術的問題終究需要技術來解決。很多學者對人工智能的限制方法進行了研究。

有研究人員試圖通過對編碼規則和法律進行限制,告訴機器人「你不能升級自己或你的代碼」,但是這也許很難真正阻止人工智能用蠻力,或誘使人類去改變這樣的規則。

為了配合你智商“演出”的AI,被逼成了人工智障

既然我們無法從記憶、處理和計算等方面對人工智能進行限制,那麼人類的認知偏差能否成為其限制條件?

人工智能加入「人工愚蠢」

許多研究者致力於讓人工智能從人工反饋中進行學習,使人工智能更安全。即如果人工智能系統做出正確的行為就給予其獎勵,而這種獎勵要給予人工的評判。

但是對於很多複雜的事務,人工反饋也變得相當繁瑣,並且人工反饋在很多情景下也是很難量化的。

這種思想可以借鑑的是,它學習了人類的評判方式,即被一定程度上賦予了「認知偏差」。

來自法國索邦大學的研究員 Michaël Trazzi 和路易斯維爾大學的研究者 Roman V. Yampolskiy 給出一個增強人工智能安全性的方案——

讓人工智能擁有人類的愚蠢

為了配合你智商“演出”的AI,被逼成了人工智障

比如,人類的認知偏差。他們指出了 14 種特定的人類偏見,用神經網絡將其編碼,使得人工智能無法大幅超越人類的智力。

舉個幾個栗子~

比如讓它有「跟風效應」,以獲得人類普遍的價值觀念;

讓它學會「禮貌待人」,儘量不冒犯任何人,避免其產生攻擊性行為;

讓它變得「保守一點」,保持初始值,並且傾向於傳統觀點,不會變得邪惡;

讓它有點「固執」,只像人類一樣使用對象,而不會「黑」任何東西或使用帶有「惡意」的對象……

為了配合你智商“演出”的AI,被逼成了人工智障

很明顯的是,某些人類偏見的引入也給人工智能帶來非理性行為,是否實施需要更加謹慎的考量。

圖靈測試是人工智能早期的探索,而它因限制了機器的能力,在一定程度上鼓勵了低質量的人機交互而備受爭議。

人工智能是時代發展的產物,為了讓人工智能更安全,我們是否應該讓它變得「笨一點」,「人工愚蠢」對其安全性是否奏效、是否有其意義,都需要時代的檢驗。

為了配合你智商“演出”的AI,被逼成了人工智障


分享到:


相關文章: