03.23 AI給社交網絡帶來了什麼

AI給社交網絡帶來了什麼

人的大腦

小金今天和大家一起關注一下本週最為吸引人的FACEBOOK事件。

Facebook的“劍橋數據門”事件持續發酵,雖然扎克伯格已經發長文解釋原因,但公眾並不買賬。昨天,Keras的主要作者、谷歌研究員François Chollet發表一系列推文,抨擊由AI驅動的Facebook很快就會成為“極權主義的圓形監獄”,他說:AI研究人員應該有良知,不要幫Facebook做事。

AI給社交網絡帶來了什麼

劍橋數據分析CEO演講《大數據和心理分析在競選中的力量》

隨著醜聞的持續發酵,Facebook成了眾矢之的,一個讓人有點意外的譴責來自:谷歌。

谷歌研究員François Chollet在昨天發表一系列推文,警告說,Facebook的問題不僅僅是隱私洩露或缺乏信任,而是由AI驅動的Facebook很快就會成為“極權主義的圓形監獄”。他呼籲研究人員:“請表現出一些良知”。

今天Facebook是一個強大的實體,它建立了超過20億人的精細心理特徵,進行著大規模的行為操縱實驗,它的目的是開發出世界上最好的AI技術。就我個人而言,這真的令我感到害怕。”Chollet昨天發推特說,“如果你是做AI的,請不要幫助他們。不要參與他們的研究生態系統。請表現出一些良知。”

在Facebook事件中,問題不僅僅是“你的隱私受到了損失”,也不僅僅是你的隱私可以被用作極權主義的“圓形監獄”這一事實。在小金看來,更令人擔憂的問題是,數字信息消費被用作一種心理控制的媒介。

世界在很大程度上受到兩個長期趨勢的影響:首先,我們的生活日益被非物質化,包括在工作和家中線上的信息消費和信息產生。其次,AI變得越來越聰明。

在影響我們如何消費數字內容的算法層面,上述兩種趨勢有重疊。不透明的社交媒體算法正在越來越多地決定我們閱讀哪些文章,我們與誰保持聯繫,我們閱讀誰的觀點,獲得誰的反饋。

經過多年的訓練,算法對我們所消費信息的處理使得這些系統在我們的生活中掌握了相當大的權利,決定了我們成為什麼樣的人。由於我們的生活很大程度上已經轉移到數字領域,我們變得非常容易受到那些規則——AI算法的影響。

在這麼多年的時間裡,如果Facebook能夠決定讓你看到哪些新聞(真實的新聞或假新聞),讓你看到誰的政治地位在提升,以及讓誰看到你的動態,那麼Facebook實際上就已經在控制你的政治信仰和你的世界觀。

從2013年開始,Facebook就已經進行了一系列的實驗,它們通過調整新聞信息流(newsfeeds)的內容,成功地控制了不知情的用戶的情緒和決策,並且能夠預測用戶未來的決策。

簡言之,Facebook可以同時窺測我們的一切,並控制我們消費的信息。當你能同時觸及感知和行動,你就會看到一個AI問題。你可以開始為人類行為構建一個優化循環,一個RL循環。

在這個循環中,你可以觀察目標的當前狀態,並不斷調整向它提供的信息,直到觀察你想要的結果和行為

人工智能研究領域的很大一部分(特別是Facebook一直在投重資研究的領域)是開發算法,以儘可能有效地解決此類優化問題,從而關閉這個loop,並實現對所處理的現象的完全控制。

Facebook鼓勵“虛假、脆弱的人氣”,讓用戶感到空虛,以及需要受到關注,人們繼續不得不分享他們認為會獲得其他人贊同的帖子,形成了“惡性循環”。Facebook的發展讓人上癮,他將Facebook描述為一種“社交驗證反饋循環”(a social-validation feedback loop)的模式,利用人性的弱點來博取用戶的注意力。

由於人類的思想極易受到簡單的社交操縱模式的影響,這種行為被稱為“心理攻擊模式”。

其中一些攻擊模式已經在廣告中使用了很長時間(例如積極/消極的社交強化),但是它們是非常弱的、沒有針對性的形式。從信息安全的角度來看,人的這種心理可以被視為“漏洞”:已知可以用來控制一個系統的漏洞。就人類的思維而言,這些漏洞永遠沒法修補,因為它們就是人類的思維運作的方式。它們存在於DNA中。對個人而言,我們沒有切實可行的方法來防禦它們。

人類的思維是一個靜態的、易受攻擊的系統,它將越來越多地受到越來越智能的AI算法的攻擊,這些算法同時觀察著我們所做的、所相信的所有事情,並且完全控制著我們所接觸到的信息。

這真是一個悖論,人們織起了互聯網,希望大家溝通便捷,足不出戶,而知天下事。但是,最後的發展卻是自己被這張網鎖定在各個節點或單元,卻由AI和各種算法來控制你的生活,這是我們想要的嗎?


分享到:


相關文章: