因爲「歧視」和「偏見」,AI暫時還做不了人的主

關於AI歧視我們也聊了很多,比如相貌偏見、語言歧視等,但AI的歧視顯然不僅只在這一個淺顯的領域。在其相貌和語言歧視的背後,矗立的其實是AI對這個社會全方位的片面判斷。

那麼,AI的歧視問題也就不是一個簡單的算法問題了。今天我們就再聊一聊AI的偏見問題,以及面對它,我們究竟能做些什麼。

始作俑者的人類本身:AI歧視產生的根源

首先我們需要清楚的是,發生AI歧視這種事情的原因在哪裡。目前來看,大體上有兩個個方面。

1. 數據和算法的限制。

首先是數據的限制。AI對事物作出的判斷不是憑空或者隨機而得的,它必須要經過一些列的訓練學習才可以。那麼,如果要訓練它在某方面的能力,就要將相關領域的數據蒐集起來供其學習。在這一方面,如果數據訓練量不足,那麼就會造成AI學習的不完備,其也就可能作出錯誤的判斷。

因為“歧視”和“偏見”,AI暫時還做不了人的主

而數據限制的另一方面則來自數據本身。比如某個群體會有一些共性的特徵,那麼AI將會把這些大多數的共性特徵數據作為標籤來用。一旦對象不在這個群體特徵裡,或屬於這個群體的少數特徵,其就有可能採取否定的態度。

其次則是算法的限制。程序員在設置AI學習程序的時候,無法做到過濾到每一條消極的信息。因此,AI在經過大量的數據學習之後,其會自動匹配不同群體之間的關鍵詞,然後做出判斷。比如職業的男女分化問題。

事實上,目前我們面臨的所有AI的歧視問題基本上是圍繞著這兩個方面展開的。數據學習不夠多,或者數據學習夠多之後,其學習範圍超出了程序員設定的內容,然後開始進行自我學習和判斷。這就造成了歧視行為的發生。

2. 人類固有偏見的強化。

但AI的歧視問題的根源並不在於數據和算法。在一定程度上,AI的歧視實際上是人類偏見的一種顯現和強化。人類是善於進行言語上的剋制的,或者表現出在溝通交流中的表面客套。長此以往,人們似乎把隱藏自己對別人的偏見當成了一種有素質的美德。問題變成了你心裡歧視與否不重要,面上做得好,你就是一個好人。

在這方面,做慈善的被曝醜聞後對比尤其突出。

因為“歧視”和“偏見”,AI暫時還做不了人的主

而AI出現的意義之一就是打破了人們維持表面友好的自我欺騙的情況,它把那些被人們刻意隱藏的,並且似乎被隱藏得很好的東西重新抖摟了出來。這就是顯現,那麼為什麼說會得到強化呢?

首先,AI學習就是一個排除的過程,比如對圖像語義分割,它要找到眼球,就必須要先進行圖像的分割,否定其他不適眼球的東西。同理,要招到一個合適的員工,它也是重點去排除不合適的選項。否定的過程,就是一個強化的過程。

其次,是基於AI的特殊屬性。AI是有史以來第一個人造的、有自己的判斷能力的事物,當它出現一些違揹人類維持表面友好而設定的一些規則的時候,人們一方面感到驚異,另一方面則會由此而進一步看清自己。它毫不留情地折了人類的面子,自然換來了更大的關注。

算法的限制和對人類固有觀念的強化,大抵可以說明了AI歧視橫行的原因所在。

AI歧視不僅類別多,影響可能還很大

如果我們僅僅是被AI歧視了,並且知道它的歧視是算法和人類本身問題所致,那也就無需擔心。畢竟,歧視無處不在,心理足夠強大,任何歧視都夠不成火力傷害。論不要臉的自黑精神,似乎沒誰能比得過現代人。

但是,當AI不僅僅是歧視你,還要對你做出判斷,決定你的人生、工作、地位……的時候,你還能對它的歧視坐視不管嗎?

因為“歧視”和“偏見”,AI暫時還做不了人的主

比如現在非常流行一個概念,用AI來進行招聘。在理論上來講,它能夠通過學習既有的員工資料來篩選最符合公司需求的新人。對這些員工進行標籤分類是學習的一環,能力強、口才好、實習經驗豐富等可能會被篩選出來,但是,萬一在這些樣本中,AI找到了其他具有高度相同但和招聘又無關的標籤了呢?

比如這些人可能男生多一點,它可能會認為女生不適合這項工作;如果城市戶口的人多一點,來自農村的就有可能被篩掉;如果23歲以前的人多一點的話,那23歲以後的人就可能被認為不適合……

你看,僅僅就是這幾個方面,就已經涉及到性別歧視、地域歧視、年齡歧視了。雖然人們開發AI進行招聘是為了避免面試官會憑主觀印象決定去留,但太過於客觀的AI招聘同樣也會引發一些值得考慮的問題。

再比如把AI佈置在警務工作當中。最近一段時間提到最多的就是利用AI幫助識別甚至是預測罪犯。比如去年上海交大的一篇論文中提出,可以通過人的樣貌進行分析,來判斷此人是否有犯罪的傾向。簡單來說,就是看你是不是長了一張“犯人臉”。而美國的警察也在最近試圖部署一套警務系統,來預測犯罪發生的人員相關、地理區域等,然後來針對性加強監控。英國來採用過類似的方法來預防犯罪。

因為“歧視”和“偏見”,AI暫時還做不了人的主

這其中自然存在著嚴重的問題。看“人臉”就能辨罪犯?雖然相貌歧視確實一直存在,但基本上都是基於五官的缺陷。現在居然升級了。美國的預測犯罪往往會把黑人和黑人集中區域當做重點預測對象,這是很難令人接受的。尤其是美國這樣一個對黑人歧視非常忌諱的國家,AI即便不是個人,這一舉動也會招致人們的討厭。英國就更不用說了,他們的這個監視系統運行了一段時間之後,窮人被特別針對了,因此最終不得不緊急下線。

從這幾個案例當中,我們發現,AI還存在著相貌歧視、種族歧視、貧富歧視。除此之外,AI的歧視還深度存在於各行各業當中,甚至未來的一天我們可能真的會像《黑鏡》當中一樣戴一個隱形眼鏡,然後就可以看到眼鏡對面來人的安全度識別。高安全度也不一定真的安全,很有可能是刷出來的呢?

也就是說,AI的歧視是一個綜合性的東西。問題又來了:難道因此我們就要將AI廢棄嗎?我們人類就那麼玻璃心嗎?

當然,棄用AI不現實,這是一個因噎廢食的行為。它畢竟還在深刻地改變著我們的這個社會。但是,隨著AI的大規模應用,努力減輕甚至是消除AI的偏見,也已經顯得迫在眉睫。

怎能坐視不管:AI歧視的解決之道

谷歌的一款數據庫被人們發現有存在著明顯的性別歧視。比如一個簡單的問答,巴黎:法國,那麼東京:X,系統就會給出X=日本。如果是“父親:醫生”,其則將會對應“母親:護士”;“男人:程序員”,“女人:家庭主婦”,諸如此類。

研究者們創建了一種“硬性糾錯”的方法。簡單來講,就是把系統判斷出的對應關係放到一個論壇平臺上去發佈並詢問是否合適。如果有一半的人認為不合適,那麼這個類比就不恰當。這種方式進行了一段時間之後,對AI進行單詞搭配的改善效果是非常顯著的。

這個方法雖然有效,但是明顯看出它只能適用於一些數據範圍較小的方面。比如某一家公司的招聘,可以在招聘之前對AI進行訓練,然後找出問題,再用這種方法進行硬性糾錯。但是如果要用它來解決AI所有的問題,卻有點不現實。

哥倫比亞大學的研究者們則開發出了另外一種方式。深度學習研究的進步是AI復活的一個重要因素,但是AI的黑箱問題仍然沒有解決。因此,這些研究者們就試圖用打開黑箱的方式去弄明白為什麼AI會做出一些錯誤的決定。他們開發出了一個能在神經網絡中通過欺騙系統從而使其暴露自身缺陷的軟件,名叫“DeepX plore”。這個軟件能夠激活系統中幾乎百分之百的神經元,從而讓整個神經網絡去掃描錯誤。

因為“歧視”和“偏見”,AI暫時還做不了人的主

也有其他的人建議從編程上去解決問題。但是從根本上來說,人類應該把AI的歧視當做一面鏡子,仔細審視自己在社會活動中種下的禍根。由此,不斷減少自己實際意義上的歧視和偏見。只有學習的內容消失了,AI才可能避免產生歧視的問題。

但是我們仍然要注意的一個問題是,用“偏見”和“歧視”去概括AI所有的“區別對待”是不合適的。人類發展到現在,不同職業對人有不同的要求,男人耕田女人織布反映的其實是歷史經過長期發展後的自然分工。那麼,在處理AI歧視問題的時候就不是一個簡單的算法糾正了,它還涉及到社會學、經濟學等各個方面的問題。

這樣來看,解決AI的歧視和偏見,我們可能仍然有很長的路要走。目前能做的就是,生殺大權這件事兒,還是交給人類自己吧。


分享到:


相關文章: