AI 世界裡的性別偏見,是人類自身的一面鏡子

美國勞工局的數據顯示,雖然女性在勞動力市場中佔了 59% 的比例,但在科技界往往只有 20-30% 的女性員工。

在與程序開發相關的工作中,網站開發是女性比例最高的職業,但也只有不到 40%。


據估計,截至 2018 年,僅僅在美國就有 140 萬個與計算機相關的就業機會,而女性只會獲得這其中 29% 的工作。


許多學者曾嘗試從不同角度來解釋這一現象,例如可能是根深蒂固的 “極客即宅男” 等偏見使得女孩子們不願意接觸計算機,也可能是男生從小更容易被教育要去冒險,而計算機恰恰是一個需要創新的學科等等。


AI 世界裡的性別偏見,是人類自身的一面鏡子


值得注意的是,並沒有任何科學證據表明女性與男性在計算機相關領域的天賦和能力有所不同。


而在人工智能領域,雖然很多人認為 AI 系統冷靜、客觀、理性、有邏輯,看起來是中性的,但事實上由於它是人類製造的,AI 的世界裡已經出現了與我們相同的偏見,包括性別偏見。


特別是在女性從業人員佔比較小的前提下,人工智能領域潛在的偏見,就更有被重視的必要。


AI 繼承了人類的偏見


根據《哈佛商業評論》的報道,有很多 AI 出現了人類性別偏見的現象。


例如,亞馬遜的 Alexa 和蘋果的 Siri 等常見 AI 系統的核心 — 自然語言處理(NLP)就存在性別偏見,AI 在詞嵌入上的性別偏見,就像單詞聯想遊戲一樣,這些系統通常將 “男人” 與 “醫生” 相關聯,將 “女人” 與 “護士” 相關聯。顯然,這種關聯詞無疑體現的都是落伍的觀念,並不能反映現代社會,或者至少不能反映出我們希望的現代社會。


AI 世界裡的性別偏見,是人類自身的一面鏡子


人工智能算法本質上是從人類的歷史行為與決策中進行學習,而人工智能中的這種關聯概念,無疑是對人類社會性別偏見的繼承。人工智能的性別偏見不僅反映了社會中存在的性別陳規定型與偏見,而且在設計與營銷決策的過程中,人工智能還會進一步放大這些偏見。


2018 年,亞馬遜被迫關閉了一個用於篩選申請人簡歷的人工智能招聘工具,其原因是這款工具被指歧視女性。比如,如果一家企業長期僱用的男性明顯多於女性,那麼人工智能很可能會將候選人的吸引力與男性應聘者的某些因素關聯起來,或者直接淘汰那些擁有女性應聘者相關因素的就職申請。


根據 CNN Business 的報道,性別偏見也可能會導致使用 AI 的面部識別軟件出現問題,例如音樂會,機場和運動場上的安全應用程序。麻省理工學院與微軟的研究人員曾聯合開展了一項針對機器學習算法是否存在性別與種族歧視的研究,結果發現當主流面部識別軟件面對女性照片時,差錯率會變得更高。而當對象為皮膚顏色較深的女性時,差錯率會進一步上升。除此之外,在語音與話語識別領域,同樣有很多案例證明,人工智能應用在面對女性時表現更糟。


AI 性別偏見如何產生?


如果沒有足夠的女性樣本參與,那麼 AI 的知識就會出現漏洞,這就是為什麼會出現偏差錯誤的原因。機器學習是由人類領導的,這意味著他們自己的偏見將被納入 AI 系統中。


您是否能想象世界上所有的幼兒都被 20 歲的男性撫養長大?這就是我們今天的 AI 的樣子。它是由一個非常同質群體打造的。”Forida Polli ,Pymetrics 的首席執行官在最強大下一代財富女性峰會上如是說。


AI 世界裡的性別偏見,是人類自身的一面鏡子


埃隆·馬斯克、史蒂夫·喬布斯、比爾·蓋茨、馬克·扎克伯格,科技領域被人熟知的男性領導者太多。


Facebook 的首席運營官雪莉·桑德伯格(Sheryl Sandberg)曾經這樣說道:“性別偏見的問題,無論是在科技界還是在領袖界,都在於它完完全全是自我強化的。正因為我們缺少女性領袖,所以我們會認為女性無法成為優秀的領袖,於是女性領袖越來越少。久而久之,當一想到領袖這個詞,你想到的便是一個男性的形象。”


無偏見的未來 AI 世界


如果用於篩選潛在求職者的 AI 由具有性別偏見的數據科學家編碼,那麼我們的工作場所可能完全是男性。


而克服偏見的第一步是確保訓練樣本儘可能多樣化 —— 在種族,年齡、性別等方面,而且開發 AI 的人也需要來自不同背景


當然,與所有行業一樣,人工智能行業也需要在方法和觀點上朝著平等的方向努力。人工智能公司也需要吸引更多的女性來從事技術工作


Equal AI 執行董事 Miriam Vogel 表示:“在對我們未來的慘淡預見中,或許幾十年的爭取民權與平等的鬥爭,都不會使相關的法律規定有所改變。”


AI 世界裡的性別偏見,是人類自身的一面鏡子


偏見可能是生活中不可避免的事實,但我們不要讓它成為新技術不可避免的方面。新技術使我們有機會重新從 AI 開始糾正偏見,但最終能否消除偏差,取決於人類而不是機器。根據《金融時報》的說法,如果人類技術開發者不能培訓 AI 實現多樣化,算法將始終反映我們自己的偏見


計算機誕生之初曾出現了許多偉大的女程序員,例如人類歷史上第一位程序員 Ada Lovelace,ENIAC 的首批程序員之一 Jean Bartik,以及 COBOL 的發明者、寫出第一個編譯器的 Grace Hopper 准將。


因此,我們應當寄希望於女人與男人可以一起致力於塑造無偏見的 AI 世界的未來。


Each for Equal


女性對科學技術產生的影響毋容置疑,但統計下來的數字仍然令人震驚。根據 2017 年女性與科學技術的研究,只有 3%的女性認為科技行業是他們的第一選擇,只有 5%的科技行業由女性執掌,78%的學生不能說出科技領域的著名女性。


幸運的是,時代在變,越來越多女性加入創新者和創造者的行列,為世界推動卓越的科學技術創新貢獻自己的力量。


對於前沿科技領域而言,女性是不可或缺的一半;而對於女性而言,前沿科技領域是一個非常酷的行業。每一個令人振奮的新發現、新進展,都為女性帶來了許多令人振奮的機會。


2020 年國際婦女節活動主題為 Each for Equal。在今年的婦女節,清華大學-中國工程院知識智能聯合研究中心、清華大學人工智能研究院與北京智源人工智能研究院將一起發佈《人工智能全球女性榜單(Women in AI)》

,旨在通過 AMiner 學術數據在全球範圍內遴選人工智能學科最有影響力、最具活力的頂級女性學者。


閃耀全球的 AI 女神們將會於明日揭曉,讓我們拭目以待!



分享到:


相關文章: