人工智能和創造它的人類一樣有偏見嗎?

人工智能和創造它的人類一樣有偏見嗎?

翻譯:盧敏

數據(你在一篇科學文章、一本歷史書或一組調查結果中找到的信息)似乎只是一些客觀事實的集合。這些數字,如果來源正確,應該是不受觀點或偏見玷汙的鐵一般的事實。但實際上,這種情況很少發生。這就是為什麼人工智能會和創造它的人類一樣有偏見。

數據的好壞取決於獲取數據的手段,解釋和分析數據的方法,以及數據的交流方式。

這些方面的失誤會滲透到我們根據數據得出的結論中——往往會導致我們希望“事實”避免的那種主觀性和偏見。

即使是像調查這樣簡單的事情,許多因素:從問題的措辭到定義術語的方式,再到我們評估形成判斷的樣本集等等,都可能給我們的數據帶來偏見。而這些偏見會影響我們得出的結論。

“我知道有句諺語說,‘人非聖賢孰能無過’,但一個人的錯誤與計算機嘗試時所能做的相比,根本算不了什麼。”——阿加莎·克里斯蒂

缺失了人類情感、意識形態和偏好的系統和人工智能有望幫助我們避免人類推理固有的主觀性和偏見。然而,人類必須設計和構建這些系統,這將使它們陷入相同的陷阱。

事實仍然是,人工智能的偏見已經成為一個非常普遍的問題,Salesforce最近在其教育平臺Trailhead上添加了一個人工智能偏見課程,目的是向企業家和其他專業人士傳授同質數據的危險。

AI偏見的後果

自動化系統中的偏差已經對某些群體產生了不利影響。例如, 威斯康星州試圖 在其法院系統中利用人工智能來確定犯罪分子再次犯罪的可能性,以幫助法官確定量刑或假釋。

不幸的是,該計劃對有色人種有偏見,並錯誤地將黑人標記為比白人更容易犯下另一項罪行。

同行評審研究如何?

另一個例子是,一項經過同行評議的研究發現,亞馬遜的面部識別技術更難識別膚色較深的女性和個人。這shishi怎麼發生的?訓練集(輸入系統以教授人工智能編程的示例數據)缺乏多樣性。

法庭案件摘要?

公司的數據提取軟件有多種用途。其中一個目標是為法律專業人員總結法庭案例。為了使程序提供準確的摘要,訓練集必須包含廣泛的案例類型。例如,如果該系統只針對侵權案件進行培訓,那麼它在總結刑事案件方面的效率就會低得多。

機器學習人工智能——以及其他很難發現的人工智能學習。

這些例子表明,基於機器學習的人工智能系統是多麼有害;當用來設置他們的數據不能充分代表他們正在學習的內容,或者不如他們試圖評估的案例多樣化時,結果可能是不幸的。但人工智能的偏見並不總是那麼容易被發現。

例如,在商業中,使用有偏差的數據集可能導致領導層批准一個註定要失敗的項目。當項目不可避免地失敗時,執行團隊可能會承擔責任,因為它應該首先歸咎於計劃所依賴的錯誤假設。

人工智能和自動化技術可以為企業帶來巨大的好處,尤其是那些依靠技術來完成需要團隊合作的公司。

但是,如果該技術的構建方式無法防止引入不良數據(或扭曲有用的數據),則弊大於利。

針對這一問題,有人提出的一個解決方案是,鼓勵數據科學家團隊之間的多樣性——這些數據科學家構建了我們所依賴的人工智能系統。我們面臨的挑戰是,我們並不總能找到並促進正確的多樣性來解決我們的偏見問題。

對此問題的一個建議答案是鼓勵數據科學家團隊之間的多樣性-那些構建我們所依賴的AI系統的科學家。面臨的挑戰是,我們並不總是識別並促進正確的多樣性來解決我們的偏見問題。

多樣性不僅僅是表面現象

在招聘數據科學家時,實現我們通常認為的多樣性(種族和性別差異)是不夠的。

多樣性的價值。

當然,由不同種族,宗教和文化的男人和女人組成的勞動力很有價值。但是,這些領域的多樣性仍然可能導致AI產生偏差。

例如,來自世界各地的男女團隊可能會建立一個差距很大的系統;例如,他們都可以使用相同的教育框架進行培訓,或者分享與所討論的項目或問題相關的相同個人觀點。

如果人們來自同一文化,社會經濟背景和政黨,那麼他們可能會採用非常相似的方法來解決數據問題。這些區域的同質性將不可避免地滲入開發團隊創建的AI系統。

避免偏見

為了避免AI偏見,我們需要從思想和觀點出發,而不是僅僅從膚色和性別表達出發,考慮多樣性。看起來不同的人也很可能會有所不同,但是並非總是如此。

實現多樣性

人類不可能完全避免主觀偏好,錯誤的信念以及我們思維過程中的各種漏洞。因此,消除偏差也不太可能。但是,我們仍然可以採取一些措施來減輕我們的偏好(認為偏見)對我們創建的系統的影響。

思想的多樣性是一個很好的起點。為了組建具有正確多樣性的數據科學團隊,招聘經理必須專注於尋找具有獨特觀點和非常規想法的人員。

這些不同的態度,觀點,概述和客觀性通常來自新穎的經驗和非常規的訓練。

當然,這裡的挑戰是,經理人不能在面試時詢問應聘者其社會經濟背景、年齡、文化背景以及宗教和政治信仰。

如何使您的團隊和所有員工多樣化

他們所能做的就是問一些與潛在員工將從事的工作有關的尖銳問題。例如,為候選人提供數據建模項目的示例。詢問他們如何解決問題,收集數據並進行分析。

如果您已經有團隊成員使用X和Y方法處理這個案例,那麼如果有一個候選人建議了一個經過深思熟慮的方法Z,那麼您可以認為這是有利的。

個人的自信是另一個關鍵因素

如果某人發現問題時不願意大聲說出來,那麼增加他們的思維方式對您的團隊不利。為了避免在分析系統和AI工具中出現偏見,您需要的候選人不僅要擁有獨特的觀點,還要知道如何表達它們。

最後,在您的技術開發和數據科學團隊中培養開放性和協作文化非常重要。當他們可以輕鬆表達觀點時,他們可以發現並糾正錯誤。

切記:當一個團隊共享一個儘可能客觀的總體目標時,偏見就會在這個過程中最小化。

人工智能和自動化正處於上行期,這些系統有望幫助我們在提高效率和生產率的同時,將人類主觀性和偏見的影響最小化。然而,為了實現這一目標,需要非常小心地構建它們。

小心前行——我們必須非常認真地對待多樣性。這意味著在僱傭數據科學家和系統架構師時,不能僅僅關注外表。領導人需要更深入地挖掘,努力引入不同的觀點和能夠表達這些觀點的人,並支持包容的發展文化。

擁有不同想法和協作結構的團隊更有可能構建真正超越人類難以消除的偏見的人工智能系統。

圖片來源:Unsplash;達瓦爾·帕爾馬


分享到:


相關文章: