AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

文 | AI國際站 唐恩

編 | 艾娃

在科學文章,歷史書或一組調查結果中找到的信息,似乎只是客觀事實的集合。如果數字來源合理,應該被認為是觀點,觀點或偏見所掩蓋的硬道理。實際上,這種情況很少發生。這就是AI可以像人類創造它一樣受到偏見的方式。

AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

數據僅與用於獲取數據的手段,用於解釋和分析數據的方式以及如何進行通信一樣好。

這些方面的誤區會過濾掉我們根據數據得出的結論,並經常導致我們希望我們的“事實”避免的主觀性和偏見。

即使是像調查這樣簡單的事情,也有許多因素(從問題的措辭到我們定義術語的方式以及我們評估形成判斷的樣本集的方式)可能會給我們的數據帶來偏差。偏差會影響我們得出的結論。“我知道有一句諺語說:“犯錯是人的本能,但人為的錯誤與計算機嘗試執行的操作無關。”—阿加莎·克里斯蒂(Agatha Christie)

缺乏人類感覺,意識形態和偏好的自動化系統和人工智能有望幫助我們避免人類推理固有的主觀性和偏見。但是,人類必須設計和構建這些系統,這使它們面臨同樣的陷阱。

事實仍然是,人工智能的偏見已成為一個廣泛的問題,以至於Salesforce最近在其教育平臺Trailhead中增加了一個人工智能偏見課程,以向企業家和其他專業人員傳授同質數據的危險。

AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

AI偏見的後果

自動化系統中的偏差已經對某些群體產生了不利影響。例如,威斯康星州試圖在其法院系統中利用人工智能來確定犯罪分子再次犯罪的可能性,以幫助法官確定量刑或假釋。

不幸的是,該計劃對有色人種有偏見,並錯誤地將黑人標記為比白人更容易犯下另一項罪行。

同行評審研究如何?

在另一個案例中,一項經過同行評審的研究確定,亞馬遜的面部識別技術很難識別膚色較深的女性和個體。這怎麼發生的?訓練集(輸入到系統中以教授AI編程的示例數據)缺乏多樣性。

法院摘要

公司的數據提取軟件有多種用途。這樣的目標之一是為法律專業人士總結法院案件。為了使程序能夠提供準確的摘要,培訓集必須包括廣泛的案例類型。例如,如果僅針對侵權案件對系統進行培訓,那麼在總結刑事案件方面效率將大大降低。

機器學習AI-以及其他難以發現的AI學習。

這些示例說明了基於機器學習的AI系統的破壞性。當用於設置它們的數據不能充分代表他們正在研究的內容或比他們嘗試評估的情況差的多時,結果可能是不幸的。但是,人工智能的偏見並不總是那麼容易發現。

例如,在商業中,使用有偏見的數據集可能導致領導層註定註定要失敗的項目。當項目不可避免地失敗時,執行團隊可能會把責任歸咎於應該首先依賴計劃的錯誤假設。

人工智能和自動化技術可以為企業帶來巨大的好處,尤其是那些依靠技術來完成需要團隊合作的公司。

但是,如果該技術的構建方式無法防止引入不良數據(或扭曲有用的數據),則弊大於利。對此問題的一個建議答案是鼓勵數據科學家團隊之間的多樣性-那些構建我們所依賴的AI系統的科學家。面臨的挑戰是,我們並不總是識別並促進正確的多樣性來解決我們的偏見問題。

AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

多樣性比

在招聘數據科學家時,實現我們通常認為的多樣性(種族和性別差異)是不夠的。

多樣性的價值。

當然,由不同種族,宗教和文化的男人和女人組成的勞動力很有價值。但是,這些領域的多樣性仍然可能導致AI產生偏差。

例如,來自世界各地的男女團隊可能會建立一個差距很大的系統;例如,他們都可以使用相同的教育框架進行培訓,或者分享與所討論的項目或問題相關的相同個人觀點。

如果人們來自同一文化,社會經濟背景和政黨,那麼他們可能會採用非常相似的方法來解決數據問題。這些區域的同質性將不可避免地滲入開發團隊創建的AI系統。

避免偏見。

為了避免AI偏見,我們需要從思想和觀點出發,而不是僅僅從膚色和性別表達出發,考慮多樣性。看起來不同的人也很可能會有所不同,但是並非總是如此。

實現多樣性

人類不可能完全避免主觀偏好,錯誤的信念以及我們思維過程中的各種漏洞。因此,消除偏差也不太可能。但是,我們仍然可以採取一些措施來減輕我們的偏好(認為偏見)對我們創建的系統的影響。

思想的多樣性是一個很好的起點。為了組建具有正確多樣性的數據科學團隊,招聘經理必須專注於尋找具有獨特觀點和非常規想法的人員。

這些不同的態度,觀點,概述和客觀性通常來自新穎的經驗和非常規的訓練。當然,這裡的挑戰是,經理人不能在面試時詢問應聘者其社會經濟背景,年齡,文化背景以及宗教和政治信仰。

AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

如何使您的團隊和所有員工多樣化。

他們所能做的就是問一些與潛在員工將從事的工作有關的尖銳問題。例如,為候選人提供數據建模項目的示例。詢問他們如何解決問題,收集數據並進行分析。如果您已經有團隊成員願意使用方法X和Y來處理此案,則如果候選人提出了一種經過深思熟慮的方法Z,則認為這是有利的。

個人的自信是另一個關鍵因素。

如果某人發現問題時不願意大聲說出來,那麼增加他們的思維方式對您的團隊不利。為了避免在分析系統和AI工具中出現偏見,您需要的候選人不僅要擁有獨特的觀點,還要知道如何表達它們。最後,在您的技術開發和數據科學團隊中培養開放性和協作文化非常重要。當他們可以輕鬆表達觀點時,他們可以發現並糾正錯誤。

切記:當團隊擁有一個儘可能客觀的總體目標時,過程中的偏見就會降到最低。

人工智能和自動化技術正在興起,這些系統有望幫助最大限度地減少人類主觀性和偏見的影響,同時提高我們的效率和生產力。但是,要實現此目標,必須非常小心地構造它們。

AI是否像創造者一樣有偏見 為何要組建具有多樣性的數據科學團隊

要謹慎前進-我們必須非常重視多樣性。僱用數據科學家和系統架構師時,這不僅僅是簡單地關注表面。領導者需要更深入地挖掘,努力引入不同的觀點以及可以表達觀點的人們,並支持包容性的發展文化。具有不同想法和協作結構的團隊更有可能構建能夠真正超越人類自身要消除的偏見的AI系統。


分享到:


相關文章: