人工智能也有種族歧視?亞馬遜人臉識別技術Rekognition被質疑!

種族歧視一直是很多國家的社會問題,在北美和歐洲等地區最為嚴重,而現在種族歧視不僅僅發生在人類社會,更是發生在人工智能界。

近日,外媒報道稱,有位研究者認為,亞馬遜的人臉識別技術Rekognition無法精準地確定女性和膚色較深面部的性別,具體體現在其錯誤的將19%的女性圖像識別為男性,將31%的深膚色女性圖像識別為男性。而相比之下,微軟在是被深色皮膚人群性別時,將女性錯認為男性比例只有1.5%。

人工智能也有種族歧視?亞馬遜人臉識別技術Rekognition被質疑!


其實這也不是亞馬遜Rekognition因為產生的偏見而陷於爭議中了。

在去年夏天美國公民自由聯盟對Rekognition的測試中,在把25000張罪犯照片與國會議員的官方照片進行比較時,錯誤地將28名國會代表視為罪犯,而38%的錯誤匹配都是有色人種。

但也許是人工智能的算法還不夠完善,在其他企業發明的人臉識別系統中也出現過很多種族歧視現象。

人工智能也有種族歧視?亞馬遜人臉識別技術Rekognition被質疑!


弗吉尼亞大學的研究人員進行的一項獨立研究發現,兩個著名的研究圖像集ImSitu和COCO,後者由Facebook,微軟和創業公司MightyAI共同發起。在他們對體育,烹飪的描述中表現出性別偏見,和其他活動。(例如,購物的圖像與女性有關,而教練則與男性有關)

也許最臭名昭著的是在2015年,一位軟件工程師報告說,Google Photos的圖像分類算法將非裔美國人視為“大猩猩”。

人工智能出現種族歧視現象,說明這與人工智能的本質有關,因為人工智能本就是人類所創造的,人工智能的數據與經驗也都是人類所賦予的。

人工智能也有種族歧視?亞馬遜人臉識別技術Rekognition被質疑!


那麼如何才能讓人工智能去除掉這種種族歧視呢?

這個問題也應該從我們人類自身去思考,只有研究透了人類這種種族歧視的觀念,得出了種族歧視的數據模型以及分析模式,我們才能將這些賦予人工智能,這樣人工智能才能具備識別種族歧視特徵,從而避免種族歧視。

值得一提的是,人臉識別技術也在不斷地進步。

去年6月,微軟與人工智能專家合作,修改並擴展了用於訓練Face API,提供用於檢測、識別和分析圖像中人臉的算法,通過膚色、性別和年齡的新數據,它能夠將皮膚較深的男性和女性的錯誤率分別降低20倍和9倍。

而亞馬遜方面也表示,將不斷致力於提高Rekognition的準確性,建立面部分析個面部識別的標準化測試以及監管合作指導其使用。

人工智能是人類的產物,很多方面都是繼承著人類的特性,像人類一樣生活與思考,所以人工智能會怎樣,也取決於我們人類自己。

希望有一天,不僅僅是人工智能界能排除性別歧視,人類社會也是如此。


分享到:


相關文章: