該怎麼消除人工智能與生俱來的“歧視”

一旦人工智能突破了可以扳倒人類社會規則約束的臨界點,那麼,將沒有什麼來阻止人工智能決定人類的未來。


該怎麼消除人工智能與生俱來的“歧視”


▲《復仇者聯盟3》中,大反派滅霸。圖片來自網絡

文 | 李崢

在好萊塢電影《復仇者聯盟3》中,大反派滅霸運用“絕對公平”的隨機模式消滅宇宙中的一半生命,從而達到他心目中的和諧。如今,人工智能正在以一種模式不同,但結果類似的方式開始決定著人類的命運。

近期,美國互聯網巨頭亞馬遜公司解散其人工智能招聘團隊,由於該團隊所設計出的人工智能程序極端“重男輕女”,會自動給女性求職者降低分數。

人工智能會放大算法帶來的“歧視”

隨著人工智能技術的不斷髮展,越來越多的管理者開始運用這一革命性技術提升企業的運行效率。電影公司運用人工智能來預測電影劇本的潛在收益;企業運用人工智能監控員工的異常行為;保險公司運用人工智能評估保險人的保險償付幾率等。這些做法或多或少都存在一些與亞馬遜人工智能招聘程序類似的歧視性現象。

這種敏感、潛在的風險讓一些學者也開始反思人工智能的實質。例如,諾貝爾經濟學獎獲得者托馬斯•薩金特在“世界科技創新論壇”上表示,人工智能其實就是統計學,只不過用了一個很華麗的辭藻。

這種說法雖然受到不少人工智能業界人士和愛好者的批判,但深究起來並非毫無道理。人工智能建立在以統計學為基礎的算法之上,當前的“智能”部分僅體現於通過計算機自身的“學習”功能迅速完成了統計檢驗過程。

基於這種運算過程,人工智能也不能避免統計學的侷限性。

第一是樣本選擇偏見。例如,亞馬遜的人工智能團隊所選擇的學習樣本,主要基於現有的互聯網業界招聘數據。由於美國軟件業的從業者及求職者的男性比重遠大於女性,人工智能程序在不斷樣本學習後得出了男性更適合此類職業的結論,沒有糾正反而擴大了樣本帶來的偏差。

第二是算法的不透明性,人工智能的多數算法處於“黑箱狀態”,缺乏解釋能力,如果算法本身存在不公正傾向極難被發現。

第三是難以兼顧效率與公正。算法的目的在於找到最優解、最直接有效的手段,並不考慮解決方案對社會其他成員所帶來的影響。人工智能缺乏共情能力,其所做出的決定並不會考慮人類文明所遵循的公共倫理和規則。

我們對人工智能的管控落後於其進步

上述侷限性使得人工智能的廣泛運用將帶來與機遇相等的風險。

一方面,在一些效率優先、只追求勝負的領域,人工智能顯現出遠超常人的能力。政府、軍方和企業為了贏得競爭優勢,不得不被迫加快人工智能的應用和研發,甚至將一些試驗性、未成熟的技術投入實用。

另一方面,這種對勝率的追求也會對人類社會帶來潛在的衝擊,甚至將破壞人類社會中效率與公平的平衡。一個越來越由人工智能所主導的世界,很可能是一個貧富差距更加巨大、階層固化更為明顯的世界。這對於處於弱勢的人群、文化和國家並不友好,將加大這些弱勢群體與精英社會的差距,甚至讓其成為事實上的“無用的人類”。

這些風險蘊含著一種未來世界的危險圖景,即由人工智能所帶來的“數字進化論”。在“數字進化論”的世界,人工智能將成為新的選擇、淘汰機制,只有符合人工智能“算法偏好”的人群能夠適應這種新環境,得到生存發展的機會。而其他不符合其算法需求的人們則將面臨發展路徑終結,其所面臨的生存環境將不斷惡化。

相對於人工智能技術、產業的進步,對於人工智能的管控和約束顯然落後了。當今國際社會對人工智能的貪婪大於恐懼,對於人工智能的認知慢於人工智能的自我進化。但是,一旦人工智能突破了可以扳倒人類社會規則約束的臨界點,那麼,將沒有什麼來阻止人工智能決定人類的未來。在滅霸拿到極限手套的“六顆無限寶石”後,消滅宇宙的一半生命只在彈指之間。


分享到:


相關文章: