擔心人工智能無法無天?我們要釐清它的倫理問題

現在人工智能堪稱無處不在。從我們決定買哪一本書,到預定哪一趟航班,從是否能夠找到合適的工作,到是否能夠獲得銀行貸款,甚至於治療各種疑難雜症,我們生活的方方面面都有著人工智能的影子。

關於我們的生活,很大程度上已經可以由人工智能這種複雜的軟件系統來自動決策。毋庸置疑,在諸多科技界企業的推動下,人工智能技術在過去幾年中取得了令人驚訝的巨大進步,而且業內很多人也相信人工智能會讓我們的生活變得更好。

這種趨勢不可阻擋,自然而然。整個社會也在為人工智能初創企業注入大量資金,而包括亞馬遜、Facebook以及微軟等高科技公司都針對人工智能開設了新的研究實驗室。現在的軟件就是人工智能,這種說法現在來看並不誇張。

很多人預計,人工智能對社會的衝擊甚至要大於互聯網。當被問及在這個千變萬化的世界中,人工智能技術將要為人類帶來何種影響時,很多技術專家毫無懸念地將問題集中在道德方面。

如何保證公平受益?

擔心人工智能無法無天?我們要釐清它的倫理問題

隨著人工智能的普及,機器系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及醫療保險、假釋等問題。未來,人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關於社會公正的問題。

譬如在生物醫學領域,人工智能有著驚人潛力。人工智能系統有助於分析基因組學、蛋白質組學和新陳代謝組等的實驗數據,收集分析電子病歷和相應的健康數據。利用聚類分析技術能夠幫助科學家判斷新綜合徵,而模式識別技術能夠將疾病與療法相匹配。但是由於現有的醫療條件的不平衡,會導致少部分人才能夠從先進診療技術中受益。

另一方面,人工智能,特別是機器學習技術的完善往往取決於訓練數據。微軟研究人員最近指出,當採集的數據存在偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果勢必會複製並放大這種偏差。在這種情況下,人工智能系統所作出的決策將會產生差別效應。而這種不公平要比人為偏見和不公要隱晦的多。

“現在的挑戰是讓每個人都能夠從中受益。”——谷歌研究主管Peter Norvig

Peter Norvig是谷歌研究主管,也是機器學習領域的先驅人物。在他看來,大數據推動下的人工智能技術獲得了前所未有的成功,但關鍵問題在於如何確保這些系統能夠真正有效地改善整個社會,而不僅僅只是讓那些控制人工智能系統的群體收益。“通過實踐證實,人工智能在執行各種任務時非常有效,從圖像識別,到自然語言理解和撰寫,再到疾病診斷,人工智能都發揮出了重大作用,” Peter Norvig指出,“現在的挑戰是如何確保每個人都能夠從中受益。”

如何審查機器運行?

科學家之所以會擔憂人工智能引發公平問題,最大的根源在於現有軟件的複雜性意味著我們無法準確衡量人工智能系統為什麼要這樣做。現在的人工智能技術主要基於機器學習,但對於人類來說,其並不能真正搞清楚這種系統到底是如何運行的,所以我們不得不信任它。從根本上說,問題關鍵在於找到新的方法去檢測和審查人工智能的運行。

擔心人工智能無法無天?我們要釐清它的倫理問題

哈佛法學院互聯網法學教授Jonathan Zittrain則認為,關於人工智能潛在的危險是隨著計算機系統變得越來越複雜,會使審查面臨越來越多的阻礙。他指出,“我擔心隨著系統的複雜性和緊密耦合性越來越高,人類的自主性會越來越少。如果‘我們設定規則又忘記了規則’,我們會對系統如何進化感到懊悔。在那種情況下,甚至於倫理道德都無從考慮。”

而北卡羅來納州杜克大學人類和自動化實驗室主任Missy Cummings則發問,“我們如何確保這些系統是絕對安全的?”其曾是一名海軍女飛行員,而現在則是無人機專家。

現在業內普遍意識到人工智能需要進行監督,但沒有人清楚該怎麼做。Cummings坦言,“目前我們還沒有一種行之有效的普遍方法。沒有類似測試人工智能系統的行業標準,類似的技術難以被廣泛實施。”

“沒有類似測試人工智能系統的行業標準,類似的技術難以被廣泛實施。”——Missy Cummings,杜克大學人類和自動化實驗室主任

當然,在一個快速發展的社會中,監管機構往往都在扮演者一個追趕者的角色。在刑事司法系統以及醫療保健等關鍵領域,很多公司已經在探索使用人工智能來進行決策,譬如做出是否假釋的決定或者是診斷疾病。但是這樣問題來了,如果將決策權交給機器,我們就有可能失去控制。誰能保證系統在各種情況下一定是正確的?

微軟研究院的主要研究員Danah Boyd則認為。不少寫入人工智能系統的價值觀存在諸多問題,而恰恰是這部分人如何對系統負責。很多監管機構、社會大眾以及社會學者都希望人工智能技術能夠實現公平,具備倫理道德,但這種希望都是虛無縹緲的。

如何應對工作替代?

此外,人工智能普及也會對人類自己的本職工作產生根本影響。人工智能能夠讓機器人從事更加複雜的工作,從而取代更多的人類勞動者。譬如蘋果和三星手機代工廠商去年就宣佈,將使用機器人代替6萬名工人,這在當時引起了軒然大波,惹得人人自危。無獨有偶,福特的德國科隆工廠也讓機器和人在一起工作。機器人的廣泛使用會導致人類對人工智能技術會產生過分依賴性。

擔心人工智能無法無天?我們要釐清它的倫理問題

例如現在很多醫療機構已經在診斷和手術中引入更多的機器人,特別是機器人在疑難手術中能夠表現出更精湛的醫術,這就可能使經由歷史積累的醫學技能和知識裹足不前,進而使社會變得更為脆弱。而據麥肯錫的全球研究報告,到2025年,30%的公司審計工作將由人工智能完成。人工智能將取代許多人的工作,其中也包括醫師、財務經理以及公司高管等收入較高的中產職業。

在很多工廠,人類已經開始和機器一道工作——有人認為這種被取代感會對工人精神產生影響。

此外,自動化程度的加大不僅影響到人類就業,也會對人類心理健康產生連鎖反應。生化倫理學家、奧巴馬前醫療顧問伊澤克爾·伊曼紐爾(Ezekiel Emanuel)指出,“如果說什麼能賦予人們生活的意義,主要有三個方面:有意義的關係,熱情高漲的興趣以及有意義的工作。其中有意義的工作是一個人建立身份認同的重要因素。”而失業率高的地區,民眾自殺、濫用藥物以及罹患抑鬱症的風險也會成倍增加。

如果有效進行監督?

人工智能的迅猛發展勢必會產生各類社會問題。很多行業內人士已經意識到,相關問題的出現會導致對人工智能倫理方面的需求越來越多。麻省理工學院技術部專門從事法律道德的專家凱特·達林(Kate Darling)指出,“公司肯定會遵循市場規律,這並不是壞事。但我們不能為了市場利益而放棄道德。”

達林指出,諸如谷歌等大公司已經成立了道德委員會,專門監督人工智能系統的開發和部署。這源於幾年前,當時谷歌以6.5億美元的價格收購了英國的人工智能創業公司DeepMind。DeepMind創始人提出的交易條件之一就是谷歌要成立一個人工智能道德委員會。這似乎標誌著負責任的人工智能研發新時代正在到來。但事實上,谷歌對於道德委員會成員組成諱莫至深,實際上該委員會發揮的作用也相當有限。

Facebook、谷歌以及亞馬遜還成立了一個聯盟,旨在開發解決人工智能相關的安全隱私問題。該聯盟還宣佈蘋果也將加入其中。此外,OpenAI還致力於推動人工智能開源,從而讓利益為全社會所共享。谷歌研究主管Norvig認為,“機器學習必須要公開,我們所有人只有通過開源代碼才能夠普遍受益。”

然而,在科技公司主動公開之外,還需要為外部人士揭開人工智能技術的神秘面紗。對於沒有計算機科學學位的人來說,真正理解人工智能決策非常困難,更不用說審查或規範這些技術。一些業內人士認為,如果沒有對人工智能技術的理解,諸如律師、決策者和一般公眾就很難真正理解或想象人工智能帶來的風險。

這是一個可以讓人工智能發揮更大效能的時代。Zittrain認為,“在道德方面,我們的工作並不是擔心機器人會取代我們,而是考慮如何使用技術來幫助人類進行反思和決策,而不是完全被技術取代。”

擔心人工智能無法無天?我們要釐清它的倫理問題


分享到:


相關文章: