八大現象告訴你人工智慧威脅真的存在嗎?

如今,人工智能正在迅速發展,機器學習正在變得越來越成熟,智能化的未來似乎只是時間問題。但人工智能背後也存在許多問題。例如,典型的人工智能威脅理論,這個問題的焦點是人工智能是否能夠有意識地違揹人類意志來控制交易。

因此,我們可能想問:人工智能機器人有多強大?機器人真的“逆轉”了人類嗎?《終結者SkyTeam》中的天網真的發生在現實生活中嗎?

強弱的人工智能

首先,我們應該區分兩個概念:強AI和弱AI。強大的人工智能是一種可以思考和感受其存在的假想機器。它不僅可以解決人類為他們定製的任務,還可以學習新事物。

弱AI目前很常見,它是一個解決特定問題的應用程序,如圖像識別,汽車駕駛,玩Go等,這就是我們常說的“機器學習”。

目前,我們無法預測何時會真正開發出強大的人工智能。調查中專家推論的結果也“有一天”。

與強AI相比,弱AI已經存在,弱AI可以在很多領域看到,應用範圍每年都在增長。通過示例學習,機器學習使我們無需編程即可處理實際任務。

人工智能威脅理論真的存在嗎?

我們通過構建數學模型(“學習”算法)來教授機器人解決特定問題。機器人將根據我們計劃的模型方法執行任務,這意味著機器學習的所有行為都基於我們的操作。我們似乎不擔心電影《終結者》的出現。但是,如果我們有這樣天真的想法,我們就錯了,因為機器學習仍然可以執行違揹人類意志的錯誤任務。

不好的嘗試

如果我們教無人機軍隊使用機器學習殺人,結果是否符合道德標準?

有一個基於這個主題的軼事。 2017年,谷歌正在開發一種名為Maven的軍事項目軟件。該項目涉及無人機和未來全自動武器系統的製造。結果,谷歌的12名員工辭職抗議,另有4,000名員工簽署請願書,要求公司放棄與軍方的合同。與此同時,人工智能和道德領域的1000多名知名科學家寫了一封公開信,要求該公司放棄該項目並支持禁止自動武器的國際協議。

2.開發者偏見

儘管機器學習算法開發人員並非惡意,但其中許多仍然是貨幣價值,他們的最終目標是賺錢。換句話說,他們的算法是為了自己的利益而創造的,而不是為了社會的利益。例如,一些醫學算法推薦昂貴的治療,但很少推薦最佳的患者治療。現實生活中算法的倫理問題似乎沒有太多反映。例如,在交通速度和車禍死亡率之間可以有折衷。我們可以將自動駕駛汽車的最高速度限制在每小時15英里以下,這幾乎可以將車禍的死亡率降低到零,但它會失去汽車的其他優勢。

3.違反邏輯規範

默認情況下,計算機系統對邏輯規範一無所知。一種將國家預算與“最大化GDP /勞動生產率/預期壽命”的目標結合起來的算法,但如果沒有在模型中設定,它可能會取消學校,庇護所和環境的預算,因為它們不會直接增加GDP。

為了實現目標,我們可以讓機器學會執行任何複雜的任務,但前提是它必須集成到相關的邏輯規範中。

4.改變人的偏好

機器學習為我們的生活帶來了很多便利,但它也改變了我們的正常生活甚至個人行為偏好。例如,智能電影推薦,機器學習將根據您對電影的評分將您的偏好與其他用戶進行比較,然後向您推薦電影。從長遠來看,您的偏好將由電影推薦系統改變,並且感興趣的範圍將減少。

但可怕的是,我們沒有意識到這種變化,我們也沒有意識到計算機對我們的操縱。

5.錯誤的相關性

當完全獨立於彼此的事物表現出非常相似的行為時,會產生錯誤的關聯,這會產生一種錯覺,即它們之間存在聯繫。例如,您是否認為美國人造黃油的消費與緬甸的離婚率密切相關?

八大現象告訴你人工智能威脅真的存在嗎?

我不認為任何知識淵博的人會認為這兩者是相關的。但是數學模型沒有這樣的經驗知識。它只是學習和數據彙總的工具。在其邏輯系統中,這種相似性曲線表明兩者之間必然存在某種聯繫。

6.反饋循環

反饋循環比誤差相關具有更大的影響。反饋循環指的是算法決策影響現實的情況,這反過來使算法確信其結論是正確的。

例如,加利福尼亞州的犯罪預防計劃表明,警方應根據當地案件的數量確定犯罪率,然後根據犯罪率派遣相應的警官。但最終,它將陷入這樣一個循環:一個街區的警察數量將增加,當地居民的數量將增加,這將增加犯罪率。根據預防犯罪計劃,將派出更多警察,警察人數將增加,報道人數將增加。它再次增加,報告率增加,警察人數增加。······

7.“汙染”的參考數據

算法學習的結果很大程度上取決於參考數據,它們構成了學習的基礎。但是,數據可能會因某些偶然的情況或個人意圖而被扭曲,即數據被“汙染”。一個典型的例子是微軟在2016年推出的聊天機器人Tay。微軟認為這個機器人是“對話理解”的實驗。微軟表示,與Tay的聊天越多,它就越聰明。然而,微軟的聊天實驗只能在24小時後停止,因為無辜的聊天機器人在24小時內被教授了很多種族主義和性別歧視的術語。 Tay的案例震驚了機器學習的發展,並反映了“汙染”數據的嚴重性。

8.機器欺騙

即使它是具有良好功能和數據的模型,其工作原理的洩漏也會使惡人陷入困境。例如,一組研究人員開發了一種特殊類型的眼鏡,它可以欺騙人臉識別算法,從而在圖像中引入最小的失真並改變人臉識別結果。

八大現象告訴你人工智能威脅真的存在嗎?

怎麼解決?

2016年,奧巴馬政府的大數據工作組發佈了一份警告:“在自動化決策中可能存在編碼歧視。”該報告還要求創建遵循平等原則的算法。

但要完全實施該報告非常困難。

首先,機器學習數學模型很難測試和修復。因為在機器學習中,一切都取決於學習樣本的大小,並且樣本的數量是有限的。

舉一個典型的例子:早在2015年,軟件工程師JackyAlciné就指出Google Photo中的圖像識別算法將他的黑人朋友歸類為“大猩猩”。谷歌對此錯誤感到震驚,並向Alciné道歉,承諾修復錯誤。然而,三年後,除了禁止在圖像標籤中使用類似“大猩猩”之類的單詞外,Google還沒有其他更好的解決方案。

其次,機器學習算法的決定很難理解和解釋。神經網絡將在其中安排加權係數以得到答案。但是這個過程是什麼?如何糾正錯誤的答案?

舉兩個例子:2015年的一項研究表明,谷歌針對高薪工作的廣告高於女性。亞馬遜當天的免費送貨服務,非裔美國人社區(黑人社區)無法享受它。基於這兩種情況,兩家公司都表示他們無法解釋算法所做的決定。

基於這些算法決策,沒有人會責怪任何一個應用程序。因此,我們需要為機器人制定一套法律法規來確定機器人的行為。 2018年5月,德國人邁出了第一步,他們發佈了世界上第一輛自動駕駛汽車指南。部分內容為:

與所有財產相比,人的生命至關重要。

不可避免的事故不應具有歧視性,不得有歧視性因素。

如果自動駕駛不是人駕駛引起的事故,則自動駕駛系統將成為道德要求。顯然,機器學習在管理個人任務方面確實比人類更好,導致對機器學習的依賴性增加。因此,記住這些機器學習缺陷尤為重要。研發人員應在開發階段測試所有可能出現的問題,併為算法設置監控措施。


分享到:


相關文章: