當機器學習時,人類會失去控制


當機器學習時,人類會失去控制


人們對人工智能表達出極大的恐懼。有人擔心 人工智能會變得超人,並殺死 我們所有人。其他人擔心,人工智能領導自動化將使超過1億 工人流離失所,並破壞經濟。坦白地說,這兩種情況都有可能發生,因為AI的簡單道理是機器學習時,人會失去控制權。


當前,自學習AI並不特別複雜。還記得AI的埃隆·馬斯克(Elon Musk)所說的向公眾發佈太危險了嗎?好吧,它發佈了,真令人失望。當談到他的公司時,馬斯克要比吹毛求疵的人更為炒作。但是AI越來越先進,Deepmind的項目正在學習象棋這樣的遊戲, 並且不知道規則,這些AI擊敗了人類玩家。


AI可能缺少基礎?

人工智能正在進步,但它可能會缺少一個阻礙其達到人類般的一般智能的技術。《科學》雜誌上的一篇文章 分享了一個三歲孩子能夠學習並將最近獲得的知識快速應用於新環境的故事。該帳戶中的孩子屬於 認知科學家,RobustAI的創始人加里·馬庫斯( Gary Marcus)。馬庫斯認為,人類無論是在出生時還是從童年開始就具有本能,這使我們能夠抽象靈活地思考。


最初的直覺是目前大多數AI尚未編程的東西。我可以想象用任何與人類相近的直覺來編程AI都是艱鉅的任務。但是,我缺乏所謂的“基本本能代碼”,這在我腦海中產生了一個問題,人們無法誠實地知道我們狹窄(但正在擴展)的AI的想法。


我看到了AI與人類之間的關係在某種程度上類似於人類與工作動物之間的動態關係的未來。一個盲人和一個導盲犬是一個團隊,但他們都不瞭解對方腦袋裡發生了什麼。


當我們瞭解AI的想法時

今年早些時候, 《大西洋》 詳細敘述了一個犯罪量刑的AI的恐怖故事。這篇文章記載了哥倫比亞特區公設辯護律師事務所Rachel Cicurel的工作經歷。AI將Cicurel的客戶標記為“高風險”,檢察官將緩刑作為其客戶的一種選擇。

從大西洋:


“ Cicurel很生氣。她提出了挑戰,以查看報告的基本方法。發現的結果使她感到更加困擾:D的風險評估增加是基於幾個似乎帶有種族偏見的因素,包括他居住在政府中這一事實。補貼住房,並對警察表達了消極態度。”


最終,Cicuelel得知AI從未經過科學驗證。唯一的評論來自研究生的未發表論文。案件的法官取消了測試。儘管如此,人工智能仍被用於刑事司法,並發現了其他缺陷的例子,可能還會有更多的人受到不公平的傷害。


並非所有AI都說明他們的想法

Cicurel能夠查看並查看AI將客戶標記為“高風險”的基本方法。並非每個AI都具有解釋其如何制定決策的能力。如果Google的任何團隊中的任何人都能解釋搜索引擎的工作原理,我會感到震驚 。我有99%的把握確保Google沒有按鈕可以打印出機器學習層用來整理搜索結果的底層方法。


人們每天都在使用普通用戶無法理解的技術,但是不知道電視或汽車的工作方式與不知道軟件如何做出改變人生的決定有很大的不同。我們可能不在乎AI是如何 產生藝術的,當將AI用於 醫學篩查時,潛在的思維過程並不重要。


但是,如果將AI用於犯罪宣判之類的任務,那麼人們能夠理解該軟件的基本思維過程就至關重要。至少我們應該從概念上理解AI的基本“本能”,而不是放棄對大量數據的訓練和強化學習技術。




分享到:


相關文章: