機器學習到底能替人幹哪些工作?《科學》列出了8條評估標準

唐旭 編譯整理

量子位 出品 | 公眾號 QbitAI

機器學習到底能替人幹哪些工作?《科學》列出了8條評估標準

對於AI會取代哪些人類工作的猜測,也許可以暫時停一停了。

最近,兩位來自MIT和CMU的研究者在一篇論文中提出了一種預測那些“脆弱“工作的方式。他們認為,機器學習並不代表人類工作的終結,但它會對經濟和人類工作的方式產生極大影響。

根據自己對於機器學習系統當下和未來能力的理解,這兩位研究者列出了8條主要標準,來評估一項任務是否適合機器學習。他們的文章發表在週四的《科學》上。

文章的共同作者之一、MIT斯隆管理學院教授Brynjolfsson在接受CNBC採訪時說,高管們可以用這些標準來對自己機構內的任何一項工作進行評估,而政策的制定者們同樣可以根據這些問題來判斷哪些職業最容易受到自動化影響。CMU計算機科學教授Tom Mitchell是另一位作者。

“整個工作都適合或不適合機器學習的情況非常少見,但在某種工作之中,或許有幾項任務是適合的。” Brynjolfsson說。論文的主要前提之一就是,我們離所謂“通用人工智能”還差得很遠,機器不能把人類能幹的所有事都辦了。

Brynjolfsson還說,老闆們將要面臨的挑戰是,如何將那些工作“解綁”,依據是否能被自動化將它們進行歸類,然後“重新綁定”成全新的工作。

機器學習到底能替人幹哪些工作?《科學》列出了8條評估標準

這些問題中列出的條件,包括“不需要複雜、抽象推理的任務”、“不需要與人類進行細緻、廣泛對話式交互的任務”、“為了完成任務不需要長期計劃”等等。使用者根據這些條件來判斷符合或不符合的程度,最後加在一起算總分。

那麼,究竟哪些任務最適合由機器完成?主要看這些因素:

標記了界定明確的輸入和輸出,能學習函數將其對應起來的任務

這些任務包括分類(比如標記狗的品種或根據可能的癌症種類標記醫療記錄)和預測(分析一份貸款申請來預測未來的違約可能性)。不過機器在這裡學會的只是一種統計學關聯,而未必是因果關係。

存在大型數據集,或可以創建包含輸入-輸出對的大型數據集的任務

可獲取的訓練樣本越多,學習結果就越精確。DNN有一個值得注意的特性,在很多領域裡,它的性能並不會隨著訓練樣本數量的增加而逼近完美。能在訓練數據中抓出所有相關的輸入特徵尤為重要。雖然原則上任何任意函數都能用DNN來表示,但電腦應付不好兩樣東西:一是訓練數據中模擬的、持續的多餘偏見,二是會忽略包含了機器觀測不到變量的規律。不過,還有不少創造數據的方法,比如監測已有過程和交互行為、僱傭人類來對部分數據進行明確標註或是創建一個完整的全新數據集,或是模擬問題相關的場景。

有著明確的目標和度量標準、提供清晰反饋的任務

當我們可以明確地描述目標時——即便我們未必能確定達成目標的最佳過程——機器學習能做得非常不錯。這與早期達成自動化的途徑形成了鮮明對比。抓取個人輸入-輸出決策的能力(即便模仿這些個人的學習過程被允許)可能不會導致最佳的全系統表現,因為人類本身就會做出不完美的決策。因而,有明確界定的全系統表現(比如優化全城範圍內而不是某個交叉路口的交通流量)度量標準就為機器學習系統提供了黃金準則。當訓練數據是根據這種黃金準則來進行標註並以此確定目標時,機器學習的威力特別大。

不需要依靠廣泛背景知識或常識的長邏輯鏈或推理過程的任務

在學習數據中的經驗性聯繫時,機器學習系統非常強大;但當任務需要依賴於常識或背景知識的長推理鏈條或複雜計劃時,它就變得不那麼好使。吳恩達的“一秒鐘原則”表明,機器學習在需要快速反應和提供即時反饋的電子遊戲上做得非常好,但在需要依靠對於世界的背景知識、以及對於久遠事件的記憶來做出最優選擇的遊戲上就做得沒那麼好。

此類事件的例外是圍棋和國際象棋,因為這些智力性遊戲可以以完美的準確度快速模擬,數百萬完美自標註的訓練樣本可以被自動採集。然而,在真實世界的大多數領域,完美的模擬太少了。

不需要對於決策過程進行細緻解釋的任務

數億數值權重與它們的人工神經元相連,大型神經網絡根據它們進行細微調整來學習決策。要對人類解釋這種決策的原因會十分困難,因為DNN通常不會像人類一樣使用中間抽象過程。雖然對於可自主解釋AI系統的研究工作正在進行中,但現在這一領域的系統在這方面做得依然比較差。

舉個例子,雖然計算機在診斷癌症或肺炎種類上可以比人類專家做得更好,與人類醫生相比,它們解釋得出診斷結果原因的能力要差得多。而對於很多可感知的任務,人類則並不善於解釋,比如,他們如何從聽到的聲音中識別出詞語。

能夠容忍錯誤、不需要可證實的正確度或最優解決方案的任務

幾乎所有的機器學習算法都是從統計學和概率上得出解決方案的。因而,要把它們訓練到百分之百的準確度幾乎不可能。即使是最好的語音識別、物體識別和疾病診斷系統也會犯錯誤。對於錯誤的容忍度是一條非常重要的標準。

不會隨時間迅速變化的任務

一般而言,機器學習算法只會在未來的測試樣本分佈於訓練樣本分佈近似時才會幹得漂亮。如果這些分佈發生變化,再訓練就不可避免,因而,相對於新訓練數據的獲取率,最終的成功更依賴於變化率(比如,垃圾郵件過濾器在過濾商業垃圾郵件上做得很好,部分是因為收到新郵件的比率要高於垃圾郵件變化的比率)。

不需要專業的靈巧、運動技能或機動性的任務

與人類相比,在非結構化環境和任務中處理體力操作上,機器人仍然十分笨拙。這其實大部分不是機器學習的問題,而是最新機器人機械化控制器的成果。

在機器學習將會如何影響勞動和工資方面,這篇論文同樣考慮了其中經濟因素的潛在影響。比如,在一些案例中,計算機將會取代人類。

在一些任務上,自動化的價格可能會降低,這可能會影響需求、僱傭和總投入。

作者指出機器學習的影響可能會超過一些之前已經被廣泛應用的發明,比如電力和內燃機。這些進步提高了總生產力,解放了互補性創新的浪潮。

“進行了正確互補性投入(如技能、資源和基礎設施)的個人、商業和社會最終將會繁榮起來。“作者寫道,”而其他人不只失去了分一杯羹的機會,在某些情況下,他們還會過得越來越糟。”

機器學習到底能替人幹哪些工作?《科學》列出了8條評估標準

What can machine learning do? Workforce implications

http://science.sciencemag.org/content/358/6370/1530.full

參考:

https://www.cnbc.com/2017/12/21/how-to-tell-whether-machines-can-do-your-job.html

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回覆“招聘”兩個字。

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態


分享到:


相關文章: