人與機器人共存的三種理想方式

近年來,關於人工智能和機器人技術的進步將如何在各種工作中取代人類的言論越來越多。

但大多數人工智能專家認為結果並不那麼悲觀。在未來,人們仍然可以與智能系統一起工作:技術不足以完全接管,或者決策人類的生產方式。很多重要的策略,還無法完全交付給機器。

麻省理工學院教授,《我們自己的機器人》的作者大衛明德爾說,這種混合決策應該比讓人工智能單獨工作能產生更好的結果。只有一個問題:當人類和半智能系統試圖一起工作時,情況並不總是好轉。

失控的智能,沒有人類該怎麼辦

今年在亞利桑那州坦佩的街道上發生了災難性的示威活動,原因是進行最新自動駕駛技術的優步試驗車撞死了一名過馬路的人。像今天幾乎所有的自動駕駛汽車一樣,如果軟件出現故障,還會有一名備用駕駛員介入。但當地警方的一項分析得出結論,司機當時心煩意亂,可能一直在觀看智能手機上的電視節目。

優步汽車依賴於一定程度的自治系統,該自治系統將於明年推出。所謂的3級系統設計在大多數情況下可以讓汽車實現自我驅動,但在面對無法處理的情況時,控制權還是得回到人類身上來。

一些批評者說,一個旨在完全自主但突然偏離的系統對人類提出了不切實際的要求。美國初創企業Nauto的首席執行官斯特凡赫克說:“如果你每天只需要一分鐘,那就不行了。”他的技術用於防止職業司機分心。

失敗指向採用AI的困境遠遠超出無人駕駛汽車。如果沒有精心設計,智能系統進入世界可能會引發人類對技術的強烈抵制。

一旦人們開始瞭解今天的機器學習系統有多麼有限,他們所引起的誇大的希望將會迅速消失,專門研究學習心理學的AI專家Roger Schank警告說。他預測,未來將是一個新的“人工智能冬天”——這是對20世紀80年代後期的一個時期的提及,當時對技術進步的失望導致了退出戰場。

預防這將需要對新自治系統更加切合實際的期望,以及精心設計以確保它們與人類世界相融合。但技術本身就是一個嚴重障礙。

卡內基梅隆大學(Machnegie Mellon University)機器人學教授伊拉·努爾巴赫什(Illah Nourbakhsh)說:“人工智能的工作方式及其失敗的方式對我們來說是陌生的。” “人工智能會讓我們感覺更多參與——或者它是否像處理外來物種一樣?”

半無人駕駛汽車是一個特別鮮明的例子,它依賴於與人們密切合作的近自治系統。但隨著人工智能的發展,諸如此類的混合系統正逐漸滲入許多不同的情況。

機器學習——是最近在該領域最引人注目人工智能類型——是一種先進的模式識別形式。它已經證明機器自己優於人類的能力,如識別照片中的圖像或識別語音。

但是,當它必須根據訓練的具體數據做出判斷時效果較差。在現實世界中,人們經常會對以前沒有遇到的情況做出決定。

問題在於可以匹配數據但不瞭解其重要性的系統。“他們是強大的東西,但他們沒有世界的感覺,”Vishal Sikka,前SAP和Infosys專門從事人工智能的高管說道。

三種理想的人與智能機器共存方式

1 人類充當機器人的後援,在機器人達到其能力極限時接管

許多工作流程正在以這種方式進行重新設計——例如自動呼叫中心,其中語言理解系統嘗試處理呼叫者的查詢,僅在技術混淆時向操作員默認。

優步事故是一個可能出錯的極端例子。根據斯坦福大學的研究顯示,人類駕駛員至少需要6秒才能恢復意識並收回控制權。但是,即使有足夠的時間讓人們的注意力得到恢復,進入某種情況的人也可能看到與機器不同的東西,使得切換遠非無縫。

“我們需要在軟件系統和人之間共同努力——這是一個非常困難的問題,”Sikka先生說。語言的使用凸顯了難度。Sikka先生補充說,人類可以用很少的詞來傳達意義:對說話者和聽者之間的語境的共同理解將這些詞語用意義進行投資。他補充說,計算機科學家尚未研究如何在機器中建立共識。

2 確保敏感任務總是依賴於人

即使在自動化系統已經完成所有準備工作並且能夠完全完成任務本身的情況下,軍事等敏感任務還是交給人類來處理。

軍事無人機,人類“飛行員”,通常位於數千英里之外,被要求做出射擊目標的決定,就是一個例子。 面部識別系統——用於幫助移民官員識別可疑旅行者——是另一種。赫克先生說,兩者都表明人工智能如何在不剝奪控制權的情況下使人類更有效。

對無人機等半自動武器的一種評價是,將它們變成完全自治的系統沒有技術障礙。可以快速更改當前的程序和安全措施。

根據加州大學伯克利分校的人工智能教授斯圖爾特拉塞爾的說法,在國家緊急情況下將人類無人機操作員從循環中移除是一個簡單而容易的步驟,從而促成了一個機器人武器的時代,這個機器人武器做出了自己的決定。什麼時候殺人 “你不能說技術本身只能以防禦的方式和人為控制。事實並非如此,“他說。

3 涉及使用AI的“人在循環”系統

機器人不能完全獨立地處理任務,而是用作人類決策的輔助。壓縮數據並提出建議或指導下一步採取措施的人的算法正在逐漸滲透到日常生活中。

但是,算法只能與他們訓練的數據一樣好——而且他們不善於處理新情況。需要信任這些系統的人通常也需要信仰這些系統。

Schank先生指出算法在棒球中的作用。分析每個擊球手的優勢和劣勢,為球隊傳統主義者所傾向的領域提供了新的方法。他說,這些計算機輔助決策的結果可能最終會比基於純粹人類分析的決策更糟糕。

舊金山優步司機使用的應用程序中的一個錯誤將它們發送到機場貨運站點而不是客運站。“有時人們會盲目跟隨機器,有時人們會說:'堅持下去,這看起來不對。' 這就像許多其他技術一樣,人們會適應,“技術作者蒂姆奧萊利說。

這些可能是相對無害的情況,其中由於被機器引入誤導而幾乎沒有損壞。但是當賭注更高時會發生什麼?

智能技術在發展,但人類能理解它的想法嗎?

IBM將醫療診斷作為Watson的主要目標之一,該系統首先是為贏得電視遊戲節目而創建的,然後再改造成為一種更為通用的“認知”系統。

這樣的系統旨在由專家做出最終決定。IBM堅持認為人類永遠都有最終決定權。但是,對於醫生來說,覆蓋計算機提供的建議是多麼容易,根據定義,該計算機已經分析了更多可比較的情況並且比他們擁有的數據更多?

如果它有保險或其他財務後果,拒絕技術可能會更難。Nourbakhsh先生說:“醫生處於一種他們覺得服從系統的位置。” “簡單地說他們仍然會做出決定並不能做到這一點。”

類似的擔憂在20世紀80年代出現,當時人工智能領域由“專家系統”主導,旨在引導人類用戶通過“決策樹”在任何情況下達到正確的答案。事實證明,太難以預測所有使現實世界決策複雜化的不可預見的因素。

但是基於機器學習的最新AI看起來將被廣泛採用,並且可能更難以進行二次猜測。由於他們在諸如圖像識別等狹窄領域的成功,對這些系統的期望一直在飆升。他們的創作者非常樂意接受炒作。

“我們正在失控的營銷部門,”Schank先生說。他特別挑出 ?IBM,認為該公司在談到Watson時嚴重過度承諾——這是AI圈子中經常聽到的批評。

IBM研究工作的首席運營官達里奧吉爾(Dario Gil)捍衛了近八年前圍繞沃森(Watson)發起一項大型計劃的決定,他認為當時沒有其他科技公司能夠在人工智能方面發揮核心作用。但是,他補充說:“我們對一般情況之間的差異不夠清楚。 “

評估人工智能系統的質量建議會帶來其他挑戰,非專家可能不願意猜測他們不理解的工作機器。

這不是一個新的困境。30多年前,一臺名為Therac-25的放射治療機的軟件故障導致一些患者大量服用過量。Nourbakhsh先生說,技術人員無法識別缺陷,因此機器的使用時間更長。

最先進的機器學習系統中使用的技術,即神經網絡,帶來了額外的挑戰。它們模仿人類大腦如何運作的理論,通過人工神經元層傳遞數據,直到出現可識別的模式。與傳統軟件程序中使用的邏輯電路不同,無法跟蹤此過程以確定計算機為什麼會提出特定答案。這是採用神經網絡的一大障礙。

“這是人工智能的奇特諷刺——最好的系統碰巧是今天最不易解釋的系統,”Nourbakhsh先生說。

然而,一些專家表示正在取得進展,並且不久之後機器學習系統能夠指出導致他們做出特定決定的因素。“這並非不可能——你可以向內看,看看它正在發出什麼信號,”赫克先生說。

像許多在該領域工作的人一樣,他表達了樂觀的態度,即人類和機器一起工作,所取得的成就遠遠超過任何一個人能夠獨自完成的任務。但是,在美好的未來到來之前,還是有很多嚴峻的設計挑戰等待人類解決。

來源:中國機床網 http://www.machine35.com/news/2018-33788.html


分享到:


相關文章: