「僞人工智慧」三大特徵新鮮出爐,對號入座閱讀

不可否認,人工智能現在已成為技術發展的主流,並且在用前所未有的力量影響著人們的生活。通過將更多更好的數據、軟件、應用與這項技術結合,人工智能在社會的多個領域裡得以實現。同時,由於技術的不斷髮展,人工智能研究員幾十年來一直在努力解決的問題也正在獲得相應的解決方案。

然而,是風口就會有“虛火”和“偽概念”的出現,人工智能也不會例外:在資本大量湧入,巨頭紛紛入局的情況下,似乎一夜之間,人工智能相關的企業和產品鋪天蓋地襲來。熱潮之下,既有技術的突飛猛進,也夾雜著概念下的虛假繁榮。

“偽人工智能”三大特徵新鮮出爐,對號入座閱讀

雖然人工智能的口號喊的響亮,但實際上建立一項由人工智能驅動的服務很難。究竟困難到什麼程度呢?一些初創公司在實踐中發現,讓人類像機器一樣工作,要比讓機器像人一樣工作容易的多,也便宜的多。

“事實上,用人工來完成一份工作可以讓企業跳過大量的技術和業務開發面臨的挑戰。很明顯,這不會擴展一個公司的規模,但是卻允許一個企業在初期的時候跳過最困難的部分,並獲得一定的用戶基礎,“ReadMe首席執行官Gregory Koberger說道。他表示,自己接連不斷遇到了很多偽人工智能(Pseudo AI)。在他看來,這正是人與人工智能關係的原型。

偽人工智能特徵一:人工代替AI工作

就Koberger對人與人工智能關係的表述而言,最典型的一個案例便是本週早些時候,谷歌Gmail被曝光的任由開發者閱讀用戶郵件一事。

根據《華爾街日報》的報道,谷歌允許數百家外部軟件開發商,通過掃描數百萬用戶的郵件內容來投放更加精準的廣告;而這些開發商可以訓練計算機,甚至讓員工來閱讀用戶的Gmail郵件,對此谷歌卻疏於管理。

“偽人工智能”三大特徵新鮮出爐,對號入座閱讀

此外,還有總部位於聖何塞的Edison Software,該公司的人工智能工程師通過瀏覽數百名用戶的個人電子郵件來改進“智能回覆”功能。當然,前提是該公司並沒有在其隱私政策中提到過會對用戶的電子郵件進行人工審核。

如果對人類取代人工智能進行工作這種做法進行深究的話,早在2008年就已經有苗頭了。當時一家旨在將語音郵件轉換為成本信息的公司Spinvox,被指控在海外呼叫中心通過人工而不是機器來完成相應的工作。

隨後,2016年,彭博社也報道過關於人類會每天工作12小時,以代替聊天機器人為用戶進行服務安排的困境。當時,有相關人員表示,這項工作會讓人頭腦麻木,以至於他們都希望自己能夠被機器人取代。

緊接著,2017年,智能商業解決方案應用Expensify承認,該公司一直在人工轉錄被其稱為使用了“智能掃描技術”處理的部分收據。這些收據的掃描結果被髮布到亞馬遜的Mechanical Turk眾包勞動工具上,而低薪的員工對其進行閱讀和轉錄。

“偽人工智能”三大特徵新鮮出爐,對號入座閱讀

即使是在人工智能領域投入了巨資的Facebook,也會依賴人類充當其名為Messenger的虛擬助手。

偽人工智能特徵二:AI成果造假,獲取投資

在某些情況下,人類會被用於訓練人工智能系統並提高其準確性。一家名為Scale的公司的業務便是提供人類勞動力,為自動駕駛汽車和工智能系統提供培訓數據。比如,“Scalers”會審查攝像頭或傳感器的數據,並對汽車、行人等進行標籤處理,之後通過足夠的人工校對,AI才開始學習識別這些物體本身。

在一些情況下,有些公司會一直用這種方式假裝下去,告訴投資者和用戶他們已經開發了可擴展的AI技術,同時繼續秘密地依賴人類智能。

“偽人工智能”三大特徵新鮮出爐,對號入座閱讀

偽人工智能特徵三:把預設程序稱為人工智能

如今,市面上出現的大多數產品都被冠上了“智能”的標籤,比如,對話式兒童智能機器人,實際上多數是預設程序的玩具;包學包會包就業的AI培訓,實際上就是編程培訓;神乎其神的AI炒股軟件,也不過是用了量化的方法選股而已。對此,阿里巴巴前CEO衛哲甚至論斷,目前偽人工智能比例可能高達90%或者99%。

簡單來說,這些產品不過是“穿了個馬甲”,流行什麼就貼什麼標籤,以為貼上了人工智能的標籤,就真的成了人工智能。目前對於人工智能業界還沒有準確的定義,接受度較廣的就是人工智能需要具有自主學習的能力,因此有產品鑽這個空子,也不可避免。但這也會擾亂市場,對技術的發展蒙上一層陰影。

用戶對人工智能的態度——透明化

聊天機器人Woebot的創始人兼心理學家Alison Darcy表示,“很多時候,人工智能的背後是人工而不是算法。建立一個良好的人工智能系統需要‘大量的數據’,有時投資者在進行投資之前會想知道該領域是否有足夠的服務需求。”

“偽人工智能”三大特徵新鮮出爐,對號入座閱讀

但她表示,這種方法不適合像Woebot這樣的心理支持服務。“作為心理學家,我們要遵循道德準則,不欺騙是非常明顯的道德原則之一。“

不過有研究表明,在人們的意識裡,面對機器比面對人類醫生,會更容易讓他們透露自己的心聲。來自南加州大學的一個團隊用名為Ellie的虛擬治療師進行了測試。他們發現,患有創傷後應激障礙的退伍軍人在知道Ellie是一個AI系統的時候會更容易傾訴自己的症狀。

但是有些人認為,公司應該始終對自己的服務運營方式保持透明。

“我不喜歡這樣。這對我來說是不誠實,是欺騙。從我的角度出發,這些也都不是我想從正在使用的服務中獲得的東西。”一些來自假裝提供人工智能服務,實際上卻僱傭人類進行工作的員工表示,“而在工人方面,感覺我們被推到了幕後。我不喜歡一家公司使用我的勞動力,轉而向客戶撒謊,不告訴他們真正發生的事情。“

這種道德上的窘境也在人工智能系統方面引發了人們的思考。以Google Duplex為例,一個機器人助手,可以與人類展開讓人毛骨悚然的逼真對話,完成餐廳或美髮沙龍的預定,這對人類來說,不是一種很好的感覺。

Darcy表示,“在他們的演示版本中,我感覺被欺騙了。”在用戶的反饋下,谷歌終究還是改變了Duplex的對話方式,在講話前會先表明自己的身份。儘管如此,人們還是覺得有些介意,比如,助手的聲音如果模擬了一些名人或政治家再打電話,會發生什麼呢?

在小智君(ID:Aiobservation)看來,隨著人工智能的發展,多數人已經對人工智能產生了恐懼,因此,在AI技術的應用缺乏透明度的情況下,這項技術並不會真正地方便人們的生活。此外,不管是把裝有簡單預設程序的音箱/機器人稱為人工智能,還是把自動化設備偷換概念稱之為人工智能,這些偽創新的炒作,只會對人工智能的發展產生越來越大的傷害。

人工智能需要的是清醒客觀的判斷以及紮紮實實的努力。所以,就目前而言,對於人工智能的發展,建立一個更務實的發展環境才是重中之重。


分享到:


相關文章: