李彥宏提出「AI化公司「3條標準,假AI還能「演」多久?

楊國英

近幾年出現的行業風口,每每遭遇著去偽存真的考驗,未來一段時間,要經受考驗的可能是那些偽人工智能了。

大風起於青萍之末。7月,可能是第一次,一些聲稱運用了人工智能的公司被集中爆出“不可告人的秘密”——外媒經過調查發現,不少美其名曰人工智能的高科技,壓根就是真人手動操作的智能人工,在國內,甚至有互聯網公司的某團隊人員,在公司內部被直呼為“某某AI”,乾的卻是抄錄用戶表格的事情……

正本清源,需要確定AI的標準是什麼。


李彥宏提出“AI化公司“3條標準,假AI還能“演”多久?

就這一點而言,9月17日,2018世界人工智能大會上,百度創始人李彥宏在演講中發出了行業內及時而稀有的聲音,李彥宏認為,“一個真正的‘AI化公司’應該是三維一體的——它必須具備AI的思維,擁有AI能力,並且能夠遵循AI倫理。”

正如李彥宏所言,“未來沒有任何一家企業可以宣稱自己與AI沒有關係。”基於這一點,李彥宏給AI化公司提出的3條標準,其實已經極為寬鬆——你可以不是一家AI起家的公司,但只要具備基於萬物互聯的長期戰略、掌握應用開放、開源平臺技術的能力、遵循相應的社會道德倫理規範,仍然可以拿到AI時代的船票!

然而,恐怕,即便是在這樣寬鬆的條件下,一些以AI自我標榜的公司,也註定是沒有前途的。


李彥宏提出“AI化公司“3條標準,假AI還能“演”多久?

以“真人秀”、“角色扮演”替代真正的AI,可能是AI行業最典型的亂象、誤區之一。而事實上,即便是在輔助AI發展的意義上,AI行業最需要的也絕對是海量的人才,而不是用來假扮AI的海量的低廉人工,更可怕的是,由於真正的AI能力將持續發展、開放,現在低成本、低效率的人工扮演AI,未來一定是最為昂貴的。更何況,在社會倫理的尺度上,人工AI也存在致命傷——早在今年5月的貴陽數博會上,李彥宏就曾提出AI倫理四原則,首要原則便是安全可控這一最高原則,而靠人海戰術堆積的偽AI,顯然讓信息安全無從談起。

遺憾的是,AI一時被人工“偽造”可能是一種必然,畢竟,多數人對人工智能的瞭解,往往是未知其“人”,只聞其聲。而對於科技公司來說,忽視AI是一種無形的能力,其實已經敗在了思維上:“當人們談及人工智能時,不要將它想象成一個人,而更應看重它能否像人一樣思考”,李彥宏在本屆人工智能大會上的話,堪為行業之警語,畢竟,我們不能否認,並非所有的AI(化)公司在用人工代替真AI時,都是抱著打醬油的心態,對於這些公司來說,錯誤地認為找到了一條AI的捷徑,後果其實更為嚴重。

對人工智能的普遍誤解不止一種,單是在人工智能對“人工”的依賴關係上,李彥宏在8月的智博會上就提出了兩種:一是認為人工智能長得應該像人;二是把人工智能“演繹”成人腦的仿生學。而事實上,除了讓人工在後臺扮演AI,這些誤區在當下還有更多的體現,最直觀易見的,可能就是那些形形色色的機械感有餘、智能化不足的人形機器,本質上,這與“萬物互聯”的思維相去甚遠,而落入了工業產品思維的窠臼;至於在仿生學的意義上發展人工智能,這不僅脫離了人工智能依賴算法、硬件(感知環境、獲取數據)做出科學分析、決策的基本原理,更大大超出了目前人腦科學的水平,因此,那些鼓吹或爭論人工智能複製人腦的聲音,除了像“人形機器”一樣博取眼球,其實毫無意義。

相比非AI、偽AI必然要面對的慘淡現實,真AI公司的前景的確足以鼓舞人心。在國際一線AI公司具備的核心能力中,作為百度人工智能核心的“百度大腦”,已經進入3.0時代,並完整集合了對文字、聲音、圖片、視頻等多模態的數據和信息進行深層次多維度的語義理解,這意味著,從聽清、看清到深度理解,百度大腦已經做到了機器像人腦一樣運作、思考。更為值得注意的是,在百度已經將人工智能開放戰略運用於無人車、Duer OS平臺,並持續推進場景化落地的同時,機器學習領域的論文仍然呈現井噴爆發的狀態,目前每天有50篇新機器學習論文出現。

就全球AI格局而言,中國在AI領域的優勢,也不僅僅止於移動互聯網時代打下的基礎。事實上,人工智能更像是全新的時代篇章,一方面,歷次技術革命,從來沒有任何一次像人工智能一樣,成為一個重大的社會和國家命題,而且被我們迎在了潮頭上;另一方面,如李開復所說,“如果說數據是人工智能時代的新石油,中國就是AI時代的沙特阿拉伯”,而在開發“新石油”資源所需要的資本、政策、工程師紅利、產業升級的市場化訴求等方面,我們基本上無一劣勢。此外,我國堅持開放的願景,也為參與國際化競爭、合作儲備了巨大的潛在空間。

AI領域的去偽存真,一定只是時間問題。其實,媒體或市場對偽AI越來越多的關注,以及李彥宏為行業標準發聲,類似事情的疊加出現絕不是偶然,它既是偽AI現形、淘汰的序幕,也是真AI加速場景化落地、行業規範系統性樹立的先聲。


分享到:


相關文章: