通用人工智能有多遠?AI的六個未解之謎

通用人工智能有多遠?AI的六個未解之謎

1、RL的樣本複雜度問題

從2013年的Atari,到2016年的AlphaGo,到今年的Dota 5v5和星際爭霸,每個遊戲都經歷了N多個(可能如果復原到人類時間是幾百年+)樣本,才可以學到一個好的policy。

如果通用智能出來,那麼一定不是在遊戲裡,而是在現實世界中。現實世界中沒有辦法給你這麼多次嘗試的機會——生命誠可貴,人只活一次。

不管是imitation learning,meta learning還是最近OpenAI出的ADR,距離解決這個問題都還是有距離。甚至我們可能要挑戰增強學習RL這個學習框架本身。

通用人工智能有多遠?AI的六個未解之謎

2、受Yann的影響太深——無監督學習

我是比較相信人們可以從觀看世界中學到東西的。但是怎麼學,學到的是什麼,如何eval,目前我們甚至都沒有定義清楚無監督學習到底是什麼。

宏觀上是這樣,微觀上更是,做GAN,從2015年開始到如今快2020年了,我依然沒有看到一個滿意的權衡圖片生成質量的方法。

再說大一點,GAN給我們帶來一種數據分佈的生成機制,我們如何將這個問題formulate到無監督學習裡面?

3、層級化學習

“我要去樓下吃一碗拉麵。”

這個問題是個RL問題嗎?當然可以這麼做,你成功走到了麵館,我給你個reward,否則沒有。

但實際上不是這樣的,這裡的policy有非常結構化的層級性。

第一個分解動作是,我要先走出我的屋子,然後走到電梯,下樓,出樓,之後走到麵館。

那麼每個動作都可以再細:比如說我怎麼走出屋子?我首先是兩腳蹬地,起身,站直,收臀,然後轉身,走向門。

我們有這樣的問題定義嗎?

通用人工智能有多遠?AI的六個未解之謎

4、圖像分類問題需要被重新評估

A.當你看到一個東西是蘋果的時候,你是如何做的判斷?

你不是某個角度(不管是2D還是3D)來一張圖,甚至摸一摸,然後做出判斷。大家都說多模態,我們現在的CV仍然沒有單模態的陰影。

B.你看到一個桌子,它確實是一個桌子,這沒錯。

但是我要是一屁股坐上去呢?你的分類應該把它當成一個椅子,而不是桌子。

我們的圖像分類算法如果被砍成policy的話,這個policy的state太單一了(就是一張圖),但是其實它的state需要被更加豐富化才可以。

5、可控制的文本生成

大家都覺得這一年多好熱鬧啊,ELMO,BERT,XLNET,GPT-2,Roberta,T5等等。GPT-2可以做的文本生成太牛了,那句子逼真到爆。

但是,你怎麼控制它呢?

比如說我想生成個新聞稿,我要求每個字每句話都跟主題息息相關,責任編輯的名字不能瞎鬧,這個問題到今天都沒有解決方案。

說到底,我們不知道一個RNN語言模型是怎麼工作的,尤其是有condition的時候,什麼時候是根據語言本身的流利度生成(unconditional),什麼時候是根據condition來生成,目前我們沒辦法開發一個合適gating方式來區分。

NLG想真正落地,這個問題不解決的話,一點希望都沒有。

通用人工智能有多遠?AI的六個未解之謎

6、符號主義?

Gary Marcus一直在死咬著這個點。

我的觀點目前比較中立:我們或許應該融合符號主義,而不是完全ditch掉它。

最簡單的,我很欣喜可以看到有些工作是真正把知識圖譜或者語法信息用到NLP問題上面了,而且效果確實有些提升。

但同時,我們真的需要知識圖譜嗎?

BERT訓練的方式能不能作為一個知識圖譜。

同學們,掏出你的BERT模型,輸入一句The CEO of Baidu is \\<mask>。看看它給你返回什麼?/<mask>

我的意思是:三元組,四元組這樣的簡單知識圖譜的定義已經不適用了。

混了工業界一段時間,我看到的真實世界中的數據維度太太太太太多了,三或者四都遠遠不夠,我們要的是個Variable-number元祖。

或許BERT給出了一條新路。

通用人工智能有多遠?AI的六個未解之謎

所以,大家請加油吧!AI的研究上面真的有太多痛點問題需要被解決。上面任何一個問題解決我都認為是偉大的,都會避免下一個寒冬。

請不要再死死盯住一個benchmark不放去刷分了呀年輕人們!要麼落地一個場景,要麼解決一個問題。Research最有趣的就是把一個問題從頭到尾定義得明明白白,頗見功力。

這就是現在NLP的最大能力範圍。


分享到:


相關文章: