03.05 聊天機器人和對話式AI是否能瞭解人類的自然語言?

人工智能新世代


15年,谷歌兩個程序員發表了一篇《A Neural Conversational Model》可謂是開啟了聊天機器人系統的新紀元,這種基於Generative modle的對話系統相比於傳統的Retrieval model能自己生成回答一些原來規則裡沒有包含的問題。目前,聊天機器人也是各大互聯網公司重金投入研發一項技術,是人工智能一個非常火的方向,市場上也陸續推出了相關產品,比如蘋果Siri、微軟Cortana與小冰、百度的“度秘”、亞馬遜的藍牙音箱Amazon Echo內置的語音助手Alexa等等。


但是體驗過這些產品的朋友可能感覺到,它們雖然能完成簡單的對話和一些特定的功能,但是整體智能效果還是有待提高,原因也是在於目前開發智能聊天機器人要面對以下幾個挑戰:

1)語境分析

語境分析包含兩個方面:一是語言本身的語境分析,就是要搞清楚語言到底在說什麼,即語言的內容。二是語言的物理語境分析,對話往往關係到語境的物理因素,比如對話的時間、地點、人物。對這些因素都要進行很好的處理。


2)無法統一的語言個性

一個好的ChatBot,既要有一定的泛化能力,能完成日常的對話需求。也要有一定專業能力,能回答指定問題,完成任務。其中泛化能力就要求提供大量的語料庫進行訓練,而大量的語料庫可能對一個簡單的問題,包含不同的回答,比如一個簡單問句 “你來自哪裡?”


為了很好地解決這種問題,其實就需要大量的人工干預,比如制定一些規則去評判文本的個性指標,或者人工提供高質量的語料庫。


3)模型的評判指標或驗證方法

傳統的基於規則或檢索的問答系統,相對來說比較容易判斷對話的結果正確與否,比如:“小狗是一種動物麼?”“是”。但是對於目前比較流行的生成系統,判別一直是一個難題,比如,一些寫詩的語言生成模型,寫出來的效果無法用一個比較合理的量化指標去衡量寫出來的詩的質量好壞,大多還是靠人的打分去判斷。或者提問“今天天氣熱麼”,回答“不怎麼熱”。回答的對不對,怎麼去衡量等類似的問題,不同的人有不同的解讀。這就使得模型的評判或驗證比較困難。

4)回答的多樣性

回答的多樣性對話系統普遍面對的一個通病,比如說下面這個對話,模型會發現很多問題,我只回答“嗯”就可以得到很高的準確率,但是這樣的回答並不是我們想要的效果,我們應該儘量回答一些之前沒有回答過的對話,增加對話的多樣性。


人類的自然語言之所以沒有想圖像那樣在深度學習領域取得好的效果,也是因為其本身就是一種高度抽象化處理的信息,不像圖像信息那麼適合深度學習去處理。從現在的技術來看,開發出具備像人一樣能夠自然交流的聊天機器人目前還面臨著以上各種各樣的技術難題,讓聊天機器人火對話式AI真正去理解人類的自然語言還是有很長的路需要走。


北航秦曾昌


不能。

事實上,光是能重複同樣的行為,並不代表這些機器擁有相當於人類的智慧,也不代表機器代表有同樣的認知能力

自然語言技術從詞性(Morphology)、句法(Syntax)、語義(Semantics)、主題(Topic)、對話(Dialog)、論述(Discourse)等不同層面,其實涉及的技術層面非常的廣。而對話式AI,嚴格上來說是自然語言的應用面。

自然語言和對話AI的技術仍卡在幾個環節

最根本的問題就是不同知識領域的歧異性。光是瞭解金融、醫療領域的術語和對話方式就已經夠折騰人的了。目前為止,我們還沒有辦法去有效地將不同領域的知識和語言模型化、標準化,

而另一個很重要的環節就是我們所有的科學和工程上的研究都是將信息和數據作為模型的基礎。但事實上人類的認知和語言應用深深地受到情感(Affect)影響,而目前對於情感對人類認知能力的影響的研究也不過是最近十幾、二十年的事情。


分享到:


相關文章: