03.01 大家在人工智能領域談的“情緒識別”是什麼技術?

科技行者


所謂的“ 情感計算 ”領域已經存在了好幾年。有人認為,如果我們要舒適地生活並與機器人互動,這些機器應該能夠理解並適當地對人類情緒做出反應。該領域有很多工作,而且成功可能性很大。

例如,研究人員利用面部分析來發現輔導課中掙扎的學生。AI接受了培訓,以識別不同級別的參與和挫折,以便系統能夠知道學生何時發現工作太容易或太難。這項技術可能有助於提高在線平臺的學習體驗。

人工智能還被用來根據BeyondVerbal公司的聲音來檢測情緒。他們製作了分析語音調製的軟件,並以人們說話的方式尋找特定的模式。該公司聲稱能夠以80%的準確度正確識別情緒。例如,在未來,這種類型的技術可能會幫助自閉症患者識別情緒。

索尼甚至試圖開發一種能夠與人形成情感聯繫的機器人。關於他們打算如何實現這一目標的信息並不多,或者機器人會做什麼。然而,他們提到他們試圖“ 整合硬件和服務來提供情感上令人信服的體驗 ”。

一個情緒智能AI有幾個潛在的好處,無論是給某人一個伴侶還是幫助我們執行某些任務 - 從刑事審問到談話治療。

但也存在道德問題和風險。讓痴呆症患者依靠AI伴侶並且相信當它不具有情感生活時,是否正確?你是否可以根據AI將一個人定罪,將他們歸為有罪?顯然不是。相反,一旦像這樣的系統得到進一步改進和充分評估,一個較少有害和可能有用的用途可能會觸發進一步檢查AI認為“可疑”的個人。

那麼我們應該期待AI繼續前進嗎?情緒和情緒等主觀主題對於人工智能學習仍然很困難,部分原因是人工智能可能無法獲得足夠的良好數據來客觀分析它們。例如,AI可以理解諷刺嗎?一個句子在一個語境中說話時可能是諷刺的,但在另一個語境中卻不是。

但是數據量和處理能力仍在不斷增長。因此,除了少數例外情況,人工智能很可能能夠在接下來的幾十年中識別不同類型的情緒。但是,人工智能能否體驗情感是一個有爭議的話題。即使他們能夠做到,也肯定會有他們永遠無法體驗到的情緒 - 難以真正理解它們。


硅發佈


關於這個問題,百科給出的答案是:情緒識別原本是指個體對於他人情緒的識別,現多指AI通過獲取個體的生理或非生理信號對個體的情緒狀態進行自動辨別,是情感計算的一個重要組成部分。情緒識別研究的內容包括面部表情、語音、心率、行為、文本和生理信號識別等方面,通過以上內容來判斷用戶的情緒狀態。

而判斷用戶的情緒狀態,最終目的還是據此做數字化、個性化營銷,給用戶帶來更極致的體驗。在談應用前,我們還是先看看有哪些公司目前可以提供相關技術吧。

往前追溯,像情緒識別這樣的情感人工智能技術最早是由Affectiva公司開發的,而情緒識別一詞則是由EMRAYS公司提出。兩者都在藉助功能強大的AI軟件,識別人類收看廣告和撰寫評論時表達的情緒。

Affectiva隸屬麻省理工學院(MIT)的Media Lab,2009年由Rosalind Picard 博士和Rana el Kaliouby博士(現公司CEO)聯手創建。在過去的很長一段時間裡,MIT Media Lab一直希望能將情感識別技術應用於各自行業。譬如,日本豐田(Toyota)希望藉助該技術監測司機在駕駛過程中的疲勞狀態,寶潔(Procter and Gamble)希望藉此洞察用戶對於新香味沐浴露的反饋,火狐(Fox)則想借其探究觀眾如何與電視節目互動。為滿足以上一系列的需求,經過多輪的商討和研究,Affectiva應運而生,並獲得MIT Media Lab的全力支持。 Affectiva的第一款產品誕生於2010年,客戶多為媒體、廣告和市場調研公司,如跨國市場調研公司Kantar Millward Brown。 如今,已有1400多家公司正在使用該技術來觀察和分析顧客的情感參與度。Affectiva將其產品定位為一個集計算機視覺、深度學習和世界上最大的情感數據庫於一身的情感智能技術平臺。 三年前,Affectiva發佈了情感識別軟件開發包(SDK),緊接著又推出了移動版SDK,如今,該產品已經能在七種平臺上運行。(

據瞭解,Affectiva的情感識別軟件已經分析了來自87個國家的20億張面孔。

而現如今,Affectiva發現,事實上除了媒體、廣告和市場調研公司之外,教育和醫療健康等領域也越來越關注如何利用情感識別技術記錄情感,連接用戶,洞察用戶需求。

EMRAYS創建於荷蘭,其技術主要用於識別學術和商業文本。公司現主要提供四種產品:其一,軟件即服務(SaaS)平臺,主要針對博主、記者、作家,用於研究並檢查其作品所帶來的情感影響;其二,用於情感分析的社交傾聽(Social Listening)產品;面向媒體機構和企業的廣告定位產品;針對研發者的應用程序界面(API)和軟件開發包(SDK)。

為關注讀者的情緒反饋,EMRAYS的研究工具不僅統計了文本中積極和消極詞彙的數量,分析了作者的語氣。此外,還每天收集社交媒體上的數百萬條反饋,繼而藉助這些數據訓練人工神經網絡,預測人類在閱讀某段內容時可能產生的情緒。EMRAYS表示自己已經分析了十億多個情緒數據點,目前能夠處理的語言包括了英語、挪威語、荷蘭語、瑞典語和俄羅斯語等。而為了觀察軟件的工作原理,EMRAYS還聘請了包括記者在內的用戶參與測試。

當然,國內也有技術公司也推出了情緒識別的相關產品。比如,Face++的面部情緒識別技術,基於Face++的分析算法與技術,能快速識別並返回人臉情緒,提供各類情緒的置信度分數,為企業的應用提供情緒分析支持。

目前,包括聯合利華、寶潔、瑪氏、本田、凱洛格、可口可樂等在內的諸多大型公司都在試圖採用情緒識別來分析和測試客戶對其營銷的反應。其中,家樂氏正在利用Affectiva開發的軟件幫助Crunchy Nut麥片的實現廣告創意,意圖吸引更多消費者。比如,Affectiva發現,當觀眾們觀看了動物主題的各版本商業廣告時,其中以蛇為主角的版本反響最好,但觀看第二遍時,吸引力卻大大降低;再比如,Affectiva發現,以外星人為主題的廣告非常受到觀眾的歡迎,因此,家樂氏推出了外星人主題廣告推動穀類食品銷售。

總而言之,情感人工智能和情緒識別技術正在日趨成熟,並廣泛應用於計算機交互各領域。這意味著,我們正在一起走進一個情緒被監測、評估和記錄的時代。

答案來自科技行者團隊最愛談應用的Dora老師


分享到:


相關文章: