我們花了147個小時,整理出人機交互8個熱門知識點

什麼樣的人機交互才是趨於完美的自然交互?

比如我在大街上看到一個帥哥,我身旁的AI助手可以通過我的心跳速度、花痴時間等這些數據,主動去幫我去勾搭這個帥哥。這就是一個很完善的人機交互模式。


我們花了147個小時,整理出人機交互8個熱門知識點


這個想法雖然很簡(qian)單(bo),但人機交互對於產品的體驗來說確實至關重要,為了讓大家能更好地設計交互鏈路,我們盤點了近些年來相關的人機交互知識熱點~


什麼是人機交互

人機交互是一門研究系統和用戶之間的交互關係的技術。這裡的系統既是計算機的操作系統和軟件,也是日常生活中各種各樣的機器。

簡單來說,人機交互就是人與實物的自然“溝通”,其核心研究有2點:一、人機交互技術需要考慮不同用戶的使用習慣;二、人機交互技術的發展要充分考慮到人機交互界面的變化。


人機交互技術起源

人機交互技術的啟蒙,可以追溯到1960年 Liklider JCR 提出的人機緊密共棲的概念;1970年,人機交互(HCI)研究中心的成立,則為人機交互的發展指明瞭方向。

人機交互中常用的技術

在人機交互發展過程中,主要涉及到4類主要技術:語音交互技術、圖像識別技術、AR和VR以及近幾年大火的體感交互技術。

在這4類技術中,語音交互的優勢最為明顯,輸入效率高且交互方式更自然,更容易拓寬產品的使用場景;

圖像識別技術常常被用於自動駕駛和安防領域,用於路面情況檢測識別和人體面部識別等;

AR和VR技術主要營造的是一種沉浸感,不僅有交互,還有顯示和移動;

體感技術是指人們可以很直接地使用肢體動作,與周邊的裝置或環境互動,而無需使用任何複雜的控制設備,便可讓人們身臨其境地與內容做互動。


我們花了147個小時,整理出人機交互8個熱門知識點


趨近於“人人交互”的「AIUI」

AIUI是科大訊飛最新的人機交互解決方案,融合了遠場識別、全雙工交互、語音合成、語義理解、私有語義等單點能力,形成了全鏈路的一體化解決方案。

「AIUI」概念起源

語音交互從移動互聯網時代開始興起,AIUI的興起大概是在智能語音交互發展的第四階段,即產品無實體按鍵可被語音喚醒階段之後。

我們花了147個小時,整理出人機交互8個熱門知識點

AIUI在傳統的交互鏈路基礎上增加了語音喚醒系統,同時對3大核心技術進行迭代升級,比如在語音識別技術中增加麥克風陣列和無效拒識技術;在語義理解中增加對話管理和上下文理解、糾錯等技術;在語音合成中加入情境和情感分析等。

想要了解「AIUI」概念起源這塊更多知識點的同學可以戳下列課程繼續學習哦~

我們花了147個小時,整理出人機交互8個熱門知識點


「AIUI」技術入門

AIUI的人機交互流程分為感知、認知、處理、表達四部分。

在AIUI中有3種不同交互理解功能的設計:任務完成型的交互理解、基於知識圖譜的知識問答類型、基於問答庫的閒聊或問答。

這3種不同類型的交互所涉及到的技術原理也大不相同,任務完成型的交互理解中最主要的技術難點是語義抽取,語義信息單元的抽取一般有2種方式,一是顯規則;二是基於深度學習模型的語義抽取。


我們花了147個小時,整理出人機交互8個熱門知識點


基於知識圖譜的問答類型其實過程並不複雜,用戶輸入問題文本之後,機器會按照語言學方式去理解分析這個問題,然後在知識圖譜中檢索相關的知識,同時將語義理解的結果和檢索出來的知識做一些推理,最後得出系統答案。

閒聊類型的交互過程其實也很簡單,這個過程的技術難點是在於如何利用深度學習技術,訓練出合適的CNN或RNN模型去計算2個問題之間的相似性。

我們花了147個小時,整理出人機交互8個熱門知識點


「AIUI」典型工作流程

對於一個普通開發者來說,AIUI的典型工作流程如下圖所示:


我們花了147個小時,整理出人機交互8個熱門知識點


通過相應的語音合成和遠場拾音技術,機器獲取到用戶的語音輸入信息,再利用AIUI的開放問答和自定義問答等功能對用戶輸入文本進行編碼翻譯從而理解用戶的真正意圖,再將語義理解的結果輸送到業務流程中,系統會分門別類地響應這些意圖,從而產生交互行為。

除此之外,AIUI還為開發者提供自定義技能,開發者可以根據不同產品的交互設計來選取不同的內容技能。


所見即界面——「人機交互」未來猜想

隨著AI技術和物聯網的不斷髮展, 關於下一場革命性人機交互方式的猜想一直都備受業內關注。

被喻為最接近人類自然交互方式語音交互、多場景下的手勢識別、把人類的大腦和計算機連起來腦機交互、分場景的全息操作、無需觸屏的全界面……

這些交互方式對技術和產品硬件的要求都相對較高,在目前技術限制情況下可能很難將其優點發揮出來,但未來等技術和產品發展到一定階段,它們中便會出現新的主流人機交互方式。


分享到:


相關文章: