科大訊飛造假?語音識別的真相是什麼?

前兩天我們說過一個科大訊飛造假的醜聞。

事情簡單回顧一下,在剛剛落幕的2018世界人工智能大會上,科大訊飛採用了一種

實時同傳技術

演講嘉賓如果說英文,背後的大屏幕上不僅可以實時顯示英文字幕,還可以實時翻譯成中文。


科大訊飛造假?語音識別的真相是什麼?

我最近去參加的幾次大型會議基本上都已經採用了這種技術,所以這個事情本身看起來不算新鮮。只是感慨,同傳翻譯這個職業快被機器取代了。

不過9月20日,一位同傳譯員在知乎上發文說,訊飛的翻譯根本就不是人工智能翻譯,而是人工翻譯。

第二天,9月21日,科大訊飛就迅速回復:


科大訊飛造假?語音識別的真相是什麼?

科大訊飛從來沒有把同傳翻譯包裝成機器翻譯。

儘管機器翻譯獲得發展,明年能達到英語專業8級的水平,但依然沒辦法代替同傳。科大訊飛沒有提到AI同傳,並沒有造假吹牛,目前的情況是一個誤會。

科大訊飛的智能會議系統有兩種工作模式,一種是全自動翻譯系統識別中文並轉化成英語、日語、韓語等同步顯示在屏幕上,這時候文字展示區Logo會顯示為“訊飛聽見—離線翻譯系統”。

另外一種就是在專業的會議上,直接獲取現場同傳的聲音,再同步到大屏幕上,這時候文字展示區的Logo僅顯示為“訊飛聽見”,科大訊飛沒有做混淆。

科大訊飛造假?語音識別的真相是什麼?

這裡我們梳理一下。

首先,機器的確可以做到實時翻譯,只不過翻譯的效果會很差。其次,在一些對翻譯要求更高的會議上,目前普遍的做法就是讓同聲傳譯員一邊聽一邊說,機器再把同傳翻譯說的內容識別出來,轉換成文字,顯示在大屏幕上。這個過程機器是不需要進行翻譯這個行為的,只需要進行語音識別。

但是後一種做法,的確有可能被包裝成,是機器搞定了一切。

科大訊飛造假?語音識別的真相是什麼?

在短期內的未來,機器還不能取代同傳翻譯,最好的方式,就是人+機器共同完成。

在語音人機交互方面也一樣,智能語音助手之所以還沒有變成科幻片裡的情景,是因為人機交互當中最重要的語義識別這一環,還沒有突破性的進展。

在語音交互當中,機器對人聲音識別的準確率已經高達97%以上,子彈短信是最好的應用證明。但是語義識別的準確率就低得可憐,這意味著機器知道你說了什麼,但是不知道你說的是什麼。

科大訊飛造假?語音識別的真相是什麼?

子彈短信語音識別

蘋果在最新的iOS 12當中,為語音助手Siri增加了一種快捷方式。用戶可以自定義一段語音,來讓語音助手打開相應的程序。

科大訊飛造假?語音識別的真相是什麼?

Siri快捷方式

聽過我們剛才的講解,您一下就會明白這個改動的目的。如果愣要靠Siri去理解用戶這句話是什麼意思,準確率和效率太低了,導致Siri完全不可用。而如果讓用戶自己去錄快捷方式,比如對著Siri喊:呵呵,然後讓它打開相冊。

看起來毫無邏輯,但是至少讓Siri變得可用。蘋果的想法是,如果Siri還不能做到理解,那就先死記硬背吧。

您平時是否會使用語音助手?一般用語音助手的哪些功能?您對您使用的語音助手是否滿意?

歡迎關注科技富能量,互聯網第一科技播客,給您分享最酷科技訊息,最in科技產品!還有最新最潮的語音播報!


分享到:


相關文章: