小心,AI現在可以合成99%真實度的你熟悉人的語音

據華爾街日報報道,犯罪分子通過商業化的人工智能語音生成軟件,向一家英國能源公司多位同事及合作伙伴騙取錢財,使得該公司一天內損失220000歐元(約合173萬元人民幣)。

AI假扮領導聲音,只能跪著被騙

和上面故事描述的一樣,這家英國能源公司CEO接到了來自德國母公司領導的電話。

小心,AI現在可以合成99%真實度的你熟悉人的語音

小心,AI現在可以合成99%真實度的你熟悉人的語音

小心,AI現在可以合成99%真實度的你熟悉人的語音

上述模型設想,可以簡稱為voice transfer(CTI技術中一種語音傳輸方法的設計與實現),它能夠讓語音助理,擁有所有的不同風格,甚至創造一個擁有自己聲音的語音助手。

現階段使用AI的攻擊手段主要有人臉識仿冒(又稱:數字整容)語音克隆兩類,其實現難度並不大。簡單來講,攻擊者會通過AI技術對現有錄音的嗓音、音階範圍等進行模擬,即可模擬發聲。

這是一種基於AI的實時變音技術,在知道了聲音的頻率和聲線等數據後,即可根據提前設定好的文字內容與庫中的文字(帶有音調信息)進行比對,然後按照希望模擬的人的聲音進行發聲。這種發聲方式的擬真度極高,對方很難辨識。

美國眾議院情報委員會於2019年6月13日星期四舉行公開聽證會,討論人工智能對國家安全構成的威脅。

具體來說,聽證會關注的是最近興起的利用deepfake人工智能技術創建的操縱媒體。聽證會的證人都在法律、安全或人工智能開發和研究領域擔任要職。雖然專家們都有不同的想法,但整個董事會至少有一個共識:深度假貨對社會各階層構成了真正的威脅。

什麼是deepfake?

“深度學習”和“假冒”這兩個詞的組合,是使用深度學習技術創建的合成媒體。合成圖像、視頻或音頻可能沒有明顯的邪惡目的。然而,利用真實人物的圖像、視頻或聲音操縱媒體,會帶來道德和法律問題。

深度假貨可以描繪出人們在做他們從未做過的事情或者說他們從未說過的話。基本上,通過給模型提供成百上千的目標圖像,deepfake算法可以從多個角度和各種表達式中學習某人的面部表情。通過訓練,該算法可以預測目標個體的面部表情會是模仿其他人的面部表情。一個類似的過程被用來訓練一個deepfake算法來模仿某人聲音的口音、語調和音調。

此外,運行deepfake算法的技術要求較低。任何一個擁有中高檔消費PC和足夠存儲空間的有積極性的人都可以製造出deepfake。要了解更多關於deepfake算法的信息,請查看Github上提供的開源程序DeepFaceLab和FaceSwap。


分享到:


相關文章: