AI讓我開始質疑「看到」的一切

過去我們常說:「耳聽為虛,眼見為實」。這句話在今天可以說已經「正式」不適用了。我們也有權懷疑一切在互聯網上「看」到的東西,因為不管是圖片還是視頻都完全有可能的「假」的,都有可能是人工智能的傑作。

最近,NVIDIA公司利用生成對抗網絡(Generative Adversarial Network,GAN)技術生成了一些人臉圖像。這些圖像顯然可以用「極度逼真」來形容,其真實度相信完全可以騙過你我的眼睛。仔細看下下面這些「人臉」,每一張臉是「假」的,即沒有真實人物原型,完全由AI自主生成。

AI讓我開始質疑「看到」的一切

作為一種神經網絡技術,GAN可以基於對真實照片的學習迭代地生成圖像。然後它會根據原始的真實圖像評估新生成的圖像。這時研究人員會結合不同類型的人臉(比如老年人、年輕人、戴眼睛或不同髮型等)教給GAN一些不同的人臉「風格」。

最終生成的結果只能說令人驚歎。像雀斑、皮膚毛孔、胡茬這樣的小細節也看起來非常自然逼真。

除了生成人臉,GAN也隨即生成了一些貓臉,但效果同人臉相比並不是非常理想。

AI讓我開始質疑「看到」的一切

其實在去年,NVIDIA就利用GAN生成了幾組人臉圖像,但當時的圖像效果並不好。我們可以看到下面這些人臉看起來有些扭曲、生硬,分辨率也低很多。

AI讓我開始質疑「看到」的一切

除了偽造圖像,偽造視頻的技術—「Deepfakes」正在走向成熟。所謂的「Deepfake」是「deep learning」(深度學習)與「fake」(偽造)的合成詞,指專門利用基於人工智能的人體圖像合成技術,生成偽造的視頻影像。這項技術可以將已有的圖像和影像合成至目標圖像或影像上,比如將某個明星或公眾人物的臉合拼接到一個已有的視頻上,效果就是這個明星做了一些自己並未做過的事。

2017年年底,一個Reddit用戶利用Deepfake技術將一些好萊塢女星合成到標記為「限制級」的小視頻裡,併發布到網上。為了合成視頻,這個用戶首先下載了數千條女星們的視頻,並基於這些數據訓練AI算法,最終較自然地將色情女演員的臉替換成好萊塢女星的臉。

AI讓我開始質疑「看到」的一切

現在主流的Deepfake技術雖然已能達到以假亂真的地步,但仍存一些限制。比如你想偽造一個你打網球的視頻,將你的面部結合到一位專業網球選手的身體上,以顯示你的網球水平有多專業。

按照主流的Deepfake技術,你的臉雖然可以被拼接到網球選手身上,但你始終會被限制在網球選手視頻原有的動作中。也就是說,你的動作始終被網球選手的動作所「驅動」,你的臉只不過是「騎在」他的身體上。

而今年9月份,來自海德堡大學的一個研究團隊在European Conference on Computer Vision(歐洲計算機視覺會議)中演示了一種新的Deepfake算法,能使我們突破這個限制。這個報告被髮布在Github裡,報告標題為:「Towards Learning a Realistic Rendering of Human Behavior」。有興趣的小夥伴可以找來看看。

這種新算法可以通過檢查你現有的形象,學習你的樣子,然後將你的整個形象(包括面部、服飾等)映射到網球選手的影片裡。最關鍵的是,研究人員可以讓你在一個虛擬環境中隨意走動,隨意移動你的胳膊和腿,也就是說你的動作將不再受到原影片的限制。有了這種技術,你就可以在視頻裡隨意展現你高超的網球技術、武術動作,每天做100個引體向上和俯臥撐也不是問題。

AI讓我開始質疑「看到」的一切

但是這種新算法不受約束條件的限制。它可以通過檢查你現有的形象,瞭解你的樣子,然後映射你-服裝和所有-到網球職業選手的鏡頭。它甚至可以讓你進入一個模擬的虛擬環境,讓你四處走動,像木偶一樣移動你的胳膊和腿。

而且在這個新系統中,研究人員建模時不需要從每個角度獲取對象的臉。比如你希望偽造一個遠距離的畫面,而你的真實視頻素材裡沒有遠距離的影響。傳統的方式無法進行合成,但這個新算法卻可以計算模擬出遠距離情況下你的形象,並進行合成,進一步突破了偽造的限制。

總之,隨著技術進一步成熟,GAN和Deepfake技術有著巨大應用潛力。這種應用既可能是正面的,當然也可能是負面的。它為人們提供了無限的想象空間,同時也對未來的「打假」工作提出挑戰。


分享到:


相關文章: