KaggleDeepfake:計算機小白1秒AI換臉!N種方法教你Deepfake(2

去年,一款名為ZAO的軟件忽然刷爆朋友圈,應用介紹標榜自己是“

頂尖AI技術換臉神器”。這款軟件的操作方法極其簡單,只需要用戶上傳一張照片,用AI換臉功能,就可以將短視頻中的臉換成自己的。你看,就是這麼迅速,你就可以輕鬆deepfake。沒你想的那麼複雜,網速快的話,可能不用一秒你就能得到一段deepfake的假視頻。deepfake當然不僅只有這一種製作方式,這種技術實際上在火起來前,已經在各個領域有很長的運用歷史了。


一、深度學習AI換臉

Deepfake最初是由圖形處理行業的工作人員開發的。NVIDIA,圖形處理單元(GPU)生產領域的市場領導者,一直走在“深度學習”的最前沿。

深度學習屬於機器學習領域的一個新的研究分支,它使用“神經網絡”算法來對視覺數據進行處理以做出預測。近年來,深度學習在包括天氣預報,癌症檢測,以及自動駕駛車輛的響應式導航系統等領域都有廣泛的應用。計算機科學家也正在試驗更加複雜的深層學習神經網絡,如循環神經網絡(RNN)或生成對抗網絡(GANs)。

通過這些技術,媒體制作人能夠通過可識別的人物來創造完全虛擬的視頻,比如華盛頓大學研究院的研究小組,用神經網絡分析了數百萬幀的視頻,選取了與音視頻相匹配的口型,將其嫁接到新視頻中偽造了奧巴馬演講視頻。正是這些備受矚目的假視頻的實驗,推動了媒體對deepfake的大量報道和各界人士的關注。

KaggleDeepfake:計算機小白1秒AI換臉!N種方法教你Deepfake(2/3)


二、Photoshop等圖像處理軟件

即使沒有深度學習和機器學習,像Adobe After Effects類似的圖像處理軟件也可以達到換臉的效果。

一些視頻製作者也會使用一種稱為 digital rotoscoping (動態遮罩)的技術來製作與deepfake換臉類似的效果。這種技術要求創作者在視頻的每一幀中手動勾勒出目標區域,這種方法是個原始且費時費力的過程,但還是有許多人對此躍躍欲試。如澳大利亞藝術家Huw Parkinson利用這一技術將川普的臉替換到權利的遊戲中。

KaggleDeepfake:計算機小白1秒AI換臉!N種方法教你Deepfake(2/3)

[圖片來自bilibili]


除此以外,一些程序員還為deepfake開發了FakeApp、 FaceSwap和DeepFace Lab等工具。這些工具是利用深度學習技術,識別和交換視頻和圖片中的人臉。這些工具無疑大大減輕了對使用者專業技能的要求:拿DeepFace Lab來舉例,它是github上的開源項目,任何人都可以查看源代碼並免費使用,且安裝超級簡單,使用過程也並不複雜,只需要下載打包app解壓即可運行

無數免費的移動應用程序也應運而生,並且都能提供上述部分技術:對視頻的加速和減速,以及面部跟蹤換臉的技術。SnapChat和TikTok以及文章開頭提到的ZAO等應用程序更是使得普通用戶也可以利用這些軟件製作自己想要的假視頻。SnapChat提供的典型功能只需點擊過濾器就可以模擬Rotoscoping技術,用戶點擊一個換臉按鈕,就可輕鬆換臉

KaggleDeepfake:計算機小白1秒AI換臉!N種方法教你Deepfake(2/3)


TikTok,也就是抖音,相信許多人都玩過,它有一個時間控制器,人們可以在拍攝視頻時和拍攝後加速和減慢視頻速度。而上一篇文章中提到的美國眾議院議長南希·佩洛西假視頻就運用到了這項技術。將“醉酒的佩洛西”假視頻與原視頻進行對比,可以清晰看到:假視頻與原視頻速度相比,降低約75%,從Adobe Premiere到iMovie,任何一款視頻編輯軟件都可以輕鬆完成這一操作。


三、低廉技術成本造成的後果

2000年代中期以來,隨著Photoshop和相關圖像處理軟件的普及,以及專門用於色情視頻製作的聚合網站變得越來越豐富,假色情圖片視頻的傳播變得更加普遍。當圖像被這些不法分子掌控時,圖像中被描繪的個體就失去了對自身形象的控制。網絡上稱這種情況為“非自願色情換臉”。這種視頻功用遠不止滿足一些色情產業的需要網上許多流傳出的“非自願色情換臉”假視頻都是針對女性政治家或活動家的,

上傳者希望用這些視頻威脅或者恐嚇女性政治家停止在政治上的相關活動。

與這種卑鄙低劣的手段造成的後果相比,這種視頻的技術成本卻相當低廉,許多假視頻的製作不需要任何技術技能,只需要將現有的錄像剪輯在一起,並以虛假的主題描述傳播。例如,2018年4月,一份BBC報道北約和俄羅斯之間核升級的視頻開始在WhatsApp上流傳。視頻長達4分鐘,內容包括核蘑菇雲、女王從白金漢宮撤離、俄羅斯發射導彈的艦艇以及北約飛機導彈轟炸等場面。隨著視頻的傳播,驚慌失措的觀眾開始向BBC發送信息,隨後BBC發佈聲明,解釋視頻片段是由愛爾蘭營銷公司Benchmarking Assessment Group於2016年上傳的YouTube視頻剪輯而成。最初的錄像是一段30分鐘的視頻,視頻中模擬災難場景中人們的反應。正是這樣一段視頻經過重新編輯描述便輕輕鬆鬆的編造出一條轟動的假新聞。

看完文章的你想必已經明白這項技術其實使用起來十分簡單,然而如此簡單的操作,卻給許多心懷不軌的人看到了機會,色情換臉產業,用於政治攻擊的假視頻等等都將給視頻安全問題帶來巨大的災難。如果你有興趣加入保護視頻安全的行動,

kaggle最新的檢測Deepfake競賽正等待你的加入,未來Deepfake走向又將如何?是否會被永遠禁封?關注我們,我們會在下一篇文章和大家一起探索deepfake的未來發展。


分享到:


相關文章: