偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

隨著修圖軟件的迭代升級,在社交媒體上我們知道,有圖已經不一定有真相了。

而且隨著現在科技的發展,就連視頻都不一定是真的了,特別是在人工智能的加成下,就像我們上次說到的蓋爾加朵的小視頻。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

而且最近,在美國的社交媒體上,還有一段奧巴馬的演講視頻,也是嚇壞了不少人。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

視頻中的聲音和麵部表情完全和奧巴馬本人一致。但如果現在告訴你整個視頻完全是由人工智能偽造合成的,你怎麼想?

這項技術已經引發了美國國防部高級研究計劃局的關注和思考。這種偽造最可怕的地方在於,想要掌握它太容易了。

過去,偽造圖片或者視頻也是可以完成的,不過這些圖片無論是通過巧妙的拼接,或者逼真的CG動畫,都需要專業人士和大量的時間成本。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

而現在,人工智能把這項專業又高深的技術拉到了普通人的面前。現在,任何一個普通人,只要掌握某個公眾人物幾百張照片,就能通過人工智能偽造出一張照片出來。

是的,只要幾百張。一般來講,要讓人工智能熟練掌握一項技能,需要海量的數據。拿偽造照片這種事情來舉例,過去需要幾萬張照片才能把人工智能訓練好。

給你們看看學習之後的偽造效果

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

但是人工智能也在迭代和進步。用業內術語來講,就是人工智能的模型在不斷更新。其中最厲害的一種叫做:

生成式對抗式網絡

(GenerativeAdversarial Networks)

英文縮寫是GAN。這個模型被今年的《麻省理工科技評論》評選為了全球十大突破性技術。上榜的理由是:它給機器帶來一種類似想象力的能力,而且讓它們變得不再那麼依賴人類,但是與此同時,也把它們變成了一種能力驚人的造假工具。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

通過GAN生成手寫數字

簡單來說一下GAN的原理。它由兩個神經網絡組成,一個叫做“生成網絡”(Generator Network),一個叫做“判別網絡”(Discriminator Network)。

生成網絡要做的事情就是,學習一組圖像,然後加入一個“噪聲”,這個噪聲可以理解為一種不確定性,把這個變化融入到圖像裡,然後生成一個新的圖像。“生成網絡”的唯一目的是,騙過“判別網絡”。而“判別網絡”要做的事情就是,這張圖是不是原圖,是否被動過手腳。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

就像你女朋友要你把她拍成蓋爾加朵,這時候你就是“生成網絡”,你的女朋友就是“識別網絡”,你拍了無數張照片,每一張都被你的女朋友指出哪個地方拍的不對,這根本不是蓋爾加朵,進行一點一點的改進,直到最後女朋友看不出和蓋爾加朵有什麼不同。

這兩套網絡好像是在互相博弈,而且都在通過這個過程不斷提高。最終的結果會是,“判別網絡”永遠無法區分出真假,這意味著,被做過假的圖片,已經可以以假亂真。

現在GAN的說謊能力有多強了呢?它能把黑夜變成白天,把哭的變成笑的,想象出一個地方一年四季的景色變化,哪怕是“靈魂畫手”就在畫布上隨便劃拉了一道子,它能把這條線,變成一副像莫奈畫出的美麗風景。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

看上去很棒是吧?嚇人的應用也有。把人物臉上的墨鏡P掉,把一張模糊的或者打了碼的圖片高清還原,偽造一個人的簽名字體。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

通過GAN可以將圖片從低分辨率還原成高分辨率,最右是原圖

當然還有最開頭說到的那個,偽造視頻。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

現在谷歌的語音人工智能已經可以通過圖靈測試欺騙真人,把聲音和圖像結合起來。今後有視頻,也沒有真相了。

偽造奧巴馬視頻,把神奇女俠P上小電影,到底是什麼技術?

谷歌的人工智能可以幫你打電話,而且對方分辨不出它是人是機器

人工智能領域的專家們表示,不久之後就會很難知道一張照片、一段視頻或一段音頻是否是真實的。在這樣的趨勢下,

“當務之急是保護民眾。”


分享到:


相關文章: