繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

想了解有趣有料的數碼資訊,手機深度評測,數碼選購要點,最新薅羊毛秘訣,動動手指,點擊關注我們。避坑的事交給我們來做吧~


大家聽說過 Deepfake 嗎?

就是那個能把一個人的臉換到另一個人上,如今風靡 B 站的那個技術。

無論你是兩開花的六老師還是沒有開掛的盧姥爺,在 Deepfake 面前都逃不過雞你太美。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

徐錦江老師也通過 Deepfake 成功成為雷神。

誒?不就是原版嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

當學霸君還在膜拜 B 站各位大神技術高超時,歪果仁對 Ai 技術又有了新玩法。

那就是 Vid2Game 。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

Vid2Game ,顧名思義,就是把視頻做成遊戲。

之前大火的國產遊戲《隱形守護者》,就是把視頻做成遊戲的例子。

我們稱這種遊戲為全交互劇情類( FMV )遊戲。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

但 Facebook 的人覺得這種選路線播片的遊戲方式實在太無聊了,為什麼這種遊戲就不能直接控制視頻裡的角色呢?

於是, Facebook 裡一個叫 AI 研究室的部門就開發了 Vid2Game 。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

有才的人就是不一樣,遊戲玩不爽還能自己做……

哪像學霸君這種學渣,打王者榮耀輸了還要怪隊友菜。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

雖然我們很少聽說 Facebook 的 AI 部門,但他們的實力一點也不弱。

之前就跟華盛頓大學合作研發出 Photo Wake-up ,讓畫中人物走出來。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

這一次他們已經不滿足於控制畫裡的人物,他們要控制視頻裡的人。

例如在卡塔爾網球公開賽上的費德勒,費天王。

本來這只是一個練球的視頻,看起來沒什麼特別的。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

但經過 Vid2Game 的處理以後,費天王就變成了 Facebook 員工手上的遊戲角色。

按左鍵就往左走,按右鍵就往右走。

甚至連腳下的影子都可以完美跟隨。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

甚至在算法的加持下,他們還能給費天王換個球場,加個對手。

雖然步伐有點奇怪,但視頻裡的費天王確實像一個遊戲人物一樣被操控著。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

據說,這個技術可以應用於一切的視頻,任何視頻中的人都能被你控制。

有了這個技術,學霸君以後就不止是發照騙,還能發假視頻了!

像下面這個視頻,學霸君把自己加進去走來走去,大家能分辨出誰是我嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

雖然學霸君覺得這個技術很有意思,但仔細想想……

用這個技術做假新聞,甚至假證據,不是很簡單嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

例如之前很火的許志安和黃心穎被出租車司機拍到的視頻,用這個技術偽造那叫一個輕而易舉啊。

一個空出租車背景,用 Vid2Game 獲取他們過去的視頻,然後按左鍵就能擁抱。

一個出軌視頻就這麼完成了?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

(當然,這個視頻是真的)

可能有人問:我連出軌的資格都沒有,還怕你的假視頻?

那往近地說,萬一有人盜了你朋友的微信,發出一條你朋友向你借錢的視頻。

你會懷疑嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

可能有同學會說:用這個技術做出來的人走得那麼奇怪,一看就是假的啊,誰會相信啊?

這樣想的同學未免太小看 AI 了吧?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

要知道換臉其實早在 2016 年已經興起,當時的換臉算法叫 Face2Face 。

Face2Face 的換臉只能讓視頻裡的人模仿真人的表情,而且特別的假。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

但到了 2017 年 Deepfake 發佈的時候,換臉早已讓人看不出破綻。

你能分辨下面這個是不是女神蓋爾·加朵本人嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

而且大家有沒有注意到, 2016 年的 Face2Face 需要至少一個真實的人在場錄入表情。

但到了 2018 年的 Deepfake ,即使朱茵和楊冪都不在場你也可以換掉她們的臉。

看著這發展速度,你現在還覺得 Facebook 的 Vid2Game 不可能影響你的生活嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

我們也不是第一次聽說視頻“造假”了,為什麼學霸君現在這麼擔心假視頻的泛濫呢?

過去 20 幾年,即使是好萊塢頂尖的特效團隊也要在換臉上花費幾個月的時間。

而使用 Deepfake 的人甚至不用會編程,看著教程就能把臉換了。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

好萊塢換臉技術讓逝世的演員出現在電影裡

門檻的降低必然導致技術的濫用,而且隨著 AI 的發展,這一類的技術還會越來越多,製作假視頻還會越來越容易。

除了學霸君上面講到的 Vid2Game ,斯坦福還在開發能學習人講話的語氣和習慣的算法 Idiap 。

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

試想一下,未來某一天你收到了一個勒索視頻,背景是你的家,你的父母或者孩子被劫持著,罪犯向你勒索。

視頻裡傳來你父母或孩子的聲音,說話的語氣和平時一模一樣。

你還有自信自己能分辨真假嗎?

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨

學霸君承人,這些技術都很有趣,但造假的手段發展得太快,打假的手段發展得太慢,被有惡意的人濫用也是遲早的事。

技術無罪,但怎樣給使用技術的人定罪呢?

(順帶一提,由於技術還沒開源,所以學霸君其實不在巴黎聖母院的視頻裡)

繼換臉之後,AI技術做的“造假”視頻,讓你無法分辨


分享到:


相關文章: