有救了,再也不怕自己的臉出現在某些視頻中了。

一些老讀者都知道我比較關心換臉工具,主要是危害實在是太大了。


自從2017年Deepfake發佈以來,許多女明星深受其害。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

蓋爾·加朵、泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯都是Deepfakes的得意之作。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

除了低俗的將女明星的臉換到不可描述的視頻中,還有的人用Deepfake 惡意攻擊他人。


印度記者 Rana Ayyub就是個例子。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

自揭露了印度官員的黑幕後,就遭到官員的瘋狂報復,除了死亡威脅,還用上了Deepfake 換臉。


他們將Rana Ayyub 的面孔與不可描述的視頻中主角換臉,並散播出去。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

看到這個視頻,就連朝夕相處的家人都不願意相信她,更別提網絡路人了。


一些網友紛紛在網絡上對 Rana Ayyub 進行人身攻擊,語言能多下流就多下流。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

最終,Rana Ayyub 在各方面重壓心瘁住院了。


可見換臉視頻的可怕之處,這種視頻毀掉一個人真的是太簡單了。


哪怕再恩愛的夫妻看到被換臉後的視頻,也不免心生隔閡,更別提同事、路人了,無腦狂噴只是簡單操作。


不僅僅是女生,男生也受不了被這樣對待吧。


雖然這項技術已經被明令禁止,但是網上還流傳著各種安裝包,下載次數更是讓人瞠目結舌,更別提還有相關教程!


所以如何防止和判斷視頻是否是真實的成為關鍵,許多科技公司也為之努力。


2018年,谷歌和Jigsaw合作,發佈大型可視化Deepfake數據集,現已納入Face Forensics視頻基準測試。


並徵集了3000多名真人親自上陣,拍攝合成視頻,期待為視頻鑑別的發展貢獻更多的力量。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

通過真實視頻和合成視頻進行對比檢測出視頻的真假。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

當時,谷歌的技術精確度已經超過96.4%,並且還在不斷的優化。


在這裡先誇誇谷歌,挺良心的。


但是這完全治標不治本,僅僅能檢驗出視頻真假,給受害人的名譽挽回不了太大,畢竟眾口鑠金。


許多人表示要是從源頭防治,難道是不發照片了嗎?


波士頓大學最新研究告訴你,大可不必這樣,只要將自己的照片做些改變就行。


最近,波士頓大學的一篇論文表示,將照片輸入到工具中,Deepfake就不能使用我們的照片了。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

在照片中加入人們看不見的噪聲,Deepfake修改後圖像就會變得模糊不堪。


有救了,再也不怕自己的臉出現在某些視頻中了。

來自網絡

在論文中,無論是加入多少噪點都不會影響我們肉眼見到的原圖,但是會影響Deepfake的換臉後的圖像,數值越大,圖像越模糊。


仔細想想這不就是從根本上解決被換臉的問題嗎,這個構想無疑解決了許多人的顧慮。


雖然看起來比較麻煩,但是從根本上打消了人們的後顧之憂,希望一些社交軟件可以進行參考,在軟件中加入“一鍵保護”功能,輕鬆給所有圖片加入噪點。


分享到:


相關文章: