一些老讀者都知道我比較關心換臉工具,主要是危害實在是太大了。
自從2017年Deepfake發佈以來,許多女明星深受其害。
蓋爾·加朵、泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯都是Deepfakes的得意之作。
除了低俗的將女明星的臉換到不可描述的視頻中,還有的人用Deepfake 惡意攻擊他人。
印度記者 Rana Ayyub就是個例子。
自揭露了印度官員的黑幕後,就遭到官員的瘋狂報復,除了死亡威脅,還用上了Deepfake 換臉。
他們將Rana Ayyub 的面孔與不可描述的視頻中主角換臉,並散播出去。
看到這個視頻,就連朝夕相處的家人都不願意相信她,更別提網絡路人了。
一些網友紛紛在網絡上對 Rana Ayyub 進行人身攻擊,語言能多下流就多下流。
最終,Rana Ayyub 在各方面重壓心瘁住院了。
可見換臉視頻的可怕之處,這種視頻毀掉一個人真的是太簡單了。
哪怕再恩愛的夫妻看到被換臉後的視頻,也不免心生隔閡,更別提同事、路人了,無腦狂噴只是簡單操作。
不僅僅是女生,男生也受不了被這樣對待吧。
雖然這項技術已經被明令禁止,但是網上還流傳著各種安裝包,下載次數更是讓人瞠目結舌,更別提還有相關教程!
所以如何防止和判斷視頻是否是真實的成為關鍵,許多科技公司也為之努力。
2018年,谷歌和Jigsaw合作,發佈大型可視化Deepfake數據集,現已納入Face Forensics視頻基準測試。
並徵集了3000多名真人親自上陣,拍攝合成視頻,期待為視頻鑑別的發展貢獻更多的力量。
通過真實視頻和合成視頻進行對比檢測出視頻的真假。
當時,谷歌的技術精確度已經超過96.4%,並且還在不斷的優化。
在這裡先誇誇谷歌,挺良心的。
但是這完全治標不治本,僅僅能檢驗出視頻真假,給受害人的名譽挽回不了太大,畢竟眾口鑠金。
許多人表示要是從源頭防治,難道是不發照片了嗎?
波士頓大學最新研究告訴你,大可不必這樣,只要將自己的照片做些改變就行。
最近,波士頓大學的一篇論文表示,將照片輸入到工具中,Deepfake就不能使用我們的照片了。
在照片中加入人們看不見的噪聲,Deepfake修改後圖像就會變得模糊不堪。
在論文中,無論是加入多少噪點都不會影響我們肉眼見到的原圖,但是會影響Deepfake的換臉後的圖像,數值越大,圖像越模糊。
仔細想想這不就是從根本上解決被換臉的問題嗎,這個構想無疑解決了許多人的顧慮。
雖然看起來比較麻煩,但是從根本上打消了人們的後顧之憂,希望一些社交軟件可以進行參考,在軟件中加入“一鍵保護”功能,輕鬆給所有圖片加入噪點。
閱讀更多 猿大俠 的文章