有救了,再也不怕自己的脸出现在某些视频中了。

一些老读者都知道我比较关心换脸工具,主要是危害实在是太大了。


自从2017年Deepfake发布以来,许多女明星深受其害。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

盖尔·加朵、泰勒·斯威夫特、艾玛·沃特森、斯嘉丽·约翰逊和麦茜·威廉姆斯都是Deepfakes的得意之作。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

除了低俗的将女明星的脸换到不可描述的视频中,还有的人用Deepfake 恶意攻击他人。


印度记者 Rana Ayyub就是个例子。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

自揭露了印度官员的黑幕后,就遭到官员的疯狂报复,除了死亡威胁,还用上了Deepfake 换脸。


他们将Rana Ayyub 的面孔与不可描述的视频中主角换脸,并散播出去。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

看到这个视频,就连朝夕相处的家人都不愿意相信她,更别提网络路人了。


一些网友纷纷在网络上对 Rana Ayyub 进行人身攻击,语言能多下流就多下流。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

最终,Rana Ayyub 在各方面重压心瘁住院了。


可见换脸视频的可怕之处,这种视频毁掉一个人真的是太简单了。


哪怕再恩爱的夫妻看到被换脸后的视频,也不免心生隔阂,更别提同事、路人了,无脑狂喷只是简单操作。


不仅仅是女生,男生也受不了被这样对待吧。


虽然这项技术已经被明令禁止,但是网上还流传着各种安装包,下载次数更是让人瞠目结舌,更别提还有相关教程!


所以如何防止和判断视频是否是真实的成为关键,许多科技公司也为之努力。


2018年,谷歌和Jigsaw合作,发布大型可视化Deepfake数据集,现已纳入Face Forensics视频基准测试。


并征集了3000多名真人亲自上阵,拍摄合成视频,期待为视频鉴别的发展贡献更多的力量。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

通过真实视频和合成视频进行对比检测出视频的真假。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

当时,谷歌的技术精确度已经超过96.4%,并且还在不断的优化。


在这里先夸夸谷歌,挺良心的。


但是这完全治标不治本,仅仅能检验出视频真假,给受害人的名誉挽回不了太大,毕竟众口铄金。


许多人表示要是从源头防治,难道是不发照片了吗?


波士顿大学最新研究告诉你,大可不必这样,只要将自己的照片做些改变就行。


最近,波士顿大学的一篇论文表示,将照片输入到工具中,Deepfake就不能使用我们的照片了。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

在照片中加入人们看不见的噪声,Deepfake修改后图像就会变得模糊不堪。


有救了,再也不怕自己的脸出现在某些视频中了。

来自网络

在论文中,无论是加入多少噪点都不会影响我们肉眼见到的原图,但是会影响Deepfake的换脸后的图像,数值越大,图像越模糊。


仔细想想这不就是从根本上解决被换脸的问题吗,这个构想无疑解决了许多人的顾虑。


虽然看起来比较麻烦,但是从根本上打消了人们的后顾之忧,希望一些社交软件可以进行参考,在软件中加入“一键保护”功能,轻松给所有图片加入噪点。


分享到:


相關文章: