紐約州立大學研究人員訓練AI來檢測“人臉交換技術”

據外媒Techspot報道,人工智能(AI)的發展可能同時會帶來好的和壞的後果。“Deepfakes”——一種在圖像或視頻中把一張臉替換成另一張臉的技術似乎屬於後一類。然而,好消息是:紐約州立大學的研究人員已經訓練人工智能來檢測這些虛假的視頻。

纽约州立大学研究人员训练AI来检测“人脸交换技术”

人工智能和機器學習技術的發展始終存在伴隨著道德問題,但近年來才變得更加突出。AI用於軍事目的顯然是一個問題,但正如我們最近看到的“ Deepfakes ” 的興起一樣,神經網絡和人工智能可以用於更不明顯的,而不是直接有害的目的。

纽约州立大学研究人员训练AI来检测“人脸交换技术”

Deepfake通常指AI創建的虛假色情視頻。這通常涉及對視頻畫面進行“換臉”,將名人或女演員變成了色情視頻的主人公。因此,像Twitter,Discord和Pornhub這樣的服務公司認為這個色情內容是“非通用的”,並選擇將其從平臺上刪除。

然而,色情內容並不是Deepfake技術可以傳播的唯一視頻形式。如果有足夠的時間和技術進步,政治演講可能被偽造,“假新聞”可能成為真正的威脅。

纽约州立大学研究人员训练AI来检测“人脸交换技术”

不過現在紐約州立大學的研究人員可能已經找到了一種檢測這種“人臉交換技術”的方法。研究人員訓練人工智能通過密切監視眨眼來檢測“Deepfake” ; 某些Deepfake剪輯不能可靠地複製,因為它們通常使用圖像而不是視頻進行訓練。


分享到:


相關文章: