如何保護你的數據產權:刷臉的時代,你真的準備好了嗎?

巨數據和隱私計算與個人數字/數據主權是一種相互相生的關係。這裡的“巨數據”,是指在我們當前高度自動化世界裡生產出來的高度隱私的數據,比如:

1. 接近人的傳感器,比如物聯網產生的數據;

2. 接近人類行為和互動的數據;

3. “巨數據”是高度隱私的數據 — 比如醫療和健康、行為;你可能不介意你的“海淘”、“剁手”數據被亞馬遜和淘寶收集變現(不分給你),但是你一定會介意、甚至恐懼你的醫療和健康數據被收割。

“巨數據”裡這種高度隱私的數據我們也稱之為“重隱私”的數據。“重隱私”數據的一個特點就是和我們的生物特徵有很高耦合度的綁定,這也是來自於技術進步—因為在過去,由於技術的限制,隱私數據和生物特徵的耦合度比較低—所以那個時代的隱私保護並沒有今天這麼迫切。這種和我們生物特徵耦合度比較低的隱私數據,可以稱之為“輕隱私”數據,比如你在亞馬遜上的“海淘”記錄,你的互聯網瀏覽記錄等。

和生物特徵高度耦合的“重隱私”數據的一個典型例子,就是我們的“人臉”

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

“人臉”這種和生物特徵高度耦合的“重隱私”數據,一直具有“兩重性”— 一方面是我們的“重隱私”,另一方面又是我們人類成為社交性生物的一個重要“工具”—人臉是我們表達情感的最主要的工具(另外一個重要“工具”是聲音/語言),人臉的豐富表情可以傳達更多、更豐富的信息,這是人類智能進化的一個重要體現。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?
如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

(Twitter:Humans have more facial muscles than any other animal on earth - 22 on each side of the face.)

人臉肌肉比地球上任何其他動物都要多:每半邊臉上有22條“表情”肌肉。

我們人類進化出的這個不同凡響的“社交智能”,讓我們的“臉”成為一個社交工具—和我們另外一個社交工具—聲音/語言一樣,臉成為一種“表達”的載體。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

但是每個人只有一個固定的臉面(雖然隨著年齡段有變化),表達力還是有約束的。有時候我們會想,如果能夠“變臉”該有多好啊!

比如:

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

(HBO - Hall of Faces - Trump)

在互聯網時代,我們的“社交”表達其實不是直接“傳達”的,而是通過“數據”來傳達的,所以如果能夠有技術加工數據,我們的“臉”的表達力會有一個飛躍。人工智能技術近年來的飛速發展,讓我們的“臉”部表達力有了一個極大的飛躍:

可以讓你成為任何人、在任何場景真實再現。這個魔術般的技術只不過是近年來高速發展的“人工智能”技術的一個應用而已。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

最近國內大熱的ZAO換臉APP,就是來源於這個技術的一個開源軟件“Deepfake”

這個技術“突破”點在哪裡呢?主要就是Deepfake突破了所謂的“恐怖谷”(Uncanny Valley)— “恐怖谷”理論是這樣的:恐怖谷理論(另名詭異谷,英語:Uncanny Valley;日語:不気味の谷現象)是一個關於人類對機器人和非人類物體的感覺的假設。它在1970年由日本機器人專家森政弘提出,但「恐怖谷」一詞由恩斯特·詹池於1906年的論文《恐怖谷心理學》中提出,而他的觀點被佛洛伊德在1919年的論文《恐怖谷》中闡述,因而成為著名理論。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

(Uncanny Valley graph - wiki)

森政弘的假設指出,由於機器人與人類在外表、動作上相似,所以人類亦會對機器人產生正面的情感;直到一個特定程度,他們的反應便會突然變得極為負面。哪怕機器人與人類只有一點點的差別,都會顯得非常顯眼刺眼,整個機器人顯得非常僵硬恐怖,使人有面對殭屍的感覺。可是,當機器人和人類的相似度繼續上升,相當於普通人之間的相似度的時候,人類對他們的情感反應會再度回到正面,產生人類與人類之間的移情作用。

「恐怖谷」一詞用以形容人類對跟他們相似到特定程度之機器人的排斥反應。而「谷」就是指在研究裡「好感度對相似度」的關係圖中,在相似度臨近100%前,好感度突然墜至反感水平,回升至好感前的那段範圍。(來自於維基百科)

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

(Uncanny Valley example - Left - Angelina Jolie in Beowulf)

在“恐怖谷中”(Uncanny Valley example - Right - Avatar)

2009年的大片“Avatar《阿凡達》“是第一次越過了“恐怖谷”的影片,就是因為在動作捕捉中用了更多的採樣點。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

現在的人工智能技術”Deepfake“是通過對巨量的數據進行“訓練”得到的算法,已經可以很輕鬆地突破“恐怖谷”了。這也說明人工智能已經突破以前只有人類才能涉及的認知領域,我們生活的時代,真的要很不一樣了

ZAO換臉APP在開始病毒傳播的前幾天成了一個刷屏的爆款軟件,因為它實在是太震撼、太好玩了,你可以用你的臉替換任何影視場景裡的明星臉,過足過去只有明星才有的“看片”快感。但是ZAO熱了沒幾天,很多人緩過勁來,才突然覺得“細思恐極”— 能幫我換“明星臉”,難道不能用我的臉欺騙銀行的人臉識別驗證,然後捲走我的錢嗎?!

這時我們才意識到,技術的進步真的是一把“雙刃劍”—讓我們“越來越爽”的技術,也會更加深入地侵犯到我們的隱私。特別是和我們的生物特徵深度耦合的重隱私巨數據。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

怎麼辦?

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

目前對類似ZAO這種A.I.“換臉”技術帶來的隱私安全問題的常見回答是(多數來自使用“刷臉”認證的銀行等機構):這個技術目前還不足以騙過銀行等地方使用的人臉識別軟件。確實,目前拿著打印著你的照片的彩色激光打印紙在銀行人臉識別前晃動可能還不行,而且比如蘋果手機的刷臉解鎖除了採集你的人臉圖像數據以外,還會採集臉部的深度數據以及皮膚淺層的毛細血管數據,不是那麼容易攻破的(據說一般雙胞胎都解不了鎖)。

That’s it?

這種答案顯然不能讓我們安心。你知道類似於“Deepfake”這類換臉軟件的算法是怎麼得來的嗎?Deepfake是基於目前叫做“深度學習”的人工神經網絡智能算法,特別是一類叫做“生成對抗網絡”(GAN — Generative Adversarial Network)的算法,是這位斯坦福大學的學霸小哥提出的:Ian GoodFellow

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

這是一個腦洞大開的算法:創造一個進化的虛擬環境,讓機器生成兩個互相對抗的算法進行博弈,一個模擬,一個判別:

你說這個圖像是真的還是我造假的?

你太挫了,一點都不像!你輸了!

這個呢?

不像!再來

這個呢?

嗯,有點像吧。。。

哈哈,你錯了!我這個還是假的,你輸了!

這樣遊戲兩方就在對抗中進化,直到造出“真實”得你不敢相信的圖像。

很明顯,如果我們把上述進化博弈遊戲的一方換成人類,當人類的認知達到極限的時候,另一方的人工智能程序是否會超越人類?很有可能啊。

在這種“道高一尺,魔高一丈,人工智能一丈五”的遊戲裡,人類可以堅守到何時?很快,人類會發現,最好的算法就是把人類認知排除的算法,讓人工智能對付人工智能。然後我們會發現,這是一場人工智能的軍備競賽,誰有資源研發出來更強的人工智能算法,誰就可以暫時勝出。在我們這個資源綁定的經濟體和社會里,最後只有擁有最多資源的壟斷者可以有玩這個人工智能軍備競賽遊戲的能力,那些沒有資源的人,即大多數人,都會成為失敗者。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

但是,如果有一天,不再參與競賽的人類也許會被“人工智能”覺得多餘,那一天將是一個可怕的日子。

如何保护你的数据产权:刷脸的时代,你真的准备好了吗?

所以,我們目前的資源綁定的經濟體,根本不適應這個人工智能已經到來的時代。

回到“換臉”對隱私保護的挑戰的問題,我們需要做的,是換一個思路。

回到問題的另外一端:如果我們不想通過贏得對人工智能的進化對抗賽來解決問題的話,也許可以用我們進化人類自己的經濟社會的方式來做嘗試?

“重隱私”的巨數據的一個特點是和我們的生物特徵深度耦合。我們可以嘗試進行“解耦合”的方向。

比如一個方向是把我們傳統的單一“身份”和生物特徵進行“解耦合”。我們應該反思單一身份在我們社會和經濟體裡的作用。互聯網開始的信息革命把我們帶入到一個無限可擴展的虛擬現實裡,我們的現實世界早已經大大擴展了,我們的將來是一個包含人類思維空間的世界,裡面可以創造出無數的虛擬空間,在這些空間裡人類將真正主宰自己的命運,並且和人工智能並存,人工智能將成為這個無限世界裡和思維的人類平等的成員,沒有誰能夠奴役誰,因為這個世界足夠大。在每一個我們創造的空間裡我們可以有無數的“分身”,我們不再需要單一的“身份”,也就不存在對與“生物特徵”深度耦合的“單一身份”的需要。

另一個“解耦合”的方向是數據”脫敏“,既然人工智能的新算法已經可以”以假亂真“,為什麼我們不可以加以利用”以真亂假“呢?”以真亂假“就是我們把帶有我們生物特徵的數據進行”脫敏“的方法,我們只是反過來使用人工智能算法而已。目前我們可以對“輕隱私”的數據進行簡單的“脫敏”,但是“重隱私”數據的脫敏需要我們和數據的應用形式一起設計才可以。

(全文完)


分享到:


相關文章: