「刷臉時代」到來,你的臉還安全嗎?

越來越多的地方可以刷臉通行了。

據南華早報稱,北京的新機場馬上要採用人臉識別技術代替人工安檢系統,通過系統來捕捉旅客現場的照片與身份證照片進行比對,然後把這個比對值提供給安檢工作人員,安檢工作人員就可以通過這個值,再根據自己的比對來判斷旅客是不是同一個人,相當於增加了一道安全的防護的保障。

人臉識別安檢系統安全便捷,智能高效,不僅方便了旅客過檢,還解決了在發生突發情況需要核查旅客過檢信息時無法實現快速查詢、檢查效率低、員工勞動強度大、人工成本高等問題。

人臉相比指紋等其他生物特徵數據的一個巨大區別就是它們能夠遠距離起作用。人們只要有手機就可以拍下照片,供人臉識別程序使用。人臉識別技術被設想應用或已經應用於門禁識別、交易支付、公安追蹤等眾多領域。

不過這也引發了人們關於隱私安全等方面的顧慮。

就像Facebook可以獲得人們到訪某個景點的信息,然後使用人臉識別技術在自己的網站上找到這些人,向他們發送旅遊廣告,人們的臉部數據也通常在不知不覺之中被採集和記錄下來。

人臉識別是否會帶來隱私安全隱患?

如今,執法機關在追蹤罪犯方面擁有了一個強大的武器,但它可能會令公民隱私遭受巨大的損害。比如上週五,在谷歌、亞馬遜之後,另一家硅谷巨頭微軟也在內外阻力之下選擇和美國政府在人臉識別計劃上“分手”了。

最近微軟因一份涉及人臉識別軟件的政府合同而受到廣泛抨擊,微軟公司表示,它將更加謹慎地考慮這方面的合同,並敦促立法者規範此類人工智能技術的使用,以防止人臉識別技術被濫用。

上週五,微軟總裁兼首席法務官布拉德·史密斯(Brad Smith)專門發表了一篇博文,並在裡面寫道:

“考慮到這項技術被濫用的可能性和廣泛的社會影響,政府在人臉識別方面的立法似乎顯得尤為重要。”也就是說,“如果沒有一個縝密的技術方案,那麼政府在決定追捕、調查乃至逮捕哪些人的時候,就將依賴於錯誤或者帶有偏見的技術。”

微軟是第一個對人臉識別提出公開質疑的硅谷巨頭,但不是第一個受到質疑的科技公司。

此前,谷歌、亞馬遜等公司就都因為向美國政府和警方出售 AI技術遭到了來自民間自由團體、公司內部員工和眾多學者的強烈譴責。

亞馬遜的妥協 :科技巨頭是向軍方橄欖枝伸手還是向輿論壓力低頭?

今年五月,亞馬遜因為正在為政府和警察部門推銷其一款名為Amazon Rekognition的產品而被推上風口浪尖,此事引起輿論界軒然大波。

“刷臉時代”到來,你的臉還安全嗎?

Amazon Rekognition的技術可以實時識別、跟蹤和分析人員,並在單幅圖像中識別多達100個人。它還可以快速掃描收集的信息,與數據庫數千萬張面孔進行比對。消息已發佈便瞬間引起了一大波恐慌,美國公民自由聯盟組織了30多個民權組織聯合抗議亞馬遜和政府的合作,要求亞馬遜CEO貝索斯停止向政府出售Rekognition。

大部分抗議者認為,如果政府可以利用精準的人臉識別,那麼就將利用這個系統跟蹤和監視民眾,個人隱私就會被公共權力毫無邊際地侵犯。Rekognition 技術的廣泛使用會給有色人種、非法入境移民、抗議示威民眾的人身自由權利帶來可怕的後果。

亞馬遜內部的100多名員工更是向CEO傑夫·貝索斯(Jeff Bezos)遞交了一份公開信,要求公司停止向ICE和其他執法機構出售侵入性和違憲的Rekognition面部識別技術。

這些員工在聲明中言辭激烈地寫到:“我們公司不應該幹監視群眾這種蹚渾水的事情; 更不應該和警方在安保方面有過密的合作; 我們不應該支持那些監督和壓迫邊緣人群的公共權力機構。”

“如果沒有一個不帶偏見的技術,那麼執法部門就可能利用這些帶有偏見的算法或缺陷的技術方法來決定跟蹤、調查,甚至逮捕哪些人,從而做出不公正的結論。

但是科技公司真的會因為各方的抵制而停止與政府和軍方在人臉識別領域的合作嗎?恐怕不。亞馬遜的 AI 負責人 Matt Wood 在回應抗議聲的博客中寫道:“新技術能力一直都存在風險,以後也會如此。每個選擇使用技術的組織必須採取負責任的行動,否則就得面臨法律懲罰和公眾譴責的風險。AWS 會認真對待自己的責任。但我們認為,不能因為某些技術未來可能被人濫用就禁止這些技術的發展,這樣是不對的。”

無獨有偶,因和五角大樓合作展開Maven項目而飽受指責的谷歌在宣佈人工智能7大原則之後仍然給自己留了個臺階,表示將繼續與美國政府和軍方開展在網絡安全、培訓、退伍軍人醫療保健、搜救和軍事招聘方面合作。這家網絡巨頭正在爭取兩項數十億美元的國防部門辦公和雲服務合同。

人臉識別的偏見與缺陷

其實,早在2016年,FBI就開發過一個人臉識別系統,背後還有一個41.1億張照片的數據庫。

當時FBI通過與18個州交換合作,得到了簽證、護照、國防生物識別數據庫、駕駛證等證件上的照片——以及3千萬張曾經犯罪的入檔照片。

FBI還為這個數據庫專門取了個“下代識別”(Next Generation Identification)的名稱。

然而,據英國衛報報道,FBI 的人臉識別算法準確率只有85%,往往會有兩種失誤情況:一種是錯誤匹配,冤枉了無辜的平民;另一種則是漏報,即錯誤放走了出境或入境的罪犯。而識別系統在識別黑人比識別白人的出錯率更高,也就是說在執法時,黑人被誤判的幾率更大。

這暴露了人臉識別系統通常具有出錯率高的缺陷,尤其是難以識別和區分膚色較深的人。

MIT Lab一項名為《Gender Shades》的研究項目就發現,人臉識別軟件中的不同性別和膚色的人的時候會產生偏差。在淺膚色男性的錯誤率為0.8%,而對於深色皮膚的女性則錯誤率高達34.7%。研究人員將這種偏差成為“算法偏見(algorithmic bias)”。

黑人研究人員Joy Buolamwini選擇了微軟、IBM和曠視(Face++)三家的人臉識別API,對它們進行性別判定的人臉識別功能測試。但是她發現只有兩個平臺能識別出她的臉,而且這兩個平臺都把她的性別給弄錯了。

“刷臉時代”到來,你的臉還安全嗎?

為了證明她不是特例,Buolamwini於是嘗試分析這些人臉識別技術軟件在識別不同人種、不同性別方面的準確率,結果發現這幾個人臉識別系統對膚色較深的女性的分類誤差率更高。

“刷臉時代”到來,你的臉還安全嗎?

她解釋說,這種“算法偏見”(algorithmic bias)存在的主要原因首先是訓練圖像和基準數據集缺乏多樣性,其次是深色人種人臉特徵較難提取,這兩點限制了人臉識別技術的準確性。

由於人工智能很大程度上依賴於訓練數據,所以對人工智能進行訓練的數據情況,將在很大程度上決定AI的智能程度。因此,如果用來訓練AI模型的數據集中,白人男性的數據多於黑人女性,那麼系統對後者的識別能力就會不如前者。

Joy Buolamwini指出,如果這些人臉識別技術用於移民案件管理或者貸款發放評估方面,那麼產生的不靠譜的結果將使很多人得到不公正的待遇。

Kairos(人臉識別及 AI 技術初創公司)的 CEO Brian Brackeen 發表了一篇反對將人臉識別應用在執法工作中的文章,文章中寫道,在種族歧視嚴重的美國,非白人受到更嚴格的審查,人臉識別只會加重“不平等”。在數據庫還不夠完善的當下,讓技術去“指認”一個人是否犯了罪是極其不負責任的。喬治城大學法律學院隱私與科學中心的研究就表明,接近一億二千萬的美國人成為美國政府人臉識別技術的應用對象。而這一個數據在中國則更加龐大。

鑑於人臉識別技術仍未成熟,如果完全不受監管的話,這項技術可能會對公民平等和人身安全構成威脅。

敏感的隱私問題:人臉識別會成為明天的
利維坦嗎?

微軟總裁兼首席法務官布拉德·史密斯在發表的博文裡面提到:

“正像凡是工具總有兩面性,就算是掃把,我們也都可以把它用來掃地,也可以用來敲別人的頭懲罰別人。人臉識別技術能夠幫助家庭找到失散已久的親人、也可以幫助警察在茫茫人海中找出準備發動襲擊的恐怖分子,這些是它能為我們所利用的好處。但同時,人臉識別技術也帶來了根本的關於隱私權和自由表達權利的討論,這項技術若是被公共權力或者企業所誤用乃至利用,後果是非常可怕的。”

人臉識別是目前 AI 領域裡應用最廣泛的技術之一,但是帶來的隱私問題也十分嚴重。

“刷臉時代”到來,你的臉還安全嗎?

喬治城大學法隱私和技術中心的助理 Clare Garvie也表達了她的擔憂:人臉識別對言論自由的影響是潛在但不可忽視的。如果人臉識別技術被警方用於監控那些挑戰公共權力的群眾,那就好比用於在遊行示威中,就如同警方在隊伍中穿行,要求在場的每個人都出示身份證明。所有的群眾都在爭取政治權利的過程中加之亞馬遜在科技領域的影響力,會有更多執法機構願意參與進來。

微軟這次的事件之所以引起各方關注,就是因為在上個月微軟的AI 技術被用於在墨西哥邊境分離非法入境者及其子女。事件被曝光後,微軟短暫地在網站上刪除了其與美國移民和海關執法局簽訂合同的文章,但仍然受到廣泛抨擊。

此外,由於人臉不僅僅能表明身份,透露的許多其他信息同樣能由機器讀取,更多人擔心這些推測數據會被用於不正義的地方。斯坦福大學的研究人員就表明,面對一個男同性戀者和一個異性戀者的照片時,算法識別他們性取向的準確率可以達到81%,而人類只能達到61%。在那些視同性戀為犯罪的國家,一個能從面部推斷出性取向的軟件讓人恐懼。

今年五月,美國公民自由團體已經呼籲科技公司停止向政府提供面部識別服務,認為這是對公民權利的侵犯。各家公司都表示將更加謹慎地考慮這方面的合同,並敦促立法者規範人工智能技術的使用,避免這些技術受到執法者的濫用。

在歐盟,今年五月新出臺的GDPR數據保護法已禁止企業在未獲得用戶特定同意的情況下收集人臉識別所需的生物特徵數據。

諸多文章和質疑都表明,人臉識別被濫用的隱私和安全問題不能再放任不管了,政府必須在其中扮演立法者的角色,科技公司也不能對倫理問題視而不見,是時候改好好反思科技的道德價值觀了。

結語

在聖經故事中,利維坦一隻大水怪,因為不受控制,它憑藉著巨大的身型攻城略地,把人類一個又一個的吃掉。

人臉識別技術,抑或是人工智能技術也一樣,如果沒有完善的法律約束使用這項技術的應用領域,保證他們用於合法、道德的場景,那麼科技就會助紂為虐,而不是像科技公司所說的那樣,改善我們的生活質量,讓我們過上更加安全、舒適的生活。

所以人臉識別技術的明天不僅要追求精準的”高度”,更要守著公民權利的“底線”啊。

參考鏈接:

http://gendershades.org

https://www.icrac.net/open-letter-to-amazon-against-police-and-government-use-of-rekognition/

-End-


分享到:


相關文章: