人工智能到底安不安全?這五個誤解,你中招了嗎

人工智能自誕生以來,在人們的讚美與質疑中不斷髮展著。許多負面的聲音也基本來自於不熟悉人工智能技術如何工作的人。儘管批評人臉識別可能很吸引人,但我們需要學習這項技術到底是如何工作的,將事實與虛構分開,併合理通過設定使用指南等常識規則,來實現它的好處。以下是關於人臉識別和隱私的五個常見誤解,它們有助於澄清這一強大的新興技術。

人工智能到底安不安全?這五個誤解,你中招了嗎

誤解1:面部識別可以跟蹤和監視任何人。

不對。

與人們普遍認為這項技術的使用方式相反,面部識別系統無法識別出系統中(沒有記錄)不在搜尋範圍內的普通人。如果你沒有選擇加入面部識別系統,或者沒有被列入搜查或觀察名單,你就不會被該系統識別。

人臉識別最常見的用例之一是監視“特定相關人員”。根據生物特徵安全條例,只有那些被認為具有威脅性的個人可以被添加到系統中,協助安防監控團隊保護人民和空間環境。安保人員會尋找什麼樣的人呢?也許是沒有監護權虐待孩子的家長出現在孩子的學校,一個商店的扒手慣犯,或者是一名因不滿前公司而對工作地點有嚴重威脅的離職員工。

這樣可以通過在特定位置對個別群體的即時性識別和關注來改善機場、學校和其他地點的安全問題。在這些場景中,面部識別系統能“看到”的人非常少——所有不匹配的人都會被忽略,默認情況下,如果人臉數據與監控列表中的人臉不匹配,人臉數據可能會在幾秒鐘後自動刪除。使用面部識別來識別已知的威脅比僅僅依靠入口的保安人員7*24小時的手動監控有效和準確得多。面部識別系統比人類更善於記住“感興趣的人”的長相,並在他們一進到某些區域就能認出他們。

另一個人臉識別的常用例是安全區域的訪問控制。在這種情況下,人們可以“選擇進入”,這樣他們就可以使用他們的臉來進入建築物或某些限制區域。生物識別技術可以取代或補充目前用於保護周邊環境和控制建築進出的方法。例如,有人可能會借或偷出入門禁卡,自由通過某些入口。擁有門禁卡的任何人都可以隨意進入,但如果使用面部識別,除非在門口的是身份信息符合的人,否則大門不會打開。

誤解2:如果你的“面部識別”數據被盜,黑客可以跟蹤你的一舉一動。

不對。

人臉識別“簽名“數據實際上比其他標識符更不易被攻擊。人臉識別系統將數字圖像轉化為基於人臉特徵的數字表示。這就創建了一個獨特的”人臉簽名“,然後可以將其與數據庫中的一個身份關聯起來,並與出現在攝像機中的人臉進行比對,以確定是否匹配。每個面部識別系統都有自己獨特的方式來存儲這些數據。

關於人臉識別和隱私的更大的問題是,每個人的臉已經在社交軟件公共頁面和個人資料上了。如果一個人想跟蹤別人,使用社交媒體比使用面部識別系統要容易得多。

從技術上講,一旦面部圖像公開,面部識別系統就可以根據該圖像創建面部簽名。這是為什麼需要強有力的生物特徵隱私立法的另一個原因,包括有關怎樣以及何時可以將某人添加到面部識別系統的嚴格規定,這樣有助於防止技術被濫用。

誤解3:面部識別應該被禁止,因為它帶有種族偏見。

不對。

其實,任何新興技術的提供者和運營者都必須遵守高標準,確保技術的開發和使用符合人權和消費者權利。人臉識別是一種強大的工具,但還不能代替如人類監控一樣,根據確鑿證據做出深思熟慮、可操作性的決定。其工作主要是實時提供數據,幫助安全人員發現潛在問題或調查事件後的問題。

不可否認,一些面部識別算法目前確實顯示出令人不可接受的種族偏見問題,然而,這項技術很有價值,不應該完全禁止。那麼為什麼還要繼續提倡使用面部識別呢,即使檢測結果並不總是那麼完美?

1.一些面部識別系統比其他系統表現出更低的偏差水平:美國國家標準與技術研究所最近的一項研究發現,在許多經過測試的算法中,亞裔和非裔美國人的面孔的誤報匹配率比白人面孔高10到100倍。這種程度的偏差顯然是不能接受的,但研究也發現了一些“重要的例外”算法。這些算法在不同種族群體中得到了相當一致的結果,精度方差低至0.19%。這表明面部識別系統本身並沒有很高的偏倚率,還可以改進。面部識別供應商應該負責減少算法中的偏見,而不是完全禁止這項技術。一種類似於食品營養標籤的標籤系統可以提供透明度。而採購人員也不應該把那些不符合跨種族、年齡和性別最低一致性要求的系統納入其採購考慮範圍。

2.使用人臉識別可以減少現實世界中的偏見:人臉識別的核心功能,即根據已知人臉的知識庫來識別,這是人類一直在做的事情,比如犯罪現場的目擊者、根據監控圖像尋找嫌疑人的警官、或者監視商店扒手的店員。每一種技術都有其固有的一些偏見,這些偏見來自於過去的互動、媒體,並被跨種族效應放大。所有人都有固有偏見,在面部識別算法中發現的偏見可能源於開發它們的人類的偏見。雖然沒有辦法完全消除人類或算法中的偏見,但面部識別技術在比較人臉圖像時找到正確匹配方面已經和人類一樣優秀,甚至更好。它也能以指數級的速度做到這一點。

3.面部識別算法變得越來越好:訓練人工智能模型來減少偏見和消除跨種族影響,要比在每個保安、執法人員和犯罪現場目擊者身上消除偏見容易得多。自從面部識別技術首次被開發出來以來,它已經取得了長足的進步,而且這項技術在膚色和性別的準確性方面也在不斷提高。隨著技術的改進以及廣泛應用,所有用戶的誤匹配率在不斷下降,偏差閾值可能會隨著時間的推移而變化。完全禁止人臉識別將會阻止一項技術的持續改進。人們通過對人臉識別如何工作進行培訓,瞭解它的侷限性,使用正確性高、偏差低的系統,可以極大地減少安全、執法和刑事司法場景案例中的偏差問題。

誤解4:所有的面部識別系統都是一樣的。

不對。

用於識別和匹配人臉的算法可能會根據開發方式、訓練和測試人臉的數據而有很大不同。人類仍然在不斷建立和訓練這些模型,因此,如果不加以解釋,人類的偏見就會悄悄出現。開發人員在構建算法時是否考慮了種族和性別偏見?他們是否有適當的不同年齡、性別、種族和膚色的面部數據集?還是在訓練模型識別人類時,他們的模型主要為某一種或幾種面孔?這些因素直接影響人臉識別系統的性能和準確性。

除了算法的執行方式,系統處理敏感數據的方式也各不相同。數據是託管在本地還是雲端?誰擁有並能夠訪問這些數據?僅僅是客戶還是技術供應商?數據的任何部分都可以賣給第三方嗎?面部識別系統如何保護與該系統交互的個人權利和隱私?這些可能是贏得民權組織和對人臉識別持懷疑態度的消費者並讓他們接受的一個決定性因素。確保隱私的方法應該通過設計並構建到面部識別系統中,這是另一個可以通過立法來調節生物識別技術的領域。

並不是所有的面部識別系統都是一樣的。準確性和偏差結果差異很大,還有一些供應商將數據賣給第三方以獲取利潤。良好的生物識別技術提供商會推薦使用策略,構建更準確的算法和低偏差,遵循隱私原則,並提供培訓,指導終端用戶負責任的對數據捕獲、保留和透明化數據收集文檔相關條例。

誤解5:僅僅通過面部識別結果,就可能被誤判為罪犯。

不對。

雖然人臉識別可能是執法環節中的一個有價值的工具,但它的運作是離不開人類監督的。這種誤解認為,面部識別系統在刑事調查中擁有“最後的決定權”。在執法環境中,人臉識別用在為訓練有素的分析人員提供基於相似度評分高的潛在匹配選項。人類通過這些數據以及獨立的證據來做出最終決定。

在使用人臉識別之前的時代,警察必須手動查看數犯罪現場的照片、錄像,繁重的工作量使他們疲憊不堪、壓力過大,或者就只能用照片查看一些區域。事實上,人臉識別並沒有做任何本質上的創新,它只是增強了現有調查過程的操作方法,提供了以前不可能達到的效率水平。這使得安全部門能夠調查以前無法調查的案件,或者調查原來嚴重程度較低而無法分配到調查需資源的案件。通過快速識別潛在的犯罪嫌疑人,面部識別可以受害者帶來好處、賠償和快速結案。

目前重要的是要教育公眾、民權人士和立法者,讓他們瞭解面部識別系統是如何工作的,以及怎樣將這項技術好的方面得以善用。人臉識別可以找到失蹤兒童,可以用來加快醫院的檢查速度,增強機場安全性,提供無觸控式的訪問控制。人臉識別並不是也不是與生俱來的好或不好,任何技術也都有被濫用的可能性。但是通過合理的立法、負責任的系統開發和部署,考慮隱私,我們就可以最優化實現人臉識別帶來的好處。

聲明:本文源自securitymagazine.com,版權歸原作者或原出處所有,觀點僅代表作者本人,不代表SENSORO立場。如有侵權或者其他問題,請聯繫我們;違規轉載法律必究。


分享到:


相關文章: