03.03 人工智能時代,我們怎樣保護數據?

毛小暖


基於機器學習框架TensorFlow的谷歌最新模塊,可以讓開發者只添加幾行額外代碼就能改善AI模型中的隱私。TensorFlow是目前用於構建機器學習應用程序最流行的工具之一,它被世界各地的開發人員用於創建文本、音頻和圖像識別算法等程序。而伴隨著TensorFlow Privacy的引入,這些開發人員能夠使用“差異隱私”的統計數據來保護用戶的數據。

谷歌產品經理Carey Radebaugh向外媒The Verge透露,發佈這款工具是谷歌履行對人工智能的承諾和願景。他說道:“如果我們沒有為TensorFlow引入差異化隱私技術,那麼無論是團隊內部還是Google外部用戶在使用過程中就會發現有些不太簡單。因此對於我們來說將其引入TensorFlow是非常重要的,我們還將會對其進行開源,並開始圍繞著它創建新的社區。”

差異隱私的機制有點複雜,但它本質上是一種數學方法,這意味著用於培訓AI模型的用戶數據並不能編碼個人可識別信息。這是在AI模型中保護個人信息的常用方法:蘋果在iOS 10上引入了自家的AI服務的,而Google在Gmail的Smart Reply等部分AI功能中也使用到了這項技術。

已經在的數據隱私領域工作了20年的谷歌研究科學家ÚlfarErlingsson表示:差異化隱私技術以“數學確定性”消除了編碼個人數據的可能性,他表示這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術。

谷歌的研究科學家ÚlfarErlingsson說,他已經在數據隱私領域工作了20年。 Erlingsson告訴The Verge,這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術, “你的結果獨立於任何一個人的[數據],但這仍然是一個很好的結果。”


cnBeta


現在是互聯網時代,那麼必然產生眾多大量數據。而當前我們談及的人工智能,它是邏輯算法的執行,但底層架構是大數據,足以見得大數據作為基礎,是何其重要。

但是AI和大數據又有一些區別。AI是執行人的想法,而且是垂直方向的需求執行。基於底層的大數據,系統可以根據已經設計好的程序分析、決策、執行,但是不能獨立思考。即使是在這樣的發展背景下,人工智能快速發展,互聯網對個人數據的獲取頻繁,甚至有人對此感到敏感,那麼在這種大背景下,個人數據該如何保護?

  • 業界良心,建立行業規則。科技公司獲取用戶數據時應設置邊界,隱私不能碰,在使用用戶數據前必須經過技術脫敏,保護敏感數據。

  • 加大監管。工信部加大行業內監管,多發佈相關政策法規,擴大舉報渠道,加大懲罰力度。
  • 個人自律。加強個人信息安全意識,不要隨便在一些不知名網站上發佈個人信息,不要跟陌生人透漏個人敏感信息。

總而言之,監管和自律是保護個人數據的重要舉措吧。


您好機器人


實現數據自主權:一是告訴誰,誰負責保守秘密,數據獨佔不外傳,未經本人同意不私自挎貝;二是本人刪除權。本人可刪自己數據,刪除連同原數據丶備份全刪;三是將數據對象化管理,實現數據封裝丶隱藏丶一刪全刪,而不是現在流行的關係數據庫丶二維表,數據碎片化,易生產丶難誤別丶難模塊化管理。記賬大哥2018.6.8


分享到:


相關文章: