從Facebook、百度「隱私門」聊聊企業對用戶隱私保護的責任何在

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

今年3月末,Facebook陷入了隱私之爭。一家數據分析公司劍橋分析被曝料通過Facebook收集用戶偏好信息,然後利用這些用戶喜好有針對性地推送廣告,最終達成的目標是影響2016年美國大選。

事件被曝光後,Facebook的用戶們感到憤憤不平,在社交網絡上甚至引發了一場#DeleteFacebook的運動,呼籲大家刪除facebook賬號。運動也受到了大量名人的響應,包括埃隆·馬斯克、花花公子紛紛刪除了自己的Facebook主頁。

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

花花公子宣佈刪除Facebook官方主頁,稱價值觀不同

最近的一份調查還顯示,三分之一的美國科技公司僱員準備刪除Facebook。

正當Facebook被接連不斷的醜聞弄得焦頭爛額時,中國廠商百度挺身而出,與扎克伯格在各大媒體公開道歉形成巨大反差的是百度對隱私的態度。

自願還是無奈?

在3月26日的中國高層發展論壇上,百度CEO李彥宏表示:“中國人更加開放,或者說對於隱私問題沒有那麼敏感,如果說他們願意用隱私來交換便捷性或者效率,很多情況下他們是願意這麼做的。”此番言論一出,立即遭到炮轟。

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

國內外互聯網巨頭同時面臨侵犯隱私的指責時採取的態度卻截然不同,這背後反映的是國內外互聯網環境和公司們對於隱私意識的不同,甚至是發展階段的不同。

正如很多網民指出的,選擇百度並不是因為更加開放,而是因為沒有選擇。這樣的“沒有選擇”並非自願,而是實屬無奈。

“沒有選擇”在我們使用很多國內產品服務的過程中都有體現,其中一個備受指責的現象就是手機應用權限的濫用,現象大多出現在安卓平臺。在安裝手機應用後,我們時常會看到獲取權限的彈窗,基於安卓系統的設定,用戶有權選擇允許或者拒絕,但這種選擇權到了國內大量應用開發者面前就消失了。“不給權限就退出”成了開發者對付用戶的手段。

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

對於這些強制申請的權限,是不是會影響app提供服務呢?大部分的情況下並不會。事實上,越界獲取用戶隱私權限的現象十分普遍。根據騰訊社會研究中心與DCCI互聯網數據中心19日聯合發佈的《2017年度隱私安全及網絡欺詐行為分析報告》,96.6%的Android應用會獲取用戶手機隱私權。

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

除此之外,現在主流的國內網站都只支持手機號註冊,不再支持郵箱註冊。這帶來的問題不僅是解綁換綁的不便。與郵箱不同,手機號具有更多的私人屬性,也不便更換。因此我們看到了一些通過手機號碼尋找註冊賬號的網站,通過手機號碼就可以知道使用者的個人興趣喜好。除此之外,一些網站對於手機號碼及私人信息的處理方式我們也無從得知,容易造成隱患。

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

歐美隱私政策

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

在隱私保護方面,我們國家正在加緊制定相關政策,但從互聯網環境來說,很多國家還是走在了我們前面,拿歐盟來說,在隱私保護數據保護方面就有完善的規範要求:

事前,在個人信息的採集環節,要正當合法地獲取和處理,實行“最少採集”原則,要儘量少地採集個人信息,採集之後只能用於特定目的,不能用於非採集的目的。相關機構採集到個人信息後,要建立一套安全保護制度,採集信息的目的達到後,要在一定期限之後予以銷燬。同時,歐盟很多國家都建立了個人信息處理的許可或登記制度,經過許可才能進行信息收集。

事中,歐盟實行了獨立的個人信息保護執法機制,專設有信息專員。

事後,有相應的法律責任的追究和法律救濟渠道。除了進行罰款,很多國家對違反法律洩漏個人信息是可以處以刑事責任。

而美國則是早在1980年就在個人信息保護八大原則中提到了收集限制原則(Collection Limitation Principle),規定數據收集要符合服務特定目的。

通過法律的限制,科技公司不得不減少信息收集,從而減少可能的濫用。

但事實證明,僅僅如此並不能完全保護好用戶隱私。之所以說“國內外互聯網環境和公司們對隱私保護所處的發展階段的不同”是當我們停留在隱私保障階段時,國外的公司在尋找策略應對數據處理帶來的隱患。

就拿本次的Facebook醜聞來說,劍橋分析通過正當的Facebook用戶授權獲得了權限,但真正帶來威脅的是之後通過數據分析帶來的針對性推送。如果能夠對統計數據匿名化,使得統計數據僅停留於“統計”,無法對特定用戶推送廣告,或許就可以避免這場事件的發生。

隱私保護攻與防

從Facebook、百度“隱私門”聊聊企業對用戶隱私保護的責任何在

但是如果Facebook僅僅去除了用戶的ID,分析公司還能不能找出相應的用戶,進而推送廣告呢?

2006年,Netflix公司舉辦了機器學習競賽,想要改善自身推薦系統的算法。比賽過程中,Netflix向選手們提供了一個數據集,這些數據來源於真實用戶的信息,但為了保護隱私,Netflix刪除了這些用戶的ID等身份信息。

一個月後,德克薩斯州大學奧斯汀分校的研究員Arvind Narayanan和Vitaly Shmatikov通過record linkage的方法找出了這些數據的對應用戶。原理就是通過一些影評網站比如IMDb爬取用戶的電影瀏覽記錄,再與Netflix數據庫中的數據進行對應,這其中,觀看電影的順序,時間都可以作為參照的標準,進而推測出數據來源於哪名用戶。

這場事件引發了安全屆的討論,似乎需要更加嚴謹、匿名化的方案,才能保證數據在經過處理之後仍然能夠保護隱私。

同一年,來自微軟的Cynthia Dwork提出了差分隱私(Differential privacy)的概念。差分隱私是一種純數學的手段,旨在提供一種當從統計數據庫查詢時,最大化數據查詢的準確性,同時最大限度減少識別其記錄的機會。

差分隱私會把隨機性引入數據。舉個例子,假設我們要做一個統計,統計問題是“你用iPhone嗎?”在回答問題之前,受訪者需要進行三個步驟:

1. 拋硬幣

2. 如果是正面,如實回答問題

3. 如果是反面,就重拋硬幣,如果硬幣是正面,就回答“我用iPhone”;反之,回答“我不用iPhone”。

這樣我們得到的統計結果裡,回答“我用iPhone”的受訪者中1/4並不用iPhone,3/4的用戶真的用iPhone。因此我們假設iPhone用戶的比例為p,通過(1/4)(1-p) + (3/4)p = (1/4) + p/2,就可以推算出p的大致數值。

差分隱私的意義在於,並不是所有的受訪者都給出了真實的回答,從而避免了隱私洩露。

差分隱私技術如今被應用在很多方面,包括被美國人口普查局展示通勤模式;Google用它來分享歷史流量統計信息;最出名的應用則是2016年蘋果公司宣佈iOS 10使用差異隱私,在收集用戶使用信息的同時保障隱私。

大數據時代,用戶數據成為了互聯網公司的獵物,如何在收集用戶數據的同時保證隱私,這不僅需要立法機構的政策,業務要企業自身的自律和在方法上的努力。


分享到:


相關文章: