為什麼每個廣告技術公司都必須理解差異性隱私

這是Google隱私沙箱中的基本概念;蘋果將其用於診斷設備,健康狀況和網絡瀏覽數據的研究;就在上週,Facebook使用差異化隱私保護了它提供給研究人員的大量數據,這些數據用於分析共享錯誤信息對選舉的影響。

Uber利用差異性隱私來檢測其用戶群中的統計趨勢,而不會暴露個人信息。亞馬遜的人工智能系統可以利用它來防止數據洩漏。Snapchat使用差異隱私來訓練機器學習模型。Salesforce在其報告日誌中使用DP過濾器。

為什麼每個廣告技術公司都必須理解差異性隱私

但是,儘管差異隱私最初是一種學術觀念,如今已被大佬採用,但廣告技術公司也需要了解這一點,有些公司甚至將其視為隱私保護的未來。

什麼是DP?

差異隱私由Microsoft研究人員於2006年首次發明,它是一種用於數據分析的隱私安全模型。

差異隱私不是算法本身,而是一組密碼屬性,可以將其應用於機器學習算法,以設置對可以得出有關個人的推斷之前可以從數據中提取多少信息的限制。

換句話說,它將“合理的可否認性”引入數據集,賓夕法尼亞大學工程學院計算機與信息科學教授,《社會算法》的合著者亞倫·羅斯說。意識算法設計。

實際上,這意味著數據所有者有意向數據集中添加了噪聲或隨機性,因此可以同時從數據中瞭解有關人口的某些信息,而無需識別組中包含的任何個人。

考慮一個民意調查人員,該人員收集有關尷尬行為(如吸毒或作弊)的統計信息。為了保護自己的隱私,受訪者在回答問題之前先擲硬幣而不向民意測驗者透露結果。如果硬幣落在尾巴上,則要求他們如實回應。如果是正面,他們會擲第二枚硬幣,正面為“是”,反之為“否”。這將隨機性或合理的可否認性引入了研究的最終結果。但是,由於研究人員知道錯誤是如何產生的,因此他或她以後可以向後進行工作,以系統地將錯誤從總體中刪除,並仍然從數據中收集有用的信息,Roth解釋說。

他說:“我沒有辦法知道答案是否是隨機的。” “但是,由於我知道將噪聲添加到響應的過程,因此有可能減去噪聲並瞭解平均值。”

大規模地,機器學習算法可以應用該原理來進行估計並從數據集中收集信息,而不會損害特定的個人。需要注意的是,研究人員需要更大的數據集來進行研究,以彌補故意的隨機性。

如今,差異隱私的最普遍用途是將大數據集隨機化的一種方式,以便研究人員可以使用它們,例如在Facebook錯誤信息示例中。

分析公司Victory Medium的創始人Zach Edwards說:“從某種意義上說,這是關於數據所有者保護自己免受合作伙伴的傷害。“差異性隱私使您能夠以不降低自己組織的價值的方式,使人們可以訪問數據,或者創建另一個小型Cambridge Analytica。”

輸入廣告技術?

但是,為什麼廣告技術公司應該關心諸如差異性隱私之類的神秘學術概念?

愛德華茲說,因為這是未來,所以廣告技術生態系統是否願意接受它。在線數據收集和共享將越來越受到瀏覽器API的控制,這些API的目的是限制在線數據收集和共享。

Google的“隱私”沙箱中的許多建議都基於不同的隱私框架。

“顯然,沒有其他解決方法的空間,”愛德華茲說。“儘管如此,實際上只有大公司才真正承認這一點。”

Chrome的工程總監Justin Schuh 在博客文章中宣佈Chrome打算在2022年之前棄用第三方Cookie,明確指出差異性隱私是未來的基石,在這種情況下,廣告可以投放到“大批類似的人,而無需讓個人識別數據永遠不會離開您的瀏覽器。”其中一項名為TURTLEDOVE的提案(代表“然後在勝利時本地執行決策”)要求將所有用戶行為(包括興趣數據)存儲在瀏覽器中,從而有效地消除分析。度量和報告也將是總體級別的,因此粒度要比廣告客戶習慣的要小得多。

Thunder的首席執行官Victor Wong表示,但在廣告技術環境中,差異性隱私的一項卓有成效的應用可能是為數據潔淨室的數據透明性服務。該公司去年成立了一個行業工作組,稱為Truth in Measurement,用於測試不同的DP模型。 。

Wong說,對潔淨室的主要批評是它們是不透明的,由出售廣告的媒體公司運營,這造成了內在的利益衝突。

他說:“它們不允許您進行獨立的歸因[或]測量以驗證,驗證或自定義。” “通過差異隱私提供的隱私保護來啟用數據導出,使研究人員和分析人員可以在自己的環境中運行自己的模型。”

而且,至少從理論上講,廣告技術公司沒有理由不能將差分隱私模型應用於其自己的數據分析。MediaMath數據政策和治理高級副總裁Alice Lincoln表示,例如,DSP可以用來幫助客戶獲得有關其廣告的消費者參與度的綜合見解,而無需透露任何個人信息。

據林肯所知,還沒有廣告技術公司利用差異隱私,並且業內對DP和相關概念的瞭解還很低。

但她說:“考慮到Chrome在“隱私沙箱”中強調了[差異性隱私],人們的興趣正在迅速增長,” MediaMath本身也有興趣探索差異性隱私方法。

不過,由You&Mr. Jones擁有的第五十五位數據代理機構的美國常務董事Hugo Loriot對廣告技術公司很快將差異化隱私應用於自己的算法的前景並不樂觀。

Loriot說:“廣告技術世界中ID解析的目的是與第三方共享匿名的個人數據,例如,Facebook或Google廣告的CRM入門,這需要在雙方之間共享完全相同的方法來匿名化數據。” 。

他說,這就是為什麼廣告技術公司都依賴相同的哈希算法的原因,而撇開了與哈希相關的數據洩漏風險。

Loriot說:“如果您應用差異化隱私,您就是不希望另一方能夠解密它,並且您必須與每個合作伙伴創建1:1協議以讓他們解密數據和添加的噪音,” 。“我不確定這是否真的可行。”

不保證

同樣,羅斯說,差異性隱私不是對隱私的保證,也不會在以前不存在的地方創造隱私。它還不一定能夠阻止針對人群的侵犯隱私行為。

例如,健身應用Strava在2018年發佈了一條看似良性的熱門跑步路線熱圖時,無意間透露了秘密軍事基地的位置。沒有一個人的隱私受到損害,但仍然非常尷尬。在這種情況下,差異性隱私無濟於事。

使用差異隱私的算法中的隱私保護級別還取決於部署的嚴格程度。

羅斯說:“您可以撥出完美的隱私,但是您幾乎無法對數據做任何有用的事情,或者您可以朝另一個方向前進,沒有真正的保護措施。” “這是一個折衷,因為隱私保護總是要付出代價的。”

他說,仍然令人鼓舞的是,差異化隱私終於開始被大型科技公司應用到現實世界中。

羅斯說:“在最初的10年中,差異性隱私是一種學術上的好奇心,像我這樣的人會寫關於它的論文,也許其他五個像我這樣的人也會讀。” “這不是靈丹妙藥,但是看到公司真正開始考慮這是一件非常好的事情。”



分享到:


相關文章: