大數據文摘出品
3月22日,韓國N號房一事被曝光,用裸照威逼利誘女性、對受害者實施性剝削的產業鏈終於公之於大眾,66名與N號房事件有關人士被捕。
韓國警方所掌握線索的被害女性多達74人,其中16人為未成年人,最小年齡受害者為年僅11歲的小學生。
以N號房為代表的性侵事件涉事人數之龐大,韓國並非孤例。
4月9日,據南風窗報道,煙臺傑瑞石油服務集團股份有限公司副總裁及首席法務官、中興通訊的獨立非執行董事鮑毓明涉嫌自約2016年起性侵14歲養女李星星,在互聯網引起熱議。
據報道,近3年來,李星星始終處於半失學狀態,期間多次自殺未遂。
根據南風窗消息,李星星曾透露,2016年後,鮑毓明會給她播放未成年人性題材影片,內容涉及爸爸、媽媽和孩子之間的色情場面,並對其進行言語上的“安慰”。
2019年4月9日,這已經是李星星第二次報案,但警方在進行查證時卻發現,電視裡“兒童色情片”的觀看記錄“消失”了,電腦裡的文件也沒找到。由於缺少決定性證據,目前的證據多為孤證,取證難度大,5月,李星星收到《撤案決定書》。
2018年,南韓超過4萬名婦女舉行抗議,敦促政府採取措施解決涉及偷拍色情照片的罪案問題。
但是,從3月的N號房到如今的李星星,一個月不到的時間內,未成年人性侵案件不斷被曝光,讓人不禁疑惑,這冰山之下究竟還有多少受害者?
目前,亞馬遜、Facebook等技術公司雖然能夠識別並偵查相關違禁視頻,但仍然無法阻止未成年人性侵視頻的上傳,甚至是二次傳播,技術尚難以從源頭上有效規避和禁止,無形中也給受害者造成了二次傷害。
針對弱勢群體,技術如何能夠更為有效地保護她們,這是每個技術人都需要思考的問題。
無奈的技術公司:為什麼不能從源頭上禁止這些視頻的上傳?
N號房的主犯儘管已經入獄,但是,被侵害者的噩夢遠沒有結束。
數字時代的記憶屬性讓搜索引擎、社交網絡和雲存儲中都可能成為這些視頻和照片存儲的角落,也讓這些可怕的記錄在互聯網上流傳,尋找著“二次觀眾”,這些流入互聯網洪流的視頻像一顆顆隱秘的定時炸彈,隨時可能被不法分子引爆。
而這些視頻也正成為鮑毓明一類侵犯者的可怕“共犯”。近年來,科技行業意識到了網絡上兒童性虐視頻的嚴重性,開始花大力氣識別相關視頻等材料,但是,效果似乎並不顯著。
那麼,互聯網公司為什麼不能提前審核,從源頭上禁止這些可怕視頻的上傳呢?
首先,隨著互聯網的發展和用戶的增加,相關視頻的數量正在呈指數級增長。
據《紐約時報》報道,僅2018年一年,互聯網公司查找到了創紀錄的4500萬張有嫌疑的照片和視頻,
數量是上一年的兩倍多。紐約時報用一張非常形象的可視化圖,展示了近年來互聯網上兒童性侵視頻的增加。
可視化作者Rich Harris,數據來源:美國國家失蹤與被虐待兒童中心
其次,儘管儘管互聯網公司的搜索技術雖然一直在進步,但道高一尺魔高一丈,面對隱藏在暗處、單方面秘密進行的不法分子,總有漏網之魚。
《泰晤士報》曾經審查了10,000多頁的警察和法院文件,發現戀童癖者很容易使用加密軟件隱瞞了自己的身份,其中一位戀童癖甚至經營了一個網站,該網站託管了多達17,000張此類圖像。
亞馬遜的雲存儲服務每秒處理數百萬次的上載和下載,根據聯邦當局的說法,Apple不會掃描其雲存儲,並且會加密其消息傳遞應用程序,從而幾乎無法進行檢測。Dropbox,Google和Microsoft的消費產品將掃描非法圖像,但只有在當有人共享它們時才掃描,而不是在上載時掃描。
包括Snapchat和Yahoo在內的其他公司長期以來也只對照片進行審核,而根本不審核視頻。
最後,隱私的限制也讓這些互聯網公司束手束腳。
Facebook是世界上最大的社交網絡,它會對其平臺進行全面掃描,佔據了科技公司去年標記的圖像的90%以上,但該公司並未使用所有可用的數據庫來檢測材料。Facebook已經宣佈,圖像的主要來源Facebook Messenger最終將被加密,從而極大地限制了審核。
“每家公司都在尋求自己的隱私與安全之間的平衡,他們不想在公開場合這樣做,”擔任Facebook和Yahoo信息安全主管的Alex Stamos說。“這些決定實際上對兒童的安全產生了巨大影響。”
高科技公司更有可能在其平臺上查看照片和視頻以及其他文件,以進行面部識別,惡意軟件檢測和版權實施。但是一些企業表示,尋找濫用內容是不同的,因為它可能引起重大的隱私問題。
人們不願看到科技公司瀏覽某人的照片和視頻,並且自動掃描中標記的圖像幾乎總是在以後由一個人進行審查。
“一方面,保護個人信息非常重要,”美國司法部副總檢察長拉吉(Sujit Raman)在接受《紐約時報》採訪時表示,“另一方面,互聯網上有太多破壞性的東西。”
科技公司的補救方式就是在視頻出現後再全網搜索進行刪除,通過將新檢測到的圖像與材料數據庫進行匹配,來阻止濫用圖像的再循環造成傷害。
目前檢測非法圖像的主要方法是由Microsoft開創的PhotoDNA的應用,已經保護了數不清的受侵害者不受到重複傷害。
隱私與技術的平衡:為圖片打上專屬“指紋”,找出非法圖片全網刪圖
早在2009年,微軟就和現任加州大學伯克利分校教授的Hany Farid創建了一款被稱為PhotoDNA的應用,可以使用計算機識別照片,甚至可以修改照片,並將其與已知非法圖像的數據庫進行比較。這項技術可以幫助尋找和刪除網絡上的兒童性侵和虐待圖片。
如今,PhotoDNA已經被世界各地的組織所使用,並且已經幫助發現、刪除和報告了數以百萬計的兒童性侵和虐待圖片。
PhotoDNA的工作原理是這樣的,首先,PhotoDNA為創建一個獨特的圖像數字簽名(稱為“散列”) ,類似於人的指紋。
然後將數字簽名與互聯網上其他照片的簽名(散列)進行比較,就可以找到同一圖像的副本。
當與包含以前識別的非法圖像的哈希數據庫匹配時,PhotoDNA可以幫助檢測、干擾和報告非法圖片的分佈。
並且從隱私保護來說,PhotoDNA不是一款面部識別軟件,不能用來識別圖像中的人或物,另外,PhotoDNA創建數字簽名的過程是不可逆的,因此不能用來重建圖像。
微軟已經向國家失蹤和被剝削兒童中心(NCMEC)和一些公共組織捐贈了PhotoDNA,以打擊兒童性侵和虐待圖片。
“我們的目標是阻止這種傷害。通過使用PhotoDNA,我們將能夠與全國各地的在線服務提供商合作,匹配這些照片,這樣我們就可以停止照片的再分發。”NCMEC的CEO Ernie Allen表示。
防止性侵,AI能做什麼?
此前,韓國N號房事件傳的沸沸揚揚,一些罪犯通過網絡詐騙,以各種理由騙取女生裸露的照片,然後便開始用這些裸照威脅女生從事性工作,其中最小的女生不過才11歲。
面對這些受害者,AI能做些什麼?
2018年下半年,微軟組織了一次黑客編程馬拉松大賽,Facebook、谷歌等公司的工程師與法律專家均參與其中。大賽的初衷就是構建能夠有效檢測這些“互聯網捕食者”的AI工具,以及建立起受害方的信任。
微軟還與其他公司進行了進一步的合作來優化AI工具,使它能基於特徵對兩人的對話進行評估和評級,如果對話內容風險較大,這些會話將被髮送給AI審核。
如果系統識別到有侵害未成年人人身安全的風險,例如提到了私下會面等,AI會通知當地的執法機構以及NCMEC(美國國家失蹤與受虐兒童援助中心)。
微軟首席數字安全官Courtney Gregoire稱,對於這個問題他們已經能做到反應和報告,但還不能實現預防。
Facebook全球安全負責人Antigone Davis去年也曾向《金融時報》透露,他們在過去幾年中一直在與兒童保護組織合作,開發保護平臺上的兒童免受侵害的方法。
Antigone Davis表示,相關措施包括當有人在Messenger和Instagram DM上要求與兒童進行私下聊天,或試圖在未成年人多次拒絕的情況下依然要求獲取聯繫方式時進行警報。
除了Facebook,推特也積極響應著舉報有性侵兒童可能的行為的相關政策,推特表示,一旦發現有賬號發佈兒童色情內容,推特官方會在不通知當事者的情況下第一時間進行刪除,對其他用戶的舉報也會進行及時的審核。
儘管如此,目前的技術仍不能做到防患於未然,但我們依然寄期望於這些科技巨頭,但願能用技術還互聯網一片光明。
參考鏈接:
https://www.nytimes.com/interactive/2019/11/09/us/internet-child-sex-abuse.html
https://techcrunch.com/2019/01/10/unsafe-search/
https://mp.weixin.qq.com/s/4YeU6Wceg78LFPftIcaliA
https://mp.weixin.qq.com/s/vzcAhnzQHAaeLZPVQR0ASw
https://mp.weixin.qq.com/s/SGY1SCj5bQGRFMzed7mYNw
https://www.thepaper.cn/newsDetail_forward_6893688
閱讀更多 大數據文摘 的文章