今天逛知乎的時候看到這樣一個問題——為什麼程序員戴綠帽比例最高? (已經連續給三個程序員戴了綠帽了)
雖然這個問題因為 未經證實傳言 關閉了,但是我還是問了問身邊的程序員們。
他們告訴我身邊極少出現這種現象,卻還是有這種人的。
1
“原諒寶”
其實不僅僅是程序員,大部分男性都很怕變成“接盤俠”,怕自己幾十上百萬娶回家的女孩以前做著“不乾淨”的職業。
於是,從2018年開始就有程序員提出通過圖片在“網站”中篩選,看看是否退休小姐姐。
並在半年後將這款工具做了出來,在全球範圍內成功識別出10多萬從事不可描述行業的小姐姐。
這件事馬上在網上引起了軒然大波,除了部分男生拍手叫好以外,就是討伐的聲音,大部分認為這侵犯了隱私,一點都不合法。
一些女性表示:
憑什麼從這種網站匹配到的女生就是“從業工作者”,誰沒有不堪回首的過去,萬一是偷拍呢?匹配準確率誰又能保證呢?對此,開發者表示想要獲取資料必須通過eID實名認證才行,並且將偷拍單獨區分出來。
開發者被全網手撕的時候,一些人就靠“原諒寶”這三個字開始發橫財了,各種APP、公眾號打著“原諒寶”的旗號出來騙人。
最後在大部分反對聲中,“原諒寶 ”也不了了之,一些男生深表遺憾。
2
Clearview AI
但其實在國外有一款名叫 Clearview 的工具,功能比“原諒寶”強大多了,有600多家執法機構使用,數據庫有30億人的人臉數據。
2016年,Hoan Ton-That 開始研究製作面部識別工具,並在2年內完成。
功能十分的簡單,只要使用者將要查詢的照片放入工具中,系統就會從Facebook、推特等網站查到對方的照片集和姓名、聯繫方式、住址等信息,並進行評估。
起初,這個工具僅僅是美國用錢人的玩具。
比如在2018年,美國億萬富豪John Catsimatidis 發現自己女兒正在和別人約會,於是讓服務員拍了張照片上傳到 Clearview AI 中,僅用數秒時間就知道對方是舊金山風投,對方不是騙子。
隨後從2019年開始,Clearview AI 開始為美國執法部門提供服務,警察可以免費試用30天,之後,許多私家偵探公司也開始配備這款工具。
2019年底,Clearview AI 已經為600多家執法機構、2000多家機構服務,識別準確率達到99.6%。
但這家公司因為在用戶不知情的情況下獲取了用戶數據,得罪了許多科技公司,並要求 Clearview AI 停止這種行為。
而 Clearview AI 則認為這是用戶放在公共網絡上的,任何人都能看到,並沒有侵犯。
3
真的準確嗎?
“原諒寶”和Clearview 的數據都是從網絡上抓取的,這裡面的照片或者視頻的真假就難以確定了。
之前我們曾講過Deepfake可以將用戶的臉放在不可描述視頻中。
關鍵是這項技術的門檻很低,入手超級快!只需要學習如何重新訓練模型,設置一些參數就行,大約 5 小時就搞定了。
這直接導致明星們“不可描述視頻”氾濫,泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯都是Deepfakes的得意之作。
印度記者 Rana Ayyub揭露了印度官員的黑幕後,受到了死亡威脅和色情報復。他們將記者 Rana Ayyub的面孔與色情視頻裡的人交換。
這個視頻流出以後,不僅不明真相的印度人都信了,就連她的家人也在懷疑她。
並且有人在網絡上用言語攻擊她。
最終由於各種壓力, 記者Rana Ayyub 心力交瘁住院。
這些假視頻越來越逼真,它們被上傳到色情網站上,並且越來越難以識別。
許多普通女性成為這種假視頻的受害者,一名匿名的受害者說“我只想把互聯網的一切都撕碎,但我也知道我無能為力。”
所以,“原諒寶”、Clearview 在保證數據乾淨的前提下,準確率才是關鍵。
“原諒寶”的準確率尚且未知,Clearview 的準確率在99.6%,還是有0.4%的誤差,如果放在檢驗“特殊服務女性”身上,0.4%的誤差會誤傷多少人可想而知。
而這所謂的99.6%中,合成的照片、視頻又囊括了多少呢?
建議大家不要嘗試用這種工具檢驗愛情,當你有想法的那一刻,無論結果如何,就已經變質了。
閱讀更多 猿大俠 的文章