05.18 Facebook:一季度清除190萬個恐怖主義有關帖子

北京時間5月16日早間消息,Facebook表示,人工智能正在幫忙清理舊帖子中的不良內容。

Facebook稱,今年第一季度,一共對190萬個與基地組織、伊斯蘭國(ISIS)等恐怖主義有關的帖子採取了強制措施。加強監督通常意味著用戶帖子被刪除、帳戶被暫停,或用戶被禁止登陸Facebook。

此舉可以改善機器學習,使該公司找到更多與恐怖主義相關的圖片,無論它們是新上傳的,或是已在Facebook平臺上存在了比較長的時間。

報告稱,在上一季度,97%與恐怖主義相關的帖子是由Facebook自己找到的,而不是來自用戶的舉報。Facebook將該數據作為第一份《社區標準執行報告》的一部分,該報告描述了Facebook公司在去年10月至今年3月間採取的內容監督行動。

Facebook:一季度清除190萬個恐怖主義有關帖子

報告中的其它內容包括:

- 圖片暴力:包括圖片暴力的帖子佔到總瀏覽量的0.22%-0.27%,從上個季度的0.16增長到0.19%。該公司對340萬個帖子採取了行動,高於上個季度的120萬個帖子。暴力帖子的增加似乎與敘利亞衝突加劇成正比。

- 裸體和性:有關裸露或性的帖子佔到總瀏覽量的0.07%-0.09%,從上個季度的0.06%提高到0.08%。該公司對2100萬個帖子採取了行動,與前一季度基本持平。

- 仇恨言論:Facebook對250萬個違反仇恨言論規則的帖子採取了行動,比上個季度增長56%,其中62%的帖子是被用戶舉報的。

- 垃圾郵件:Facebook對8.37億個垃圾郵件帖子採取了行動,比上個季度增長了15%。該公司表示,垃圾郵件全部是由公司內部自行發現的。

- 虛假帳號:在Facebook網的每月用戶中,3%-4%是虛假帳號,該公司表示,在今年第一季度刪除了5.83億個虛假帳號,低於上個季度的6.96億個。

Facebook公司在報告中指出,計劃每年至少發佈兩次相關數據,“主動承擔自己的責任。”報告中說,“這個指南解釋了我們的方法,讓公眾能夠理解我們共享數據的益處和侷限性,以及我們如何通過改進方法使數字發生變化。我們致力於做得更好,並更公開地讓公眾瞭解我們的努力,向前邁進。”

Facebook產品管理副總裁蓋伊·羅森(Guy Rosen)在接受記者採訪時表示,該公司仍在努力開發標準,以辨識社交平臺上經常出現的仇恨言論。目前,該公司的機器學習系統在識別仇恨語音方面仍存在困難,因為計算機難以理解上下文。

儘管如此,人們還是在Facebook平臺上發佈了數不清的仇恨言論帖子。今年3月,聯合國稱Facebook要為在緬甸傳播羅興亞少數民族仇恨言論一事負責。Facebook公司辯稱,由於缺少能說當地語言的審核者,難以阻止仇恨言論的傳播。“我們必須做更多的工作,以確保對這些情況引起關注,”羅森說,他同時指出,該公司最近聘請了更多當地審核者。

在這份執行報告發布前一個月,Facebook網對外公佈了社區標準,規定了不允許在Facebook上發佈的內容範圍,該網站在全球的內容管理員也以此作為工作準則。

Facebook執行報告發布之時,該公司正在面臨越來越大的壓力,外界紛紛呼籲該社交平臺減少仇恨言論、暴力和錯誤信息。受制於美國國會的壓力,Facebook公司表示,今年將安全保障團隊增至20000人。


分享到:


相關文章: