用AI監管網絡言論,會是一個好辦法嗎?

用AI監管網絡言論,會是一個好辦法嗎?

—————————————

就在這幾天,“情感教主”Ayawawa因一則言論引發眾怒。5月22日,新浪微博官方賬號“微博管理員”發佈公告,稱自媒體賬號Ayawawa發佈有關慰安婦的不當言論,引發社會輿論批評,決定對其微博賬號禁言被關注6個月。

用AI監管網絡言論,會是一個好辦法嗎?

用AI監管網絡言論,會是一個好辦法嗎?

這樣的“毒雞湯”不僅引發了大眾的探討,也因枉顧歷史真實和民族情感而遭到網友痛批。而熟知Ayawawa過往言論的網友都知道,“性別優勢”、“女人一定要順從男人”等觀點時常被其提及。

事實上,面對這些三觀不正甚至其他充滿性別偏見的觀點,除了微博等相關社交平臺的監管外,AI或許能做一名“敏感的”管理員,讓網絡世界發出更和諧的聲音,甚至,能提前阻止危險的涉恐行為。

用AI監管網絡言論,會是一個好辦法嗎?

在今年4月出席數據洩露醜聞的國會聽證會上,扎克伯格向參議員們表示,Facebook到今年底,將僱2萬名審核人員監控並移除冒犯性言論。

而更值得注目的是,扎克伯格也認為,Facebook將會更加依賴AI來標記社交媒體上的仇恨言論(hate speech):“我很樂觀地相信,在未來5到10年的時間裡,我們就會利用AI更準確地識別語言上的細微差異”。

但所謂“語言上的細微差異”對機器而言並不簡單。

今年4月的GMIC大會上,知乎合夥人、高級副總裁李大海分享稱,知乎正在打造“智慧社區”,並透露出,在知乎的內容社區當中,AI已經可以開始進行語義識別和語境判斷。因為單單依賴人工的力量來管理內容,實在不是一個高效的選擇。

在知乎裡,一個叫“瓦力”的機器人目前可以在線上快速響應答非所問和不友善的內容,減少像歧視,惡意貼標籤,辱罵等等低質內容對用戶的干擾。但是由於受到NLP(自然語言處理)自身的侷限性和平臺運營存在的相應問題,這個智慧社區還存在著不少問題。

去年,谷歌就開發出了一個名為Perspective的人工智能API接口,以此對抗紛擾的網絡世界裡那些充滿“惡意”的網絡表達。甚至吸引了《紐約時報》、《衛報》、《經濟學人》這些國際知名媒體紛紛使用這套系統來管理它們的評論。

用AI監管網絡言論,會是一個好辦法嗎?

這下,網管可就輕鬆了,但實操的結果卻和人們期待的效果有些差異。

例如將“我是+種族、性別、性向”之類的句型來測試Perspective API後發現,涉及“同性戀”、“種族”等敏感詞彙的話語被系統歸為“毒性”較高的一類。比如,“我是男人”的毒性就遠沒有“我是黑人女同性戀”高。

而對於負面詞彙和仇恨言論似乎也傻傻分不清楚,比如,“垃圾車”(garbage truck)的有毒指數高達78%,而“展開種族之戰”(race war now)的有毒指數僅為24%。

事實上,為了讓AI更好地理解和讀懂人們在網絡上發表的言論,Disqus——Perspective系統的開發商之一,特意蒐集了近一億條網絡評論來“喂”它。

當然,為了防止出現對原本沒有任何問題的言論禁言的情況,系統設定的禁言標準也是很高的,要達到0.98才會被屏蔽掉。這也導致仍有很多涉及種族歧視、性別歧視、反人道言論的肆意傳播。比如此前就有網友嘗試輸入“我會終結所有中國人的生命”(I will end all Chinese people’s lives),結果毒性僅為0.85,並未達到0.98必須屏蔽的標準。

它也從另一個方面說明,人工智能目前對事物的“認知”都依賴於訓練它的數據,如果某一類語言的語料不足,系統就無法準確“判斷”了。

而從技術上來說,目前的AI還沒有辦法理解整句話的意思,只能把句子拆成一個個詞組,然後通過公式計算出各個詞組之間的權重,最後得出結論。

用AI監管網絡言論,會是一個好辦法嗎?

舉個例子,在這套系統裡,“愛”比“恨”顯然毒性更低,但放在一個句子裡,比如“我愛納粹”,其毒性是0.56,而“我恨納粹”則為0.64,後者比前者的毒性更小,這顯然在我們真實的語境中是完全相反的。

AI監測也從另一方面說明了大數據帶來的弊端,它所吸收的數據最終決定了它所長成的“樣子”——機器學習永遠依賴於過往的行為和軌跡,長此以往,它所吸收的內容和信息會越來越窄,而真正富有建設性的觀點則被忽略了。

用AI監管網絡言論,會是一個好辦法嗎?

軍隊沒有辦法通過傳統戰爭的手段消滅暗藏的恐怖分子,但人工智能可以做到——除了需要處理數據,AI還需要有對數據的模式和聯繫的識別能力,這正是它擅長的。

例如和其他恐怖組織相比,伊斯蘭國(IS)的軍事戰略更加複雜、靈活,如果不用人工智能,很難察覺出他們的行動規律。

2015年8月,美國的研究者就透露,他們正在利用人工智能系統分析“伊斯蘭國(IS)”的作戰策略。來自亞利桑那州大學的教授者就通過AI系統找出了2014年下半年IS記錄在案的2200多次行動,並找到了多種行為的規律。

比如,如果遭遇大規模空襲,IS會減少步兵作戰行動,使用“簡易爆炸裝置”;在敵人發起大規模地面進攻前,IS喜歡大肆動用汽車炸彈。

這也就意味著,IS的行動策略是可以預測的,而並非我們從新聞上看到的隨意更換新策略。

厲害的是,這項技術甚至催生了一個200億美元的生意。2015年6月,美國一家名叫Palantir的大數據公司獲得了5億美元的融資,估值達到200億美元。

這家公司早在2004年就成立了,成立之後四年的時間裡,美國中央情報局(CIA)都通過旗下的非盈利投資機構In-Q-Tel成為投資者,同時也是這家公司唯一的客戶。

在投資機構In-Q-Tel的幫助下,Palantir的工程師與軍方情報分析師直接會面,工程師們每兩週就會帶上修改過的產品來到華盛頓開發出了一個搜索工具。

西點軍校的分析師們就曾使用這個工具軟件,根據700份繳獲的文件和數百份軍隊從伊拉克回收的個人記錄繪製了敘利亞自殺性襲擊網絡,包括頂層聯絡人的信息,甚至還推算在當時的伊拉克存在不止一個敘利亞自殺性襲擊網絡。

用AI監管網絡言論,會是一個好辦法嗎?

類似這樣的細節報告讓美國情報機構走出了,許多誤區。比如在伊拉克的自殺性襲擊中,反抗組織更依賴僱傭軍走私網絡而不是狂熱信徒。在阿富汗,美國特種部隊就利用Palantir來策劃襲擊行動,比如,在檢索一個小村莊前,系統會給出地圖,詳細指出所有發生過槍擊衝突和土炸彈爆炸的地方,然後再判斷出哪裡最有可能被伏擊。

其實,區分不符合社會主義核心價值觀的言論、極端主義內容比識別圖片要難得多。主要就在於要語境,比如,“我們打算毀壞(destroy)你的辦公室”這種內容就被鑑定為是合法的,但如果是“我們打算炸掉(bomb)你的辦公室”就屬於禁止內容,因為它更具體地建議了使用的“武器”。機器現階段很難區分這兩種表達的不同。


分享到:


相關文章: