靠AI預測一場“流行病”,不可忽視的歧變節點

靠AI預測一場“流行病”,不可忽視的歧變節點

圖片來源@視覺中國

文 | 腦極體

利用AI模型來預測病毒或謠言的傳播走向,已經不再是什麼新鮮事物。

要知道,現實情況往往比訓練AI的數據集複雜N倍,而研究人員打造的模型,往往只是研究傳播對象的前幾個步驟,然後將這個速率引入複雜的數學模型之中,來預測傳播的廣度和速度。

但如果病原體發生變異,或新聞內容被修改,傳播速度和方式也將發生變化,這時候,原本的AI模型還能成功應對呢?

這也使我們不得不思考更進一步的問題——將AI看成防範病毒/謠言的利器,但技術本身也必須在複雜環境中持續迭代。

七十二變:比疾病更難預測的“病毒”

疾病變異,可以通過基因比對來追根溯源。那麼信息變異呢?

在以T為單位的網絡世界,內容信息往往會以閃電般的速度在社交媒體上傳播。在這次疫情中大家可能也發現了,謠言往往輕易獲得“萬轉”,而闢謠信息的轉發卻十分可憐。

這也說明了一個傳播學的難題,一條信息是否會傳播,取決於原始信息是如何被篡改的。

有些錯誤是故意的,也就是“造謠”。但有的改變則是出於增加電話、加入交互等成分而自然發展出來的。

比如一則關於2014年俄羅斯戰鬥機與美國驅逐艦在黑海對峙的舊聞,經過一些八卦網站(Parody website)的篡改,變成了:俄羅斯空軍配備一種神秘電磁武器,瞬間弄癱了整艘美國軍艦。

此消息經過社交媒體發酵,最後甚至登上了主流媒體福克斯新聞網站的頭條。

靠AI预测一场“流行病”,不可忽视的歧变节点

那麼,一條看似枯燥的信息是否能演變成病毒式傳播的博文,能夠預測出來嗎?

此時,原本用於預測流行病趨勢的傳染病動力學,就開始與信息傳播聯繫到了一起。

早在上個世紀,科學家們就開始基於傳染病動力學模型,研究複雜網絡下信息的傳播模型了。

經典的謠言傳播模型理論研究源於20世紀 60年代 。

1965年,研究者Dalay和Kendall提出了謠言傳播的數學模型,後來人們命名該模型為DK模型。它把人群按照謠言傳播效果,分成謠言易染類人群、謠言感染類人群及謠言移出類人群,認為其中兩類會以隨機過程來相互轉換。

到了1973年,麥基和湯普森兩人對當時主流的謠言傳播模型DK模型進行了改進,引入了免疫人群。

2001年,Zanetee則將複雜網絡引入到謠言傳播模型中,建立了具有網絡拓撲結構特徵的傳播模型。2004年,莫瑞奧等人在小世界網絡和無標度網絡中研究了謠言傳播動力學。

但是,這些模型均未將信息老化理論考慮進去。

到了2011年,中國研究者則將以往機制引入謠言傳播類型,認為人們關注謠言的熱度會隨著時間的推移而下降,尤其是在紛繁複雜的網絡世界中,人們的吸引力也容易被其他事物所轉移。無知者轉化為謠言傳播者或真相傳播者的概率會下降,並將其慢慢遺忘。

誠然,數學模型嚴密的邏輯性和抽象性,為輿論管理帶來了一定的預測可能性。

但其中有兩個問題卻始終存在:

一是時間滯後。謠言傳播與傳染病傳播在機理上有很多的相似性,就像病毒存在潛伏期一樣,網絡謠言從被更改、發佈、發酵、傳播、消失等一系列過程,個體的時間滯後程度都不一樣。有的可能當下非常關心,有的則沉迷學業一個月後才趕來吃瓜……種種不確定性,也給預測網絡信息傳播帶來了一定的難度。

其次,則是變異突發。正如同我們很難追溯病毒是如何在擴散過程中逐漸變異的,對謠言的改造和增刪,都有可能改變其傳播路徑與效果。比如新冠期間,從寵物可能感染新型肺炎,到養寵可以預防,再到有寵物被檢測出陽性……反轉一波接一波,有的則是披著闢謠皮的新謠言,這些都會讓對信息的預測出現誤差。

如果不考慮隨著時間的推移可能發生的變化,那麼在預測生病人數或接觸到一條信息的人數時,肯定會出錯。

不斷趨近真相:讓AI模仿現實

怎麼辦呢?答案是隻有讓模型與現實之間的差異儘可能地小,從而提高預測的準確率。

前不久《美國國家科學院院刊》(PNAS)上發表的一項新研究,來自卡內基梅隆大學(Carnegie Mellon University)的研究人員就將信息變異這一關鍵變量引入到了數學模型之中。

他們在現實世界的網絡中對數千種計算機模擬的流行病進行了數千次模擬測試,比如一個是美國某高中學生、教師和工作人員之間的聯繫網絡Twitter,另一個是法國里昂一家醫院的工作人員和病人之間的聯繫網絡。

藉助實時數據跟蹤病原體的進化或信息,“證明了我們的模型在現實世界的網絡上有效,更精確。”該研究的第一作者Rashad Eletreby表示。

而實現這一點的意義,讓人類對病毒/謠言的傳播預測距離現實又近了一步。

有了AI模型,世界還會失序嗎?

如果病毒/信息的傳播可以被精準預測,是不是不會再上演那些無奈的故事?

比如2003 的SARS疫情,學者們就建立了大量的動力學模型研究其傳播規律和趨勢,以及各種隔離預防措施的強度對控制流行的影響,來為決策部門提供參考。

還有網絡上廣泛傳播的“雙黃連可預防新冠病毒”、“食用大蒜可以殺滅新冠病毒”等偽科學謠言,如果能及時地預測變化趨勢,介入並引導,民眾盲目哄搶、囤積事件是不是就不會發生?

顯然,就目前的研究成果來看,想要以100%的準確率,預測病毒或假新聞傳播,AI模型還不是那味靈丹妙藥。

首先,病毒/信息的大範圍流通一定會出現歧變,而目前的相關研究和數值都比較匱乏,這也決定了即使訓練出了相關模型,也很難快速為重大公共衛生事件起到有效的作用。

另外,不同事件週期中人群對信息(謠言)的易感度是不同的,除了個體性差異之外,對組織的信任與認同、信息公開的精準性等,都會直接影響傳播結果。

比如在環境危險性較高的時候,如果人們得到的信息又比較模糊,那麼謠言就很容易被相信和傳播。在地震、海嘯等災難性實踐中,就屢屢出現哄搶等行為。

所以說,不同群體在不同情境下的心理狀態,會直接影響到預測模型的準確率。

當然,上述不確定性也為我們尋求AI之外的解藥提供了線索。

除了依靠機器來完成預測,在引發負面傳播之前就實現合理控制,從源頭建立整個社會的“謠言免疫力”,恐怕才是更重要的。

目前看來,有三個關鍵因素是值得注意的:

1.精確有效的信息釋放。

在出現傳染病/謠言傳播等情況時,每個人都會主動去尋求與自身休慼相關的信息,以便更精確的感知環境來做出決策。

2004年,兩位學者就通過分析280條網絡謠言,發現很大比例的謠言主體都是在尋求事實中希望進一步解決問題的。

一旦某些重要信息反而模糊性較強的時候,就很容易引發焦慮,從而導致一些消極、非官方的渠道來探尋事實。所以,提供精確有效的信息,能夠極大地緩解個體的焦慮情緒,從而降低信息傳播的負面影響。

2.重視社群節點的管理。

所有社交網絡都是藉助一個個關鍵“節點”來實現連接的,謠言亦如是。

而在比較親密的社交關係中,消極謠言更容易被用來增加彼此的聯繫,因為可以通過分享來共同尋找解決辦法。所以不要再抱怨你的老母親老父親總在家庭群裡傳播謠言帖了,在控制網絡謠言傳播上,讓親密社交中的關鍵人分享有價值的信息,能夠有效狙擊消極信息。這也為疫情防控中的輿論管理指出了更為清晰的路徑。

3.提高個人的抗謠能力。

當大環境與小氛圍都能夠得到有效控制,那麼個人在信息傳播過程中成為謠言感染者的可能就會直接降低。一些聳人聽聞的謠言,只要仔細推敲,就會不攻自破,搶購“雙黃蓮蓉月餅”的鬧劇可能也就不會發生了。

在《大流感:最致命瘟疫的史詩》的結尾,約翰巴里寫道——恐懼源於矇昧,一旦怪獸露出原型,恐懼就凝縮成具體形象,不復存在了。

這也是AI持續進化的意義所在,只要人類能夠看清病毒/謠言的每一次畸變,自然也就打破了恐懼。


分享到:


相關文章: