圖片來源@視覺中國
利用AI模型來預測病毒或謠言的傳播走向,已經不再是什么新鮮事物。
要知道,現(xiàn)實情況往往比訓練AI的數(shù)據(jù)集復雜N倍,而研究人員打造的模型,往往只是研究傳播對象的前幾個步驟,然后將這個速率引入復雜的數(shù)學模型之中,來預測傳播的廣度和速度。
但如果病原體發(fā)生變異,或新聞內容被修改,傳播速度和方式也將發(fā)生變化,這時候,原本的AI模型還能成功應對呢?
這也使我們不得不思考更進一步的問題——將AI看成防范病毒/謠言的利器,但技術本身也必須在復雜環(huán)境中持續(xù)迭代。
七十二變:比疾病更難預測的“病毒”
疾病變異,可以通過基因比對來追根溯源。那么信息變異呢?
在以T為單位的網絡世界,內容信息往往會以閃電般的速度在社交媒體上傳播。在這次疫情中大家可能也發(fā)現(xiàn)了,謠言往往輕易獲得“萬轉”,而辟謠信息的轉發(fā)卻十分可憐。
這也說明了一個傳播學的難題,一條信息是否會傳播,取決于原始信息是如何被篡改的。
有些錯誤是故意的,也就是“造謠”。但有的改變則是出于增加電話、加入交互等成分而自然發(fā)展出來的。
比如一則關于2014年俄羅斯戰(zhàn)斗機與美國驅逐艦在黑海對峙的舊聞,經過一些八卦網站(Parody website)的篡改,變成了:俄羅斯空軍配備一種神秘電磁武器,瞬間弄癱了整艘美國軍艦。
此消息經過社交媒體發(fā)酵,最后甚至登上了主流媒體??怂剐侣劸W站的頭條。
那么,一條看似枯燥的信息是否能演變成病毒式傳播的博文,能夠預測出來嗎?
此時,原本用于預測流行病趨勢的傳染病動力學,就開始與信息傳播聯(lián)系到了一起。
早在上個世紀,科學家們就開始基于傳染病動力學模型,研究復雜網絡下信息的傳播模型了。
經典的謠言傳播模型理論研究源于20世紀 60年代 。
1965年,研究者Dalay和Kendall提出了謠言傳播的數(shù)學模型,后來人們命名該模型為DK模型。它把人群按照謠言傳播效果,分成謠言易染類人群、謠言感染類人群及謠言移出類人群,認為其中兩類會以隨機過程來相互轉換。
到了1973年,麥基和湯普森兩人對當時主流的謠言傳播模型DK模型進行了改進,引入了免疫人群。
2001年,Zanetee則將復雜網絡引入到謠言傳播模型中,建立了具有網絡拓撲結構特征的傳播模型。2004年,莫瑞奧等人在小世界網絡和無標度網絡中研究了謠言傳播動力學。
但是,這些模型均未將信息老化理論考慮進去。
到了2011年,中國研究者則將以往機制引入謠言傳播類型,認為人們關注謠言的熱度會隨著時間的推移而下降,尤其是在紛繁復雜的網絡世界中,人們的吸引力也容易被其他事物所轉移。無知者轉化為謠言傳播者或真相傳播者的概率會下降,并將其慢慢遺忘。
誠然,數(shù)學模型嚴密的邏輯性和抽象性,為輿論管理帶來了一定的預測可能性。
但其中有兩個問題卻始終存在:
一是時間滯后。謠言傳播與傳染病傳播在機理上有很多的相似性,就像病毒存在潛伏期一樣,網絡謠言從被更改、發(fā)布、發(fā)酵、傳播、消失等一系列過程,個體的時間滯后程度都不一樣。有的可能當下非常關心,有的則沉迷學業(yè)一個月后才趕來吃瓜……種種不確定性,也給預測網絡信息傳播帶來了一定的難度。
其次,則是變異突發(fā)。正如同我們很難追溯病毒是如何在擴散過程中逐漸變異的,對謠言的改造和增刪,都有可能改變其傳播路徑與效果。比如新冠期間,從寵物可能感染新型肺炎,到養(yǎng)寵可以預防,再到有寵物被檢測出陽性……反轉一波接一波,有的則是披著辟謠皮的新謠言,這些都會讓對信息的預測出現(xiàn)誤差。
如果不考慮隨著時間的推移可能發(fā)生的變化,那么在預測生病人數(shù)或接觸到一條信息的人數(shù)時,肯定會出錯。
不斷趨近真相:讓AI模仿現(xiàn)實
怎么辦呢?答案是只有讓模型與現(xiàn)實之間的差異盡可能地小,從而提高預測的準確率。
前不久《美國國家科學院院刊》(PNAS)上發(fā)表的一項新研究,來自卡內基梅隆大學(Carnegie Mellon University)的研究人員就將信息變異這一關鍵變量引入到了數(shù)學模型之中。
他們在現(xiàn)實世界的網絡中對數(shù)千種計算機模擬的流行病進行了數(shù)千次模擬測試,比如一個是美國某高中學生、教師和工作人員之間的聯(lián)系網絡Twitter,另一個是法國里昂一家醫(yī)院的工作人員和病人之間的聯(lián)系網絡。
借助實時數(shù)據(jù)跟蹤病原體的進化或信息,“證明了我們的模型在現(xiàn)實世界的網絡上有效,更精確。”該研究的第一作者Rashad Eletreby表示。
而實現(xiàn)這一點的意義,讓人類對病毒/謠言的傳播預測距離現(xiàn)實又近了一步。
有了AI模型,世界還會失序嗎?
如果病毒/信息的傳播可以被精準預測,是不是不會再上演那些無奈的故事?
比如2003 的SARS疫情,學者們就建立了大量的動力學模型研究其傳播規(guī)律和趨勢,以及各種隔離預防措施的強度對控制流行的影響,來為決策部門提供參考。
還有網絡上廣泛傳播的“雙黃連可預防新冠病毒”、“食用大蒜可以殺滅新冠病毒”等偽科學謠言,如果能及時地預測變化趨勢,介入并引導,民眾盲目哄搶、囤積事件是不是就不會發(fā)生?
顯然,就目前的研究成果來看,想要以100%的準確率,預測病毒或假新聞傳播,AI模型還不是那味靈丹妙藥。
首先,病毒/信息的大范圍流通一定會出現(xiàn)歧變,而目前的相關研究和數(shù)值都比較匱乏,這也決定了即使訓練出了相關模型,也很難快速為重大公共衛(wèi)生事件起到有效的作用。
另外,不同事件周期中人群對信息(謠言)的易感度是不同的,除了個體性差異之外,對組織的信任與認同、信息公開的精準性等,都會直接影響傳播結果。
比如在環(huán)境危險性較高的時候,如果人們得到的信息又比較模糊,那么謠言就很容易被相信和傳播。在地震、海嘯等災難性實踐中,就屢屢出現(xiàn)哄搶等行為。
所以說,不同群體在不同情境下的心理狀態(tài),會直接影響到預測模型的準確率。
當然,上述不確定性也為我們尋求AI之外的解藥提供了線索。
除了依靠機器來完成預測,在引發(fā)負面?zhèn)鞑ブ熬蛯崿F(xiàn)合理控制,從源頭建立整個社會的“謠言免疫力”,恐怕才是更重要的。
目前看來,有三個關鍵因素是值得注意的:
1.精確有效的信息釋放。
在出現(xiàn)傳染病/謠言傳播等情況時,每個人都會主動去尋求與自身休戚相關的信息,以便更精確的感知環(huán)境來做出決策。
2004年,兩位學者就通過分析280條網絡謠言,發(fā)現(xiàn)很大比例的謠言主體都是在尋求事實中希望進一步解決問題的。
一旦某些重要信息反而模糊性較強的時候,就很容易引發(fā)焦慮,從而導致一些消極、非官方的渠道來探尋事實。所以,提供精確有效的信息,能夠極大地緩解個體的焦慮情緒,從而降低信息傳播的負面影響。
2.重視社群節(jié)點的管理。
所有社交網絡都是借助一個個關鍵“節(jié)點”來實現(xiàn)連接的,謠言亦如是。
而在比較親密的社交關系中,消極謠言更容易被用來增加彼此的聯(lián)系,因為可以通過分享來共同尋找解決辦法。所以不要再抱怨你的老母親老父親總在家庭群里傳播謠言帖了,在控制網絡謠言傳播上,讓親密社交中的關鍵人分享有價值的信息,能夠有效狙擊消極信息。這也為疫情防控中的輿論管理指出了更為清晰的路徑。
3.提高個人的抗謠能力。
當大環(huán)境與小氛圍都能夠得到有效控制,那么個人在信息傳播過程中成為謠言感染者的可能就會直接降低。一些聳人聽聞的謠言,只要仔細推敲,就會不攻自破,搶購“雙黃蓮蓉月餅”的鬧劇可能也就不會發(fā)生了。
在《大流感:最致命瘟疫的史詩》的結尾,約翰巴里寫道——恐懼源于蒙昧,一旦怪獸露出原型,恐懼就凝縮成具體形象,不復存在了。
這也是AI持續(xù)進化的意義所在,只要人類能夠看清病毒/謠言的每一次畸變,自然也就打破了恐懼。