2020年1月20日,美國蘭德公司網(wǎng)站發(fā)表博客文章,題為《人工智能與現(xiàn)實制造》(Artificial Intelligence and the Manufacturing of Reality),作者是克里斯托弗·保羅(帕蒂蘭德研究生院教授),有關(guān)內(nèi)容編譯如下。
2016年,接受調(diào)查的美國人有1/3告訴研究人員,他們相信政府在隱瞞對“北達科他州崩潰”的了解,而這是由研究人員出于調(diào)查目的自己精心策劃的一個陰謀。這次崩潰根本沒有發(fā)生,但它凸顯了人類在決定什么是真實的或不真實的過程中所帶有的缺陷。
互聯(lián)網(wǎng)和其它技術(shù)使得更易于將其用作武器和利用這些漏洞,比以往任何時候都更快、更引人注目地引誘更多的人。人工智能很可能會以前所未有的規(guī)模、速度和有效性水平來利用人性的內(nèi)在弱點。像俄羅斯這樣的對手可以追求一些目標,即利用這些操縱手段來巧妙地重塑目標受眾對周圍世界的看法,從而有效地制造現(xiàn)實。即使我們的預(yù)測只有一些是準確的,所有依賴于公眾輿論、大眾認知或公民參與的治理也都將面臨風險。人類的弱點之一是其容易錯誤地重新定義自己所經(jīng)歷的事情。這種被稱為托馬斯定理的缺陷表明:“如果人們將情況定義為真實的,那么其后果就是真實的。”換句話說,人類不僅對情況的客觀特征做出反應(yīng),而且對自己主觀的情況詮釋做出反應(yīng),即使這些信念實際上是錯誤的。其他缺點包括我們愿意相信不真實的信息,以及容易受到情感訴求和理性影響的傾向,如“北達科他州崩潰”謊言所證明的那樣。
還可以教會機器比人類更有效地利用這些缺陷:為使目標受眾做出所期望的反應(yīng),人工智能算法能針對數(shù)百萬人高速測試哪些內(nèi)容有效以及哪些內(nèi)容不能一遍遍地重復(fù)。
看看俄羅斯在2016年英國脫歐投票中的角色。有證據(jù)表明,與俄羅斯相關(guān)的推特賬戶3800個,發(fā)送的1000多條推文在投票日推動了贊成脫歐投票。隨著時間的流逝,這種推文似乎在推特上煽動了脫歐陣營的火焰,而反脫歐陣營在投票前幾天做出了反應(yīng)。
包括對抗生成網(wǎng)絡(luò)、自然語言處理和量子計算在內(nèi)的新興技術(shù)可使這種作法更加有效。例如,將來俄羅斯行為者可以根據(jù)受眾的特征及其在各種在線平臺上的行為來剪裁推文中的信息,而確定受眾在各種在線平臺上的行為的依據(jù)是他們向數(shù)據(jù)經(jīng)紀人合法購買的用戶數(shù)據(jù),以及從黑客那里購買的非法數(shù)據(jù)和他們自己檢索的數(shù)據(jù)。
現(xiàn)在可以利用這些機會,并且某些機會可能會變得越來越容易被人工智能所利用。例如,在將來,像俄羅斯這樣的對手可以查詢這些數(shù)據(jù)流以定制其消息,并在社交媒體平臺上對其進行測試以識別最有效的消息。然后,此類攻擊者可以相應(yīng)地更改這些經(jīng)過測試的消息,并通過各種在線媒體(例如,傳統(tǒng)的社交媒體平臺、增強現(xiàn)實、虛擬現(xiàn)實設(shè)備或無創(chuàng)性腦機接口)將其發(fā)送到用戶及其社交網(wǎng)絡(luò)。
當前,許多操作都是手動完成的,但人工智能可以改變規(guī)模。新興技術(shù)將使這種迭代式優(yōu)化循環(huán)幾乎實時發(fā)生,并且其影響范圍比英國脫歐投票期間所涉及的人數(shù)要多得多。
(1)現(xiàn)實制造并非新事物
人類過去一直很容易受到欺騙、挑釁、左右、引誘或以其它方式受到操縱。至少從20世紀60年代開始,蘇聯(lián)軍方和隨后的俄羅斯機構(gòu)就認識到了利用此漏洞的機會。這就是為什么蘇聯(lián)人開發(fā)了一個正式的研究計劃(稱為反身控制理論)來模擬如何操縱目標對現(xiàn)實的看法。該理論著重于策略性地將信息傳遞給目標的方式,從而巧妙地改變其決策的動機和邏輯。最終目標是使人們相信某事符合他們的最大利益,即便這不是最有利的,也可以使人們做某事。當俄羅斯人將反身控制理論用作武器時,麥迪遜大道使用類似的邏輯喚起了人們的情感,并向美國消費者出售產(chǎn)品。
俄羅斯人使用反身控制的例子不勝枚舉。例如,在1993年10月,俄羅斯一些立法人員接管了自己的議會,倡導(dǎo)恢復(fù)共產(chǎn)主義。當局決定讓叛亂者占領(lǐng)一個警察通訊站,從而使其進入一個可靠的通訊頻道,然后由警察在這個頻道傳送政府官員有關(guān)計劃攻占被占領(lǐng)的國會大廈的虛假對話。聽到這一消息后,叛亂領(lǐng)導(dǎo)人之一——議會發(fā)言人魯斯蘭·卡什布拉托夫呼吁支持者奪取當?shù)仉娨暸_,這是政變的第一步。通過讓卡什布拉托夫公開提出暴力要求,俄羅斯當局創(chuàng)造了猛攻議會和逮捕異議人士的理由。
同樣,東德也意識到了制造現(xiàn)實對維持內(nèi)部控制的力量。從20世紀70年代左右開始,其稱為“斯塔西”的國家安全部將工作范圍從對目標的身體虐待(例如酷刑或處決)擴展到了某種心理虐待。“斯塔西”將這種技術(shù)稱為Zersetzung,它大致翻譯為“分解”。這是一項有組織的科學工作,旨在收集有關(guān)人的信息,然后以破壞人們在私人和公共生活中自我意識的方式使用這些信息。“斯塔西”闖入目標者的房屋,重新布置家具、偷走衣物或關(guān)閉時鐘。他們會發(fā)送一些照片,使工作場所中的人蒙羞,將異議人士的子女驅(qū)逐出境,或者誘使他們認為自己患有精神疾病,這在今天被稱為“煤氣燈式心理操縱”。“分解”的受害者會努力了解為什么其生活變得稀奇古怪了。
但是,俄羅斯和“斯塔西”的這些戰(zhàn)術(shù)需要進行認真的研究和執(zhí)行,才能一次性地破壞或操縱目標。當代的信息環(huán)境和現(xiàn)代工具(包括人工智能),可以大幅降低此類操縱的交易成本。以下方法可以在信息武器化方面實現(xiàn)顯著擴展。
(2)現(xiàn)實制造與現(xiàn)代工具相結(jié)合
① 大數(shù)據(jù)
有人預(yù)測,到2025年,人類每天將產(chǎn)生大約463艾字節(jié),足以裝滿2.12億張DVD。個人數(shù)據(jù)以令人恐懼的細節(jié)對其進行了描述。通過從合法和非法數(shù)據(jù)經(jīng)紀人那里訪問此類數(shù)據(jù),人工智能可以結(jié)合并匹配其亞馬遜購物、谷哥搜索、推特、臉書照片、401k賬戶余額、信用記錄、其Netflix的瀏覽習慣和在線搜索等。
② 精準分發(fā)和微觀定位
基于狀態(tài)更新、發(fā)布的視頻草稿、面部識別數(shù)據(jù)、電話和短信,大數(shù)據(jù)可以幫助識別哪些人與其他人相似,以及哪些相似之處很重要。人工智能將使其在將來變得越來越容易。如果操縱者對某人的了解足夠多,就可以向他或她發(fā)送刺激或激勵信息,那么向類似的人發(fā)送相同的消息應(yīng)該產(chǎn)生相似的結(jié)果。
③ 淺表偽造、深度偽造和社交機器人
淺表偽造是通過手動篡改圖像、視頻或音頻來創(chuàng)建的。深度偽造使用人工智能將圖像、視頻和錄像疊加到源文件上,以巧妙地改變誰在做什么。人工智能驅(qū)動的“社交機器人”可以像真人一樣進行對話。人工智能將極大地增加這種不真實的“人”的數(shù)量,并且使人與人之間的對話更加困難。
④ 對抗生成網(wǎng)絡(luò)
幫助使深度造假的東西變得如此現(xiàn)實的技術(shù)之一,是使用一類稱為對抗生成網(wǎng)絡(luò)(GAN)的機器學習系統(tǒng)。這些網(wǎng)絡(luò)具有兩個神經(jīng)網(wǎng)絡(luò)模型:生成器和鑒別器。生成器獲取訓(xùn)練數(shù)據(jù)并學習如何重新創(chuàng)建它,而鑒別器則嘗試將訓(xùn)練數(shù)據(jù)與生成器重新生成的數(shù)據(jù)區(qū)分開。兩個人工智能參與者反復(fù)博奕,每個參與者的工作迭代都越來越好。
目前,對抗生成網(wǎng)絡(luò)已被用來為假色情影片和政治諷刺作品進行深度造假。而其操縱能力應(yīng)使我們擔心,原因有幾個。首先,它們可以使用諸如大數(shù)據(jù)和精確推銷之類的輸入來擴展如深度造假之類的內(nèi)容制造。其次,生成器和鑒別器神經(jīng)網(wǎng)絡(luò)之間的迭代競爭是在機器速度下進行的,并且是精確的。第三,可以將對抗生成網(wǎng)絡(luò)的基礎(chǔ)邏輯應(yīng)用于其它實踐。
結(jié)論
現(xiàn)在由人工智能驅(qū)動的社交機器人向您發(fā)送汽車或護膚廣告,它們可能開始與您聊天(實際上是在試驗?zāi)?,以測試哪些內(nèi)容會引起最強烈的反應(yīng)。您的回答將反饋到類似對抗生成網(wǎng)絡(luò)的系統(tǒng)中,在此系統(tǒng)中,您和無數(shù)其他人將扮演鑒別器的角色,所有這些都有助于人工智能學習如何在未來的刺激中更好地操縱您。您或您這樣的其他人可能會慢慢地被迫改變對其它團體或在外交和國內(nèi)政策問題上的態(tài)度、偏好或行為。誰最先開發(fā)和使用這樣的系統(tǒng),就很容易在未來幾年內(nèi)吸引廣大公眾。
鑒于當前的社交媒體格局,抵御這種大規(guī)模操縱將特別棘手,當前的社交媒體可以通過使用機器人或其他形式的自動化來輕松地復(fù)制虛假的個體、人物和賬戶。開發(fā)保護性的工作可能有幾種方法,以防止使用人工智能對人類進行實驗。政府監(jiān)管是一種方式。政府可以規(guī)范社交媒體公司的身份認證標準??梢詫Σ环线@些標準的公司處以罰款,為符合這些標準的公司提供稅收減免,或?qū)γ總€開設(shè)新社交媒體賬戶的用戶征稅。此外,美國證券交易委員會可以為公開交易的社交媒體公司制定標準,以在其文件中報告真實、活躍的用戶。例如,2016年,美國證券交易委員會對推特在其平臺上報告每日和每月活躍用戶的方式表示關(guān)注。證券交易委員會可以制定報告真實用戶的標準,這不僅可以保護投資者,而且還可以確保在這些平臺上開立賬戶的透明度。
另外,社交媒體提供商可能會主動采取措施限制多個賬戶或不真實的賬戶。如果這些公司認為這樣做符合其利益,那么它們可以采用多種方法來減少虛假賬戶的傳播。此類措施可能包括更嚴格的身份認證和驗證,或者可能強加與開設(shè)每個賬戶相關(guān)的名義成本。合法用戶只會受到這種費用最小程度的不便,但僵尸牧人可能會發(fā)現(xiàn)這種費用高得令人望而卻步,或者為無數(shù)假賬戶安排付款程序遇到了障礙。此外,金錢痕跡追蹤將為識別不真實賬戶甚至追溯到犯罪者提供了另一種手段。
這些措施結(jié)合起來將使成本和激勵措施保持一致,以防止用戶開設(shè)數(shù)千個人工智能支持的非真實賬戶。不管新技術(shù)是否不斷發(fā)展,不真實內(nèi)容的生產(chǎn)者將始終需要一種方法來分發(fā)其操縱性信息。這些分發(fā)渠道將成為我們抵御現(xiàn)實制造武器化的第一道防線。
不幸的是,當前的激勵結(jié)構(gòu)幾乎沒有為推動社交媒體公司采取這樣的措施提供動力,因為廣告收入的本質(zhì)是獎勵大量活躍賬戶,無論它們是由真實的人還是通過自動化來管理的。但可以想象,重視與真人互動的用戶會獎勵社交媒體公司,后者會采取措施確保其業(yè)務(wù)和流量賬戶的真實性。真實性可能成為某些社交媒體平臺的重要品牌屬性,并受到消費者行為的激勵。