北京時(shí)間4月25日?qǐng)?bào)道,一家主要的安全智庫(kù)蘭德公司(以下簡(jiǎn)稱“蘭德”)警告稱,最早在2040年,人工智能就可能發(fā)動(dòng)造成人類毀滅的核戰(zhàn)爭(zhēng)。
蘭德稱,催生“世界末日人工智能”機(jī)器的技術(shù)發(fā)展,可能會(huì)促使一些國(guó)家利用它們的核武庫(kù)冒險(xiǎn)。
在冷戰(zhàn)期間,被稱作“相互確保摧毀”的狀態(tài),維持了兩個(gè)超級(jí)大國(guó)之間不穩(wěn)定的平衡。
然而,人工智能的進(jìn)步可能意味著“相互確保摧毀”狀態(tài)遭到破壞,從而削弱對(duì)方反擊的潛力,而且,這種趨勢(shì)可能無(wú)法阻止。
冷戰(zhàn)期間相互確保摧毀維持了超級(jí)大國(guó)之間脆弱的平衡
冷戰(zhàn)期間相互確保摧毀維持了超級(jí)大國(guó)之間脆弱的平衡
蘭德稱,未來(lái)數(shù)十年,人工智能的進(jìn)步,可能破壞“相互確保摧毀”對(duì)擁核國(guó)家的約束力。
就像在20世紀(jì)40年代和50年代的冷戰(zhàn)時(shí)期,未來(lái)核沖突的每一方都有理由擔(dān)心對(duì)手獲得技術(shù)優(yōu)勢(shì)。
改進(jìn)的人工智能技術(shù),加上更多的傳感器和開(kāi)源數(shù)據(jù),可以使各國(guó)相信他們的核能力是脆弱的。
報(bào)告稱,這可能會(huì)導(dǎo)致它們采取更激進(jìn)的措施,跟上美國(guó)這樣的競(jìng)爭(zhēng)對(duì)手。
蘭德研究人員、報(bào)告共同作者安德魯·洛恩(Andrew Lohn)表示,“有些專家擔(dān)心,人們?cè)絹?lái)越依賴人工智能會(huì)導(dǎo)致新型的災(zāi)難性錯(cuò)誤。”
各國(guó)都面臨在技術(shù)真正成熟前使用人工智能的壓力。因此未來(lái)數(shù)十年要保持戰(zhàn)略穩(wěn)定性極端困難,所有核大國(guó)必須參與新體系的形成,以降低核風(fēng)險(xiǎn)。
報(bào)告稱,另一種令人擔(dān)憂的情況是,指揮官可能根據(jù)人工智能助手提供的建議作出發(fā)動(dòng)攻擊的命令,而人工智能助手接收的信息本身可能就是錯(cuò)誤的。
除了提供糟糕的建議外,這樣的系統(tǒng)也可能容易受到黑客攻擊,從而引發(fā)了惡意第三方發(fā)動(dòng)第三次世界大戰(zhàn)的可能性。
盡管如此,有人認(rèn)為人工智能可以通過(guò)提高情報(bào)收集和分析的準(zhǔn)確性,來(lái)提高未來(lái)的戰(zhàn)略穩(wěn)定性。
專家表示,對(duì)用于監(jiān)測(cè)和解釋對(duì)手行為的分析過(guò)程進(jìn)行改進(jìn),可以減少可能導(dǎo)致對(duì)抗意外升級(jí)的錯(cuò)誤計(jì)算或曲解。
鑒于未來(lái)的改進(jìn),最終人工智能系統(tǒng)有可能發(fā)展出比人類更不容易出錯(cuò)的能力,因此有助于保持長(zhǎng)期的戰(zhàn)略穩(wěn)定性。
根據(jù)與在核問(wèn)題、政府部門(mén)、人工智能研究、人工智能政策和國(guó)家安全方面的專家舉行的一系列研討會(huì)期間收集的信息,蘭德研究人員,得出了上述結(jié)論。
這項(xiàng)研究是展望2040年重大安全挑戰(zhàn)的更廣泛研究活動(dòng)的一部分,考慮了政治、技術(shù)、社會(huì)和人口趨勢(shì)的影響。
“人工智能會(huì)增加核戰(zhàn)爭(zhēng)的風(fēng)險(xiǎn)?”研究的全部資料發(fā)布在蘭德網(wǎng)站上。
更多一手新聞,歡迎下載鳳凰新聞客戶端訂閱鳳凰網(wǎng)科技。想看深度報(bào)道,請(qǐng)微信搜索“iFeng科技”。