2月21日,一份由25名技術(shù)與公共政策研究員共同發(fā)布的報告指出,快速發(fā)展的人工智能(AI)被惡意利用的風(fēng)險呈上升趨勢,一旦遭黑客攻擊,或釀成無人駕駛的車禍,商業(yè)無人機也可能變成有針對性的武器。
參與這份報告的撰寫者包括來自劍橋、牛津和耶魯大學(xué)的25位技術(shù)與公共政策研究人員,以及隱私和軍事專家。報告旨在就可能發(fā)生的濫用人工智能行為敲響警鐘。
研究人員表示,基于對五年內(nèi)人工智能技術(shù)發(fā)展進(jìn)程的預(yù)估,其認(rèn)為惡意使用人工智能會對數(shù)字、物理和政治安全造成迫在眉睫的威脅,因為它可能被利用來實施大規(guī)模的、極具針對性的高效攻擊。
“我們都同意,人工智能可以有很多積極的應(yīng)用。”牛津未來人類研究所研究員Miles Brundage表示:“但圍繞惡意使用人工智能問題的文獻(xiàn)少得多。”
人工智能一般使用計算機執(zhí)行通常需要人類智能的任務(wù),例如做出決定或識別文本、語音或視覺圖像。
人工智能被認(rèn)為是實現(xiàn)各種技術(shù)可能性的一股強大力量,但它已經(jīng)成為了學(xué)界激烈爭論的焦點。爭論涉及的問題主要在于,通過人工智能實現(xiàn)的大規(guī)模自動化是否會造成大規(guī)模失業(yè)和其他社會混亂。
而這篇98頁的文章警告稱,通過使用AI來完成原本可能需要人力和專業(yè)知識才能完成的任務(wù),或?qū)⒔档凸舻某杀尽N磥砜赡軙霈F(xiàn)新的攻擊,單靠人類獨自開發(fā)或利用AI系統(tǒng)本身的脆弱性是不切實際的。
報告綜述了大量關(guān)于人工智能造成安全風(fēng)險的學(xué)術(shù)研究,并呼吁各國政府和政策及技術(shù)專家通力合作,一同化解此類危險。
研究人員詳細(xì)介紹了人工智能生成合成圖像、文本和音頻的能力,它可以被用來在網(wǎng)絡(luò)上模仿他人行為,以左右輿論。報告提出的建議包括將人工智能作為軍用和商用兩種用途的技術(shù)來進(jìn)行管理。
報告還提出了問題——學(xué)者是否應(yīng)該對其發(fā)表和披露的有關(guān)人工智能新發(fā)展的內(nèi)容有所保留,是否應(yīng)該在該領(lǐng)域的其他專家研究并找到應(yīng)對潛在危險的方法后,再將結(jié)果公之于眾。
“我們最終得到的問題比答案多得多。”Brundage說。
這篇論文誕生于2017年初的一次研討會上,自那以后,其中一些預(yù)言基本上成真了。作者們當(dāng)時預(yù)測,人工智能可以用于制作極度仿真的政府官員音頻和視頻,從而用于宣傳目的。
而去年年底,一些仿真的色情視頻開始在網(wǎng)上流傳,一些名人的面孔被嫁接到不同的身體上,有些效果可以以假亂真。
特拉斯公司首席執(zhí)行官馬斯克和硅谷投資者薩姆·阿爾特曼創(chuàng)立的OpenAI組織政策主管杰克·克拉克表示:“雖然它現(xiàn)在被用在了色情行業(yè),而非政治宣傳,但是,這一技術(shù)被應(yīng)用于后者也不是不可能。”