人工智能需要規(guī)范,用人工智能搞破壞真不是科幻

與非網(wǎng)
佚名
這是一份AI人對(duì)AI人發(fā)出的警告。 近日,OpenAI等14大知名機(jī)構(gòu)聯(lián)名發(fā)布了一份關(guān)于惡意使用人工智能的報(bào)告。該報(bào)告從技術(shù)角度出發(fā),指出了未來5年內(nèi)人工智能被濫用的風(fēng)險(xiǎn)。 危險(xiǎn)和騙術(shù)正在升級(jí)。 某安全管理...

這是一份AI人對(duì)AI人發(fā)出的警告。

近日,OpenAI等14大知名機(jī)構(gòu)聯(lián)名發(fā)布了一份關(guān)于惡意使用人工智能的報(bào)告。該報(bào)告從技術(shù)角度出發(fā),指出了未來5年內(nèi)人工智能被濫用的風(fēng)險(xiǎn)。

危險(xiǎn)和騙術(shù)正在升級(jí)。

某安全管理系統(tǒng)的管理員在瀏覽網(wǎng)站,一則模型火車的廣告吸引了她。她點(diǎn)開還下載了一個(gè)小冊(cè)子。此時(shí),攻擊開始了。小冊(cè)子一旦被打開,黑客就能窺視她的電腦,獲得安全管理系統(tǒng)的用戶名和密碼。

至于管理員看到的廣告,則是黑客根據(jù)其個(gè)人興趣,結(jié)合人工智能精心設(shè)計(jì)的“陷阱”。

雖然這是報(bào)告中給出的假設(shè)性案例,但這個(gè)操作,一點(diǎn)都不令人意外。

用人工智能搞破壞真不是科幻

報(bào)告名為《惡意使用人工智能:預(yù)警、防止和緩解》,它由26位作者共同完成,其中不乏人工智能技術(shù)研究者。

報(bào)告將濫用人工智能的威脅分為了物理安全、數(shù)字安全和政治安全三類。在物理安全方面,不法分子可以入侵網(wǎng)絡(luò)系統(tǒng),將無人機(jī)或者其他無人設(shè)備變成攻擊的武器;在數(shù)字安全方面,人工智能可以被用來自動(dòng)執(zhí)行網(wǎng)絡(luò)攻擊,它也能合成人類的指紋或聲紋騙過識(shí)別系統(tǒng);在政治安全方面,人工智能可以用來進(jìn)行監(jiān)視、煽動(dòng)和欺騙,引發(fā)公眾恐慌和社會(huì)動(dòng)蕩。

這些都不是危言聳聽,甚至已有實(shí)例。

2017年,浙江警方破獲了一起利用人工智能犯罪、侵犯公民個(gè)人信息案。專業(yè)黑客用深度學(xué)習(xí)技術(shù)訓(xùn)練機(jī)器,讓機(jī)器能夠自主操作,批量識(shí)別驗(yàn)證碼。“很短時(shí)間就能識(shí)別上千上萬個(gè)驗(yàn)證碼。”當(dāng)時(shí)的辦案民警介紹。

北京郵電大學(xué)人機(jī)交互與認(rèn)知工程實(shí)驗(yàn)室主任劉偉曾見識(shí)過一家人工智能公司的“聲音合成”技術(shù),A說的話完全可以套上B的聲音,“一般人識(shí)別不出來”。劉偉說,這些技術(shù)一旦被別有用心的人利用,“世界可能就亂套了”。

要打技術(shù)攻防戰(zhàn),也要制度來規(guī)范

怎么辦?

一方面是升級(jí)技術(shù)。當(dāng)攻擊方用上了導(dǎo)彈大炮,防御方就不能只用“小米加步槍”。中國社科院文化法制研究中心研究員劉明說,技術(shù)帶來的問題,有時(shí)也可以用技術(shù)發(fā)展來解決。人工智能是一種工具,工具的發(fā)展也許不會(huì)從根本上改變行為的性質(zhì),但會(huì)改變行為的模式和行為后果的烈度。“如果意識(shí)到自己所在行業(yè)存在人工智能帶來的威脅,自身加強(qiáng)防范就很重要。”

劉偉也表示,如果有一種技術(shù)能將聲音模仿得惟妙惟肖,就會(huì)有另一種技術(shù)來識(shí)別這聲音來自李鬼還是李逵。“這可能是一場無止境的技術(shù)攻防戰(zhàn)。”

另一方面,則需要制度。

“人工智能本身沒有倫理問題,最終還是制造者、使用者、傳播者們(人)的倫理問題。”劉偉追溯“倫理”一詞起源,它來自希臘文的“ethos”,是風(fēng)俗和習(xí)慣的意思。東西方其實(shí)有不同的倫理觀,在劉偉看來,西方研究“人與物”的關(guān)系,東方則喜歡談“人與人”的關(guān)系。倫理具有情境性,還有文化依賴性。“人工智能倫理研究要考慮交互主體-人類的思維與認(rèn)知方式,要弄清楚人的倫理中可以進(jìn)行結(jié)構(gòu)化處理的部分,再讓機(jī)器形成所謂的倫理。”

除了倫理框架,也需要規(guī)范甚至是法律。

“當(dāng)技術(shù)即將作用于現(xiàn)實(shí)生活,一些危險(xiǎn)已經(jīng)可以預(yù)測,從法學(xué)家的角度來看,此時(shí)我們來討論問題如何解決、責(zé)任如何分配是比較合適的。”劉明也參加過多次有關(guān)自動(dòng)駕駛規(guī)范的研討會(huì)。自動(dòng)駕駛已在大規(guī)模應(yīng)用前夕,因此其規(guī)則研討就需要提上議事日程。但這種規(guī)則的制定也無法一蹴而就,還需根據(jù)實(shí)踐中出現(xiàn)的真問題再度進(jìn)行調(diào)整。“隨著技術(shù)的發(fā)展,對(duì)應(yīng)的法律規(guī)范調(diào)整的靈活度會(huì)比以前更大,調(diào)整速度會(huì)更快。”劉明說。

劉偉認(rèn)為,人工智能發(fā)展規(guī)范的制定,必須要有人文社科學(xué)者的參與。他主張不同學(xué)科、不同領(lǐng)域的人加強(qiáng)交流。政府、民間組織、科研機(jī)構(gòu)和企業(yè)都可以搭建這樣的橋梁,為各行各業(yè)的人提供討論的平臺(tái)。畢竟,人工智能將要影響的,可能是所有人。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論