人工智能到竟被如此愚弄,底是比人類"聰明"還是"傻"?

刀小娛記者
AI的學(xué)習(xí)方式也需要改變。從某種意義上說,使用強(qiáng)化學(xué)習(xí)擊敗計(jì)算機(jī)游戲的AI已經(jīng)在人工環(huán)境中做到了:通過反復(fù)試驗(yàn),它們以允許的方式操縱屏幕上的像素,直到達(dá)到目標(biāo)為止。但是實(shí)際環(huán)境比當(dāng)今大多數(shù)DNN訓(xùn)練所依據(jù)的模擬或策展數(shù)據(jù)集要豐富得多。

人工智能犯錯(cuò)

此類事件實(shí)際上并未發(fā)生,但是破壞AI的潛力是非?,F(xiàn)實(shí)的。研究人員已經(jīng)展示了如何通過小心地在貼紙上放置貼紙來使AI系統(tǒng)誤讀停車標(biāo)志。他們通過在眼鏡或帽子上貼上印刷圖案來欺騙人臉識(shí)別系統(tǒng)。通過在音頻中插入噪聲模式,他們欺騙了語音識(shí)別系統(tǒng)。

這些只是打破AI中領(lǐng)先的模式識(shí)別技術(shù)稱為深度神經(jīng)網(wǎng)絡(luò)(DNN)的一些示例。事實(shí)證明,這些方法在正確分類各種輸入包括圖像,語音和有關(guān)消費(fèi)者偏好的數(shù)據(jù)方面非常成功。它們是日常生活的一部分。然而,當(dāng)大家通常難以察覺的微小變化的形式對(duì)輸入進(jìn)行更改,可能會(huì)混淆周圍最好的神經(jīng)網(wǎng)絡(luò)。

無法解決的問題

在努力找出問題所在時(shí),研究人員發(fā)現(xiàn)了許多DNN為何失敗的原因。谷歌的AI工程師標(biāo)識(shí)深度神經(jīng)網(wǎng)絡(luò)的基本脆弱性沒有根本的解決方法。要克服這些缺陷,研究人員需要通過額外的能力來增強(qiáng)模式匹配DNN:例如,使AI能夠自己探索世界,編寫自己的代碼并保留記憶。一些專家認(rèn)為,這類系統(tǒng)將是AI研究未來十年后才會(huì)發(fā)生的事情。

越復(fù)雜越危險(xiǎn)

2011年,谷歌推出了一種可以識(shí)別視頻中的貓的系統(tǒng),不久之后,出現(xiàn)了一系列基于DNN的分類系統(tǒng)。每個(gè)人都在說這太神奇了,計(jì)算機(jī)終于可以理解世界了。但是AI研究人員知道DNN實(shí)際上并不了解世界。它們是在大腦結(jié)構(gòu)上的松散建模,是由許多數(shù)字神經(jīng)元組成的多層軟件結(jié)構(gòu)。每個(gè)神經(jīng)元都在其上方和下方的各層中相互連接。這個(gè)想法是,原始圖像輸入進(jìn)入底層的功能例如圖像中的像素會(huì)觸發(fā)其中一些神經(jīng)元,然后根據(jù)簡單的數(shù)學(xué)規(guī)則將信號(hào)傳遞到上一層的神經(jīng)元。訓(xùn)練DNN網(wǎng)絡(luò)涉及到將其暴露于大量示例中,每次調(diào)整神經(jīng)元的連接方式,以便最終頂層可以提供所需的答案-例如始終將獅子的圖片解釋為獅子。即使DNN之前從未看到過該圖片。

問題不僅僅在于圖片識(shí)別,任何使用DNN來分類輸入例如語音的AI都可以被誤導(dǎo)。玩游戲的AI可能會(huì)遭到破壞。知道DNN的弱點(diǎn)在哪里,甚至可以讓黑客接管強(qiáng)大的AI。去年就出現(xiàn)了一個(gè)例子,當(dāng)時(shí)谷歌的一個(gè)團(tuán)隊(duì)表明,有可能使用對(duì)抗性例子,不僅可以迫使DNN犯特定的錯(cuò)誤,而且還可以對(duì)它進(jìn)行完全重新編程,從而有效地重用了接受過一項(xiàng)任務(wù)訓(xùn)練的AI。原則上,可以使用許多神經(jīng)網(wǎng)絡(luò)例如那些學(xué)習(xí)理解語言的神經(jīng)網(wǎng)絡(luò)對(duì)任何其他計(jì)算機(jī)程序進(jìn)行編碼。從理論上講,可以將聊天機(jī)器人變成所需的任何程序。

缺陷

DNN具有強(qiáng)大的功能,因?yàn)樗鼈兊亩鄬咏Y(jié)構(gòu)意味著它們?cè)趪L試對(duì)輸入進(jìn)行分類時(shí)可以選擇輸入的許多不同特征中的模式。經(jīng)過訓(xùn)練以識(shí)別飛機(jī)的AI可能會(huì)發(fā)現(xiàn),諸如色塊,紋理或背景之類的特征與我們認(rèn)為重要的事物(如機(jī)翼)一樣具有很強(qiáng)的預(yù)測能力。但這也意味著輸入中的很小變化就可以將其轉(zhuǎn)變?yōu)锳I認(rèn)為明顯不同的狀態(tài)。

答案之一就是在AI上拋出更多數(shù)據(jù)。特別是要使AI反復(fù)出現(xiàn)問題情況并糾正其錯(cuò)誤。在這種“對(duì)抗性訓(xùn)練”形式下,一個(gè)網(wǎng)絡(luò)學(xué)會(huì)識(shí)別物體,第二個(gè)網(wǎng)絡(luò)試圖改變第一個(gè)網(wǎng)絡(luò)的輸入,以免出錯(cuò)。這樣,對(duì)抗性示例便成為DNN訓(xùn)練數(shù)據(jù)的一部分。

通過測試DNN在各種對(duì)抗性示例中的表現(xiàn)如何,來量化DNN防止出錯(cuò)的魯棒性。但是,培訓(xùn)網(wǎng)絡(luò)抵御一種攻擊可能會(huì)削弱它對(duì)其他攻擊的能力。倫敦谷歌的DeepMind的研究人員正在嘗試訓(xùn)練DNN以免出錯(cuò)。許多對(duì)抗性攻擊通過對(duì)輸入的組成部分進(jìn)行細(xì)微調(diào)整例如巧妙地更改圖像中像素的顏色而起作用,直到這使DNN陷入錯(cuò)誤分類為止。健壯的DNN不應(yīng)因其輸入的微小變化而改變其輸出,并且該屬性可能會(huì)在數(shù)學(xué)上并入網(wǎng)絡(luò),從而限制了其學(xué)習(xí)方式。

從打敗到超越

解決此問題的一種嘗試是將DNN與符號(hào)AI結(jié)合起來,這是機(jī)器學(xué)習(xí)之前AI中的主要范例。借助象征性的AI,機(jī)器可以使用關(guān)于世界如何運(yùn)作的硬編碼規(guī)則進(jìn)行推理,例如其中包含離散的對(duì)象,并且它們以各種方式相互關(guān)聯(lián)。一些研究人員,例如紐約大學(xué)的心理學(xué)家加里·馬庫斯(Gary Marcus)說,混合AI模型是前進(jìn)的道路。人工智能需要在可以探索的更豐富的環(huán)境中學(xué)習(xí)。例如,大多數(shù)計(jì)算機(jī)視覺系統(tǒng)無法識(shí)別一罐啤酒是圓柱形的,因?yàn)樗鼈兪窃?D圖像的數(shù)據(jù)集上進(jìn)行訓(xùn)練的。這就是從不同角度呈現(xiàn)熟悉的對(duì)象來愚弄DNN的原因。在真實(shí)或模擬3D環(huán)境中學(xué)習(xí)將有所幫助。

但是,AI的學(xué)習(xí)方式也需要改變。從某種意義上說,使用強(qiáng)化學(xué)習(xí)擊敗計(jì)算機(jī)游戲的AI已經(jīng)在人工環(huán)境中做到了:通過反復(fù)試驗(yàn),它們以允許的方式操縱屏幕上的像素,直到達(dá)到目標(biāo)為止。但是實(shí)際環(huán)境比當(dāng)今大多數(shù)DNN訓(xùn)練所依據(jù)的模擬或策展數(shù)據(jù)集要豐富得多。

即使是最成功的AI系統(tǒng),例如DeepMind的AlphaZero,其專業(yè)領(lǐng)域也非常狹窄??梢杂?xùn)練AlphaZero的算法同時(shí)玩圍棋和國際象棋,但不能同時(shí)玩。重新訓(xùn)練模型的聯(lián)系和反應(yīng),使其能夠在國際象棋上取勝,將重置其以前使用Go的經(jīng)驗(yàn)。如果從人的角度考慮問題,那就太荒謬了。人們不會(huì)忘記自己如此輕松地學(xué)到的東西。

全自動(dòng)化

AlphaZero在玩游戲方面的成功不僅取決于有效的強(qiáng)化學(xué)習(xí),還在于一種幫助其學(xué)習(xí)的算法,以縮小選擇范圍。換句話說,AI被指導(dǎo)如何最好地從其環(huán)境中學(xué)習(xí)。人工智能的重要下一步將是使DNN能夠編寫自己的此類算法,而不是使用人類提供的代碼。用推理能力補(bǔ)充基本模式匹配將使AI更好地處理超出其舒適范圍的輸入。多年來,計(jì)算機(jī)科學(xué)家一直在研究程序綜合,其中計(jì)算機(jī)可以自動(dòng)生成代碼。將該領(lǐng)域與深度學(xué)習(xí)相結(jié)合可能會(huì)導(dǎo)致DNN系統(tǒng)更接近人類使用的抽象心理模型。

例如,在機(jī)器人技術(shù)方面,位于加利福尼亞州門的臉譜網(wǎng)計(jì)算機(jī)科學(xué)家正在教機(jī)器人如何最佳地自己探索新環(huán)境。例如,這可能涉及選擇在呈現(xiàn)新場景時(shí)應(yīng)朝哪個(gè)方向看,以及選擇哪種方式操縱對(duì)象以最好地理解其形狀或目的。這個(gè)想法是讓AI預(yù)測哪個(gè)新視點(diǎn)或角度將為其提供最有用的新數(shù)據(jù)。

未來怎么辦

該領(lǐng)域的研究人員表示,他們?cè)诮鉀Q深度學(xué)習(xí)的缺陷方面正在取得進(jìn)展,但也承認(rèn)他們?nèi)栽趯で笮录夹g(shù)以減輕過程的負(fù)擔(dān)。深度學(xué)習(xí)背后沒有太多理論。如果某事不起作用,很難找出原因。整個(gè)領(lǐng)域仍然非常有經(jīng)驗(yàn),更多的只需要嘗試一下。

目前,盡管科學(xué)家認(rèn)識(shí)到DNN的脆弱性及其對(duì)大量數(shù)據(jù)的依賴,但大多數(shù)人都認(rèn)為該技術(shù)將繼續(xù)存在。近十年來,人們意識(shí)到可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)以及大量的計(jì)算資源,從而很好地識(shí)別模式,這仍然是一個(gè)最主流的模式,因?yàn)楝F(xiàn)在還沒有人知道如何改變從而做的更好。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論