對話AI大師Bengio:AI不應(yīng)變成軍備競賽

李擎編譯
人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)領(lǐng)域的大牛、加拿大計(jì)算機(jī)科學(xué)家Yoshua Bengio日前在MIT的一次活動中接受采訪時表示,希望停止有關(guān)人工智能軍備競賽的討論,并讓發(fā)展中國家更容易獲得這項(xiàng)技術(shù)。

人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)領(lǐng)域的大牛、加拿大計(jì)算機(jī)科學(xué)家Yoshua Bengio日前在MIT的一次活動中接受采訪時表示,希望停止有關(guān)人工智能軍備競賽的討論,并讓發(fā)展中國家更容易獲得這項(xiàng)技術(shù)。

Yoshua Bengio是現(xiàn)代人工智能的大師,與Geoff Hinton和Yan LeCun一起并稱“深度學(xué)習(xí)三巨頭”,Bengio以倡導(dǎo)“深度學(xué)習(xí)”技術(shù)而聞名,近年來,這一技術(shù)已經(jīng)從學(xué)術(shù)屆的嘗試轉(zhuǎn)變成了目前全世界最強(qiáng)大的技術(shù)之一。

深度學(xué)習(xí)包括將數(shù)據(jù)輸入到大型神經(jīng)網(wǎng)絡(luò)中,這些神經(jīng)網(wǎng)絡(luò)簡略地模擬人類的大腦,它在各種實(shí)際任務(wù)中都被證明是非常強(qiáng)大和有效的——從語音識別、圖像分類到控制自動駕駛汽車和自動化商業(yè)決策。

Bengio并沒有選擇加入任何大型科技公司。雖然Hinton和LeCun分別加入了谷歌和Facebook,但Bengio仍然是蒙特利爾大學(xué)的全職教授。他在2016年成立了Element AI,并創(chuàng)立了一個非常成功的項(xiàng)目,幫助大公司探索人工智能研究的商業(yè)應(yīng)用。

以下為Yoshua Bengio教授采訪實(shí)錄:

問:你如何看待各個國家之間的人工智能競賽?

Bengio:我認(rèn)為這是不正確的做法。我們可以共同參與一場競賽,但作為一名科學(xué)家,我認(rèn)為我們應(yīng)當(dāng)考慮人類的共同利益,應(yīng)該更多地去思考如何建造出更智能的機(jī)器,并確保人工智能為更多的人謀福祉。

問:那么是否有辦法促進(jìn)各國之間的合作?

Bengio:我們可以讓發(fā)展中國家的人們更容易進(jìn)入這一領(lǐng)域。這是一個很大的問題,因?yàn)樵跉W洲、美國或加拿大,一個非洲研究人員很難獲得簽證。申請簽證就像彩票,他們會用任何借口拒絕申請。這是完全不公平的。發(fā)展中國家用很少的資源做研究已經(jīng)很困難了,但是如果他們還不能接觸到人工智能社區(qū),我認(rèn)為這是非常不公平的。作為補(bǔ)償這一問題的一種方式,我們將于2020年在非洲舉辦一個大型的人工智能會議——ICLR(International Conference on Learning Representations,國際學(xué)習(xí)表征會議)。

包容性不僅僅是一個好聽的詞而已。人工智能在發(fā)展中國家的潛力可能更大,他們改進(jìn)技術(shù)的需要比我們更強(qiáng)烈,并且他們有不同的需求。

問:你是否擔(dān)心其他國家的人工智能公司會占據(jù)人工智能領(lǐng)域的主導(dǎo)地位?

Bengio:是的,這是我們在人工智能研究中需要更多民主的另一個原因。人工智能研究本身往往會導(dǎo)致權(quán)力、金錢和研究人員的集中。最好的學(xué)生都想去最好的公司,因?yàn)樗麄冇懈嗟腻X,有更多的數(shù)據(jù)。這是不健康的模式。即使在民主國家,權(quán)力集中在少數(shù)人手中也是危險(xiǎn)的。

問:關(guān)于人工智能的軍事用途已經(jīng)引起了很多爭議。你在這方面的立場是什么?

Bengio:我堅(jiān)決反對。

問:即使是非致命的用途?

Bengio:我并不想阻止人工智能的軍事用途,但我認(rèn)為我們需要達(dá)成一種共識,即殺手機(jī)器人是不道德的事情。我們需要改變文化,包括改變法律和條約。這可能會有很長的路要走。

當(dāng)然,你永遠(yuǎn)不能完全阻止它,人們會說,“某些流氓國家會發(fā)展這些東西。”我的回答是,第一,我們需要讓他們?yōu)樽约旱男袨楦械叫呃?,而第二,沒有什么可以阻止我們建立防御技術(shù)。防御性武器可以消滅無人機(jī),但它和針對人類的攻擊性武器不同,兩者之間存在著巨大的差異。但兩者都可以使用AI。

問:難道人工智能專家不應(yīng)該與軍方合作來確保這一切發(fā)生嗎?

Bengio:如果他們有正確的道德價值觀,那很好。但我并不完全信任軍事組織,因?yàn)樗麄儍A向于認(rèn)為責(zé)任先于道德。我所希望的并不是這樣。

問:在新的人工智能研究中,最令你興奮的是什么?

Bengio:我認(rèn)為我們需要考慮人工智能的嚴(yán)峻挑戰(zhàn),而不只是對短期的、漸進(jìn)的進(jìn)步感到滿意。我并不是說我想放棄深度學(xué)習(xí)。相反,我想在此基礎(chǔ)上繼續(xù)發(fā)展。但是我們需要能夠擴(kuò)展它來做一些事情,比如推理,學(xué)習(xí)因果關(guān)系,探索世界,以便學(xué)習(xí)和獲取信息。

如果我們真的想實(shí)現(xiàn)接近人類水平的AI,那就是另外一場比賽。我們需要長期投資,我認(rèn)為學(xué)術(shù)界是最好的將其傳遞下去的地方。

問:不僅要抓住數(shù)據(jù)中的模式,還要抓住某些事情發(fā)生的原因。為什么這很重要,以及為什么它會這么難呢?

Bengio:面對復(fù)雜的世界,如果你有一個好的因果模型,你可以在不熟悉問題的情況下就進(jìn)行概括,得出結(jié)論,這是關(guān)鍵。我們?nèi)祟惸軌驅(qū)⒆约和渡涞脚c我們?nèi)粘=?jīng)驗(yàn)截然不同的情境中,而機(jī)器不能,因?yàn)樗鼈儧]有這些因果模型。

我們可以手工創(chuàng)建模型,但這還不夠。我們需要能夠發(fā)現(xiàn)因果模型的機(jī)器。在某種程度上,它永遠(yuǎn)不會是完美的。就像現(xiàn)實(shí)中我們也沒有一個完美的現(xiàn)實(shí)的因果模型,這就是為什么我們也會犯很多錯誤,但是和其他動物相比,我們已經(jīng)做得很好了。

現(xiàn)在,我們并沒有很好的算法來解決這個問題,但是我認(rèn)為,如果有足夠多的人在努力,并且予以足夠的重視,我們就會取得進(jìn)步。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論