關(guān)于人工智能的四大誤區(qū)

人工智能領(lǐng)域通常充斥著一些術(shù)語,使其與人類智能處于同等水平。我們使用諸如“學習”、“理解”、“閱讀”和“思考”之類的術(shù)語來描述人工智能算法的工作方式。盡管這種擬人化的術(shù)語通常是幫助傳達復(fù)雜軟件機制的稱呼或簡寫,但可能會誤導人們認為當前的人工智能系統(tǒng)的工作方式與人類的思維方式類似。

在人工智能的發(fā)展歷史上,通常是最初充滿樂觀和希望,隨后帶來的是幻滅與失望,而這樣的過程循環(huán)反復(fù)。當今的人工智能系統(tǒng)可以在廣泛的領(lǐng)域中執(zhí)行復(fù)雜的任務(wù),例如數(shù)學、游戲以及逼真圖像的生成。但是當接近人工智能的一些早期目標時(例如管家機器人和自動駕駛汽車),這些目標卻逐漸迷失。

圣菲研究所教授、《人工智能:思考人類的指南》的作者Melanie Mitchell表示,這些目標迷失的一部分原因是對人工智能和自然智能的錯誤假設(shè)。

在最近一篇題為“為什么人工智能比我們想象的更難”的文章中,Mitchell提出了四個關(guān)于人工智能的常見誤區(qū)。

1.狹義人工智能和通用人工智能只是規(guī)模不同

如今采用的人工智能可以很好地解決狹義問題。人工智能系統(tǒng)可以在下圍棋和國際象棋方面超越人類,以超乎尋常的準確性在X射線圖像中發(fā)現(xiàn)癌變模式,并將音頻數(shù)據(jù)轉(zhuǎn)換為文本。但是,可以解決特定問題的人工智能系統(tǒng)設(shè)計并不一定會使人們更容易解決更復(fù)雜的問題。Mitchell將第一個誤區(qū)描述為“通用人工智能是是狹義人工智能的一種延伸。”

Mitchell在文章中寫道:“人們看到狹義人工智能系統(tǒng)做了一些令人驚奇的事情,因此通常會認為該領(lǐng)域在朝著通用人工智能邁進的道路上走得更遠。”

例如,當今的自然語言處理系統(tǒng)已經(jīng)朝著解決翻譯、文本生成、特定問題答疑等諸多不同問題的方向發(fā)展了很長時間。與此同時,現(xiàn)在還有能夠?qū)崟r將語音數(shù)據(jù)轉(zhuǎn)換為文本的深度學習系統(tǒng)。每一項成就的背后都是數(shù)千小時的研發(fā)工作,以及在計算和數(shù)據(jù)上花費大量資金。但是人工智能社區(qū)仍然沒有解決創(chuàng)建能夠進行開放式對話而又不會長時間失去連貫性的問題。這樣的人工智能系統(tǒng)還需要解決更復(fù)雜的問題。它需要具備常識,這是人工智能尚未解決的關(guān)鍵挑戰(zhàn)之一。

2.簡單的事情很難實現(xiàn)自動化

視覺對于人工智能來說仍然是一個難以克服的挑戰(zhàn)。

人們通常希望更聰明的人來解決更復(fù)雜的事情,其實這需要多年的學習和實踐。例如包括具備微積分和物理方面的專業(yè)知識,而與象棋大師下棋或背誦很多詩歌則是更艱難的任務(wù)。

但是數(shù)十年來的人工智能研究證明,一些更艱巨的任務(wù)更容易實現(xiàn)自動化。人們認為理所當然的簡單任務(wù)卻很難實現(xiàn)自動化。Mitchell將第二個誤區(qū)描述為“容易的事情很容易解決,而困難的事情則更難以解決。”

Mitchell在文章中寫道,“人類可以不加思索做很多的事情,了解所看到的東西,進行對話,在擁擠的人行道上行走而不會撞到任何人,這對機器來說是更艱巨的挑戰(zhàn)。與其相反,讓機器去做對人類來說非常困難的事情通常會更容易;例如,解決復(fù)雜的數(shù)學問題,精通國際象棋和圍棋之類的游戲,以及采用數(shù)百種語言翻譯文章,這對于機器來說都變得相對容易。”

例如機器人的視覺。數(shù)十億年來,生物體已經(jīng)開發(fā)出用于處理光信號的復(fù)雜設(shè)備。動物利用眼睛觀察周圍的物體,在周圍的環(huán)境中導航,尋找食物,發(fā)現(xiàn)威脅,并完成許多對其生存至關(guān)重要的任務(wù)。人類也從祖先那里繼承了這些能力,并且在無意識的情況下使用它們。但是,其基本機制確實比使高中和大學學到的數(shù)學公式更為復(fù)雜。

如今,研究人員致力于開發(fā)像人類視覺一樣多功能的計算機視覺系統(tǒng)。并且成功地創(chuàng)建了人工神經(jīng)網(wǎng)絡(luò),可以大致模擬動物和人類視覺系統(tǒng)的某些部分,例如檢測物體和分割圖像。但是它們很脆弱,對各種各樣的干擾都很敏感,而且它們不能模擬生物視覺所能完成的全部任務(wù)。這就是需要采用其他技術(shù)的原因。例如,用于自動駕駛汽車的計算機視覺系統(tǒng)需要采用先進的其他技術(shù),例如激光雷達和地圖數(shù)據(jù)。

另一個被證明是非常困難的領(lǐng)域是感覺運動技能,人類無需經(jīng)過特別訓練即可掌握這些技能。例如行走、奔跑和跳躍。這些是人們無需特意思考就可以完成的任務(wù)。實際上,人們在走路時可以做其他事情,例如聽音樂或打電話。但是,對于當前的人工智能系統(tǒng)而言,這些技能仍然是一項巨大而復(fù)雜的挑戰(zhàn)。

Mitchell寫道:“人工智能比我們想象的要難,因為我們很大程度上不了解自己的思維過程的復(fù)雜性。”

3.采用擬人化術(shù)語描述人工智能

將當代的人工智能系統(tǒng)與人類智能進行類比,會對人工智能的發(fā)展現(xiàn)狀產(chǎn)生錯誤的印象。

人工智能領(lǐng)域通常充斥著一些術(shù)語,使其與人類智能處于同等水平。我們使用諸如“學習”、“理解”、“閱讀”和“思考”之類的術(shù)語來描述人工智能算法的工作方式。盡管這種擬人化的術(shù)語通常是幫助傳達復(fù)雜軟件機制的稱呼或簡寫,但可能會誤導人們認為當前的人工智能系統(tǒng)的工作方式與人類的思維方式類似。

Mitchell將這一誤區(qū)稱為“如愿記憶法(wishful mnemonics)”,他指出:“這種稱呼或簡寫可能會誤導試圖理解這些結(jié)果的公眾(以及報道這些結(jié)果的媒體),并且還會無意識地影響甚至人工智能專家的思考方式,以及他們開發(fā)的人工智能系統(tǒng)與人類智能的相似程度。”

“如愿記憶法”也導致人工智能社區(qū)以令人誤解的方式命名算法評估基準。例如,考慮由人工智能中一些權(quán)威組織和學術(shù)機構(gòu)開發(fā)的通用語言理解評估(GLUE)基準。通用語言理解評估(GLUE)提供了一組任務(wù),這些任務(wù)可以幫助評估語言模型如何將其功能推廣到更廣的范圍。但是,與媒體所描述的相反,如果人工智能代理獲得的通用語言理解評估(GLUE)得分高于人類,則并不意味著它的語言理解能力要高于人類。

Mitchell寫道:“雖然在這些特定基準上機器的性能優(yōu)于人類,但人工智能系統(tǒng)仍然遠遠不能與我們與基準名稱聯(lián)系在一起的人類能力相匹配。”

“如愿記憶法”的一個典型例子是Facebook人工智能研究公司在2017年開展的一個項目,其中科學家訓練了兩個人工智能代理以基于人類對話的任務(wù)進行談判。研究人員在他們的博客文章中指出,“更新兩個人工智能代理的參數(shù)會導致與人類語言的差異,因為代理開發(fā)了自己的語言來進行交互。”

這導致行業(yè)媒體撰寫了一系列文章提出警告,指出人工智能系統(tǒng)可能變得比人類更智能,并且正在以自己的語言進行交流。而在四年后的今天,這些先進的語言模型仍然難以理解大多數(shù)人在幼年時就能理解的基本概念。

4.與身體分離的人工智能

智力能與身體相互分離存在嗎?這是科學家和哲學家?guī)讉€世紀以來一直困惑的問題。

一種思想流派認為,智力全在大腦中,并且可以與身體分離,這也被稱為“缸中之腦”理論。Mitchell表示,“智力全在腦中”是人們的一個誤區(qū)。有了正確的算法和數(shù)據(jù),人們就可以創(chuàng)建可以運行在服務(wù)器中并與人類智能相匹配的人工智能。對于這種思維方式的支持者,尤其是那些支持基于純深度學習的方法的人來說,達到通用人工智能的水平取決于收集適量的數(shù)據(jù)并創(chuàng)建越來越完善的神經(jīng)網(wǎng)絡(luò)。

與此同時,越來越多的證據(jù)表明這種方法注定會失敗。Mitchell寫道:“越來越多的研究人員正在質(zhì)疑‘智力全在腦中‘信息處理模式理解智能并創(chuàng)建人工智能的基礎(chǔ)。”

人類和動物的大腦也與自己的身體器官一起進化,其最終目標是提高生存機會。人類的智力與身體的極限和能力緊密相關(guān)。嵌入式人工智能的領(lǐng)域不斷擴大,其目的是通過與不同環(huán)境的交互來創(chuàng)建能夠開發(fā)智能的主體。

Mitchell指出,“神經(jīng)科學研究表明,控制認知的神經(jīng)結(jié)構(gòu)與控制感覺和運動系統(tǒng)的神經(jīng)結(jié)構(gòu)緊密相連,抽象思維利用了基于人體的神經(jīng)‘地圖’。”越來越多的證據(jù)和研究證明,來自大腦不同感覺區(qū)域的反饋會影響人們的有意識和無意識思維。

Mitchell支持這一種觀點,也就是情緒、感情、潛意識偏見、身體體驗與智力密不可分。她寫道:“在我們的心理學或神經(jīng)科學知識中,沒有任何東西支持‘純粹理性’與影響我們認知和目標的情感和文化偏見是分離的。與其相反,人類的智力似乎是一個高度集成的系統(tǒng),具有緊密相連的屬性,包括情感、欲望、強烈的自我意識和自主意識,以及對世界的常識性理解。現(xiàn)在還不清楚這些屬性是否可以分開。”

人工智能的常識

開發(fā)通用人工智能需要調(diào)整人們對智能本身的理解。人們?nèi)栽谂Χx什么是智能以及如何在人工和自然生物中衡量人工智能。

Mitchell寫道,“很明顯,為了更有效地實現(xiàn)和評估人工智能的進步和發(fā)展,我們將需要開發(fā)出更好的術(shù)語來談?wù)摍C器可以做什么。從更廣泛的意義上來說,我們將需要對智能有著更好的科學理解,因為它體現(xiàn)在自然界的不同系統(tǒng)中。”

Mitchel在論文中提到的另一個挑戰(zhàn)是常識,她將其描述為“一種為當今最先進的人工智能系統(tǒng)所缺少的能力提供的保護傘”。

這些常識包括人們獲得的有關(guān)世界的知識,并且每天無需付出太多努力就可以應(yīng)用。當人們還是孩子的時候,在沒有得到明確指導的情況下通過探索世界而學到很多東西,其中包括諸如空間、時間、重力、物體的物理屬性之類的概念。例如,人們在幼兒期間就知道,當一個物體被另一個物體擋住時,它并沒有消失并繼續(xù)存在;或者當球滾過桌子之后將會掉下來。人們使用這些常識來構(gòu)建世界的心理模型,進行因果推斷,并以相當準確的方式預(yù)測未來的狀態(tài)。

當今的人工智能系統(tǒng)缺少這種知識,這使它們變得不可預(yù)測且需要大量數(shù)據(jù)。實際上,人工智能助理和自動駕駛汽車是大多數(shù)人通過常識和實踐學習的東西。

這些常識還包括有關(guān)人性和生活的基本事實,人們在對話和寫作中忽略對一些事物的描述,因為知道讀者和聽眾都知道這些。例如,人們知道如果兩個人在“打電話”,則意味著他們不在同一個房間。人們還知道,如果“有人伸手去拿糖”,則意味著在他附近某處有一個裝糖的容器。這種知識對于自然語言處理等領(lǐng)域至關(guān)重要。

Mitchell寫道,“還沒有人知道如何在機器中獲取這些知識或能力。這是目前人工智能研究的前沿領(lǐng)域,一個令人鼓舞的前進方向是利用這些能力開發(fā)的已知知識。”

盡管人們?nèi)匀徊恢涝S多問題的答案,但找到解決方案的第一步是要意識到自己的錯誤思想。Mitchell寫道:“了解這些誤區(qū)及其微妙的影響,可以為創(chuàng)造更健壯、更可信、更智能的人工智能系統(tǒng)指明發(fā)展方向。”

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論