人工智能比我們想象的要難:人工智能研究中的四個關鍵謬誤

眾壹云
AI令人印象深刻的新成就通常伴隨著一種假設,即這些相同的成就正在使我們更接近達到人類水平的機器智能。但不僅如此,正如米切爾(Mitchell)所指出的那樣,狹義的和一般的情報與爬樹與登月相比有很大的不同,而且即使狹義的情報也仍然主要依賴于大量的任務特定數(shù)據(jù)和人工訓練。

360截圖16440809323970.png

近十年來,隨著系統(tǒng)在諸如圖像識別,自然語言處理和游戲之類的長期AI挑戰(zhàn)中迅速發(fā)展,人工智能已成為頭條新聞。高科技公司已經(jīng)將機器學習算法植入搜索和推薦引擎以及面部識別系統(tǒng)中,OpenAI的GPT-3和DeepMind的AlphaFold有望提供從書寫到編碼到科學發(fā)現(xiàn)的更多實際應用。

確實,我們正處在AI之春中,在技術蓬勃發(fā)展方面投入了很多資金,樂觀情緒地壓倒一切以及在何時何地可以實現(xiàn)的可能性。

由于前面提到的實際應用以及狹窄的AI向我們許多人每天使用的技術(例如我們的智能手機,電視,汽車和吸塵器等)的擴散,因此這次的感覺可能與以前的AI彈簧有所不同。但是我們也有可能在AI方面取得短期進展,這將很快成為自1956年成立以來一直是該領域特征的進步,資金和情緒波動的一部分。

人工智能在過去幾十年中沒有做出許多預測。以2020年為例,因為無人駕駛汽車將開始填滿道路的那一年,在他們坐下來欣賞旅程的過程中,無縫地將乘客運送到周圍。但是這個問題比預期的要困難得多,最先進的項目仍在試驗中,而不是成群的機器人出租車。同時,一些業(yè)內人士認為,在沒有一系列關鍵突破的情況下,AI的主要形式(一種基于神經(jīng)網(wǎng)絡的機器學習)可能很快就會枯竭。

上周在arXiv預印服務器上發(fā)表的題為“為什么AI比我們想象的更難”的論文中,現(xiàn)任圣達菲研究所波特蘭州立大學計算機科學教授Melanie Mitchell辯稱,人工智能陷入了起伏流程的循環(huán)主要是因為我們還沒有真正了解人類智能的本質和復雜性。Mitchell將這一總體觀點分解為圍繞AI的四個常見誤解,并討論了它們對于該領域的未來意味著什么。

1.狹義情報方面的進步是通向一般情報方面的進步

AI令人印象深刻的新成就通常伴隨著一種假設,即這些相同的成就正在使我們更接近達到人類水平的機器智能。但不僅如此,正如米切爾(Mitchell)所指出的那樣,狹義的和一般的情報與爬樹與登月相比有很大的不同,而且即使狹義的情報也仍然主要依賴于大量的任務特定數(shù)據(jù)和人工訓練。

以GPT-3為例,有人認為它已經(jīng)超越了“狹”的”智能:該算法經(jīng)過訓練,可以編寫文本,但可以學習翻譯,編寫代碼,自動完成圖像和數(shù)學等任務。但是,盡管事實證明GPT-3的功能比其創(chuàng)建者所預期的要廣泛,但其所有技能仍處于受過訓練的領域內:即語言-口語,書面和編程。

精通非語言技能而無需培訓會發(fā)出一般情報,但GPT-3并非如此,其他任何新近開發(fā)的AI也并非如此:它們本質上仍然狹窄且盡管它們本身具有重要意義,但不應將其與全面理解通用情報所需的步驟混為一談。

2.對人類來說容易的事應該對機器也容易

是AI更聰明不是一個四十歲?在大多數(shù)的感覺,答案是否定的,那是因為技能和任務,我們認為為“易”實際上要復雜得多,我們給他們的信貸,一個S^莫拉維克悖論音符秒。

四歲的孩子非常擅長根據(jù)與周圍世界的互動來找出因果關系。例如,如果他們觸摸爐子上的鍋子并燒了一根手指,他們會明白燒傷是由鍋子熱而不是圓形或銀色引起的。對人類而言,這是基本常識,但是算法很難進行因果推理,尤其是在沒有大型數(shù)據(jù)集或與受訓者背景不同的情況下。

在人類的潛意識層面上發(fā)生的感知和選擇取決于一生的經(jīng)驗和學習價值,即使在諸如“觸摸高溫物體會灼傷您”這樣的基礎層面上也是如此。因為我們達到了這種知識可以反思的程度,甚至不需要有意識地思考,所以我們將其視為“輕松”,但恰恰相反。米切爾寫道:“人工智能比我們想象的要難,因為我們在很大程度上沒有意識到自己思考過程的復雜性。”

3.人類語言可以描述機器智能

從動物到無生命的物體再到機器人和計算機,人類都有擬人化非人類事物的趨勢。這樣做時,我們使用與討論人類活動或智力相同的詞語-除非這些詞語不太適合上下文,并且實際上可能使我們對AI的理解更加混亂。米切爾(Mitchell)使用1970年代計算機科學家創(chuàng)造的“如意助記符”一詞。諸如“閱讀”,“理解”和“思考”之類的詞被用來描述和評估AI,但是這些詞并不能使我們準確地描述AI的運行或發(fā)展方式。

米切爾說,即使“學習”也是用詞不當,因為如果一臺機器真正地“學習”了一項新技能,它將能夠在不同的環(huán)境中應用該技能。在數(shù)據(jù)集中找到相關性,并使用確定的模式進行預測或達到其他基準是很重要的事情,但這并不是人類學習的“學習方法”。

那么,為什么所有這些對單詞的大驚小怪,如果它們都是我們所擁有的,而它們卻能傳達出要旨呢?米切爾說,好吧,這種不準確的語言不僅會誤導公眾和媒體,還會影響AI研究人員對系統(tǒng)和工作的看法。

4.智慧掌握在我們所有的頭腦中

米切爾(Mitchell)的最后一點是,人類的智慧不僅僅包含在大腦中,還需要身體。

這似乎是不言而喻的。我們用自己的感官吸收和處理信息,我們與身體中的世界互動并在世界中穿行。然而,人工智能研究的主要重點是大腦:了解它,復制其形式或功能的各個方面以及使AI更像它。

如果智力只存在于大腦中,那么我們可以通過建立具有與大腦具有突觸連接的相同數(shù)量的參數(shù)的神經(jīng)網(wǎng)絡來接近達到人類水平的AI,從而復制大腦的“計算能力”。”

在“智能”是指按照一組規(guī)則進行操作以實現(xiàn)既定目標的情況下,例如在下棋游戲或對蛋白質折疊方式進行建模時,可以采用這種相似的方式,這兩種計算機都已經(jīng)可以做到出色地。但是其他類型的智力則更多地受到情感,偏見和個人經(jīng)驗的影響,并受其影響。

回到GPT-3的示例:該算法使用它使用大量規(guī)則和參數(shù)創(chuàng)建的“主觀”情報(自己編寫),這些規(guī)則和參數(shù)是使用大量預先存在的主觀情報(人類編寫)數(shù)據(jù)集創(chuàng)建的。GPT-3被譽為“創(chuàng)意”,但其寫作依賴于人類寫作中單詞和詞組之間的關聯(lián),其中充滿了偏見,情感,既有知識,常識以及作者對GPT-3的獨特體驗。世界,都是通過身體經(jīng)歷的。

米切爾認為,人類思維和操作方式的非理性,主觀方面并不妨礙我們的智力,但實際上是其基礎和推動者。龍頭強人工智能專家本·戈爾策爾同樣提倡“全機體結構,”令狀ING,“人類是身體盡可能的頭腦,所以實現(xiàn)人類一樣AGI將能夠在日常與之交互的物理系統(tǒng)需要嵌入AI系統(tǒng)細致入微的人類世界。”

從這里到哪里?

這些誤解使AI研究人員和開發(fā)人員不應該做的事情毫無疑問。尚不清楚的是如何前進。米切爾說,我們必須從對智力的更好理解開始,這不是一項小任務或簡單任務。但是,人工智能研究人員可以看到的一個好地方是在其他研究情報的科學學科中。

無論如何,為什么我們如此打算創(chuàng)建人工智能的人工版本?它已經(jīng)發(fā)展了數(shù)百萬年,非常復雜和錯綜復雜,但仍然存在其自身的缺點。也許答案是我們沒有試圖建立一個像我們一樣好的人造大腦。我們正在嘗試建立一個更好的解決方案,這將有助于我們解決當前無法解決的問題。

人類進化歷時約六百萬年。同時,它已有65年了AI成為STU的領域DY,并且它寫類似人類的文字,制作假面孔,拿著自己的辯論,使醫(yī)療診斷,以及更多。盡管還有很多東西需要學習,但看來AI在事物的宏偉計劃中進展非常順利-進一步推進AI的下一步就是加深我們對自己思想的理解。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論