人工智能研究或已進(jìn)入死胡同

51CTO.com
編譯
對人工智能的探索是從現(xiàn)代計算科學(xué)中發(fā)展起來的,該科學(xué)由英國數(shù)學(xué)家阿蘭·圖靈和匈牙利裔美國數(shù)學(xué)家約翰·馮·諾伊曼在65年前開創(chuàng)。從那時起,就有許多研究人工智能的方法。然而,所有的方法都有一個共同點:它們從計算的角度來處理智能,也就是說,像計算機(jī)一樣有信息的輸入和輸出。

菲利普•迪克于1968年出版的小說《仿生人會夢見電子羊嗎》是科幻小說中的標(biāo)志性作品。這本書在書名中提出了一個有趣的問題:仿生人或者說機(jī)器人會做夢嗎?

自這本書面世53年以來,人工智能研究已經(jīng)日益成熟。但這個問題依然無解,因為研究人員對此并不感興趣,沒有人試圖發(fā)明一個夢到電子羊的機(jī)器人。大多數(shù)人工智能研究人員和科學(xué)家都在忙著設(shè)計“智能”軟件來完成特定的任務(wù),沒有時間做白日夢。但這樣做就一定是正確的嗎?如果理性和邏輯不是智能的來源,而是其產(chǎn)物呢?如果智能的來源更接近于做夢和玩耍呢?

最近對“自發(fā)波動的神經(jīng)科學(xué)(neuroscience of spontaneous fluctuations)”的研究指向了這個方向。如果這項研究是正確的,那將意味著我們對人類意識理解的范式轉(zhuǎn)變。同時這也意味著幾乎所有的人工智能研究都在朝著錯誤的方向發(fā)展。

對人工智能的探索是從現(xiàn)代計算科學(xué)中發(fā)展起來的,該科學(xué)由英國數(shù)學(xué)家阿蘭·圖靈和匈牙利裔美國數(shù)學(xué)家約翰·馮·諾伊曼在65年前開創(chuàng)。從那時起,就有許多研究人工智能的方法。然而,所有的方法都有一個共同點:它們從計算的角度來處理智能,也就是說,像計算機(jī)一樣有信息的輸入和輸出。

科學(xué)家們還嘗試在人腦的神經(jīng)網(wǎng)絡(luò)上建立人工智能模型。這些人工神經(jīng)網(wǎng)絡(luò)使用“深度學(xué)習(xí)”技術(shù)和“大數(shù)據(jù)”來接近并偶爾超越人類的特定能力,如下棋、圍棋、撲克或識別人臉。但這些模型也像許多神經(jīng)科學(xué)家一樣,把大腦當(dāng)成了一臺電腦。但這樣設(shè)計智能是否正確呢?

人工智能的發(fā)展現(xiàn)狀僅限于業(yè)內(nèi)人士所說的“狹義人工智能”。狹義人工智能擅長在一個封閉的系統(tǒng)中完成特定的任務(wù),在這個系統(tǒng)中,所有的可能性都是已知的。它沒有創(chuàng)造性,在面對新狀況時通常會崩潰。另一方面,研究人員將“通用人工智能”定義為知識從一個問題到另一個問題的創(chuàng)新轉(zhuǎn)移。

到目前為止,這是人工智能未能實現(xiàn)的目標(biāo),而且很多業(yè)內(nèi)人士認(rèn)為這只是一種極為遙遠(yuǎn)的可能性。大多數(shù)人工智能研究人員對所謂的“超級智能AI”的可能性抱有不太樂觀的態(tài)度,因為假設(shè)的“智能爆炸”會使人工智能變得比人類更聰明。

1_看圖王.jpg

計算機(jī)大腦?

大腦是否像電腦一樣傳輸和接收二進(jìn)制信息?或者,我們這樣想只是因為自古以來,人類就習(xí)慣于用最新的技術(shù)來比喻我們的大腦?

當(dāng)然,計算機(jī)大腦的隱喻在某些方面是有意義的。毫無疑問,一個神經(jīng)元分配一個二進(jìn)制數(shù)字,該神經(jīng)元要么發(fā)射了“1”,要么沒有:“0”。我們甚至可以測量單個神經(jīng)元激發(fā)所需的電化學(xué)閾值。從理論上講,這些信息的神經(jīng)圖譜應(yīng)該能為我們提供任何給定大腦事件的因果路徑或“代碼”。但從實驗上看,情況并非如此。

首先,這是因為神經(jīng)元沒有像晶體管那樣為其邏輯門提供固定的電壓,而晶體管可以決定在給定的神經(jīng)元中什么會激活“1”或者什么不會激活“0”。數(shù)十年的神經(jīng)科學(xué)實驗證明,神經(jīng)元可以改變其功能和發(fā)射閾值,這與晶體管或二進(jìn)制信息并不相同。它被稱為“神經(jīng)可塑性”,而計算機(jī)并不具備這種能力。

再者,計算機(jī)也沒有名為“神經(jīng)調(diào)質(zhì)”的化學(xué)物質(zhì)的等效物,這些化學(xué)物質(zhì)在神經(jīng)元之間流動并改變它們的發(fā)射活動、效率和連接性。這些大腦化學(xué)物質(zhì)允許神經(jīng)元在不激發(fā)的情況下相互影響。這違反了“非此即彼”的二元邏輯,意味著大多數(shù)大腦活動發(fā)生在激活和非激活狀態(tài)之間。

此外,神經(jīng)元激活的原因和模式受神經(jīng)科學(xué)家所謂“自發(fā)波動”的影響。自發(fā)波動是大腦中發(fā)生的神經(jīng)元活動,即使沒有外部刺激或心理行為與之相關(guān)。這些波動也驚人地占大腦活動比95%,而有意識的思維僅占剩下的5%。這樣,認(rèn)知波動就像大腦的暗物質(zhì)或“垃圾”DNA。它們構(gòu)成了大腦中正在發(fā)生的大部分事情,但一切還是個謎。

自20世紀(jì)30年代以來,神經(jīng)科學(xué)家就知道這些不可預(yù)測的腦電活動波動,但卻不知道該如何看待它們。科學(xué)家們通常更傾向于關(guān)注大腦對外界刺激做出反應(yīng)并觸發(fā)心理狀態(tài)或身體行為的活動。他們從數(shù)據(jù)中“平均”出其余的“噪音”。然而,正是由于這些波動,可以發(fā)現(xiàn)在神經(jīng)元中不存在我們可以稱之為“1”的普遍激活水平。神經(jīng)元不斷地激活,但是,大多數(shù)情況下我們不知道為什么。

這些自發(fā)波動的根源可能是什么?自發(fā)思維神經(jīng)科學(xué)的最新研究表明,這些波動可能與內(nèi)部神經(jīng)力學(xué)、心臟和胃的活動以及對世界的微小物理運動有關(guān)。2010年耶魯大學(xué)醫(yī)學(xué)院的大衛(wèi)•麥考密克和2011年加州理工學(xué)院的克里斯托夫•科赫的其他實驗表明,神經(jīng)元發(fā)射產(chǎn)生的電磁場強(qiáng)度足以影響和干擾相鄰神經(jīng)元的放電方式。

當(dāng)我們深入時,大腦變得更加狂野。由于電化學(xué)閾值激活了神經(jīng)元,原則上,一個質(zhì)子就可能引起神經(jīng)元放電的差異。如果一個質(zhì)子自發(fā)地跳出原子鍵,在物理學(xué)家所謂“量子隧道”中,這可能導(dǎo)致一連串突然的神經(jīng)元活動。因此,即使在最微小的可測量水平上,神經(jīng)元的物理結(jié)構(gòu)也具有非二元不確定性。

這是計算機(jī)和大腦之間的一個巨大區(qū)別。對計算機(jī)來說,自發(fā)的波動會造成錯誤,使系統(tǒng)崩潰,而對我們的大腦來說,這是一種固有的內(nèi)置功能。

人工智能的未來不是你想的那樣

如果噪音是新信號呢?如果這些異常的波動是人類智慧、創(chuàng)造力和意識的核心呢?這正是神經(jīng)科學(xué)家喬治•諾瑟夫、羅賓•卡哈特•哈里斯和斯坦尼斯拉司•德哈恩所展示的。他們認(rèn)為,意識是從同步自發(fā)波動的嵌套頻率中產(chǎn)生的一種新興屬性。應(yīng)用這一理論,神經(jīng)科學(xué)家甚至可以通過觀察一個人的腦電波來判斷他是否有意識。

人工智能幾十年來一直在以神經(jīng)科學(xué)為模型,但它能遵循這個新方向嗎?比如,斯坦尼斯拉司•德哈恩認(rèn)為計算機(jī)的智能模型“大錯特錯”,部分原因是它的“自發(fā)活動是最常被忽視的特征之一”。與計算機(jī)不同的是,“神經(jīng)元不僅能容忍噪音,甚至還能放大噪音”,以便于生成解決復(fù)雜問題的新方法。

“正如雪崩是一個概率事件,而不是某個確定事件一樣,最終導(dǎo)致有意識知覺的一系列大腦活動并不是完全確定的:同樣的刺激有時會被感知,而有時則未被察覺。造成差異的原因是什么?神經(jīng)元發(fā)射的不可預(yù)測的波動有時與傳入的刺激相適應(yīng),有時則與之對抗。”

因此,德哈恩認(rèn)為,人工智能需要一些類似于同步自發(fā)波動的東西才能有意識。薩里大學(xué)分子遺傳學(xué)教授約翰喬•麥克法登推測,自發(fā)的電磁波動甚至可能是一種進(jìn)化優(yōu)勢,有助于密集的神經(jīng)元產(chǎn)生和同步新的適應(yīng)行為。他寫道:“如果沒有電磁場的相互作用,人工智能將永遠(yuǎn)是啞巴和無意識的。”德國神經(jīng)學(xué)家喬治•諾瑟夫認(rèn)為,“有意識的……人造生物將需要展示時空機(jī)制,例如……自發(fā)波動的嵌套和擴(kuò)張”。

與此相關(guān)的是,墨爾本大學(xué)的人工智能研究員科林•黑爾斯觀察到,人工智能科學(xué)家還沒有像其他科學(xué)家制造人工心臟、胃或肝臟那樣嘗試制造人工大腦,這就很有意思。相反,人工智能研究人員在沒有對應(yīng)物理原理支持的情況下創(chuàng)建了神經(jīng)元模式的理論模型。黑爾斯說,這就好像人工智能研究人員正在設(shè)計永不離開地面的飛行模擬器,而不是建造飛機(jī)。

最近關(guān)于大腦自發(fā)波動的科學(xué)研究會如何改變我們對AI的思考方式?如果這種當(dāng)代神經(jīng)科學(xué)是正確的,人工智能就不可能是一臺通過二進(jìn)制進(jìn)行輸入和輸出的計算機(jī)。它應(yīng)該像人腦一樣,95%的活動必須是“嵌套”的自發(fā)波動,類似于我們無意識時、發(fā)呆時和做夢時的頭腦。目標(biāo)導(dǎo)向和工具性行為將只是其發(fā)展形式的一小部分。

如果我們看腦電圖,它必須有類似德哈恩實驗證明的“意識特征”。為什么我們會期望意識獨立于定義我們自己的特征而存在?然而,這正是人工智能研究正在做的。人工智能還可能需要利用科學(xué)家們目前正在過濾掉的量子和電動擾動。

自發(fā)的波動來自嵌入意識的物質(zhì),不存在獨立于物質(zhì)的智能。因此,要擁有有意識的智能,科學(xué)家就必須將人工智能整合到一個對其解剖結(jié)構(gòu)和世界具有敏感和非決定性反應(yīng)的物質(zhì)體中。它內(nèi)在的波動會和世界的波動發(fā)生碰撞,就像扔進(jìn)池塘的石子產(chǎn)生的衍射漣漪。通過這種方式,它可以像所有其他形式的智能一樣通過經(jīng)驗學(xué)習(xí),而不需要預(yù)先編程的命令。

一個通用人工智能在一開始可能不會很出色。智能是通過生物體試圖將其波動與世界同步的流動性而演化的。在世界中移動并學(xué)會與之同步需要時間。正如科幻作家姜泰德所寫,“經(jīng)驗在算法上是不可壓縮的。”

這也是為什么做夢如此重要。實驗研究證實,夢有助于鞏固記憶和促進(jìn)學(xué)習(xí)。做夢也是一種非常有趣的狀態(tài),并且是一種自由關(guān)聯(lián)的認(rèn)知波動。如果這是真的,為什么我們要期待沒有夢就出現(xiàn)人類水平的智力呢?

在我看來,除非研究人員不再為資本主義設(shè)計計算奴隸,并開始認(rèn)真對待真正的智能來源——波動的電子羊,否則人類水平的人工智能將始終是一個空談。

原文標(biāo)題:Artificial intelligence research may have hit a dead end,作者:Thomas Nail

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論