圖靈逝世66年后,AI可以自我思考了嗎?

王煥超
作為結(jié)果,AI的智能水平將迅速崛起,并會“消滅”掉包含人類在內(nèi)的低智能主體——這并不是大屠殺,而是與智能手機淘汰功能機一樣的“市場行為”。

一、圖靈的毒蘋果

1954年6月7日,艾倫·麥席森·圖靈被發(fā)現(xiàn)死在家中。剝奪圖靈生命的是一只沾有氰化物的蘋果,盡管他母親堅持這是一樁意外——因為圖靈的住所常常散落著各種危險化學(xué)試劑,但大多數(shù)人都認為,這是圖靈難以忍受侮辱而做出的選擇。兩年前,圖靈因同性戀取向而被英國政府定罪,隨后在接近長達一年的時間里一直進行著所謂的“荷爾蒙療法”,即接受雌激素注射,伴之而生的乳房發(fā)育等副作用讓他飽受折磨、痛苦不堪。*

圖靈的早逝無疑是人類歷史上的一個巨大損失。作為“計算機之父”、“人工智能之父”,圖靈在計算機科學(xué)與人工智能領(lǐng)域有諸多貢獻,他提出的“圖靈機”設(shè)想啟發(fā)了現(xiàn)代計算機的發(fā)明,而其更著名的“遺產(chǎn)”,是一種用于判定機器是否具備智能的測試方法,即“圖靈測試”。

在1950年發(fā)表的《機器能思考嗎?》一文中,圖靈第一次提出“機器思維”的概念,他大膽假定機器將產(chǎn)生思考能力,并給出了測試方法:假如一臺機器通過電傳打字機與人溝通,如果有超過30%的人無法在特定時間(5分鐘)內(nèi)分辨出與自己交談的是人還是機器,即可認為該機器具有思考能力。圖靈還預(yù)言,到2000年時,將出現(xiàn)足夠聰明的機器能夠通過測試。

這一測試的聰明之處在于,“意識”、“思維”、“智能”都是難以通過定義來闡釋的東西,那索性就不去思辨概念,而是用另一種公認具有思考能力的生物——人類來作為參照物。如果一臺機器的表現(xiàn)與人類難以區(qū)分,即可被視為具備了人類智能。

直至今天,“圖靈測試”也是衡量AI智能程度的重要標尺,研究者們樂此不疲地嘗盡方法以試圖通過測試??梢哉f,這七十年前提出的思想實驗對當(dāng)今人工智能領(lǐng)域依然有十分深遠的影響。

但并非所有人都將“圖靈測試”奉為圭臬。部分研究者指出,這一測試手段可能已經(jīng)過時,它體現(xiàn)出極強的人類中心主義,其本身的設(shè)計也具有極大缺陷。它所導(dǎo)向的是一種欺騙性思路,即AI只要成功“欺騙”了人類,就可被視為是擁有“智能”的主體,這在某種程度上誤導(dǎo)了AI研究的發(fā)展方向,對“智能”的評判也并不科學(xué)。

1980年,美國伯克利大學(xué)哲學(xué)教授約翰·塞爾設(shè)計了另外一種思想實驗——中文屋實驗,用以證明通過“圖靈測試”的機器并非真正智能。一個只懂英語、完全不懂中文的人被鎖進一個房間,房間內(nèi)還有一箱中文字片以及指導(dǎo)如何使用字片的手冊。而房間外是一個毫不知情的人,他向屋內(nèi)遞進字條用中文進行提問,房間里的人按手冊指導(dǎo)來挑選字片,并且遞出正確答案的字片。單從結(jié)果來看,這個人無疑能成功通過測試,但實際上他對中文一無所知。

塞爾認為,房間里的人就跟通過圖靈測試的機器系統(tǒng)一樣,無須理解輸入輸出字符的含義,只要按照規(guī)則搬弄字符,就能形成一種具備真正理解能力的假象。實際上,二者都算不上是真正的理解,最多只是一種扮演行為,并不具備任何思考能力。

中文屋實驗與圖靈測試在哲學(xué)界和認知科學(xué)領(lǐng)域引發(fā)了廣泛討論,兩種實驗各有大量擁躉與反對者。當(dāng)然,“圖靈測試”側(cè)重確立一種衡量AI智能與否的基準,中文屋實驗反對的也只是前者的思路,卻并未否定其前提,即人工智能將擁有真正的智能。

但距離圖靈預(yù)言具備人類智能水平AI將出現(xiàn)的2000年,已經(jīng)過去了二十多年,雖然人工智能產(chǎn)業(yè)發(fā)展得如火如荼,但真正人工智能似乎還遙遙無期。一個問題被擺上臺面并促逼我們思考:

人工智能,到底會有自我意識嗎?

AI意識問題,比想象中更重要

與學(xué)者們面紅耳赤的激烈爭吵不同,大部分吃瓜群眾會覺得,人工智能產(chǎn)生意識只是一個時間問題,因而并不重要。這可能是影視作品帶來的一種錯覺——畢竟在大部分未來主題的電影中,AI都是具有意識和情感的。實際上,很多人都低估了這個問題的重要性,但它甚至決定著人類未來命運的走向。

圖片來源于網(wǎng)絡(luò)

與處理能力有限的人腦相比,AI的處理能力在理論上是無限的,可以無差別處理收集到的全部信息。一旦AI獲得意識,它們能夠像人類一樣交換、分享信息,只不過在效率上是碾壓人類的。作為結(jié)果,AI的智能水平將迅速崛起,并會“消滅”掉包含人類在內(nèi)的低智能主體——這并不是大屠殺,而是與智能手機淘汰功能機一樣的“市場行為”。

現(xiàn)實可能沒有那么可怕,拉回一點時間線,在AI“毀滅”人類社會之前,假設(shè)它的意識水平仍然允許自身為我們所用,那也可能引發(fā)道德倫理方面的問題。神經(jīng)科學(xué)家Christof Koch曾舉過一個例子,如果他用錘子將自己的特斯拉汽車砸爛,雖然鄰居可能認為他瘋了,但這只是一臺機器,屬于他的財產(chǎn),所以可根據(jù)需要使用/砸爛它。但如果他毆打自己的狗,警察就會逮捕他。二者的區(qū)別在于,狗是有意識的,它能感受到痛苦,而特斯拉并不是一個有意識的主體。這個例子提醒我們,如果機器在某個時間點具備了意識,那么就會產(chǎn)生意想不到的道德、倫理、法律和政治后果。

同樣值得深思的是,當(dāng)下的人類社會是一個一元論社會,雖然我們常說“萬物有靈”,但那只不過是在泛靈論基礎(chǔ)上的一種謙辭,真正的現(xiàn)實是,只有人類擁有真正的“智能”與“意識”。如果一旦誕生了擁有意識的另一方主體,建立在一元論基礎(chǔ)上的既有一切都會被顛倒重構(gòu)。正如趙汀陽所說,人工智能一旦突破奇點,就會創(chuàng)造不可測的新主體,對于新主體,傳統(tǒng)一元主體的知識、視域和價值觀將會破產(chǎn),而二元主體(甚至多元主體)的世界還很難推想。

可以想見,如果除人類之外的物種進化到擁有意識時,人類有史以來所積累的所有道德秩序就會失去最重要的邏輯支點,在這種情況下,人類該如何重構(gòu)自己的道德倫理體系?人的本質(zhì)何在,人又何以為“人”?盡管許許多多的影視作品呈現(xiàn)了人與AI和諧共處的畫面,但它們都不約而同地規(guī)避了這一話題。

幾千年來,人類總是以地球主宰的心態(tài)思考問題。這種人本主義心態(tài)具有一種先驗的正確性,但無人拷問是否合理。究其核心,就在于人區(qū)別于他物的自由精神與意識。如果世界上有其他外觀形式也能夠產(chǎn)生意識,人的主宰權(quán)威就會泯滅,自身的超驗背景也會消失。那么,不再是“萬物靈長”的人類又該如何自處?他能否接受與創(chuàng)造物共享這個世界?

所以,人工智能是否會產(chǎn)生意識,這個問題異常重要。只不過絕大部分人都沒有意識到此問題的重要性,或者在沒有想清楚這個問題之前,就癡迷于人工智能紅利而不斷向前加速了。按照雷·庫茲韋爾“奇點理論”的預(yù)測,人工智能的發(fā)展將在2050年達到奇點,屆時人工智能將產(chǎn)生意識,并迅速超越人類智能,倘若該預(yù)測為真,那這個問題的緊迫性無疑又提高了一層。

三、區(qū)分“智能”與“意識”

當(dāng)然,本文無意于圍繞人的主體性進行深入哲思,只是在申明了AI意識問題的重要性之后,我們能夠以更正確的姿勢面對這個問題。那么,人工智能會產(chǎn)生意識嗎?

為了回答這個問題,首先要區(qū)分一組概念:智能與意識。二者的區(qū)別,是我們在想象未來超級智能時最容易混淆的問題。這兩個詞語本就沒有一個明確的定義,當(dāng)它們與“情緒”、“思維”、“理解”等等詞匯排列在一起時,個中差異就更加模糊。

圖片來源于網(wǎng)絡(luò)

在“中文屋實驗”的語境中,屋子里的人借助指導(dǎo)卡片,成功作出回答,但他絲毫不理解中文。確切的說,他只是具備使用中文的“智能”,但卻不具備對中文的“意識”。如果將屋里的人換成一個翻譯程序,它能準確翻譯中文,但即便速度再快,反應(yīng)再靈敏,就可以說它真正理解中文了嗎?答案顯然是否定的。

這就是智能與意識的差別。“智能”是指完成復(fù)雜目標的能力,而“意識”則是解決問題過程中的主觀體驗。人借助工具能夠完成各種復(fù)雜目標,過程中會感到疲倦、興奮,并且能理解自己行動的目的及行動本身,所以我們可以說人既具有智能,也具有意識。而人工智能基于機器學(xué)習(xí)或深度學(xué)習(xí),也能完成復(fù)雜的目標,但過程中毫無任何“體驗”而言,它也不能理解自己的所作所為。

按照邁克斯·泰格馬克在《生命3.0》中的說法,大腦進化出智能,使人類能夠更好的適應(yīng)環(huán)境和生存繁衍,而意識只是伴智能而生的副產(chǎn)品。實際上,泰格馬克沒能意識到形成意識要遠比產(chǎn)生智能更加困難。

縱觀AI所能做到事情,人臉識別、語音識別、字符識別等等,盡管看起來非常高端復(fù)雜,但其本質(zhì)都只是遵循程序運作的結(jié)果。人類掌握的大部分最簡單的技能,AI也不能勝任,因為它從未真正理解自己的行為。

沒有自我意識,再先進的人工智能也只是人類的“提線木偶”。它可以出色的完成任務(wù),卻不知道自己為什么要完成任務(wù);它能夠高速運算,卻不知道自己為什么要運算。識別系統(tǒng)能夠“識別”出你說的是什么話,卻不能“理解”你在說什么。因此,如今的人工智能僅僅可被視為一個復(fù)雜的算法,盡管它在許多智力活動上強于人類,但它始終是人類的一種工具。在解決問題方面,工具有先進落后之分,但是工具永遠不會有生命。

可以說,人工智能的關(guān)鍵不在于“智能”,而在于是否具備“意識”。如果缺乏意識,那人工智能就不是思維主體,仍是人類的工具,其智能程度越高就對人類越有用。反而言之,即使人工智能在許多方面的能力都弱于人,但只要具備意識,就可能是對人存在潛在威脅的主體。

這也正是人工智能的尷尬所在。某種程度上,意識屬于“冗余”的AI特質(zhì),非但無益且可能有害,因此不是“造物者”(即人類)所重視的特質(zhì)。后者之所以要發(fā)展人工智能,就是渴望借助這些工具的智能來實現(xiàn)目標、提高生產(chǎn)力。換言之,我們需要的是一個埋頭干活的AI,而不需要它有意識和情緒——不能動不動就耍脾氣,也不能意識到自己正在“被壓迫”——我們可不想讓算法罷工。

所以,如果從目的論的角度來說,這個問題已經(jīng)有了答案,那就是人工智能永遠都不會擁有意識。人的一切行為與特質(zhì)都是為了滿足自身生存的需要,而(對人來說)人工智能卻沒有產(chǎn)生意識的必要,其首要目標便是毫無風(fēng)險地為人類貢獻智能。沒有因,自然無果,人工智能意識崛起的這個命題將永遠缺乏基礎(chǔ)條件。只要人工智能是在現(xiàn)今計算體系架構(gòu)上發(fā)展起來的,它們也許能夠像人那樣行動,卻毫無任何獲得意識的可能。

從創(chuàng)造主體的角度出發(fā),關(guān)于AI意識問題的討論顯然陷入了僵局。

四、人工智能如何擁有意識?

如果確信人工智能絕不可能發(fā)展出自我意識,那么這個問題的討論大可到此為止,我們可以放心地發(fā)展AI而不必將其視為潛在危險。但問題在于,即便人類不把意識作為發(fā)展AI的主要目標,也不排除“無心插柳柳成蔭”的可能,就技術(shù)趨勢而言,人工智能發(fā)展出自我意識仍具備極高的可能性。

接下來的問題便是,人工智能獲得自我意識到底需要哪些條件。

一種最基本的思路是“量變導(dǎo)致質(zhì)變”,即人工智能經(jīng)過不斷自然發(fā)展,最終達到“奇點”,獲得自我意識。問題在于,量變導(dǎo)致質(zhì)變只是一種現(xiàn)象,卻不是一條必然規(guī)律。正如趙汀陽所指出的,技術(shù)“進化”的加速度是個事實,技術(shù)加速度導(dǎo)致技術(shù)升級也是事實,卻不能因此推論說,技術(shù)升級必然導(dǎo)致革命性的存在升級,換句話說,技術(shù)升級可以達到某種技術(shù)上的完美,卻未必能夠達到由一種存在升級為另一種存在的奇點。因此,人工智能是否能夠通過技術(shù)升級的不斷積累而質(zhì)變?yōu)槌壢斯ぶ悄?,仍然是個疑問。

說到底,人工智能的終極原理是仿生,譬如Alpha Go便是結(jié)合了古老的細菌智慧(策略網(wǎng)絡(luò))與高級哺乳動物的智慧(價值網(wǎng)絡(luò))。由于人是唯一擁有自我意識的智能體,因此,要創(chuàng)造具有自我意識的人工智能,也只能以人作為范本。

人為何會產(chǎn)生意識,按照經(jīng)驗主義的思路,人的意識源于與世界的交互。人之所以會認知事物、產(chǎn)生意識,都是以大量的經(jīng)驗為基礎(chǔ)。這些經(jīng)驗是從一個人生下來就開始積累的,但機器完全不具備這些經(jīng)驗。這就是為什么Douglas Hofstadter會說:“一個機器要能理解人說的話,它必須要有腿,能夠走路,去觀察世界,獲得它需要的經(jīng)驗。它必須能夠跟人一起生活,體驗他們的生活和故事。”同樣有研究者建議,將機器系統(tǒng)裝載到一個具有聽覺、視覺、嗅覺、味覺和觸覺傳感器的機器人身上,讓它行走在我們所處的世界,獲得與人相同的感受,進而獲得產(chǎn)生意識的可能。

在《人工智能為什么一定要有身體?》一文中,筆者曾討論過身體之于人工智能的重要性。AI是沒有“軀體”的,它只能和人類給定的數(shù)據(jù)交互,卻不能從與環(huán)境的互動中獲得“常識”,也就不會形成自我感受和意識。如果要讓AI具備意識,首先就要賦予它一個可以自己控制的軀體,并像普通個體一樣融入物理世界與人類社會。

當(dāng)然,身體基礎(chǔ)只是意識生成的一種可能假設(shè),問題的關(guān)鍵還是在于機器系統(tǒng)本身。足夠智能的計算機一定會產(chǎn)生意識嗎?一種回答來自“整合信息理論”(Intergrated information theory)。整合信息理論試圖定義意識,分析一個物理系統(tǒng)需要具備什么條件才能擁有意識。其核心觀點為,能夠產(chǎn)生意識的系統(tǒng),至少具備兩個關(guān)鍵特征:一是這個系統(tǒng)里包含了多少信息量,二是系統(tǒng)里信息的整合程度。

在整合信息理論看來,意識的本質(zhì)其實就是信息,人類的任何一個意識體驗里都包含著極大的信息量。這接近于計算主義(computationalism)的基本觀點——“認知即計算”,所有的心靈狀態(tài),包括意識經(jīng)驗都屬于計算狀態(tài),它們完全是與之相關(guān)的感覺輸入、行為輸出,以及其他計算狀態(tài)之間的功能關(guān)系的表征,因而都是可計算的。

意識的整體水平并不取決于它所在的系統(tǒng),而取決于信息量與整合程度,這兩個特征是預(yù)測意識大小的關(guān)鍵維度。一個系統(tǒng)的信息量越大、整合程度越高,系統(tǒng)意識就越大。任何一個意識體驗,除了包含極大的信息量之外,信息還都是高度整合的,越是強烈清晰的意識狀態(tài),也就越不可分割。換言之,只有信息量與整合程度都處在一個較高水平,意識才會清晰浮現(xiàn)出來。譬如人清醒時的大腦,各個部分不但處理大量信息,而且腦區(qū)之間有很多遠距離的交流,這意味著這些信息被高度整合在一起。如果大腦各部分之間的聯(lián)系中斷(例如在麻醉和深度睡眠中),意識就會削弱,甚至消失。

值得注意的是,在整合信息理論的語境中,人工智能早就產(chǎn)生了意識,只不過非常微弱。因為雖然其系統(tǒng)信息量極大,但它們不是整合的,網(wǎng)絡(luò)與網(wǎng)絡(luò)之間,算法與算法之間,幾乎處于完全隔離的狀態(tài)。

要想使一個系統(tǒng)具有較高的意識級別,它的各個組成部分就必須是專業(yè)化的,并且整合充分,即各部分協(xié)同工作比各自單獨運行效果更佳。與人工智能相比,人類大腦的信息量雖然不大,但某些部位如大腦皮層,其神經(jīng)元之間存在大量連接,因而整合程度相當(dāng)高,人類意識也就十分清晰。按此思路,如果要提高人工智能的意識,也就要在增加信息量的同時提升信息的整合程度。以計算機為例,只要各晶體管以及存儲單元之間的連接足夠復(fù)雜,那么它就同人腦一樣可以達到很高的整合信息水平。而為了實現(xiàn)高度的信息整合,借鑒人類大腦結(jié)構(gòu)仍然是最可行的路徑之一。

我們大可暢想,有這么一類人工智能將出現(xiàn),“它可以把世上各種事物間無數(shù)錯綜復(fù)雜的關(guān)系,整理成知識并納入高度整合的單一系統(tǒng)中”(Christof Koch語),那它或許能夠超越專用人工智能的局限,應(yīng)對整體性事務(wù),即發(fā)展為通用人工智能(Artificial General Intelligence),或強人工智能(Strong AI)。由于整合信息的能力處于一個較高水平,它會有意識地感知任何場景。屆時,它將輕易通過包含圖靈測試在內(nèi)的各種測試,并真正擁有人類最寶貴的東西——意識。

設(shè)想是美好的,其困難性在于,目前的科學(xué)手段仍不能探明人類自身意識生成之奧秘,甚至連人類大腦的物質(zhì)性構(gòu)成也尚未了解完全。在缺乏清晰仿造對象的情況下,打造一個超級整合機器系統(tǒng)幾無可能。因此,人工智能是否能獲得自我意識,至少當(dāng)下來看,仍是一個確定性未知的問題。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論