我們需要打造有意識的人工智能嗎?

新浪科技
葉子
北京時間8月13日消息,據(jù)國外媒體報道,很多人都有這樣的疑問:人工智能最終是否能具有自己的意識?而一名人工智能專家對此的回應(yīng)是,這主要取決于我們自己是否希望讓機器擁有意識。 這聽上去可能太大膽了些。意...

北京時間8月13日消息,據(jù)國外媒體報道,很多人都有這樣的疑問:人工智能最終是否能具有自己的意識?而一名人工智能專家對此的回應(yīng)是,這主要取決于我們自己是否希望讓機器擁有意識。

這聽上去可能太大膽了些。意識的內(nèi)在機制——我們?yōu)楹螌κ澜缬兄@般生動而直接的體驗——一直是神經(jīng)科學(xué)領(lǐng)域的一大未解之謎。甚至有人認為,這個謎團將永遠都無法解開。想用客觀的科學(xué)方法解釋人們的主觀體驗似乎是不可能的。但在過去的20多年間,科學(xué)家對意識開展了大量深入分析,并取得了重大進展??茖W(xué)家已經(jīng)發(fā)現(xiàn)了一些與意識相關(guān)的神經(jīng)活動,也進一步了解了哪些行為需要意識的參與。大腦會按照潛意識執(zhí)行許多高級別的認知任務(wù)。

總言之,意識并不一定是我們認知過程的副產(chǎn)物。這一點對人工智能或許也是如此。在許多科幻故事中,機器只要足夠精密復(fù)雜,就會自動生成自己的精神世界。但在現(xiàn)實中,我們也許要在設(shè)計時特意將意識加入機器才行。

從科學(xué)與工程的角度來看,我們有充分的理由進行嘗試。人類對意識本身的無知便是其中之一。18和19世紀的工程師發(fā)明蒸汽機時,物理學(xué)家還沒有提出熱力學(xué)法則??梢姲l(fā)明有時也能促進理論進步。今天的情況也不例外。針對意識的討論往往太偏于哲學(xué),總是繞來繞去地兜圈子,卻提不出任何實際成果。而少數(shù)研究人工意識的專家便希望反其道而行之,在實踐中學(xué)習(xí)。

此外,意識必須能發(fā)揮一定重要功能才行,否則早就在進化過程中被淘汰了。這些功能也可以套用到人工智能身上。而在這方面,科幻作品同樣造成了誤導(dǎo)。無論是在小說還是電視節(jié)目中,意識對人工智能而言都像是一種詛咒。它們會刻意做出無法預(yù)測的行為,而這些行為往往對人類不利。但在現(xiàn)實世界中,這種反烏托邦式的情景其實不大可能出現(xiàn)。無論人工智能會造成何種風險,都不取決于它們是否具備獨立意識。恰恰相反,有意識的機器還能幫助我們應(yīng)對人工智能技術(shù)帶來的沖擊。有專家表示,相比毫無想法的自動化技術(shù),他寧愿與這些有意識的機器共事。

AlphaGo與人類圍棋冠軍李世乭一決高下時,很多專家都在思索AlphaGo為何會按這種方式下圍棋。他們想要解釋并理解AlphaGo的動機和邏輯依據(jù)。這種情況對現(xiàn)代人工智能而言十分普遍,因為它們的決策并非由人類提前設(shè)定好,而是通過學(xué)習(xí)算法和用于訓(xùn)練它們的數(shù)據(jù)集自發(fā)產(chǎn)生。由于無法參透這些人工智能,很多人擔心它們的決策可能有失公平、過于武斷。現(xiàn)在已經(jīng)有了算法歧視的例子。如去年的一項調(diào)查發(fā)現(xiàn),佛羅里達法官和假釋官使用的一套算法存在種族歧視的情況,導(dǎo)致黑人罪犯被標注的累犯概率會高于實際情況,而白人罪犯則低于實際情況。

從明年開始,歐盟法律將給予歐盟居民“要求解釋權(quán)”。人們將有權(quán)要求相關(guān)人士解釋某個人工智能系統(tǒng)為何會做出某種決策。但這項新要求從技術(shù)上來說頗具挑戰(zhàn)性??紤]到目前神經(jīng)網(wǎng)絡(luò)的復(fù)雜程度,我們還很難參透人工智能做出決策的過程,更別提將這個過程翻譯成人類能理解的語言了。

如果我們弄不清楚人工智能為何會這么做,能否直接問問它們呢?我們可以為人工智能配備后設(shè)認知能力(metacognition),讓它們回顧自身行為,報告自己的內(nèi)部精神狀態(tài)。這種能力是意識的主要功能之一。神經(jīng)科學(xué)家在測試人或動物是否有意識時,尋找的便是這種能力。例如,自信作為后設(shè)認知的基本形式之一,意識體驗越清晰明了、自信水平便越高。如果大腦是在不知不覺中處理信息,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,便會感覺自信許多,比如“我剛才肯定看見了紅色。”

任何配備了統(tǒng)計公式的計算器都能進行信度估算,但目前還沒有機器擁有人類這樣的后設(shè)認知能力。一些哲學(xué)家和神經(jīng)科學(xué)家提出,后設(shè)認知能力也許是意識的精髓。根據(jù)“意識的高階理論”假設(shè),意識體驗取決于對某種感覺狀態(tài)直接表征的二級表征。當我們知道某件事時,我們知道自己知道這件事。而如果我們?nèi)狈@種自我意識,便可以說沒有意識,就像處在自動巡航模式一樣,只是簡單地接受感官輸入、并據(jù)此采取行動,但并未加以留意。

這些理論為我們打造有意識的人工智能提供了一定指導(dǎo)。有專家試圖在神經(jīng)網(wǎng)絡(luò)中植入后設(shè)認知能力,讓它們能夠與自身內(nèi)部狀態(tài)進行交流。該項目被稱作“機器現(xiàn)象學(xué),模仿的是哲學(xué)中的“現(xiàn)象學(xué)”概念,即通過對意識體驗的系統(tǒng)性回顧研究意識的架構(gòu)。但教會機器用人類語言進行表達并非易事。為降低難度,研究人員目前先專注于用機器語言進行訓(xùn)練,讓它們互相分享自己的回顧性分析。分析內(nèi)容為人工智能執(zhí)行某項任務(wù)的指令。這已經(jīng)超出了一般機器交流的范疇。研究人員并未具體規(guī)定機器應(yīng)如何編譯這些指令,因為神經(jīng)網(wǎng)絡(luò)自身便可產(chǎn)生對應(yīng)策略。在訓(xùn)練過程中,若機器能成功將指令傳遞給其它機器,便可獲得獎勵。研究人員希望把該方法進行拓展,用于人類與人工智能之間的交流,最終讓人工智能能夠解釋自己的所作所為。

除了讓我們在一定程度上實現(xiàn)自我理解之外,意識還能幫助我們實現(xiàn)神經(jīng)科學(xué)家安道爾·圖威(Endel Tulving)所說的“精神時間旅行”。我們能夠有意識地預(yù)測某種行為的結(jié)果,或?qū)ξ磥碜龀鲆?guī)劃。我們能想象在面前揮動自己的手是什么感覺,也能在腦海中設(shè)想去廚房泡茶的場景,但不需要真的去做這些動作。

事實上,就連我們對目前這一刻的感知也是由意識構(gòu)建出來的。許多實驗和案例研究都證明了這一點。例如,患有失認癥的病人由于視覺皮層中與識別物體有關(guān)的部分受損,無法辨認出自己看到的是什么物體,但不影響伸手去拿這件東西。如果給他們一個信封,他們也知道將其投入郵筒。但假如在向患者展示物體與發(fā)出讓受試者去拿物體的指令之間存在時延,患者就無法完成拿取物體的任務(wù)了。顯然,意識與復(fù)雜的信息處理本身無關(guān)。只要某個刺激能立即激發(fā)相應(yīng)的動作,就無需意識的參與。但若要將感官信息保留幾秒以上,意識就變得不可或缺了。

從一類特殊的心理條件反射實驗中,也能看出意識對于填補時間差的重要性。在經(jīng)典的條件反射實驗中(如著名的巴甫洛夫和狗),實驗者會將一種刺激(如對眼瞼吹氣、或?qū)χ讣馐┘与姄簦┡c另一種無關(guān)的刺激(如一個純音)進行配對。實驗對象會自動學(xué)習(xí)到兩種刺激之間存在關(guān)聯(lián),不需要有意識地加以努力。一聽到相應(yīng)的純音(即只有一個振動頻率的聲音),他們就會自動聯(lián)想到吹在眼瞼上的氣流或指尖所受的電擊,下意識地做出畏縮動作。而當實驗者問他們?yōu)槭裁匆@么做時,他們也說不出所以然來。但只有當兩種刺激同時發(fā)生時,這種依靠潛意識的學(xué)習(xí)才會發(fā)生。實驗者若將第二種刺激延后些許,受試者便只有清楚地意識到兩者之間存在關(guān)系時,即能夠解釋“聽到純音便意味著眼睛要被吹氣了”,才能學(xué)習(xí)到兩種刺激之間的關(guān)聯(lián)。這樣看來,受試者要想在刺激停止后保留對刺激的記憶,就必須要有意識的參與。

這些例子說明,意識的功能之一便是擴寬我們感知世界的時間窗口,使眼前這一刻得以延長。在意識的幫助下,即使在刺激消失之后,對刺激的感官信息仍能維持一段時間,保持靈活可用的狀態(tài)。在沒有直接感官信息輸入時,大腦也能不斷生成感官表征。意識的時延功能可以通過實驗證明??茖W(xué)家弗朗西斯·克里克(Francis Crick)和克里斯托弗·科赫(Christof Koch)提出,人腦僅利用視覺輸入的一部分便可完成對未來行為的規(guī)劃。只不過這些視覺輸入應(yīng)當在有意識的狀態(tài)下完成。

這些例子的共同點是,它們都涉及“反事實信息的產(chǎn)生”,即在沒有直接感官信息輸入的情況下產(chǎn)生對應(yīng)的感覺。我們稱其為“反事實”,因為它涉及對過去的記憶、或?qū)ξ磥硇袨榈念A(yù)測,而不是正在發(fā)生的實際事件。我們還用了“產(chǎn)生”一詞,因為它不僅僅是信息處理,還是一個創(chuàng)造和測試假想情景的積極過程。在感官輸入從低級別腦區(qū)向高級別腦區(qū)流動的單向“前饋”過程中,感官輸入會被壓縮成更抽象的感官表征。但神經(jīng)心理學(xué)研究顯示,無論這種前饋流動過程多么復(fù)雜,都與意識體驗無關(guān)。要有意識的參與,還需要從高級別腦區(qū)向低級別腦區(qū)發(fā)送反饋。

具備了產(chǎn)生反事實信息的能力,意識體便可從當前環(huán)境中脫離出來,做出非反射性的行為,如等上三秒再行動。要想產(chǎn)生反事實信息,我們需要建立一個掌握了外部世界統(tǒng)計學(xué)規(guī)律的“內(nèi)部模型”,依靠該模型完成推理、運動控制和精神模擬等活動。

目前的人工智能已經(jīng)有了復(fù)雜的訓(xùn)練模型,但還要依賴人類提供的數(shù)據(jù)才能學(xué)習(xí)。若有了產(chǎn)生反事實信息的能力,人工智能便可自己生成數(shù)據(jù),自己想象未來可能遇到的情況,從而更靈活地適應(yīng)之前未遇見過的新情境。此外,這還能使人工智能擁有好奇心。如果人工智能不確定未來會發(fā)生什么,就會親自去試一試。

目前已經(jīng)有研究團隊在嘗試為人工智能配備這種能力了,并且已經(jīng)有那么幾次,人工智能似乎做出了意料之外的行為。在一項實驗中,研究人員模擬了一套能夠駕駛卡車的人工智能系統(tǒng)。若想讓其爬上山坡,通常需要人類將這一動作設(shè)為任務(wù)目標,由人工智能找出完成該任務(wù)的最佳路徑。但具備了好奇心的人工智能系統(tǒng)卻將山坡看成一個問題,即使沒有人類的指令,也會主動尋找爬上山坡的方法。不過該發(fā)現(xiàn)還需要進一步研究來驗證。

若將“回顧”和“想象”看作意識的兩大要素,我們遲早會開發(fā)出有意識的人工智能,因為這兩項功能對任何機器都十分有用。我們希望機器能解釋自己做事的方式和原因。而要打造出這樣的機器,也能鍛煉我們自己的想象力。這將是對意識“產(chǎn)生反事實信息”能力的終極考驗。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論