人工智能已成為變革我們生活方式的重要驅(qū)動(dòng)力量,滲透到生活的方方面面。目前,人工智能發(fā)展迅猛,許多專家系統(tǒng)已于某些領(lǐng)域超過(guò)人類。因此,許多學(xué)者開(kāi)始擔(dān)憂,當(dāng)人工智能由弱人工智能向強(qiáng)人工智能突進(jìn)的過(guò)程中,是否會(huì)產(chǎn)生不友好的動(dòng)機(jī),如某些科幻電影中的情景,奴役甚至毀滅人類。有些學(xué)者認(rèn)為,人工智能近期可能會(huì)導(dǎo)致很多人失業(yè),以及人工智能的軍事化用途會(huì)帶來(lái)世界格局的動(dòng)蕩;長(zhǎng)遠(yuǎn)來(lái)看,人們可能會(huì)面臨人工智能的失控和反叛,進(jìn)而危及人類生存——此類論調(diào)被稱為“人工智能末日論”。人工智能末日論基于不可靠的歸納論證,因而在邏輯上難以成立。但是,居安思危、防微杜漸,是我們面對(duì)即將到來(lái)的人工智能時(shí)代應(yīng)有的姿態(tài)。
人工智能末日論缺乏邏輯必然性
工程師為人工智能設(shè)計(jì)的一系列目標(biāo)即使同人類社會(huì)的發(fā)展相容,但是當(dāng)人工智能發(fā)展到一定水平時(shí),工程師們可能將無(wú)法控制它們。有學(xué)者認(rèn)為,可以在把人工智能的具體成果應(yīng)用到人類社會(huì)前反復(fù)測(cè)試其友好性和安全性,以此避免人工智能對(duì)人類的不利影響。但波斯特洛姆(Nick Bostrom)提出“背叛轉(zhuǎn)折”(treacherous turn)概念,他認(rèn)為,超級(jí)人工智能會(huì)使用一些策略,實(shí)施計(jì)劃的同時(shí)并預(yù)測(cè)人類的可能反應(yīng),一個(gè)擁有足夠智能的不友好人工智能或許會(huì)意識(shí)到,如果它一開(kāi)始表現(xiàn)得友好,這樣它就會(huì)被信任,最后越容易實(shí)現(xiàn)它的不友好目標(biāo)。雖然反駁人工智能的歸納論證在“背叛轉(zhuǎn)折”原則下失效,但是這個(gè)原則預(yù)設(shè)了人工智能擁有目標(biāo)“動(dòng)機(jī)”。那么,人工智能是否能夠發(fā)展出類似“動(dòng)機(jī)”的人類認(rèn)知因素?
目前看來(lái),人工智能的認(rèn)知能力尚無(wú)法實(shí)現(xiàn)上述效果。2017年,人工智能小冰“出版”了一本詩(shī)集《陽(yáng)光失了玻璃窗》,但那些看似天馬行空的“想象”只是一些數(shù)據(jù)庫(kù)詞匯和句型的隨機(jī)組合,無(wú)法體現(xiàn)人類詩(shī)歌中的情感和胸臆。智能系統(tǒng)要想發(fā)展出高階認(rèn)知功能,單依靠算法似乎無(wú)法實(shí)現(xiàn),可能需要依賴人工智能算法和全腦仿真的協(xié)同發(fā)展。全腦仿真“通過(guò)掃描和對(duì)生物大腦仔細(xì)建模的方法制作智能軟件”,這項(xiàng)技術(shù)能夠模擬人腦所具備的功能,并加以原理化。這種技術(shù)建立在硬件基礎(chǔ)上,那么,硬件升級(jí)速度能否跟上人工智能的發(fā)展?
硬件更新迭代速度同技術(shù)的“指數(shù)爆炸”概念密切相關(guān)。“指數(shù)爆炸”是數(shù)學(xué)領(lǐng)域的概念,表示指數(shù)函數(shù)式的爆炸性增長(zhǎng)。后被應(yīng)用于計(jì)算機(jī)領(lǐng)域,意在說(shuō)明計(jì)算機(jī)的計(jì)算能力以指數(shù)形式提升,即每隔相對(duì)固定的周期計(jì)算機(jī)的計(jì)算能力將翻番。從第一臺(tái)現(xiàn)代意義上的計(jì)算機(jī)誕生至今,計(jì)算機(jī)運(yùn)算能力的發(fā)展趨勢(shì)基本符合“指數(shù)爆炸”,以超級(jí)計(jì)算機(jī)領(lǐng)域?yàn)槔?,超算的運(yùn)算能力大約每14個(gè)月提升一倍。如果計(jì)算機(jī)能夠保持“指數(shù)爆炸”式發(fā)展,那么全腦仿真技術(shù)就有了硬件上的保證。
在上述分析中,我們運(yùn)用了溯因推理和歸納推理兩種論證方法。溯因推理是由果溯因的邏輯方法,我們首先假定人工智能末日論成立需要具備哪些條件,展開(kāi)一個(gè)連鎖式的溯因推理結(jié)構(gòu),隨后借助歸納論證。學(xué)界一般將由具體事例推出一般事實(shí)的推理稱為歸納論證,即根據(jù)已發(fā)生的經(jīng)驗(yàn)案例預(yù)測(cè)將要發(fā)生的所有事例皆是如此這般。我們不能因?yàn)槟壳八^察到的烏鴉都是黑色,就武斷認(rèn)為天下烏鴉皆為黑色。類似地,我們也不能因?yàn)槠駷橹褂?jì)算機(jī)領(lǐng)域的發(fā)展符合“指數(shù)爆炸”或“摩爾定律”,就推測(cè)該定律適用于計(jì)算機(jī)領(lǐng)域的所有發(fā)展階段。基于目前的發(fā)展水平推斷未來(lái)發(fā)展速度依舊保持不變并不存在必然性,由此,我們認(rèn)為人工智能末日論在邏輯上站不住腳。
人工智能末日論是一種可能信念
雖然人工智能末日論在邏輯上站不住腳,但我們可以將其視為一種信念。我們可以將“帕斯卡賭”論證應(yīng)用于人工智能末日論的信念分析,即當(dāng)前我們無(wú)法預(yù)測(cè)人工智能末日論信念為真的概率,但如果該信念為真,其后果將是毀滅性的。即便現(xiàn)有的種種證據(jù)都不利于人工智能末日論,背叛轉(zhuǎn)折也不容忽視。以波斯特洛姆為代表的人工智能末日論不乏一些夸張的未來(lái)預(yù)測(cè),但他們將人工智能的可能威脅以這種方式呈現(xiàn)出來(lái),引發(fā)廣泛的社會(huì)討論,在人工智能狂飆突進(jìn)的同時(shí),警惕可能的背叛轉(zhuǎn)折風(fēng)險(xiǎn),彰顯了該論調(diào)的實(shí)踐意義和認(rèn)知意義,這是人工智能末日論信念所傳達(dá)的積極信息。
有人認(rèn)為波斯特洛姆的背叛轉(zhuǎn)折概念荒誕不經(jīng),因?yàn)檫@種觀念迫使我們重新評(píng)估我們與當(dāng)前技術(shù)的關(guān)系,重新評(píng)估我們已習(xí)慣性、成功依賴的各種歸納推理。這樣做似乎很荒謬,因?yàn)闅w納推理在人工智能各種項(xiàng)目中得到廣泛應(yīng)用,并且迄今為止相當(dāng)可靠。但我們換個(gè)角度看,波斯特洛姆的人工智能末日論其實(shí)是對(duì)經(jīng)典休謨經(jīng)驗(yàn)懷疑主義的重新表述。休謨的著名論斷表明,我們不能僅憑太陽(yáng)過(guò)去每天升起,進(jìn)而推斷出太陽(yáng)明天照常升起。我們與人工智能的互動(dòng)更為有限,不能僅僅從人工智能在過(guò)去所有場(chǎng)合都是安全的這一事實(shí)來(lái)推斷人工智能未來(lái)依舊友好或安全。當(dāng)然,在某種意義上,休謨的觀點(diǎn)是合理的,我們都能理解其論點(diǎn)的邏輯性。但我們?cè)谌粘I钪袇s往往忽視了歸納推理的潛在弊端,否認(rèn)此類歸納論證會(huì)產(chǎn)生荒謬的情形和嚴(yán)重的認(rèn)知后果,也許波斯特洛姆關(guān)于背叛轉(zhuǎn)折的概念也遭受了與休謨論斷同樣的處境。正是對(duì)歸納推理的重新審視,我們才會(huì)深入考察人工智能末日論信念的深遠(yuǎn)意義,這與將賭注押在其可能帶來(lái)的消極后果上的考量不謀而合。此外,一種折中的觀點(diǎn)指出,人工智能可能帶來(lái)災(zāi)難性的風(fēng)險(xiǎn),同時(shí)也給人類社會(huì)發(fā)展注入了強(qiáng)大推力,推動(dòng)了社會(huì)進(jìn)步。但是,現(xiàn)在討論的焦點(diǎn)并非人工智能的積極影響,而是如何看待人工智能給人類文明帶來(lái)的潛在威脅。
應(yīng)對(duì)人工智能潛在風(fēng)險(xiǎn)
為應(yīng)對(duì)潛在風(fēng)險(xiǎn),當(dāng)前學(xué)界討論較多的是人工智能的價(jià)值觀加載問(wèn)題,但是將我們?cè)O(shè)定的價(jià)值觀以程序代碼的形式輸入人工智能系統(tǒng),能否防止人工智能因動(dòng)機(jī)不純而偏離預(yù)設(shè)軌道?給人工智能戴上“緊箍咒”似乎是最有效的方式,人工智能工程師需要將類似阿西莫夫“機(jī)器人三定律”這樣的價(jià)值觀嵌入到人工智能系統(tǒng)中,作為其決策和行動(dòng)的準(zhǔn)則。然而,這條進(jìn)路面臨三個(gè)挑戰(zhàn)。
1.理論層面。價(jià)值觀是一個(gè)十分含混的觀念集合體,我們應(yīng)該給人工智能加載哪些價(jià)值觀,以及人工智能系統(tǒng)是否能“理解”以程序代碼形式表征出來(lái)的價(jià)值觀。假如我們讓人工智能系統(tǒng)處理“電車難題”,人工智能該如何抉擇?
2.應(yīng)用層面。假如我們?yōu)槿斯ぶ悄芟到y(tǒng)設(shè)定了一個(gè)目標(biāo)——“保證人類總體的快樂(lè)最大化”,若人工智能系統(tǒng)將快樂(lè)理解為對(duì)大腦中負(fù)責(zé)快樂(lè)的中樞部位刺激,那么智能系統(tǒng)可能會(huì)創(chuàng)造出一個(gè)“缸中之腦”,在負(fù)責(zé)快樂(lè)的中樞部位植入電極,持續(xù)不斷地刺激這個(gè)部位,并不斷擦除先前的記憶,以免大腦厭倦重復(fù)不斷的刺激。
3.技術(shù)層面。目前看來(lái),將倫理準(zhǔn)則嵌入人工智能機(jī)器面臨許多問(wèn)題。以自動(dòng)駕駛技術(shù)為例,智能駕駛系統(tǒng)在做決策時(shí),會(huì)面臨自上而下和自下而上兩方面的困境。自上而下是指為智能駕駛系統(tǒng)設(shè)定像康德的決定律令這般的倫理準(zhǔn)則,這樣的系統(tǒng)往往缺乏常識(shí)。自下而上則是通過(guò)模擬真實(shí)場(chǎng)景進(jìn)行自我學(xué)習(xí),但這種方法并不適用于道德判斷。
由此觀之,雖然人工智能價(jià)值觀嵌入看似一勞永逸,實(shí)際上尚存在諸多難題。我們可以借鑒其他高風(fēng)險(xiǎn)技術(shù)領(lǐng)域的經(jīng)驗(yàn),比如克隆技術(shù)、基因編輯技術(shù)等保持著較為安全平穩(wěn)的發(fā)展勢(shì)頭,主要是由于各國(guó)在這些領(lǐng)域協(xié)同發(fā)展、共同應(yīng)對(duì),制定嚴(yán)格規(guī)范研究行為的公約。
各國(guó)在人工智能領(lǐng)域競(jìng)爭(zhēng)的同時(shí),應(yīng)加強(qiáng)機(jī)構(gòu)間或國(guó)際間的溝通合作,這會(huì)降低機(jī)器智能研發(fā)過(guò)程中的草率決定,使安全問(wèn)題得到更多的投入,促進(jìn)項(xiàng)目之間就如何解決人工智能控制問(wèn)題進(jìn)行有效交流。隨著人工智能的深入發(fā)展,可以出臺(tái)相應(yīng)法律法規(guī),在合作和規(guī)范中發(fā)展人工智能,共同應(yīng)對(duì)可能的突發(fā)情況。