人工智能是把雙刃劍,既有利,也有弊。人工智能應(yīng)用在我們生活中的方方面面,給我們的生活帶來便利,但AI的發(fā)展同時(shí)也潛在著“威脅”??萍际遣粩噙M(jìn)步的,不可能因?yàn)槠錆撛诘?ldquo;威脅“就停滯不前,只要我們及早給未來人工智能的發(fā)展套上安全、倫理等方面的“緊箍咒”,人工智能將不會(huì)成為“魔鬼”。
剛剛過去的一年,人工智能帶來的沖擊一波接著一波:繼谷歌人工智能程序“阿爾法狗”碾壓中韓頂級(jí)棋手后,全球第一個(gè)被授予“公民身份”的機(jī)器人索菲亞又揚(yáng)言“要?dú)缛祟?rdquo;,接著出現(xiàn)了會(huì)后空翻的機(jī)器人“阿特拉斯”,以及可執(zhí)行“斬首”任務(wù)的微型無人機(jī)紛紛登臺(tái)亮相……
在人工智能高速發(fā)展的今天,正如許多專家所預(yù)言的那樣,戰(zhàn)爭(zhēng)機(jī)器人可能是繼核武器之后,又一把懸在人類頭上的“達(dá)摩克利斯之劍”。這引發(fā)人們深思:人工智能究竟會(huì)被“馴服”,成為人類的朋友?還是會(huì)“叛逆”,給人類帶來無盡的災(zāi)難?
難以抗拒的誘惑
高度智能化突破人類生理極限
人工智能作為物聯(lián)網(wǎng)、大數(shù)據(jù)、先進(jìn)算法和強(qiáng)大計(jì)算能力支持下的一種“群技術(shù)”,通過賦予“物”以人的智力,模擬和擴(kuò)展人的智慧,輔助甚至代替人實(shí)現(xiàn)多種功能,進(jìn)行認(rèn)識(shí)、分析、決策、行動(dòng)等活動(dòng)。其核心優(yōu)勢(shì)是高度自主性,能夠較少或完全不需要人工干預(yù)就可完成復(fù)雜、繁重和精確性高的任務(wù)。
人工智能可以使人從繁重的重復(fù)性工作中解放出來,專注于發(fā)現(xiàn)性、創(chuàng)造性的工作。比如,在以前的指揮決策中,指揮人員85%的時(shí)間用于情報(bào)處理分析,只有15%的時(shí)間考慮作戰(zhàn),而采取智能化情報(bào)處理系統(tǒng)后正好相反?,F(xiàn)代戰(zhàn)場(chǎng)態(tài)勢(shì)高度復(fù)雜、瞬息萬變,完全依賴人的認(rèn)知去理解戰(zhàn)場(chǎng)態(tài)勢(shì)變得越來越困難。而運(yùn)用智能化數(shù)據(jù)處理技術(shù),就可以在大數(shù)據(jù)中發(fā)現(xiàn)復(fù)雜事物間的關(guān)系,從本質(zhì)上突破人類分析聯(lián)系事物的局限性,還可依據(jù)對(duì)大量戰(zhàn)場(chǎng)數(shù)據(jù)的分析,提供可行性的決策建議。
人工智能具備自主學(xué)習(xí)能力,且運(yùn)算精確度高,不受環(huán)境與心理等因素影響。2017年12月14日,美國(guó)宇航局宣布利用谷歌人工智能機(jī)器人的學(xué)習(xí)能力,對(duì)開普勒太空望遠(yuǎn)鏡收集的3.5萬個(gè)可能的行星信號(hào)、140億個(gè)數(shù)據(jù)點(diǎn)及大約2萬億個(gè)行星軌道進(jìn)行分析,發(fā)現(xiàn)了首個(gè)幾乎和太陽系一樣的星系,其效率和準(zhǔn)確性遠(yuǎn)超傳統(tǒng)的分析方法。同樣,高度自主化的無人作戰(zhàn)系統(tǒng),在后方操縱人員的監(jiān)控下,能夠自動(dòng)搜索和跟蹤目標(biāo),自主識(shí)別環(huán)境并規(guī)劃?rùn)C(jī)動(dòng)路線,快速捕捉戰(zhàn)機(jī)實(shí)施精確打擊。
人工智能還可通過計(jì)算機(jī)視覺、語音處理、自然語言處理等技術(shù),使系統(tǒng)更加精準(zhǔn)地理解人的行為并按照人的意志行動(dòng),實(shí)現(xiàn)人機(jī)高度融合。比如,在智能控制領(lǐng)域,能夠通過語音方式下達(dá)指令,由系統(tǒng)轉(zhuǎn)化為機(jī)器語言,實(shí)現(xiàn)作戰(zhàn)命令的快速下達(dá)和武器裝備的精確操控。在單兵助力方面,外骨骼系統(tǒng)可通過感知人體運(yùn)動(dòng)意圖,提升士兵的承載攜行、搬舉能力,同時(shí)又能實(shí)現(xiàn)人機(jī)一體化,保持士兵的高度靈活性。
可以預(yù)見的風(fēng)險(xiǎn)
人工智能帶給人類巨大威脅
美國(guó)“臉書” CEO馬克·扎克伯格曾放言:“人類當(dāng)下面臨的最大威脅是什么?無疑是人工智能!”但就當(dāng)前來講,人工智能的“威脅”還不存在,因?yàn)樗粚W⒂谕瓿赡硞€(gè)特別設(shè)定的任務(wù),比如下圍棋就僅僅會(huì)下圍棋。而未來超過人類智慧的超人工智能具備知識(shí)遷移能力,可以充分利用已掌握的技能解決新問題,這就有可能給人類造成巨大威脅。
實(shí)現(xiàn)高度自主并可能“失控”。未來超人工智能開始具備自主思維意識(shí),能夠像人類一樣獨(dú)立思考,并自我決定如何行動(dòng)。因此,自主智能機(jī)器系統(tǒng)雖然由人類設(shè)計(jì)制造,但它們的行為卻不受人類的直接指令控制,而是可以基于在不同情境中對(duì)其所獲得的信息進(jìn)行分析、判斷和決策,形成不需要人類介入或干預(yù)的“感知—思考—行動(dòng)”模式,并最終超出創(chuàng)造者預(yù)料或事先控制的范圍而失控。
這種高度智能化的系統(tǒng)還能夠通過學(xué)習(xí)進(jìn)行機(jī)器再造,可以快速復(fù)制或再生其他新的人工智能體。據(jù)專家推算,一個(gè)失去控制的正在自我復(fù)制的納米機(jī)器人,完成130個(gè)復(fù)制周期只需要3個(gè)半小時(shí),考慮到納米機(jī)器人向外移動(dòng)擴(kuò)張等因素,最多只需數(shù)周就可以“摧毀”地球上的一切生物。這也就是為什么霍金多次“告誡”人們:人工智能一旦脫離束縛,就會(huì)以不斷加速的狀態(tài)重新設(shè)計(jì)自身。而人類由于受到漫長(zhǎng)生物進(jìn)化的限制,無法與之競(jìng)爭(zhēng),最終或?qū)⒈蝗〈?/p>
遭遇非法入侵可能被“黑化”。人工智能作為一種新興的技術(shù)領(lǐng)域,一般來說,沒有安全漏洞是不可能的。而如果有人利用這種漏洞控制智能系統(tǒng)或機(jī)器人去實(shí)施破壞活動(dòng),這樣的后果是極其可怕的。而且,隨著人工智能的發(fā)展,其他工具包括人工智能的技術(shù)開發(fā)和復(fù)制也變得越來越容易。也就是說,未來任何人都可以使用該系統(tǒng)去實(shí)現(xiàn)自我復(fù)制或繁殖其他人工智能系統(tǒng)。因此,超人工智能系統(tǒng)一旦被非法獲取或操縱,將產(chǎn)生巨大的破壞力量。
爆發(fā)機(jī)器戰(zhàn)爭(zhēng)造成武力“濫用”。未來大量智能化無人系統(tǒng)將運(yùn)用于戰(zhàn)場(chǎng),“死傷”的主要是沒有生命并可以大量再造的“智能機(jī)器”,使戰(zhàn)爭(zhēng)成本大大降低,并能夠?qū)崿F(xiàn)作戰(zhàn)人員的“零傷亡”。戰(zhàn)爭(zhēng)的政治、外交風(fēng)險(xiǎn)明顯降低,這就可能會(huì)因戰(zhàn)爭(zhēng)顧慮和壓力減少而降低戰(zhàn)爭(zhēng)決策的門檻,導(dǎo)致軍事強(qiáng)國(guó)在武力使用上更加隨意,從而使戰(zhàn)爭(zhēng)的爆發(fā)更加頻繁,戰(zhàn)爭(zhēng)從“最后的選擇”轉(zhuǎn)變?yōu)?ldquo;首先的手段”。為此,許多科學(xué)家呼吁禁止“致命性自主式武器”的研發(fā)和使用,并警告這將引發(fā)全球性人工智能“軍備競(jìng)賽”,人類社會(huì)將可能深陷戰(zhàn)爭(zhēng)泥潭。
未雨綢繆的防范
給人工智能戴上“緊箍咒”
霍金曾這樣評(píng)價(jià)人工智能:“它既可能成為人類迄今發(fā)生過的最好的事,也可能成為最糟糕的事”。我們既不能盲目樂觀,也不能因噎廢食,必須及早給未來人工智能的發(fā)展套上必要的安全、倫理等方面的“緊箍咒”,同時(shí)又不能阻礙技術(shù)創(chuàng)新和人類社會(huì)進(jìn)步的步伐。
從技術(shù)安全角度建立共同遵守的發(fā)展準(zhǔn)則。根據(jù)人工智能可預(yù)見的風(fēng)險(xiǎn),建立世界范圍內(nèi)的人工智能發(fā)展準(zhǔn)則,對(duì)研究范圍、內(nèi)容、目的、用途等各個(gè)方面進(jìn)行規(guī)范,確保安全、可控地發(fā)展人工智能。比如,對(duì)于智能系統(tǒng)到底應(yīng)該實(shí)現(xiàn)到什么樣的自主程度,賦予其多大的自主權(quán)利以及哪些方面不能實(shí)現(xiàn)等進(jìn)行明確限制。2017年1月,在美國(guó)加利福尼亞州舉辦的阿西洛馬人工智能會(huì)議上,近千名人工智能和機(jī)器人領(lǐng)域?qū)<乙崖?lián)合簽署了《阿西洛馬人工智能23條原則》,呼吁世界在發(fā)展人工智能時(shí)共同遵守,成為人工智能安全、有序發(fā)展的良好開端。
從道德倫理角度建立科學(xué)嚴(yán)格的評(píng)估機(jī)制。人工智能主要是基于算法,而算法在本質(zhì)上是“以數(shù)學(xué)方式或計(jì)算機(jī)代碼表達(dá)的意見”,是設(shè)計(jì)者、開發(fā)者的主觀創(chuàng)造,有可能將自己的偏見、價(jià)值觀嵌入算法系統(tǒng),制造出不符合社會(huì)道德規(guī)范的智能機(jī)器,這就需要對(duì)其進(jìn)行嚴(yán)格評(píng)估以確保安全。2016年12月,美國(guó)電氣和電子工程師協(xié)會(huì)啟動(dòng)了人工智能倫理工程,提出對(duì)嵌入智能系統(tǒng)的規(guī)范和價(jià)值進(jìn)行評(píng)估,以確定其是否和現(xiàn)實(shí)中的道德價(jià)值體系相一致。我國(guó)在《新一代人工智能發(fā)展規(guī)劃》中也提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”。
從規(guī)范運(yùn)用角度建立具有法律約束力的普遍性制度條約。任何一種先進(jìn)技術(shù)能否產(chǎn)生威脅,主要看使用者出于何種目的、如何運(yùn)用。誠(chéng)然,面對(duì)人工智能的巨大優(yōu)勢(shì)和潛在利益,特別是在涉及國(guó)家安全領(lǐng)域方面,直接禁止使用人工智能技術(shù)是不現(xiàn)實(shí)的。這正如國(guó)際上禁止或限制使用“致命性自主武器系統(tǒng)”一樣,至今無法取得任何實(shí)質(zhì)性進(jìn)展。因此,應(yīng)呼吁建立具有法律約束力的國(guó)際性條約,對(duì)某些特殊功能的智能系統(tǒng)風(fēng)險(xiǎn)和技術(shù)擴(kuò)散等進(jìn)行規(guī)范和預(yù)防。
(原標(biāo)題:人工智能:“天使”or“魔鬼”?)