1950年,美國(guó)著名科幻作家艾薩克·阿西莫夫出版了他的著作《我,機(jī)器人》。在這部著作里,一共有9個(gè)故事,它們擁有一個(gè)共同的主題,那就是人類和機(jī)器人的關(guān)系。
在這里,阿西莫夫提出了著名的機(jī)器人三定律:
第一定律:機(jī)器人不可以傷害人類,或者看見(jiàn)人類在面臨威脅時(shí)袖手旁觀;
第二定律:在不違背第一定律的前提下,機(jī)器人必須服從人類下達(dá)的指令;
第三定律:在不違背前兩條定律的前提下,機(jī)器人要盡量保護(hù)自己的生存安全。
這三條定律非常著名,以至于到了今天,已經(jīng)是人類在開發(fā)機(jī)器人時(shí)所不可回避的話題。甚至有人還在此基礎(chǔ)上,提出了機(jī)器人第零定律:機(jī)器人必須要保護(hù)整個(gè)人類種族的利益不受破壞,這一條定律的優(yōu)先級(jí)要高于原來(lái)的三條。
在阿西莫夫的年代,機(jī)器人在極大程度上還停留在科幻的層面。如今,機(jī)器人已經(jīng)開始逐漸走入我們的生活,人工智能已經(jīng)在許多方面參與到了人類社會(huì)進(jìn)步的進(jìn)程中。隨著人工智能越來(lái)越發(fā)展,它們是否可靠的問(wèn)題也再一次成為了科學(xué)家們熱烈討論的話題。
慶幸的是,現(xiàn)在的人工智能發(fā)展還相當(dāng)有限,它們更多地是在人類生活和科技發(fā)展中充當(dāng)人類的幫手。然而,隨著人工智能不斷進(jìn)步和突破,它們是否還會(huì)忠誠(chéng)于人類呢?
盡管有阿西莫夫提出的機(jī)器人三定律,但這畢竟是人類一廂情愿的規(guī)則。一旦人工智能有了自己的思維,它們是否愿意遵從人類制定的規(guī)則呢?
不知道。因此,除了通過(guò)程序輸入這樣的法則來(lái)約束人工智能以外,科學(xué)家們必須還有其他的方法來(lái)防止最壞的情況出現(xiàn)??墒?,科學(xué)家最近卻給出了一個(gè)悲觀的答案。如果未來(lái)超級(jí)人工智能真的想要反叛人類,我們很可能將束手無(wú)策。
首先的一個(gè)問(wèn)題在于,想要控制一個(gè)智能水平遠(yuǎn)遠(yuǎn)超過(guò)人類的機(jī)器人,就要利用我們能夠分析的方式來(lái)模擬這個(gè)超級(jí)人工智能。這又是矛盾的,既然我們都無(wú)法理解,又談何模擬呢?
今年年初的時(shí)候,《人工智能研究雜志》就發(fā)表了科學(xué)家的一項(xiàng)研究,論文中就指出:如果我們都不清楚超級(jí)人工智能會(huì)出現(xiàn)什么樣的情況,那么就算制定了所謂的機(jī)器人三定律來(lái)阻止它們傷害人類,最終也只能是徒勞無(wú)功。當(dāng)機(jī)器人的內(nèi)部系統(tǒng)超過(guò)人類程序員的能力范圍時(shí),人工智能恐怕就不會(huì)再受到人類的限制了。
他們?cè)谡撐闹袑懙溃?ldquo;伴隨著超級(jí)人工智能誕生的,還有一個(gè)特殊的問(wèn)題,它與以往在‘機(jī)器人倫理’的大旗之下所研究的問(wèn)題大相徑庭。其原因在于,一個(gè)超級(jí)人工智能勢(shì)必是狡兔三窟,因此很有可能偷偷地調(diào)用大量自然,來(lái)實(shí)現(xiàn)它不可告人的目的,因此可控性更是無(wú)從談起。”
他們之所以給出這個(gè)悲觀的言論,很大程度上是基于被稱為計(jì)算機(jī)之父和人工智能之父的艾倫·麥席森·圖靈在1936年所提出的停機(jī)問(wèn)題。這個(gè)問(wèn)題的核心,就是思考一臺(tái)機(jī)器或者說(shuō)一個(gè)程序是否會(huì)在有限的時(shí)間內(nèi)結(jié)束運(yùn)行,抑或是永遠(yuǎn)不停地陷入死循環(huán)地去嘗試停止下來(lái)。
我們可能會(huì)在開發(fā)人工智能的時(shí)候,給它輸入一段程序,比如它做任何傷害人類甚至整個(gè)世界的行為時(shí),后臺(tái)就可以將它關(guān)閉。但實(shí)際情況是,這樣的方法未必就能奏效。從數(shù)學(xué)的角度來(lái)考慮,這個(gè)程序的奏效與否,是無(wú)法完全確定的,這就意味著人工智能仍然有毀滅人類的可能性。
德國(guó)馬克斯-普朗克人類發(fā)展研究所的計(jì)算機(jī)科學(xué)家Iyad Rahwan說(shuō)道:“這意味著,控制它們的程序是無(wú)效的。”
我們可以在研發(fā)超級(jí)機(jī)器人的時(shí)候,給它輸入一些道德的準(zhǔn)則,就像告訴小孩子什么該做、什么不該做一樣。但正如上面所說(shuō)的,這樣的道德約束未必能夠真的起作用。也有人提出觀點(diǎn)認(rèn)為,最可靠的辦法或許就是從源頭上解決問(wèn)題——限制人工智能的能力,比如設(shè)計(jì)一套預(yù)案,在必要的時(shí)候切斷人工智能的一些網(wǎng)絡(luò)功能,從而限制其能力。
這就是矛盾的所在:我們一方面希望人工智能可以在最大程度上給我們提供便利和服務(wù),另一方面又心存戒備地防止它們反叛而限制能力。用咱們的一句老話來(lái)說(shuō)就是:不給馬吃草,還想讓馬跑。
不得不說(shuō),在人工智能方面,人類確實(shí)在做著一些超出自己能力范圍的事情。很多人都在為超級(jí)人工智能的出現(xiàn)而擔(dān)憂,然而又不知道它究竟何時(shí)會(huì)出現(xiàn)。
馬克斯-普朗克人類發(fā)展研究所的另一位計(jì)算機(jī)科學(xué)家Manuel Cebrian警示我們說(shuō):“那種可以操控整個(gè)世界的超級(jí)人工智能機(jī)器,聽起來(lái)感覺(jué)是科幻小說(shuō),但現(xiàn)在已經(jīng)出現(xiàn)了一些機(jī)器,其學(xué)習(xí)獨(dú)立完成某些任務(wù)的能力甚至超出了開發(fā)者的理解范圍。所以,關(guān)于他們是否會(huì)脫離人類的控制并威脅到人類的安全的問(wèn)題,已經(jīng)擺在我們面前了。”
我們知道,人工智能確實(shí)在有些方面勝過(guò)人類,比如進(jìn)行一些科學(xué)發(fā)現(xiàn),或者是阿爾法狗的圍棋水平等等。但關(guān)于這些,我們都知道它們是如何獲得這種能力的。但如果人工智能真的以人類未知的模式學(xué)習(xí)了新的能力,這就確實(shí)超乎想象了。
關(guān)于人工智能反叛的科幻電影,我們也聽說(shuō)過(guò)不少了,這確實(shí)也是人們擔(dān)心的焦點(diǎn)問(wèn)題之一。但人工智能的發(fā)展確實(shí)又是必不可少的,人類需要它們的幫助。如何調(diào)和這兩件事之間的矛盾,還有待于科學(xué)家們的進(jìn)一步探索了。