機(jī)器人三大定律只是人類的一廂情愿 AI可能并不遵守

在科幻大片《終結(jié)者》(Terminator)中,機(jī)器人想完全占有這個(gè)世界,把人類趕盡殺絕。

在科幻大片《終結(jié)者》(Terminator)中,機(jī)器人想完全占有這個(gè)世界,把人類趕盡殺絕。對此我們不禁要問:“如果電影中場景在現(xiàn)實(shí)重演,結(jié)果會(huì)怎樣?”提出這樣的問題不應(yīng)該受到指責(zé),因?yàn)橥ㄟ^電影和科幻故事,機(jī)器人接管地球的場景幾乎無處不在,因此我們對人工智能(AI)的未來已經(jīng)形成了這樣的印象。然而,既然人類能夠通過法律維持生存和合作,為何不能把法律也應(yīng)用到AI身上呢?這就涉及到阿西莫夫的機(jī)器人三大定律!為了更好地了解未來,我們首先要回顧下過去。

三大定律

艾薩克·阿西莫夫(Isaac Asimov,1920-1992)除了是一名生物化學(xué)教授,還被認(rèn)為是他那個(gè)時(shí)代的“三大”科幻小說家之一。在20世紀(jì)中期,阿西莫夫提出了三條定律,如果遵守這些定律,我們就能阻止機(jī)器人起義。這三大定律包括:

第一定律:機(jī)器人不得傷害人類,或因不作為而讓人類受到傷害;

第二定律:機(jī)器人必須服從人類給它的命令,除非這些命令與第一定律相沖突;

第三定律:機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不與第一定律或第二定律相沖突。

現(xiàn)在,如果你熟悉編程,你就會(huì)知道機(jī)器會(huì)從0開始計(jì)數(shù),而不是從1開始。因此,正如電腦迷所說的那樣,第0條法律指的應(yīng)該是集體而不是個(gè)人。如果這些定律聽起來很熟悉,那是因?yàn)樗鼈兪窃凇段?,機(jī)器人》(I, Robot)這個(gè)故事中出現(xiàn)的。值得注意的是,它們在“機(jī)器人”(身體)和“人工智能”(大腦)之間并沒有區(qū)別,因?yàn)楫?dāng)阿西莫夫提到機(jī)器人時(shí),他腦海中出現(xiàn)的是智能類人生物。

那么,如果早在20世紀(jì)50年代這些定律就已經(jīng)被制定出來,為何我們還如此懼怕機(jī)器人呢?是什么促使埃隆·馬斯克(Elon Musk)甚至斯蒂芬·霍金(Stephen Hawking)將AI視為人類“最大的生存威脅”?長話短說,這是因?yàn)榘⑽髂虻娜蠖刹黄鹱饔谩?/p>

計(jì)劃中的缺陷

回到現(xiàn)在。為了與阿西莫夫的觀點(diǎn)保持一致,讓我們假設(shè)我們確實(shí)有足夠復(fù)雜的AI代理來適應(yīng)這些定律。為了便于討論,我們還假設(shè),盡管它們是敘事機(jī)制的法則,但它們也適用于現(xiàn)實(shí)世界。

技術(shù)問題:如果法律是英文的,而AI代理只能處理中文會(huì)怎樣?或者即使代理是在美國制造的,我們怎么知道它如何理解法律?因此,我們需要一種方法來(i)把法律翻譯成每一種可能的語言,(ii)把這些詞背后的含義傳達(dá)給每一種可能的語言(為了涵蓋所有可能的情況,還必須使用拉丁語等已經(jīng)消亡的語言以及二進(jìn)制機(jī)器語言)。

對于人類來說,這些任務(wù)是息息相關(guān)的。但對于機(jī)器來說,這是兩個(gè)截然不同的任務(wù)。第一個(gè)任務(wù)是用不同的語言生成相應(yīng)的句子字符串,第二個(gè)任務(wù)是理解這些字符串。如果我告訴你用西班牙語唱《Despacito》,就好比只做第一個(gè)任務(wù)。你可能說得很好,但你卻不知道它們的意思(假設(shè)你不懂西班牙語)。另一方面,只做第二項(xiàng)任務(wù)就像腦子里有了一個(gè)想法,卻不知道如何表達(dá)。

幸運(yùn)的是,自然語言處理(NLP)領(lǐng)域在過去的幾年里經(jīng)歷了巨大的飛躍。對于第一個(gè)任務(wù),具有長短期記憶細(xì)胞(Long Short-Term Memory)的神經(jīng)網(wǎng)絡(luò)可以用序列-序列的轉(zhuǎn)換方式。此外,端到端的語音-語音翻譯模型Translatotron,于上個(gè)月(2019年5月)發(fā)布。對于第二個(gè)任務(wù),Word2Vec模型已經(jīng)證明了自己的價(jià)值,它將相關(guān)的單詞組合起來,從而在句子中產(chǎn)生語義。如下圖所示:

的確,機(jī)器現(xiàn)在可以理解語言。然而,它們?nèi)匀挥泻芏嗍虑椴荒茏觥R粋€(gè)例子就是理解習(xí)語。雖然“spill the beans”可能是“泄露秘密”的比喻意,但目前還無法進(jìn)行比喻翻譯。因此,機(jī)器將逐字逐句地把每個(gè)單詞翻譯成對應(yīng)的單詞。如果按照正確的順序翻譯成法語,那么這個(gè)表達(dá)就是“jeter les haricots”,這聽起來肯定給人一種斷章取義的感覺。

但是,為了便于討論,讓我們大膽假設(shè),比喻翻譯問題將在未來幾年得到解決。這樣一來,所有關(guān)于讓AI代理理解法律的技術(shù)問題都會(huì)得到解決,我們也就安全了,對吧?做好準(zhǔn)備,因?yàn)檫@才是有趣的地方!當(dāng)阿西莫夫提出這些定律時(shí),他不知不覺地把它們建立在另一個(gè)假設(shè)的基礎(chǔ)上:我們?nèi)祟惔_切地知道道德底線應(yīng)該劃在哪里。但是我們會(huì)遵守嗎?

讓我們以第一定律中的“傷害”一詞為例。在這個(gè)定律中,讓我們也考慮一下“人”這個(gè)詞的含義。它的定義包括什么?例如,在14世紀(jì),奴隸被認(rèn)為比更接近牛等牲畜。現(xiàn)在,胎兒的生命權(quán)是許多討論的主題。然而,將來,如果一名孕婦由于某種疾病,在分娩時(shí)死亡的幾率很高,她的AI醫(yī)生應(yīng)該建議墮胎嗎?人們需要記住的是,雖然從邏輯上講,女性在墮胎中存活的幾率更高,但胎兒一旦出生,就有更多的生存空間。所以,不管怎樣,機(jī)器人最終傷害了人類。

接下來的決定甚至?xí)屛覀內(nèi)祟愊萑敕裾J(rèn)的狀態(tài)。讓我們考慮一下丹·布朗(Dan Brown)描述的地獄場景,并應(yīng)用第零條定律。AI將顯示一個(gè)按鈕,并被告知,如果它按下按鈕,一半的人類會(huì)立刻死亡,但是這個(gè)物種會(huì)存活幾個(gè)世紀(jì)。如果不這樣做(因此,不作為),人類將在50年內(nèi)達(dá)到人口過剩狀態(tài),我們的物種將崩潰。如果你處在AI的位置,你會(huì)怎么做?

結(jié)論

阿西莫夫的機(jī)器人定律試圖解決AI起義的威脅。使機(jī)器人遵守這些定律的技術(shù)障礙是我們目前在使它們理解法律方面的限制。真正的障礙(哲學(xué)和倫理上)可能是我們的假設(shè),在如此模糊的限制下,機(jī)器人將會(huì)按照我們想要的方式行動(dòng),即使我們不知道自己的意思。即使我們傳達(dá)的意思是正確的,這些定律也可以簡單地改為“不管怎樣,只要做好就行,對嗎?”而到那時(shí),它們可能已經(jīng)造成了不可挽回的影響。 (選自:towardsdatascience. 作者:Hans A. Gunnoo 編譯:網(wǎng)易智能 參與:小?。?/p>

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論