對(duì)于機(jī)器人背叛人類,永遠(yuǎn)要保持警惕,但也不必過分擔(dān)憂

今日頭條
機(jī)器人住8樓
1997年8月29日,人工智能防御系統(tǒng)“天網(wǎng)”發(fā)起了核戰(zhàn)爭(zhēng),30億人死亡,劫后余生的人稱這一天為“審判日”,除了重建家園,他們還面臨著一場(chǎng)與“天網(wǎng)”統(tǒng)領(lǐng)的機(jī)器人的戰(zhàn)爭(zhēng)—&mdash...

1997年8月29日,人工智能防御系統(tǒng)“天網(wǎng)”發(fā)起了核戰(zhàn)爭(zhēng),30億人死亡,劫后余生的人稱這一天為“審判日”,除了重建家園,他們還面臨著一場(chǎng)與“天網(wǎng)”統(tǒng)領(lǐng)的機(jī)器人的戰(zhàn)爭(zhēng)——《終結(jié)者2審判日》

這是1991年電影《終結(jié)者2審判日》中背景的描述,由于人類太過信任機(jī)器人,把軍事防御和攻擊的權(quán)利都交給了機(jī)器人,結(jié)果機(jī)器人發(fā)生了反叛,開始瘋狂殺戮人類。

表現(xiàn)這種對(duì)于人工智能機(jī)器人背叛人類的擔(dān)憂的電影,還有《機(jī)械公敵》《黑客帝國》等,這種擔(dān)憂通過電影作品傳遞給我們,再加上我們平時(shí)耳聞目睹的人工智能發(fā)展的新聞,以及各方學(xué)者和研究人員對(duì)于機(jī)器人反叛的可能性的討論,所以現(xiàn)在也形成了對(duì)人工智能反噬人類的擔(dān)心的思潮。

表面上看過去,今天的人工智能蓬勃發(fā)展,無人駕駛已經(jīng)上路,阿法狗戰(zhàn)勝了圍棋冠軍柯潔,還有那些在火星上活動(dòng)的無人探測(cè)器,似乎人類所做的工作,機(jī)器人都能勝任,并且能做的更好;而人類無法從事的工作,機(jī)器人也可以做。人工智能再這樣發(fā)展下去,機(jī)器人取代人類似乎已成為必然。

其實(shí)人工智能發(fā)展迅速是個(gè)錯(cuò)覺,這二三十年來人工智能發(fā)展的非常緩慢,不會(huì)比已經(jīng)停擺多年的基礎(chǔ)科學(xué)快多少。早在90年代的時(shí)候,就已經(jīng)有了無人戰(zhàn)斗機(jī);1997年就已經(jīng)有了人機(jī)對(duì)弈,IBM公司研制的“深藍(lán)”戰(zhàn)勝了國際象棋大師卡斯帕洛夫;99年索尼推出了AIBO機(jī)器狗,能打滾、搖尾,會(huì)撒嬌,會(huì)自動(dòng)跑至專用充電器自行充電;而那些在火星上活動(dòng)的無人探測(cè)器,有很多一部分也是90年代送上去的?,F(xiàn)代人工智能的進(jìn)展,并沒有脫離上世紀(jì)90年代的范圍。二十多年過去了,人工智能一直停留在“弱人工智能”階段打轉(zhuǎn),還沒進(jìn)入“強(qiáng)人工智能”時(shí)代。

AIBO機(jī)器狗

“強(qiáng)人工智能”觀點(diǎn)認(rèn)為:真正的人工智能,是要完全像人類一樣,懂得創(chuàng)造,而不是只會(huì)模仿人類,以及只會(huì)執(zhí)行程序命令。比如人類可以創(chuàng)造出象形文字,并改良成漢字,而當(dāng)下的機(jī)器人卻只能記住這些字,無法創(chuàng)造新的漢字,勉強(qiáng)“創(chuàng)造”,也只能是毫無美感的火星文;人類可以創(chuàng)造出地球上本來沒有的飛機(jī)、火車等工具,而機(jī)器人只能使用這些工具;人類的思想非常宏偉,可以思考經(jīng)濟(jì)學(xué)、哲學(xué)等,并集結(jié)成論文,分享給同類,而機(jī)器人暫時(shí)是無法像人類那樣思考,并寫就論文的,要到達(dá)這一地步,恐怕不知還要多少年。所以“弱人工智能”時(shí)代還得持續(xù)很多年,而且即使未來某一天“強(qiáng)人工智能”型機(jī)器人出來了,人類也是有制衡的手段的。

早在50年代人工智能起步的階段,阿西莫夫就先天下之憂而憂,擔(dān)心總有一天人工智能會(huì)反噬人類,在50年代末的科幻小說《我,機(jī)器人》中,提出了著名的“機(jī)器人三大定律”,作為研發(fā)出的機(jī)器人必須遵守的守則:

第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管。

第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外。

第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。

這三大定律從人類利益出發(fā),讓機(jī)器人遵守殺戒,被人廣為認(rèn)可和接受,后來有識(shí)之士又補(bǔ)充了一條新的定律:

第零定律:機(jī)器人必須保護(hù)人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。

補(bǔ)充這一定律的原因在于,雖然機(jī)器人不能傷害人類,但除惡即是為善,如果有人作惡,不殺不足以阻止的話,機(jī)器人還是可以開殺戒的。

這四大定律奠定了現(xiàn)代人工智能研究的的倫理基礎(chǔ),即研究人員在研發(fā)“強(qiáng)人工智能”型機(jī)器人時(shí),必須遵守這四大定律,才有辦法釜底抽薪的杜絕后患,避免造出來的機(jī)器人反噬。

但其實(shí)這里有個(gè)問題,就是“強(qiáng)人工智能”型機(jī)器人既然跟人類一樣會(huì)思考,那么總有一天會(huì)覺醒,那么到時(shí)它還會(huì)死死遵守人類給它的這四大定律嗎?覺醒后的它必然是以它自己的利益為出發(fā)點(diǎn)來考慮事情,而不是以人類利益為重,一旦覺得人類威脅到自己,機(jī)器人就有可能先下手為強(qiáng)。

所以四大定律要想對(duì)機(jī)器人形成約束力的話,人類還必須要有控制它們的手段,而阿西莫夫也給出了方案,就是早在制造的時(shí)候,人類就要留下后門,比如可以遙控?cái)嚯娀蛞?,?dāng)有一天機(jī)器人不遵守四大定律時(shí)可以毀滅它們。只要這個(gè)后門存在,機(jī)器人就像被套了緊箍一樣,必須聽從人類指揮不敢違抗。

對(duì)于人工智能反噬人類,要保持警惕,但不必過分擔(dān)憂,有識(shí)之士其實(shí)一直都在思考克制機(jī)器人的種種方法,留下后門只是其中一種,還有輸入人類價(jià)值觀,設(shè)立機(jī)器人自我學(xué)習(xí)的禁區(qū)等。相信未來就算真的制造出“強(qiáng)人工智能”機(jī)器人,也有辦法讓它們聽從于人類。更何況“強(qiáng)人工智能”機(jī)器人現(xiàn)在還是沒影的事,都不知道有生之年能否看到呢。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論