人工智能時(shí)代,對(duì)機(jī)器人該愛還是恐懼?

中國(guó)軍網(wǎng)綜合
佚名
人工智能的快速發(fā)展顛覆了我們的生產(chǎn)生活方式,它已經(jīng)無孔不入的滲透到我們生活中的各個(gè)方面,圍棋、翻譯、醫(yī)療、證券、交通.......瞠目結(jié)舌地,人類正在看著原本只屬于自己的疆域,正在一片一片地被人工智能蠶食,...

人工智能的快速發(fā)展顛覆了我們的生產(chǎn)生活方式,它已經(jīng)無孔不入的滲透到我們生活中的各個(gè)方面,圍棋、翻譯、醫(yī)療、證券、交通.......瞠目結(jié)舌地,人類正在看著原本只屬于自己的疆域,正在一片一片地被人工智能蠶食,大幅地淪陷。

業(yè)界普遍認(rèn)為,截至目前,人類的武器已經(jīng)進(jìn)行了兩次革命:火藥和核武器。現(xiàn)在殺手機(jī)器人所代表的致命性自主武器系統(tǒng)正在拉開第三次革命的帷幕。學(xué)界擔(dān)心,如果殺手機(jī)器人被大規(guī)模列裝,一個(gè)潛在的問題令人不安:它們?nèi)绾巫R(shí)別平民和戰(zhàn)斗人員?它們會(huì)不會(huì)濫殺無辜?請(qǐng)關(guān)注今日的《解放軍報(bào)》——

安靜的大學(xué)自習(xí)室,有情侶在教室后排的角落選修愛情,有的學(xué)生在看書,更多的學(xué)生在刷手機(jī)。

一隊(duì)蜂群一樣的小東西從虛掩的教室門魚貫而入,它們發(fā)出的嗡嗡聲沒有驚動(dòng)任何人。這群小東西在空中盤旋、搜索,似乎在思考并確認(rèn)。終于,一個(gè)沉悶的聲音過后,響起一個(gè)女聲驚恐的尖叫,男生倒在血泊里。

就在剛剛過去的前一秒,盤旋在教室上空的那個(gè)小東西將它攜帶的3克炸藥毫無保留地傾注在男生的腦袋上。女生永失所愛,教室頓成屠場(chǎng)。

這個(gè)血腥場(chǎng)面出自一段可怕的視頻。在聯(lián)合國(guó)《特定常規(guī)武器公約》會(huì)議上,來自美國(guó)加州大學(xué)的斯圖爾特·羅素爾教授公布了這一視頻。超過七十個(gè)國(guó)家的與會(huì)代表被震驚了。雖然視頻中“殺人蜂”進(jìn)行的殺戮并非真實(shí)存在,但我們必須清楚的是,視頻中的科技目前已經(jīng)存在。

早在2017年2月,劍橋大學(xué)的生存威脅研究機(jī)構(gòu)相關(guān)人員就列出了10種可能導(dǎo)致世界末日、人類滅絕的威脅。名列前茅的正是人工智能和殺手機(jī)器人。

“殺人蜂”視頻是這個(gè)預(yù)言的證實(shí)和強(qiáng)調(diào):殺手機(jī)器人時(shí)代來了。這加深了很多人的焦慮,數(shù)百名科學(xué)家曾聯(lián)名呼吁限制殺手機(jī)器人的相關(guān)研究。

“殺手機(jī)器人禁令運(yùn)動(dòng)”組織的成員們并不是第一批對(duì)未來憂心忡忡的科學(xué)家。2015年,物理學(xué)家霍金等千余名人工智能領(lǐng)域的專家就曾聯(lián)合譴責(zé)人工智能時(shí)代的軍備競(jìng)賽,呼吁在智能武器還沒有使用和造成萬劫不復(fù)的災(zāi)難或毀滅人類之前,禁止使用智能武器。

業(yè)界普遍認(rèn)為,截至目前,人類的武器已經(jīng)進(jìn)行了兩次革命:火藥和核武器?,F(xiàn)在殺手機(jī)器人所代表的致命性自主武器系統(tǒng)正在拉開第三次革命的帷幕。

耶魯大學(xué)的研究人員把軍用機(jī)器人列為人工智能技術(shù)最有前途的應(yīng)用領(lǐng)域之一。軍用機(jī)器人的用途太誘人:既可降低己方士兵的風(fēng)險(xiǎn),又能降低戰(zhàn)爭(zhēng)的代價(jià)。它省去了軍人的薪水、住房、養(yǎng)老、醫(yī)療等開銷,又在速度、準(zhǔn)確性上高于人類,而且不用休息。它不會(huì)出現(xiàn)只有人類戰(zhàn)斗員才會(huì)有的戰(zhàn)場(chǎng)應(yīng)激障礙,情緒穩(wěn)定,無需臨戰(zhàn)動(dòng)員,一個(gè)指令,就能抵達(dá)人類不可及之處,完成各種任務(wù)。

學(xué)界擔(dān)心,如果殺手機(jī)器人被大規(guī)模列裝,一個(gè)潛在的問題令人不安:它們?nèi)绾巫R(shí)別平民和戰(zhàn)斗人員?它們會(huì)不會(huì)濫殺無辜?

“如果機(jī)器人犯錯(cuò)誤,責(zé)任應(yīng)該歸誰(shuí)呢?”英國(guó)的一名機(jī)器人技術(shù)教授諾埃爾·沙爾吉說道,“顯然這不是機(jī)器人的錯(cuò)。機(jī)器人可能會(huì)向它的電腦開火,開始發(fā)狂。我們無法決定誰(shuí)應(yīng)該對(duì)此負(fù)責(zé),對(duì)戰(zhàn)爭(zhēng)法而言,確定責(zé)任人非常重要。”

在倫理學(xué)家眼里,殺手機(jī)器人同樣存在致命的缺陷。這意味著將剝奪自然人生命的權(quán)利交給非自然人,等于將人的生命和人的尊嚴(yán)交給機(jī)器來判定,不但沒有平等性,也是對(duì)人類生命權(quán)以及人格尊嚴(yán)的侮辱。

殺手機(jī)器人該如何做?

1942年,美國(guó)著名科幻小說家阿西莫夫曾創(chuàng)立機(jī)器人定律。其中首要定律便是:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。那么,問題又來了,當(dāng)機(jī)器人的主人和其他人類沖突時(shí),機(jī)器人又該如何抉擇?

這恐怕正是我們擔(dān)心的核心所在。事實(shí)上,自1920年戲劇《羅莎的萬能機(jī)器人》上演以來,無論是電視劇《神秘博士》,還是電影《終結(jié)者》《異形終結(jié)》《西部世界》《我,機(jī)器人》以及《銀翼殺手》等科幻電影和小說,一直貫穿這一主題:人類設(shè)計(jì)并主導(dǎo)的“殺手機(jī)器人”最終成為反叛者,擁有獨(dú)立意識(shí),從戰(zhàn)爭(zhēng)的輔助工具轉(zhuǎn)變?yōu)榕c人類為敵的殺戮者。

關(guān)于機(jī)器人題材的電影和故事幾乎沒有好結(jié)局。這源自我們?nèi)祟惖纳顚涌謶?mdash;—如何讓殺手機(jī)器人有“正義感”?遺憾的是,目前無解。是的,你完全可以把這些東西永遠(yuǎn)擱置起來。不過,它們只需充一次電就能再次啟動(dòng)。對(duì)機(jī)器人的愛和恐懼還將繼續(xù)。

(原標(biāo)題:人工智能時(shí)代,如何讓殺手機(jī)器人有“正義感”?)

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論