據(jù)美國《福布斯》雜志網(wǎng)站近日報道,美國是當(dāng)前軍事人工智能實用化的先驅(qū),戰(zhàn)斗機器人領(lǐng)域也屢屢“露臉”。在這個競爭對手面前,俄羅斯并不甘示弱;它最近聲稱,在2025年前完成組建戰(zhàn)斗機器人部隊計劃,然后將這一新型部隊納入俄軍管理體系。
早在1990年,中國科學(xué)家及未來學(xué)家周海中在經(jīng)典論文《論機器人》中曾經(jīng)預(yù)言:21世紀(jì)將會出現(xiàn)威武雄壯的機器人部隊。如今種種跡象表明,他的這一預(yù)言似乎要成為現(xiàn)實了。毫無疑問,未來戰(zhàn)爭中,機器人部隊將成為作戰(zhàn)的絕對主力,其威力絕對是遠(yuǎn)遠(yuǎn)超過人類的力量。
近年來,一些有關(guān)“戰(zhàn)斗機器人”(也稱“殺手機器人”或“自主性武器系統(tǒng)”)可能給人類帶來威脅的聲音時有出現(xiàn)。如美國微軟總裁布萊德·史密斯最近就表示,戰(zhàn)斗機器人即將出現(xiàn),人類社會需要尋找對策。他指出,需要制定一項新的國際公約來規(guī)范戰(zhàn)斗機器人技術(shù)的使用。隨著戰(zhàn)爭中戰(zhàn)斗機器人的大量投入使用,一些公認(rèn)的戰(zhàn)爭倫理將受到前所未有的挑戰(zhàn)和沖擊。
非政府組織“殺手機器人禁令運動”從人道主義觀點出發(fā),主張制定禁止研發(fā)戰(zhàn)斗機器人的公約;目前,該組織的參加者包括來自57個國家地區(qū)的113個非政府組織。另外,許多科技人員也主張制定有關(guān)的公約;他們認(rèn)為隨著未來社會的不斷進(jìn)步,戰(zhàn)斗機器人所產(chǎn)生的問題可能會有所減少,但這些問題對國際人道原則的沖擊仍將存在。
擁有先進(jìn)機器人技術(shù)的美國、英國、俄羅斯、以色列等均拒絕禁止戰(zhàn)斗機器人研發(fā),這些國家的軍隊已做好組建和部署戰(zhàn)斗機器人部隊的準(zhǔn)備。自2000年以來,美國陸軍部署了數(shù)千個裝備機槍的戰(zhàn)斗機器人,每個機器人都能夠定位目標(biāo)并瞄準(zhǔn)它們,而且不需要人為的參與;而戰(zhàn)斗機器人首次亮相是在阿富汗戰(zhàn)場上,并在伊拉克、巴以等戰(zhàn)斗和沖突現(xiàn)場偶露崢嶸。
有俄羅斯媒體報道說,俄軍已將部分新研制的戰(zhàn)斗機器人送到敘利亞接受實戰(zhàn)檢驗,其中就包括了“天王星-9”大型履帶底盤機器人;由于戰(zhàn)斗機器人不怕傷亡,因此戰(zhàn)斗進(jìn)程大大加快,俄敘聯(lián)軍在戰(zhàn)斗機器人后方發(fā)動大規(guī)模攻擊給叛軍造成了極大的殺傷。俄軍方表示,未來俄羅斯將大力發(fā)展無人戰(zhàn)斗機器人,計劃2020年到2023年實現(xiàn)戰(zhàn)斗機器人普及化。
美俄英以等在戰(zhàn)斗機器人方面的軍備競賽不僅引起了國際社會普遍擔(dān)憂,而且對倫理道德問題提出了重大挑戰(zhàn)。有專家發(fā)出警告,由于世界上多個國家不顧法律和道德后果加緊開發(fā)戰(zhàn)斗機器人,一場機器人軍備競賽正在展開。隨著人工智能的不斷發(fā)展,很可能就會出現(xiàn)完全自主的戰(zhàn)斗機器人;這令人想起科幻電影中的“終結(jié)者”之類的幻想事物。
英國科學(xué)家諾埃爾·夏基說,他對美國、俄羅斯等提出的軍用機器人計劃進(jìn)行研究后感到“很害怕”。夏基最擔(dān)心的是,機器人今后將自己決定何時“扣動扳機”,而“機器人對于為什么要這樣做沒有判斷能力”。為此,他對軍方使用機器人提出警告,建議為戰(zhàn)斗機器人設(shè)定道德規(guī)范,并建議各國政府和軍用機器人研究者應(yīng)重新考慮目前的研發(fā)計劃。
雖然教機器人在戰(zhàn)場上如何行動,看起來可能很簡單,因為各國會遵循國際商定的法律制定的交戰(zhàn)規(guī)則。但是科技人員并不能預(yù)見戰(zhàn)場上可能會出現(xiàn)的每種情形,正如十誡不能涵蓋每種道德模糊的情況一樣。因此許多科學(xué)家認(rèn)為,必須對戰(zhàn)斗機器人提前設(shè)定嚴(yán)格的“密碼”,包括倫理道德、法律、社會以及政治等因素,否則整個世界都有可能毀于它們的鋼鐵之手。
此外,俄裔美籍科幻小說家艾薩克·阿西莫夫的“機器人學(xué)三大法則”也可能成為未來戰(zhàn)斗機器人的倫理及安全準(zhǔn)則。隨著機器人的用途日益廣泛以及人工智能的不斷進(jìn)步,他的機器人三大法則發(fā)揮著越來越重要的作用,以至有人稱之為“機器人學(xué)的金科玉律”。但隨著戰(zhàn)爭中致命自主武器的大量投入使用,一些公認(rèn)的戰(zhàn)爭倫理將受到前所未有的挑戰(zhàn)和沖擊。
開發(fā)致命自主武器的技術(shù)正面臨越來越大的公眾強烈反對,國際社會也要求有關(guān)機構(gòu)盡快制定一個戰(zhàn)斗機器人倫理準(zhǔn)則。幾乎所有的科技人員都認(rèn)為,制定戰(zhàn)斗機器人的倫理準(zhǔn)則是很有必要的,以免以后引起不必要的戰(zhàn)爭糾紛。美國麻省理工學(xué)院法律與倫理專家凱特·達(dá)爾林最近指出,“要盡快制定戰(zhàn)斗機器人的倫理準(zhǔn)則,并做好這方面的風(fēng)險分析及應(yīng)對策略研究。”
目前,一些國家已經(jīng)提出,給戰(zhàn)斗機器人制定國際法和倫理準(zhǔn)則,以約束其戰(zhàn)場行為。2013年5月27日,聯(lián)合國人權(quán)理事會例行會議也指出,將戰(zhàn)斗機器人從遠(yuǎn)程遙控發(fā)展至自動判斷敵情、殺死敵人,可能誤傷準(zhǔn)備投降的士兵。戰(zhàn)斗機器人不僅使戰(zhàn)爭中遵守國際人道法變得更為困難,而且把是否殺害人類的判斷交給機器更是“道義責(zé)任的缺失”。這就告誡我們,既要利用戰(zhàn)爭倫理維護(hù)自己的利益,又要發(fā)展符合戰(zhàn)爭倫理規(guī)范的無人系統(tǒng)。
即使研發(fā)自主性武器系統(tǒng)或組建戰(zhàn)斗機器人部隊,也要把握住以人類生命觀和價值觀為導(dǎo)向的方法論,充分考慮人的良知和情感,警惕技術(shù)被濫用的潛在風(fēng)險,避免出現(xiàn)倫理失常、安全失控、法律失準(zhǔn)等問題。而對戰(zhàn)爭進(jìn)行倫理和法律的約束及制衡,是人類社會長期努力的結(jié)果,也是人類文明進(jìn)步的重要表現(xiàn)。