英國《明星日報(bào)》報(bào)道稱從SIRI(蘋果公司在其產(chǎn)品上應(yīng)用的一項(xiàng)智能語音控制功能)到自動駕駛汽車,人工智能正日益侵入我們的日常生活。
報(bào)道稱,這項(xiàng)技術(shù)還可能會啟動一場自主的武器軍備競賽,機(jī)器已經(jīng)能夠在沒有人類干預(yù)的情況下自動選擇和打擊目標(biāo)。
網(wǎng)絡(luò)安全專家羅曼·揚(yáng)波利斯基博士披露了人類是如何通過追求這項(xiàng)技術(shù)將自己置于災(zāi)難邊緣的。
他解釋說:“人工智能比核戰(zhàn)爭對人類構(gòu)成了更大的危險(xiǎn)。”
“核武器很危險(xiǎn),但是它們只是工具——一旦爆炸,就不再有另外的敵對關(guān)系。”
“然而,人工智能不僅是一種工具,而且是一種媒介——它處于一種持續(xù)的動態(tài)關(guān)系之中,而非是單一的危險(xiǎn)局勢。”
這名路易斯維爾大學(xué)的博士說:“人工智能能夠在多個(gè)領(lǐng)域構(gòu)成危險(xiǎn),而且可以動態(tài)地適應(yīng)我們試圖消除危險(xiǎn)所做的一切努力。”
報(bào)道稱,人們擔(dān)心,一旦主要軍事大國開始推進(jìn)人工智能武器研發(fā),一場全球性的自主軍備競賽將是不可避免的,這種技術(shù)軌道的終點(diǎn)是大規(guī)模生產(chǎn)的廉價(jià)的殺人機(jī)器。
報(bào)道稱,一個(gè)超級智能的人工智能機(jī)器不可能展現(xiàn)出愛或恨這樣的人類情感,人類也沒有理由預(yù)期人工智能機(jī)器會有意識的仁慈或心懷惡意。
揚(yáng)波利斯基博士描述了人工智能會構(gòu)成危險(xiǎn)的兩種最有可能的情況:“機(jī)器想要獲得權(quán)力或是類似的東西這種情況不太可能發(fā)生——更有可能發(fā)生的情況是,黑客和恐怖分子惡意使用,或是有人明確控制機(jī)器來執(zhí)行此類任務(wù)。”
他說:“一種尤其需要關(guān)注的情形是,軍方的人工智能機(jī)器遭到黑客攻擊。”
報(bào)道稱,另一個(gè)值得關(guān)注的問題是,人工智能原本被設(shè)定做某種好事,但是它為實(shí)現(xiàn)自己的目標(biāo)開發(fā)出一種具有破壞性的執(zhí)行手段。
例如,如果一個(gè)超級智能系統(tǒng)的任務(wù)是完成一項(xiàng)雄心勃勃的地球工程項(xiàng)目,其副作用可能是對生態(tài)系統(tǒng)造成嚴(yán)重破壞,甚至將人類試圖阻止其的行為視為一種需要解決的威脅。
盡管有人仍對完全自主的人工智能機(jī)器是否能夠真正實(shí)現(xiàn)持懷疑態(tài)度,揚(yáng)波利斯基博士相信這將會實(shí)現(xiàn),這也是越來越多科學(xué)家的共識。
他說:“這很可能會在我們的有生之年實(shí)現(xiàn)——大多數(shù)人的預(yù)測是2045年。”
斯蒂芬·霍金、埃隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨和許多其他科技大佬,最近都對人工智能構(gòu)成的危險(xiǎn)表示擔(dān)憂。