人工智能機(jī)器人的生死決策

信息化觀察網(wǎng)
編譯
如果我們的生死都是由機(jī)器人決定,你會(huì)有什么樣的感覺?雖然機(jī)器可以收集所有的數(shù)據(jù),人們必須對(duì)機(jī)器進(jìn)行編程,才能使其處理并使用數(shù)據(jù),這意味著我們?nèi)祟愐獞?yīng)對(duì)這一場(chǎng)景,從而指導(dǎo)機(jī)器對(duì)我們生死相關(guān)的問題進(jìn)行決策...

如果我們的生死都是由機(jī)器人決定,你會(huì)有什么樣的感覺?雖然機(jī)器可以收集所有的數(shù)據(jù),人們必須對(duì)機(jī)器進(jìn)行編程,才能使其處理并使用數(shù)據(jù),這意味著我們?nèi)祟愐獞?yīng)對(duì)這一場(chǎng)景,從而指導(dǎo)機(jī)器對(duì)我們生死相關(guān)的問題進(jìn)行決策。從自動(dòng)駕駛汽車,到無人機(jī)決定攻擊目標(biāo),再到機(jī)器人醫(yī)生,當(dāng)前許多人都在考慮人工智能機(jī)器人所要做出的生死決定,我們也正處于這一地步。

起初,我們想到機(jī)器需要做出的決定看起來并沒有什么問題,但是麻省理工Media Lab的研究人員讓我們見識(shí)到了道德機(jī)器,即一個(gè)最廣泛的全球道德研究,自動(dòng)駕駛汽車一旦上路行駛,我們就需要思考一些道德問題:自動(dòng)駕駛汽車是否應(yīng)該違反交通法來避免撞到行人?如果這一行為讓汽車乘客危在旦夕呢?誰的生命更重要?但是如果行人非法穿越馬路,答案是不是會(huì)有所不同?這些問題還是很有挑戰(zhàn)性的,尤其是在不同的文化中,對(duì)于這些道德問題的答案也幾乎沒有達(dá)成一致。

自動(dòng)駕駛汽車決策

麥肯錫咨詢公司的一項(xiàng)研究表明,自動(dòng)駕駛汽車預(yù)計(jì)會(huì)減少90%的交通事故,即便如此,交通事故還是會(huì)發(fā)生,并且我們需要考慮如何對(duì)機(jī)器進(jìn)行編程。此外,我們需要決定誰應(yīng)該負(fù)責(zé)對(duì)設(shè)備編程,是消費(fèi)者、政客、市場(chǎng)、保險(xiǎn)公司、還是其他人。如果自動(dòng)駕駛汽車在路上行駛時(shí)遇到了一個(gè)障礙,它能夠以多種方式進(jìn)行回應(yīng),可以一直停在那,或者冒險(xiǎn)改變行駛線路,然后撞上一輛車,最終導(dǎo)致乘客死亡。改變行駛路線的決定是不是依靠坐在汽車?yán)锏某丝偷挠绊懥Q定的?車?yán)锼劳龅挠锌赡苁歉改?,亦或是名聲赫赫的科學(xué)家。但是如果汽車?yán)镞€有小孩呢?或許如何避開障礙的決定是通過選項(xiàng)中翻撲克或者硬幣的方式隨機(jī)決定的。這些都是我們需要處理的窘境,因?yàn)檫@些自動(dòng)駕駛系統(tǒng)是我們自己建立并設(shè)計(jì)的。決策算法中的另一個(gè)方法需要考慮交通事故是否會(huì)導(dǎo)致斷肢、心智能力喪失、或者其它殘疾狀況。

軍事無人機(jī)決定目標(biāo)

美國軍方發(fā)表聲明稱他們正在開發(fā)無人機(jī),通過使用人工智能技術(shù),能夠?qū)囕v和人進(jìn)行定位和瞄準(zhǔn),機(jī)器決定射殺對(duì)象的場(chǎng)景不再在科幻小說中才能看到,而是很快就會(huì)成為現(xiàn)實(shí)。當(dāng)前,無人機(jī)還是由人類控制的,并由人類決定巡航方向,而且最終像在何處投放炸彈,或者發(fā)射火箭等決策也都是由人類決定的。國際人道主義法允許對(duì)民用和軍用的“兩用設(shè)備”進(jìn)行攻擊。當(dāng)無人機(jī)參與到戰(zhàn)斗中時(shí),技術(shù)公司和員工會(huì)不會(huì)是兩個(gè)同級(jí)目標(biāo)?自動(dòng)系統(tǒng)的一個(gè)關(guān)鍵特征是它們能夠通過數(shù)據(jù)和接收到的表現(xiàn)反饋提高它們的表現(xiàn)能力。當(dāng)自動(dòng)無人機(jī)技術(shù)經(jīng)過改良之后,我們會(huì)不會(huì)需要決定一個(gè)可以接受的自助開發(fā)階段,從而防止制造出殺戮機(jī)器?

機(jī)器人醫(yī)生又意味著什么?

描寫醫(yī)療領(lǐng)域的重大突破、人工智能系統(tǒng)能夠用于疾病診斷、提供定制醫(yī)療計(jì)劃或者生產(chǎn)藥物協(xié)議等內(nèi)容的文章鋪天蓋地。人工智能技術(shù)幫助解決難題的潛力巨大,但是當(dāng)人類醫(yī)生和機(jī)器人醫(yī)生不再在一條戰(zhàn)線上時(shí),又會(huì)發(fā)生什么?你會(huì)不會(huì)特別信任某一方?如果你不按照人工智能系統(tǒng)給你的建議,保險(xiǎn)公司會(huì)不會(huì)拒絕對(duì)你進(jìn)行賠償?什么時(shí)候才應(yīng)該把重大醫(yī)療決策交付給人工智能算法?誰又會(huì)得到最終的決定權(quán)?醫(yī)生?病人?還是藥物?由于機(jī)器愈加擅長于做出醫(yī)療決策,我們或許會(huì)遇到這樣一個(gè)問題:程序員或者醫(yī)生不可能知道機(jī)器的決策過程。我們所拋棄的醫(yī)療知識(shí)越多,對(duì)人工智能控制越強(qiáng),我們就越難找出人工智能決策中存在的問題。

無論你是在談?wù)摻煌ò踩?、軍事行?dòng)或者醫(yī)療衛(wèi)生系統(tǒng),這些都是很難回答的問題。和人一樣,人工智能機(jī)器有巨大的創(chuàng)造力,同時(shí)也有巨大的破壞力。如果沒有道德羅盤的話,那么人類就需要仔細(xì)考慮如何將人性和道德編程到機(jī)器的算法中。

原文作者:Bernard Marr

THEEND