使用一套開發(fā)人工智能的原則真的有用嗎?
來(lái)源:Conyl Jay/Getty Images
我們?nèi)绾蝿?chuàng)造“好的”人工智能,機(jī)器合乎道德意味著什么,我們?nèi)绾卧诘赖碌幕A(chǔ)之上使用人工智能?Good in the Machine——2019年SCINEMA國(guó)際科學(xué)電影節(jié)的參賽作品——深入研究了這些問(wèn)題,我們道德的起源,以及人工智能和我們自己的道德指引之間的相互作用。
鑒于過(guò)去幾年有言論對(duì)人工智能的未來(lái)發(fā)出可怕的警告,人工智能倫理學(xué)領(lǐng)域已成為研究的重中之重。
這些警告來(lái)自牛津大學(xué)的尼克·博斯特羅姆等各種專家,也有來(lái)自埃隆·馬斯克和已故斯蒂芬·霍金等更多公眾人物的警告。
作為回應(yīng),有些人制定了一套原則來(lái)指導(dǎo)人工智能研究人員,并幫助他們談判人類道德和倫理的難題。
AI倫理領(lǐng)域通常分為兩個(gè)領(lǐng)域:一個(gè)涉及指導(dǎo)開發(fā)人工智能的人類的倫理學(xué),另一個(gè)涉及指導(dǎo)人工智能或機(jī)器人自身道德行為的機(jī)器倫理學(xué)。然而,這兩個(gè)領(lǐng)域并不是那么容易分得開。
機(jī)器倫理學(xué)歷史悠久。1950年,偉大的科幻作家Isaac Asimov在他的作品《機(jī)器人》中明確闡述了他著名的“機(jī)器人三定律”,并提出了這樣的建議:
機(jī)器人不得傷害人,或通過(guò)不作為允許人受到傷害。
機(jī)器人必須服從人類賦予它的命令,除非此類命令與第一定律相沖突。
只要這種保護(hù)不與第一或第二定律沖突,機(jī)器人必須保護(hù)自己的存在。
這些法律標(biāo)準(zhǔn)加在一起是阿西莫夫(和編輯約翰·W·坎貝爾)思考如何確保人工智能系統(tǒng)不會(huì)讓其創(chuàng)建者過(guò)于興奮(避免生產(chǎn)不安全或不受控制的人工智能)。
2004年,改編自《I,Robot》的電影上映,以人工智能為特色,該人工智能對(duì)三條法律的解釋導(dǎo)致了一項(xiàng)統(tǒng)治人類的計(jì)劃。
近幾年大火的西部世界也是如此。(注:本人最喜歡的美劇之一)。
為了突出這三條法律的道德原則的缺陷,一個(gè)由美國(guó)人工智能研究員Eliezer Yudkowsky領(lǐng)導(dǎo)的名為人工智能奇點(diǎn)研究所(現(xiàn)為機(jī)器智能研究所)的組織啟動(dòng)了一個(gè)名為“三法不安全”的在線項(xiàng)目。
來(lái)源:Alex Gotfryd/CORBIS/Corbis
艾薩克·阿西莫夫在1950年闡述了他的“機(jī)器人三定律”。
Yudkowsky是超級(jí)智能人工智能的早期理論家,也是友好人工智能思想的支持者,他認(rèn)為,如果人工智能發(fā)展到阿西莫夫小說(shuō)中描繪的階段,這些原則將毫無(wú)希望地簡(jiǎn)單化了。
盡管這三項(xiàng)法律的缺點(diǎn)得到了廣泛承認(rèn),但從私營(yíng)企業(yè)到政府,許多組織仍然堅(jiān)持實(shí)施開發(fā)基于原則的人工智能道德系統(tǒng)的項(xiàng)目,其中一份文件列出了迄今為止發(fā)布的“84份包含人工智能道德原則或準(zhǔn)則的文件”。
這種對(duì)倫理原則的持續(xù)關(guān)注的部分原因是,雖然這三條法律旨在僅管理人工智能行為,但人工智能倫理原則上適用于人工智能研究人員以及他們開發(fā)的智能。AI的道德行為部分反映了設(shè)計(jì)和實(shí)施它們的人的道德行為,正因?yàn)槿绱?,AI道德的兩個(gè)領(lǐng)域密不可分。
如果我們要避免人工智能批評(píng)者設(shè)想的一些更災(zāi)難性的情況,人工智能開發(fā)需要強(qiáng)有力的道德指導(dǎo)。
國(guó)際非營(yíng)利組織Atomium-歐洲科學(xué)、媒體和民主研究所發(fā)起的AI4People于2018年發(fā)表的一份評(píng)論報(bào)告稱,其中許多項(xiàng)目制定了與醫(yī)學(xué)倫理學(xué)非常相似的一套原則:慈善(只做好事)、非惡意(不傷害)、自治(人類做出個(gè)人決定的權(quán)力)和正義。
對(duì)一些人來(lái)說(shuō),這種趨同為這些作為未來(lái)發(fā)展人工智能的可能指導(dǎo)原則提供了極大的可信度。
然而,牛津互聯(lián)網(wǎng)研究所和英國(guó)政府艾倫·圖靈研究所的布倫特·米特爾施塔特(Alan Turing Institute)認(rèn)為,這種方法被稱為“原則主義”,并不像看起來(lái)那么有希望。
醫(yī)學(xué)和人工智能研究領(lǐng)域之間存在顯著差異,這可能會(huì)破壞前者在后者背景下的道德原則的有效性。
他的第一個(gè)論點(diǎn)涉及共同的目標(biāo)和信托義務(wù),即醫(yī)生等值得信賴的專業(yè)人士將他人利益置于自身利益之上的職責(zé)。醫(yī)學(xué)顯然與促進(jìn)患者健康和福祉的共同目標(biāo)聯(lián)系在一起,這是“一個(gè)職業(yè)質(zhì)量的定義,使其從業(yè)者成為具有共同目標(biāo)、價(jià)值觀和培訓(xùn)的‘道德社區(qū)’的一部分”。
然而,對(duì)于人工智能研究領(lǐng)域來(lái)說(shuō),情況并非如此。“人工智能主要由私營(yíng)部門開發(fā),用于公共(例如刑事判決)和私人(例如保險(xiǎn))等”。“開發(fā)人員、用戶和受影響方的基本目標(biāo)不一定一致。”
同樣,私人人工智能研究中不存在職業(yè)的信托義務(wù)及其治理機(jī)制。
“人工智能開發(fā)人員不致力于公共服務(wù),在其他職業(yè)中,公共服務(wù)要求從業(yè)者在競(jìng)爭(zhēng)的業(yè)務(wù)或管理利益面前維護(hù)公共利益”。在人工智能研究中,“公共利益不優(yōu)先于商業(yè)利益”。
在一個(gè)相關(guān)點(diǎn)上,雖然醫(yī)學(xué)的專業(yè)文化規(guī)定了可以追溯到古希臘醫(yī)生的必要道德義務(wù)和美德,但“人工智能的發(fā)展沒(méi)有可比的歷史、同質(zhì)的職業(yè)文化和身份,也沒(méi)有類似的職業(yè)道德框架”。
醫(yī)學(xué)已經(jīng)很久沒(méi)有時(shí)間從希波克拉底傳統(tǒng)提供的最低限度指導(dǎo)的缺點(diǎn)中吸取教訓(xùn)。作為回應(yīng),它將適當(dāng)行為編纂為現(xiàn)代原則主義,為更全面、更令人滿意的道德指導(dǎo)提供了指導(dǎo)。
人工智能研究顯然是一個(gè)年輕得多的領(lǐng)域,缺乏這些豐富的歷史學(xué)習(xí)機(jī)會(huì)。使問(wèn)題進(jìn)一步復(fù)雜的是,醫(yī)學(xué)的應(yīng)用背景相對(duì)較窄,而“人工智能原則上可以在涉及人類專業(yè)知識(shí)的任何背景下部署”,導(dǎo)致其具有根本性的多學(xué)科和跨學(xué)科性,研究人員來(lái)自“不同的學(xué)科和專業(yè)背景,具有不協(xié)調(diào)的歷史、文化、激勵(lì)結(jié)構(gòu)和道德義務(wù)”。
這使得制定除了“廣泛接受的原則來(lái)指導(dǎo)負(fù)責(zé)人工智能開發(fā)、部署和治理的人和流程跨越截然不同的使用環(huán)境”外,非常困難。問(wèn)題在于將這些轉(zhuǎn)化為實(shí)際的良好做法。“在這個(gè)抽象的層面上,“有意義的指導(dǎo)可能是不可能的。”
最后,人工智能研究中“相對(duì)缺乏法律和專業(yè)問(wèn)責(zé)機(jī)制”。在醫(yī)學(xué)有多層次的法律和專業(yè)保護(hù)來(lái)維護(hù)專業(yè)標(biāo)準(zhǔn)的地方,人工智能開發(fā)中基本上不存在此類東西。研究表明,道德守則本身不會(huì)導(dǎo)致道德行為,這些守則不會(huì)“嵌入組織文化并得到積極的執(zhí)行”。
“不能認(rèn)為對(duì)自我監(jiān)管框架的嚴(yán)肅和長(zhǎng)期承諾是理所當(dāng)然的”。
人工智能研究需要在組織層面建立“具有約束力和高度可見(jiàn)的問(wèn)責(zé)結(jié)構(gòu)”,并鼓勵(lì)該領(lǐng)域的實(shí)際道德實(shí)踐為更高級(jí)別的原則提供信息,而不僅僅是依賴自上而下的原則主義。同樣,關(guān)注組織道德而不是職業(yè)道德,同時(shí)呼吁人工智能開發(fā)專業(yè)化(部分領(lǐng)域通過(guò)向高風(fēng)險(xiǎn)的人工智能開發(fā)人員發(fā)放許可證)。
對(duì)人工智能倫理學(xué)未來(lái)的最終建議是敦促人工智能研究人員不要將倫理問(wèn)題視為需要“解決”的設(shè)計(jì)問(wèn)題。“假設(shè)非常古老和復(fù)雜的規(guī)范問(wèn)題僅靠技術(shù)修復(fù)或良好的設(shè)計(jì)就可以解決,那就是太天真了”。
相反,“應(yīng)該期待和歡迎棘手的原則分歧,因?yàn)樗鼈兗确从沉藝?yán)肅的道德考慮,也反映了思想的多樣性。它們不代表失敗,也不需要“解決”。道德是一個(gè)過(guò)程,而不是目的地。人工智能倫理的真正工作現(xiàn)在才剛剛開始,實(shí)施我們的最崇高的原則,未來(lái)任重道遠(yuǎn)。