人工智能設(shè)計(jì)的風(fēng)險(xiǎn)及其規(guī)避

木馬童年
人工智能在21世紀(jì)不時(shí)取得理論和實(shí)踐突破,成為最有前景的新興技能之一。然而一些智能機(jī)器在實(shí)際應(yīng)用過程中卻造成了意想不到的后果,帶來了許多風(fēng)險(xiǎn)。

隨著人工智能的發(fā)展,其所引發(fā)的風(fēng)險(xiǎn)與責(zé)任問題倍受學(xué)界關(guān)注。人工智能帶來的風(fēng)險(xiǎn)與人工智能設(shè)計(jì)有較大關(guān)聯(lián)。從理論上來講,人工智能設(shè)計(jì)應(yīng)思索人工智能是否具有道德行動(dòng)者地位和“道德嵌入”的合理性等問題。人工智能設(shè)計(jì)目的與實(shí)際結(jié)果的不相符,人工智能設(shè)計(jì)目的與使用者需求不相符,人工智能設(shè)計(jì)技能的不完備等都會(huì)帶來風(fēng)險(xiǎn)。為解決人工智能設(shè)計(jì)的風(fēng)險(xiǎn)問題,其設(shè)計(jì)的目的應(yīng)彰顯“善”的理念,設(shè)計(jì)過程中應(yīng)關(guān)注正義與公平,強(qiáng)調(diào)設(shè)計(jì)者的責(zé)任意識(shí)。

人工智能在21世紀(jì)不時(shí)取得理論和實(shí)踐突破,成為最有前景的新興技能之一。然而一些智能機(jī)器在實(shí)際應(yīng)用過程中卻造成了意想不到的后果,帶來了許多風(fēng)險(xiǎn)。由于技能的雙面性,人工智能技能的不確定性,人工智能的應(yīng)用可能違背人工智能設(shè)計(jì)者的初衷,這些原因都可能導(dǎo)致人工智能風(fēng)險(xiǎn)。例如,無人駕駛汽車是為明白放雙手,卻可能潛藏著平安問題;云計(jì)算為了數(shù)據(jù)挖掘統(tǒng)計(jì)方便,卻存在隱私泄露的風(fēng)險(xiǎn),等等。人工智能可能帶來的這些風(fēng)險(xiǎn)與設(shè)計(jì)主體意愿、設(shè)計(jì)目的與設(shè)計(jì)結(jié)果的偏離等有親密關(guān)系。

一、人工智能設(shè)計(jì)的理論基礎(chǔ)

人工智能設(shè)計(jì)與制造的結(jié)果是產(chǎn)生具有自我推理能力的智能機(jī)器,對(duì)其風(fēng)險(xiǎn)的研討應(yīng)該基于對(duì)人工智能設(shè)計(jì)理論基礎(chǔ)的挖掘,我們主要從人工智能是否是道德行動(dòng)者以及人工智能“道德嵌人”的合理性進(jìn)行分析。

(一)對(duì)人工智能是否具有道德行動(dòng)者地位的思索。隨著智能機(jī)器在技能方面不時(shí)取得新的突破,智能機(jī)器的深度學(xué)習(xí)、面部表情、語音識(shí)別、大數(shù)據(jù)和云計(jì)算處理速度等能力的不時(shí)加強(qiáng)和運(yùn)用,智能機(jī)器在社交、知覺、創(chuàng)造力、自然語言理解等能力上的不時(shí)突破,能夠說機(jī)器越來越像人。那么,智能機(jī)器是否像人類一樣具有道德主體地位呢?人工智能的功能由人工智能的算法決定,智能機(jī)器通過算法對(duì)環(huán)境中的數(shù)據(jù)進(jìn)行分析,從而作出相應(yīng)的決策并表現(xiàn)出同樣的行為。“能夠看出這種方法并未假如計(jì)算機(jī)和大腦在‘硬件’上的相似會(huì)超出這樣一個(gè)范圍,即認(rèn)為兩者都是通用的符號(hào)處理裝置,而且能為計(jì)算機(jī)變出程序進(jìn)行一些基本的信息處理,使他們的功能與大腦十分相似。”[1]9人工智能不但僅是倫理準(zhǔn)則的被動(dòng)中轉(zhuǎn)者,還在現(xiàn)有道德生態(tài)中與其他實(shí)施者互動(dòng)。如何權(quán)衡機(jī)器人及其生物的生存地位等倫理問題將成為規(guī)范與約束人工智能設(shè)計(jì)的一個(gè)重要方面。

人與機(jī)器有性子的區(qū)別,人具有理解能力,而機(jī)器不具有理解能力。人具故意向性,機(jī)器不具故意向性(intentionality)。“意向性被看作是區(qū)分個(gè)體的人與機(jī)器的根本特征之一:機(jī)器和人能夠做同樣的事情,然而人故意向性,而機(jī)器沒有。”[2]10意識(shí)不過腦的一種屬性,機(jī)器與人類能夠具有相同的功能,然而機(jī)器沒故意向性。即使人工智能不是道德主體,然而人工智能與人類能夠具有共同的行為。如果人工智能獲得與人類相近或者相同的思想能力和推理能力,界定人工智能和人類的道德地位也會(huì)成為難題。例如,機(jī)器學(xué)習(xí)與圖像識(shí)別技能讓無人駕駛汽車輕松上路,卻帶來機(jī)器設(shè)計(jì)道德上的倫理困境等。人類行為具有復(fù)雜性,并不能大略地還原為大腦的結(jié)構(gòu),人類的大腦到如今為止還是一個(gè)未知的“黑箱”。

人工智能技能改變了傳統(tǒng)的人與技能的關(guān)系。美國(guó)技能哲學(xué)家唐伊德(Don Idle)在其《技能與生活世界》一書中從人對(duì)技能的感知起程,用“人一技能一世界”的結(jié)構(gòu)分析三者的關(guān)系問題,提出了人與技能的具身關(guān)系、詮釋學(xué)關(guān)系、它者關(guān)系和背景關(guān)系,構(gòu)成了四種技能情境下的人、技能與世界的互動(dòng)關(guān)系圖式,分辨是[3]72-112:

具身關(guān)系:(人―技能)→世界

詮釋學(xué)關(guān)系:人→(技能―世界)

它者關(guān)系:人→技能―(―世界)

背景關(guān)系:人(―技能/世界)

伊德認(rèn)為:“越接近于技能所允許的隱形性和透明性,就越能擴(kuò)展人的身體感覺,就越是好的技能。值得注意的是,設(shè)計(jì)的完善不但僅與機(jī)器有關(guān),還與機(jī)器與人的組合有關(guān)。機(jī)器沿著一個(gè)身體的方向完善,并且是根據(jù)人的感知和行為塑造的。”[3]74設(shè)計(jì)者在人工智能中占有重要地位,因此,必須關(guān)注智能機(jī)器的設(shè)計(jì)主體。

(二)人工智能設(shè)計(jì)“道德嵌入”的合理性分析。人工智能不同于其他技能人工物的研討,人工智能研討不但關(guān)注設(shè)計(jì)、制造主體的責(zé)任,更應(yīng)思索人工智能是否具有道德意識(shí),并且應(yīng)關(guān)注如何在人工智能中嵌入與人類主體相似的行為倫理規(guī)范。因此,應(yīng)該在計(jì)算機(jī)程序中嵌入人類道德,像約束人類行為一樣約束人工智能的行為。

人工智能設(shè)計(jì)不是一個(gè)閉環(huán)系統(tǒng),對(duì)于人工智能的價(jià)值反省與倫理追問處于發(fā)展階段。如何讓人工智能像道德主體那樣去行動(dòng)以及如何為人工智能編寫道德代碼也納入哲學(xué)學(xué)者的視野。例如,丹尼爾森在其著作《人工道德:虛擬游戲的道德機(jī)器人》(Artificial Morality:virtuous Robots for Vitual games)中注入工智能的道德問題;2007年霍爾撰寫的《超越AI:讓機(jī)器產(chǎn)生良知》(Beyond AI:Creating theConscience of the Machine)一書,關(guān)注設(shè)計(jì)道德機(jī)器:瓦拉赫與艾倫撰寫的《道德機(jī)器:如何讓機(jī)器人明辨是非》(Moral Machines:Teaching Robots Right fromWrong),試圖從道義論、效果論和美德倫理學(xué)討論人工智能體的道德問題。

舊式的技能哲學(xué)家多半是被動(dòng)反應(yīng),新一代技能哲學(xué)家主動(dòng)出擊,力求使工程師們意識(shí)到技能設(shè)計(jì)帶來設(shè)計(jì)進(jìn)程的價(jià)值,并希望以此去影響技能的價(jià)值與設(shè)計(jì)。人工智能的價(jià)值能夠從外在性與內(nèi)在性兩個(gè)層面去分析。人工智能的外在價(jià)值表如今人工智能對(duì)公共福祉的貢獻(xiàn),內(nèi)在價(jià)值表如今人工智能技能如何變成它對(duì)人類的意義。對(duì)人工智能設(shè)計(jì)具有兩種不同的規(guī)范進(jìn)路:一種是職業(yè)倫理進(jìn)路,這是一種“外在主義進(jìn)路”,還有一種由荷蘭技能哲學(xué)家普爾(Ibo van de Poel)等人提出的“內(nèi)在主義進(jìn)路”,即人工智能設(shè)計(jì)“致力于關(guān)于技能發(fā)展的一種更加內(nèi)在主義、經(jīng)驗(yàn)性的觀察,考慮設(shè)計(jì)過程本身的動(dòng)態(tài)性并探討該語境下產(chǎn)生的倫理問題”[4]。學(xué)者也從內(nèi)在主義進(jìn)路尋找解決傳統(tǒng)倫理問題或者新倫理問題的途徑。例如,弗里德曼(Batya Friedman)與卡恩(Peter Kahn)在1992年提出價(jià)值敏感性設(shè)計(jì)(Value sensitive design)。設(shè)計(jì)者在設(shè)計(jì)時(shí)應(yīng)保持對(duì)技能價(jià)值的敏感性,在技能設(shè)計(jì)中將道德嵌人其中。人工智能設(shè)計(jì)也需要“道德嵌入”。所謂“道德嵌人”是將特定群體認(rèn)可的價(jià)值觀與道德標(biāo)準(zhǔn)程序化為道德代碼,嵌入人工智能系統(tǒng),同時(shí)內(nèi)置道德決策場(chǎng)景的教導(dǎo)性挑選標(biāo)準(zhǔn)。對(duì)智能系統(tǒng)進(jìn)行道德訓(xùn)練,使其具備類人的道德推理能力,并利用機(jī)器學(xué)習(xí)算法投射使用者的道德偏好。設(shè)計(jì)者越來越意識(shí)到自身的價(jià)值觀對(duì)設(shè)計(jì)進(jìn)程的影響,以及在此過程中他們對(duì)于他人價(jià)值觀的敏感度。設(shè)計(jì)者在設(shè)計(jì)想象階段就應(yīng)負(fù)載價(jià)值,應(yīng)保持對(duì)技能價(jià)值的敏感性,在技能設(shè)計(jì)中嵌人道德。在人工智能設(shè)計(jì)之初就應(yīng)該賦予其“善”的設(shè)計(jì)理念,在設(shè)計(jì)之始把“善”的概念嵌入到智能機(jī)器中。二、人工智能設(shè)計(jì)帶來的風(fēng)險(xiǎn)分析

設(shè)計(jì)是一個(gè)問題解決過程,或者說是一個(gè)決策過程,是設(shè)計(jì)主體根據(jù)自身需要,故意識(shí)地創(chuàng)造出技能人工物的過程。設(shè)計(jì)不僅是科學(xué)知識(shí)的獲取與應(yīng)用過程,還是新物體的技能發(fā)明與創(chuàng)造過程。西蒙(Hubert A Simon)提出:“(設(shè)計(jì))考慮的是人工物(artifacts)應(yīng)該是怎么樣的,也便是什么樣的人工物才能實(shí)現(xiàn)目的,才能發(fā)揮其作用。”[5]4-5人類技能行為的主要結(jié)果是設(shè)計(jì)和制造各種人工物。設(shè)計(jì)具有兩個(gè)屬性。最初,設(shè)計(jì)是為了達(dá)到設(shè)計(jì)者某一方面的目的。設(shè)計(jì)望遠(yuǎn)鏡是為了觀察浩瀚夜空;設(shè)計(jì)情感機(jī)器人是為了滿足人類的情感需求;設(shè)計(jì)無人駕駛汽車是為了平安以及在駕駛中解放人類雙手等。其次,設(shè)計(jì)體現(xiàn)了主體的意向。在設(shè)計(jì)主體設(shè)計(jì)之前就有了設(shè)計(jì)理念與設(shè)計(jì)思緒。馮賴特(von wright)也提出從設(shè)計(jì)主體的目的與意向等方面去闡釋設(shè)計(jì)邏輯。賴特認(rèn)為:如果把x稱為目的,而y是實(shí)現(xiàn)目的的手段與行動(dòng)。那么設(shè)計(jì)能夠用如下表達(dá)式表示:“某人想得到x除非得到y(tǒng),否則不可能得到x,因此必須得到y(tǒng)”[6]。按照賴特的觀點(diǎn),設(shè)計(jì)便是為了達(dá)到主體的目的而進(jìn)行的一系列活動(dòng)。設(shè)計(jì)必須遵循自然界的規(guī)律,違背物理規(guī)律就不能制造出人工物,人工智能的設(shè)計(jì)也不能違背自然界的規(guī)律。人工智能的設(shè)計(jì)是通過工程師、程序員編寫、設(shè)計(jì)程序、算法的輸人,使設(shè)計(jì)出來的人工智能產(chǎn)品彰顯設(shè)計(jì)者的目的,在設(shè)計(jì)、制造過程中必須遵循這些科學(xué)規(guī)律。

人工智能設(shè)計(jì)不當(dāng)會(huì)給個(gè)人和社會(huì)帶來風(fēng)險(xiǎn),小則造成經(jīng)濟(jì)喪失,大則威脅社會(huì)穩(wěn)定與生命平安。人工智能風(fēng)險(xiǎn)與設(shè)計(jì)息息相關(guān),并且能夠把設(shè)計(jì)作為人工智能的風(fēng)險(xiǎn)根源。人工智能設(shè)計(jì)風(fēng)險(xiǎn)主要體如今以下幾個(gè)方面。

(一)人工智能設(shè)計(jì)目的與實(shí)際結(jié)果的不相符帶來的風(fēng)險(xiǎn)。人工智能在制造之初先有設(shè)計(jì)理念與設(shè)計(jì)思緒,設(shè)計(jì)者為了達(dá)到目的,在設(shè)計(jì)中把人工智能的工具理性與價(jià)值理性聯(lián)合起來。也便是說,人工智能在設(shè)計(jì)之初已經(jīng)負(fù)載了設(shè)計(jì)者或者設(shè)計(jì)團(tuán)隊(duì)的意愿與愿望。人工智能產(chǎn)品的設(shè)計(jì)離不開設(shè)計(jì)者的努力,設(shè)計(jì)程序與算法凝聚著設(shè)計(jì)者的血汗和智慧,然而并不是所有的設(shè)計(jì)者都是“完人”。由于受設(shè)計(jì)者或者設(shè)計(jì)團(tuán)隊(duì)偏見、錯(cuò)誤認(rèn)知、價(jià)值判斷及利益追求等因素的影響以及設(shè)計(jì)的算法存在技能缺陷等,所設(shè)計(jì)出來的人工智能產(chǎn)品可能存在一定程度的缺陷。人工智能風(fēng)險(xiǎn)很多時(shí)候源于設(shè)計(jì)之初的程序錯(cuò)誤或者算法誤差。例如,特斯拉自動(dòng)駕駛汽車造成人員傷亡便是因?yàn)槠湓O(shè)計(jì)的程序存在漏洞,人工智能系統(tǒng)在設(shè)計(jì)階段的錯(cuò)誤導(dǎo)致人工智能風(fēng)險(xiǎn)的產(chǎn)生。人工智能技能除了需要探索與客觀真理的關(guān)系,還包含著人類目的性的社會(huì)建構(gòu)活動(dòng)。伽達(dá)默爾曾經(jīng)說過:“20世紀(jì)是第一個(gè)以技能起決定作用的方式重新確定的時(shí)代,并且起初使技能知識(shí)從掌握自然力量擴(kuò)展為掌握社會(huì)生活,這一切都是成熟的標(biāo)志,或者也是我們文明的標(biāo)志。”[7]63設(shè)計(jì)具有目的性,但設(shè)計(jì)者的初衷和設(shè)計(jì)出來的產(chǎn)品的實(shí)際使用情況并不是完全一致,偶爾甚至大相徑庭。例如,汽車的設(shè)計(jì)者與使用者沒有想到汽車的使用會(huì)發(fā)生交通事故以及環(huán)境污染等問題,然而汽車設(shè)計(jì)與使用確實(shí)導(dǎo)致交通事故與環(huán)境污染。

(二)人工智能設(shè)計(jì)目的與使用者需求不相符帶來的風(fēng)險(xiǎn)。技能不僅促進(jìn)了人類進(jìn)步,還改變了人類的生產(chǎn)生活方式。人工智能技能作為新興技能具有不確定性,對(duì)此能夠理解為人工智能技能后果的難以預(yù)見性以及難以量化評(píng)估性。人工智能的技能風(fēng)險(xiǎn)還可能是由于人類的有限理性所致,人類對(duì)于風(fēng)險(xiǎn)預(yù)測(cè)、評(píng)估與風(fēng)險(xiǎn)發(fā)生的客觀幾率之間存在偏差。人工智能風(fēng)險(xiǎn)源于設(shè)計(jì)者的有限理性。人工智能產(chǎn)品的設(shè)計(jì)一般是根據(jù)市場(chǎng)需求、設(shè)計(jì)者的能力、使用者的需要等因素復(fù)合而成的。設(shè)計(jì)者和使用者通過人工智能產(chǎn)品實(shí)現(xiàn)一種特殊的“互動(dòng)”,設(shè)計(jì)者能夠故意地指引使用者使用某些功能或者避免使用某些功能。如在人機(jī)交互界面優(yōu)先推薦本公司的產(chǎn)品。設(shè)計(jì)者通過使用者的意見和反饋,對(duì)算法和程序進(jìn)行批改,從而實(shí)現(xiàn)一個(gè)良性互動(dòng)。然而這種互動(dòng)往往并不能真實(shí)反映使用者的意圖,相反在很大程度上是設(shè)計(jì)者意圖的強(qiáng)化,因?yàn)榇嬖谒^的“設(shè)計(jì)黑箱”,設(shè)計(jì)者對(duì)設(shè)計(jì)出來的人工智能不能正確預(yù)測(cè)與評(píng)估。

(三)人工智能設(shè)計(jì)技能的不完備帶來的風(fēng)險(xiǎn)。人工智能的功能與設(shè)計(jì)者的目的有關(guān),設(shè)計(jì)者的目的是設(shè)計(jì)出人工智能的物理結(jié)構(gòu),讓智能機(jī)器具有一定的功能,滿足人類某一方面的需要。“功能描述自身與結(jié)構(gòu)描述自身都不能完整地描述一個(gè)技能人工物的設(shè)計(jì);功能設(shè)計(jì)忽視結(jié)構(gòu)設(shè)計(jì)的同時(shí),結(jié)構(gòu)設(shè)計(jì)也缺少了功能設(shè)計(jì)特性,這就證明在描述人工物時(shí),結(jié)構(gòu)與功能特性都是工程實(shí)踐中必不可少的。”[8]其他設(shè)計(jì)遵循結(jié)構(gòu)功能關(guān)系,人工智能設(shè)計(jì)的特殊性,自身有推理能力,智能機(jī)器擁有前所未有的自主性,并且擁有可以獨(dú)立作出決策的能力。美國(guó)機(jī)器倫理學(xué)家帕特里克(Patrick Lin)認(rèn)為機(jī)器具有“自制能力”,他說:“一旦機(jī)器的一局部啟動(dòng),那么該機(jī)器就根據(jù)外部環(huán)境進(jìn)行自我反饋運(yùn)行,而具備在一定時(shí)間內(nèi)不受外部抑制的能力。”[8]智能機(jī)器具有不完全受制于人的自主性,人工智能的算法與程序可能帶來風(fēng)險(xiǎn)。瓦拉赫(Wendell Wallach)與艾倫(Colin Allen)在《道德機(jī)器:如何讓機(jī)器人明辨是非》中提到:“現(xiàn)今在美死于醫(yī)療事故的人每天有100到200人,而且許多這類醫(yī)療事故都與計(jì)算機(jī)有關(guān)系。這些錯(cuò)誤諸如發(fā)錯(cuò)藥,算錯(cuò)藥物劑量,每天都導(dǎo)致100到200人死亡。我并不確切知道你們將其中幾多人的死因歸咎于計(jì)算機(jī)的錯(cuò)誤,然而這個(gè)原因占有一定比率,能夠肯定地說,每隔兩到三個(gè)月我們死于計(jì)算機(jī)錯(cuò)誤和醫(yī)療事故的人數(shù)就抵得上一次‘9.11’。”[9]22通過上述例子可知,人工智能的算法錯(cuò)誤或者程序錯(cuò)誤等可能造成風(fēng)險(xiǎn)。

三、人工智能設(shè)計(jì)風(fēng)險(xiǎn)規(guī)避的思緒

(一)人工智能設(shè)計(jì)的目的應(yīng)彰顯“善”的理念。智能機(jī)器是為了滿足人類某方面的目的,人工智能設(shè)計(jì)應(yīng)最初保證智能機(jī)器更好地為人類事務(wù)與服務(wù),這優(yōu)先于智能機(jī)器的事務(wù)效率與功能。人類與智能機(jī)器之間的關(guān)系不再是過去大略的人與技能人工物之間的主客二分關(guān)系,而更多的是協(xié)作甚至更私密的關(guān)系。由于人類思想和情感的復(fù)雜性和多元性,人機(jī)關(guān)系并不是一個(gè)大略的課題。機(jī)器人技能要想處理善人與世界的關(guān)系,必須把道德嵌人機(jī)器人的設(shè)計(jì)、研發(fā)與制造過程。必須用“善”的理念設(shè)計(jì)智能機(jī)器,約束與規(guī)范智能機(jī)器的發(fā)展。阿西莫夫(IsaacAsimov)最早提出用“機(jī)器人三定律”來規(guī)范智能機(jī)器發(fā)展:“機(jī)器人不能夠傷害人類;或者,通過不作為,讓任何人受到傷害;機(jī)器人必須遵從人類的指令,除非那個(gè)指令與第一定律相沖突;機(jī)器人必須保護(hù)自己的生存,條件是那樣做與第一、第二定律沒有沖突。”[10]2后來又加上第四條規(guī)則:機(jī)器人不得傷害人類,或者因?yàn)椴蛔鳛椋屓祟愂艿絺?。阿西莫夫機(jī)器人定律是康德式的道德律令,認(rèn)為人類應(yīng)該制定需要智能機(jī)器遵守的道德規(guī)則,這是一種自上而下的倫理規(guī)范方法。所謂自上而下的倫理規(guī)范方法是把規(guī)范化的價(jià)值觀當(dāng)作在自主體的活動(dòng)中隱含的內(nèi)容,而不是被抽象地表征出來。除了自上而下的倫理規(guī)范,還需要根據(jù)人工智能的具體情境設(shè)計(jì)相應(yīng)的倫理。通過自上而下與自下而上的倫理規(guī)約共同作用,規(guī)范人工智能的設(shè)計(jì)。人工智能很大程度上取決于程序與算法學(xué)習(xí)模型的設(shè)計(jì)水平,在設(shè)計(jì)中必須把價(jià)值轉(zhuǎn)成具體的設(shè)計(jì)要求。“設(shè)計(jì)中實(shí)現(xiàn)價(jià)值的一種方式是將它們轉(zhuǎn)換為規(guī)范和設(shè)計(jì)需求。”[11]253設(shè)計(jì)的具體要求包括效能、效率、靈活性、成本與平安等目標(biāo)。設(shè)計(jì)過程需要遵循價(jià)值觀、規(guī)范與成功等標(biāo)準(zhǔn)。(二)設(shè)計(jì)過程中應(yīng)關(guān)注正義與公平。1980年,溫納(Langdon Winner)通過羅伯特莫斯(RobertMoses)在美國(guó)長(zhǎng)島設(shè)計(jì)的低懸立交橋來闡述設(shè)計(jì)公平問題,這座橋只能以通過富人的私人轎車,而不能通過大巴車等公共交通工具,這涉及對(duì)習(xí)慣乘坐公共交通工具的黑人的歧視。通過這個(gè)例子溫納提到了設(shè)計(jì)公平問題,在人工智能設(shè)計(jì)中應(yīng)該關(guān)注正義與公平。

人工智能設(shè)計(jì)應(yīng)該關(guān)注機(jī)會(huì)平等。機(jī)器人不再是大略工具,在機(jī)器人的設(shè)計(jì)中應(yīng)該關(guān)注責(zé)任倫理,其中正義原則是機(jī)器人設(shè)計(jì)始終需要貫穿的一個(gè)重要原則。機(jī)器人的設(shè)計(jì)要關(guān)注公平和正義。機(jī)器人設(shè)計(jì)不應(yīng)造成擴(kuò)大主體間權(quán)利、地位上的差距,導(dǎo)致實(shí)際上不公平和不正義。如無人機(jī)的技能設(shè)計(jì)、生產(chǎn)需要大量的成本,導(dǎo)致價(jià)格昂貴,并非所有人都能享受該項(xiàng)技能的成果,這會(huì)導(dǎo)致公平性損失;使用無人機(jī)送快遞等會(huì)造成現(xiàn)有快遞從業(yè)人員的就業(yè)機(jī)會(huì)不公平。羅爾斯(John Rawls)提出:“所有值得我們注意的倫理學(xué)理論都須在判斷正那時(shí)考慮結(jié)果,不這樣做的倫理學(xué)理論是奇怪的和不可理喻的。”[12]23

人工智能設(shè)計(jì)也應(yīng)該追求技能結(jié)果的公平、正義。它包括技能獲取途徑的公平正義,人工智能涉及不同人群的不同利益,機(jī)器人的設(shè)計(jì)中要確保機(jī)器人的設(shè)計(jì)目的是為了人類的總體利益而不是某些個(gè)人或者集團(tuán)的利益;人工智能使用致力于大局部人的利益而不是少數(shù)人的利益。人類有責(zé)任與義務(wù)為人工智能設(shè)計(jì)制定準(zhǔn)則,約束設(shè)計(jì)者在設(shè)計(jì)之初考慮到人工智能的社會(huì)影響,避免因?yàn)槿斯ぶ悄艿膽?yīng)用拉大人與人的差距,造成人與人之間的不公平,避免造成社會(huì)風(fēng)險(xiǎn)。

(三)人工智能設(shè)計(jì)應(yīng)強(qiáng)調(diào)設(shè)計(jì)者的責(zé)任意識(shí)。人工智能技能設(shè)計(jì)必須關(guān)注設(shè)計(jì)者信念、行為以及設(shè)計(jì)者在技能實(shí)踐中的作用與責(zé)任等研討主題,設(shè)計(jì)者在人工智能技能發(fā)展中不能置若罔聞,更不能袖手旁觀。“伴隨著技能的發(fā)展,需要設(shè)計(jì)師的全程參與,尋找道德反思的應(yīng)用,并期待技能設(shè)計(jì)的社會(huì)影響。這種類型的道德規(guī)范參與技能發(fā)展,而不是將自身置于技能范疇之外。”[13]智能機(jī)器的設(shè)計(jì)者要對(duì)可能出現(xiàn)的技能負(fù)面效應(yīng)作出足夠的論證,也要充分考慮人工智能技能發(fā)展帶來的倫理困境,考慮到智能機(jī)器的運(yùn)用過程中不可避免地會(huì)面臨道德困境。如何使智能機(jī)器在面臨類似情形時(shí)作出最有益于人類的挑選,是設(shè)計(jì)者們要提前考慮的問題。因此,人工智能設(shè)計(jì)和制造應(yīng)遵循職業(yè)道德與社會(huì)公德。

除了強(qiáng)調(diào)個(gè)人的責(zé)任意識(shí)之外,還要發(fā)揮行業(yè)協(xié)會(huì)與國(guó)際組織的作用。美國(guó)電氣與電子工程師協(xié)會(huì)(IEEE)、美國(guó)職業(yè)工程師協(xié)會(huì)(NSPE)、美國(guó)機(jī)械工程師協(xié)會(huì)(ASME)以及美國(guó)的伍斯特理工學(xué)院機(jī)器人工程師職業(yè)倫理(WPI)都提出人工智能設(shè)計(jì)的職業(yè)倫理規(guī)范。在這些行業(yè)規(guī)范中,都認(rèn)為工程師應(yīng)具有誠(chéng)實(shí)、公正等職業(yè)美德,都應(yīng)該關(guān)注平安、健康和公眾福祉。例如,2002年電氣與電子工程師協(xié)會(huì)給出了機(jī)器人的倫理規(guī)范:第一個(gè)分支為機(jī)器倫理學(xué)(machine ethics),研討的重點(diǎn)為“賦予機(jī)器人倫理原則或者促進(jìn)機(jī)器人解決可能預(yù)見的倫理困境,在機(jī)器人自主作決定的時(shí)候,提高他們的道德考量比重”[14]1;第二個(gè)分支為機(jī)器人倫理學(xué)(robot ethics),主要關(guān)注入類在設(shè)計(jì)、使用操作過程中與機(jī)器人交流互動(dòng)中的倫理問題。2017年1月,美國(guó)召開的“阿西洛馬會(huì)議”提出了《阿西洛馬人工智能原則》,(Asilomar AI Principles)規(guī)范人工智能的發(fā)展?!栋⑽髀羼R人工智能原則》要求人工智能設(shè)計(jì)的倫理應(yīng)該追求技能結(jié)果的公平、正義,包括人工智能技能獲取途徑的公平正義,人工智能涉及不同人群、不同利益相關(guān)者的不同利益等,必須先保障公平與正義才能規(guī)避社會(huì)風(fēng)險(xiǎn)。人工智能設(shè)計(jì)主要涉及三個(gè)維度的問題:“最初,是人類創(chuàng)造和雇傭機(jī)器人的倫理;其次,是將人類的倫理概念嵌入機(jī)器人當(dāng)中;第三,是人類如何看待智能機(jī)器人的倫理。”[15]處理善人工智能研制、設(shè)計(jì)以及準(zhǔn)確對(duì)待人工智能產(chǎn)品的關(guān)系,才能有效地規(guī)避風(fēng)險(xiǎn)。人工智能設(shè)計(jì)應(yīng)關(guān)注入工智能的設(shè)計(jì)和制造應(yīng)遵循的倫理規(guī)則。荷蘭技能哲學(xué)家維貝克(Verbeek,P.P)提出技能對(duì)人類行為有調(diào)節(jié)作用,設(shè)計(jì)活動(dòng)天然包含一種倫理導(dǎo)向和倫理意義,因此,人工智能的設(shè)計(jì)也包含了道德倫理的因素。在人工智能設(shè)計(jì)過程中就需要將正義等道德因素嵌入機(jī)器人的設(shè)計(jì)過程當(dāng)中,“如果倫理學(xué)是關(guān)于人如何行動(dòng)的,設(shè)計(jì)師幫助塑造技能如何調(diào)節(jié)人的行為,那么設(shè)計(jì)應(yīng)該被視為‘做’倫理學(xué)的一種物化形式。”[16]91最初,使人工智能的設(shè)計(jì)與人類的社會(huì)價(jià)值觀保持一致;其次,人工智能設(shè)計(jì)還要研討如何善用和阻止惡用人工智能,使人工智能造福于人類。

綜上所述,在智能機(jī)器的設(shè)計(jì)、研制和發(fā)展進(jìn)程中,我們應(yīng)注重科學(xué)與倫理求真與求善的協(xié)調(diào)發(fā)展,重視設(shè)計(jì)倫理和過程監(jiān)控,規(guī)范和約束智能機(jī)器的發(fā)展,保證智能機(jī)器技能更好地為人類所用,使智能機(jī)器人更好地服務(wù)于人類社會(huì)。同時(shí),在機(jī)器人研制、設(shè)計(jì)等過程中應(yīng)與倫理緊密聯(lián)系,重構(gòu)人工智能責(zé)任體系以及建立人工智能倫理準(zhǔn)則,注重程序正義和結(jié)果正義。在人工智能發(fā)展設(shè)計(jì)之初就應(yīng)該為其注入一顆“良芯”,這樣才能有效規(guī)避人工智能技能風(fēng)險(xiǎn)與社會(huì)風(fēng)險(xiǎn)。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無評(píng)論