如何解決人工智能帶來的倫理問題?

中國科學(xué)報?
溫新紅
人工智能時代,智能機器人已然成為科技發(fā)展的新希望,然而一派欣欣向榮、蒸蒸日上之中也不乏隱憂。在人工智能發(fā)展和應(yīng)用中,出現(xiàn)了道德倫理問題。LivePerson的創(chuàng)始人和首席執(zhí)行官羅伯特·洛卡西奧就曾在一篇文...

人工智能時代,智能機器人已然成為科技發(fā)展的新希望,然而一派欣欣向榮、蒸蒸日上之中也不乏隱憂。在人工智能發(fā)展和應(yīng)用中,出現(xiàn)了道德倫理問題。LivePerson的創(chuàng)始人和首席執(zhí)行官羅伯特·洛卡西奧就曾在一篇文章中表達過自己的擔(dān)憂,羅伯特·洛卡西奧說亞馬遜的語音助手Alexa在和自己的女兒對話時總是給女兒傳輸男尊女卑、女性就應(yīng)該卑順、忍受無禮行為的思想。

1956年夏季,當(dāng)一批年輕的科學(xué)家首次提出“人工智能”這一術(shù)語,想必他們是激動的。在經(jīng)過了緩慢發(fā)展的一段時間后,得益于大數(shù)據(jù)驅(qū)動、硬件技術(shù)的不斷發(fā)展、計算能力的提升、深度學(xué)習(xí)算法等帶來的數(shù)據(jù)智能和感知智能上的突破,近些年人工智能得以快速發(fā)展。

“在人工智能的發(fā)展和應(yīng)用中,倫理必須占據(jù)中心地位。”今年4月,英國上議院出了一份長達183頁的報告《人工智能在英國:充分準(zhǔn)備、意愿積極、能力爆棚?》,不僅說了人工智能在英國的發(fā)展,更聚焦于倫理道德問題——那些AI可能為人類帶來的風(fēng)險。

在機器人原則與倫理標(biāo)準(zhǔn)方面,日本、韓國、英國、歐洲和聯(lián)合國教科文組織等相繼推出了多項倫理原則、規(guī)范、指南和標(biāo)準(zhǔn)。

2016年,聯(lián)合國教科文組織發(fā)布了《機器人倫理報告初步草案》,草案不僅探討了社會、醫(yī)療、健康、軍事、監(jiān)控、工作中的機器人倫理問題,最后還對運用機器倫理制造道德機器進行了討論。

2016年至2017年,電氣電子工程師協(xié)會(IEEE)頒布了《人工智能設(shè)計的倫理準(zhǔn)則》的第一版和第二版。

目前,中國相關(guān)部門也正在積極地開展人工智能的標(biāo)準(zhǔn)研究。

無疑,人們在探討人工智能帶來的倫理問題的同時,還在思考怎樣才能解決這些倫理問題,盡管離解決問題還有些距離。

機器有偏見

今年5月,滴滴順風(fēng)車司機殺害女乘客事件發(fā)生后,有網(wǎng)友爆出,滴滴順風(fēng)車司機通過平臺軟件,在接單前可以看到以前司機對乘客的全部評價,而這些評價中就包括對女性乘客外貌的評價。這是因為平臺軟件上增加了社交功能。

今年2月,《紐約時報》英文網(wǎng)站發(fā)表了一篇文章,指出如今非常熱門的人工智能應(yīng)用人臉識別,針對不同種族的準(zhǔn)確率差異巨大。這讓人們意識到,人工智能系統(tǒng)確實可能存在偏見。

人工智能帶來的文化偏見的例子還有很多,如詞語“女性”“婦女”與藝術(shù)人文類職業(yè)以及家庭聯(lián)系更緊密,詞語“男性”“男人”則和數(shù)學(xué)、工程類職業(yè)更近。尤為危險的是,AI還有強化所習(xí)得的偏見的潛能,它們不像人可以有意識地去抵制偏見。

不用說,當(dāng)下時不時就會看到人工智能的新聞,且多是對人們生活已造成或者可能造成負(fù)面影響的消息。又比如這兩天在國內(nèi)出現(xiàn)的手機任意調(diào)動攝像頭事件,人們震驚于原來有的手機會自動把攝像頭打開。

顯然,人工智能的倫理問題比以往技術(shù)帶給人類的更為復(fù)雜。

美國耶魯大學(xué)教授溫德爾·瓦拉赫在接受《中國科學(xué)報》記者采訪時表示,人工智能是一種認(rèn)知技術(shù),是區(qū)別于過去的技術(shù)發(fā)展。過去的技術(shù)發(fā)展確實能取代一部分人類的勞動,但通常不包括人類的精神活動。而人工智能可能會在更廣泛的領(lǐng)域內(nèi)取代人類的工作。

技術(shù)帶來的倫理問題本質(zhì)上是相同的。但隨著新技術(shù)的發(fā)展,這些問題會以新的形式出現(xiàn)。這里不僅包括人工智能,也包括其他新興技術(shù)。“但不同的是,人工智能不僅僅是一個特定的應(yīng)用,或者一組應(yīng)用,它是一項幾乎可以應(yīng)用于生活的每一個方面的技術(shù)。”

倫理有缺位

“人工智能和包括機器人在內(nèi)的智能化自動系統(tǒng)的普遍應(yīng)用,不僅僅是一場結(jié)果未知的開放性的科技創(chuàng)新,更將是人類文明史上影響至為深遠的社會倫理試驗。”中國社會科學(xué)院研究員段偉文近些年致力于人工智能的倫理研究,他表達了自己的擔(dān)憂。

對于上文提到滴滴順風(fēng)車司機殺害女乘客事件,段偉文給《中國科學(xué)報》記者分析,作為共享交通平臺,它的目標(biāo)是安全快捷地把乘客送達目的地,現(xiàn)在為了達到商業(yè)上的利益最大化,增加了社交軟件,卻沒有考慮到那些女乘客以及潛在受害者的利益。這就涉及到倫理問題。“通過對司機、乘客和平臺的利益分析和價值分析,發(fā)現(xiàn)其實包含了對各方的利害得失與價值沖突。”

如果說人工智能對人類的威脅是終極問題,如何解決還未可知,那么人工智能在當(dāng)下活動中體現(xiàn)出來的倫理問題就亟待解決了。

段偉文認(rèn)為,應(yīng)當(dāng)從我們這些年研究科學(xué)技術(shù)前沿中的、科學(xué)技術(shù)應(yīng)用中遇到的實例,去探討人工智能的倫理問題。“從這個角度,我更愿意把它當(dāng)作未完成的倫理。”

與以往不同,人工智能倫理研究不再是一個高高在上的理論,也沒有一套適用全部情形的普遍原則體系,更多的是針對具體的人類活動或者科技實踐的原則體系,比如說,陪護機器人,就需要一些防止過度依賴機器人的原則。

“從里面找到一些價值沖突,需要作哪些倫理的決擇,讓我們發(fā)現(xiàn)問題、研究問題。”段偉文說。

另外,當(dāng)下的社會中,大數(shù)據(jù)讓人們享受了便捷,同時這些數(shù)據(jù)會受到不良的使用,或者是沒有必要的濫用。而由于大數(shù)據(jù)的挖掘?qū)е律虡I(yè)智能的運用對人的權(quán)利的侵犯,這種侵犯最核心一點就是人的自主權(quán),包括隱私。

因此,歐盟數(shù)據(jù)保護條例中,針對保護個人數(shù)據(jù)的態(tài)度很強硬,只要能夠識別是個人的,就是個人數(shù)據(jù),而且個人能決定他的數(shù)據(jù)怎么使用、該不該使用,以及對有些數(shù)據(jù)要求被遺忘、數(shù)據(jù)可攜帶等。

“讓技術(shù)在社會上更好地運行,就要從倫理上對它進行設(shè)計。”段偉文說,比如現(xiàn)在經(jīng)常提到監(jiān)控裝置對人的隱私的傷害,將來可以讓使用者看到攝像頭的界面,讓人們在一定程度上了解自己的數(shù)據(jù)如何被追蹤和使用;這樣既可以促使數(shù)據(jù)追蹤者規(guī)范其行為,也有利于被追蹤對象適當(dāng)修正其行為方式。“這是數(shù)據(jù)時代、信息時代一個新的信息對稱的問題,讓不對稱變對稱一點,尋求一種再平衡。”

道德機器是否可期?

美國著名科幻作家阿西莫夫曾在他的小說中提到“機器人學(xué)三定律”。以往人們更關(guān)注其內(nèi)容,而忽視了“機器人學(xué)三定律”如何在實際操作中來規(guī)范機器人的行為。

其實阿西莫夫有很詳細的構(gòu)想,通過技術(shù)直接嵌入到機器人的控制軟件或智能編碼底層,令“機器人學(xué)三定律”不只是紙上法則,更可經(jīng)由技術(shù)強制執(zhí)行——通過內(nèi)置的“機器道德調(diào)節(jié)器”使機器人成為有道德的機器人。

如何解決人工智能的倫理問題,這是一個科學(xué)家、哲學(xué)家以及相關(guān)領(lǐng)域的研究者都不能忽視的問題。讓機器人有道德或許不是科幻呢?

溫德爾·瓦拉赫和認(rèn)知哲學(xué)家科林·艾倫在10年前共同完成了《道德機器:如何讓機器人明辨是非》一書。他們對能否讓機器有道德進行了研究。溫德爾·瓦拉赫是耶魯大學(xué)生物倫理學(xué)跨學(xué)科研究中心主管,曾開過“機器人的道德和人的倫理”的課程。

科林·艾倫1999年涉足這個領(lǐng)域,他還曾任《斯坦福哲學(xué)百科全書》——全球最大的電子哲學(xué)詞典的技術(shù)總監(jiān),指導(dǎo)開發(fā)人員,使他同時在哲學(xué)和計算機這兩個領(lǐng)域皆有深刻的理解。

2002年,他們在德國巴登巴登召開的一次會議上相識,因共同的學(xué)術(shù)興趣,兩人開始研究人工道德智能體的技術(shù)層面的倫理問題。2008年2月完成了本書,2009年英文版出版。

兩位學(xué)者在書中提出要設(shè)計出符合人類道德規(guī)范的機器人。這個聽起來是不大可能實現(xiàn)的目標(biāo)。他們也認(rèn)為,完備的機器道德智能體還很遙遠,但是目前有必要,而且有可能開始建構(gòu)一種功能性道德,從而使人工道德智能體可以具有基本的道德敏感性。

例如,對于前面提到的語言上的偏見,艾倫認(rèn)為應(yīng)該考慮的是,“如何在設(shè)計理解語言的算法時既讓其消除偏見,又不喪失其對語言的解釋能力”。

兩位學(xué)者進行了開創(chuàng)性的研究,并提出了解決方案的三條路徑:一是自上而下,就是把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進去,即理論驅(qū)動作決策;二是自下而上式的數(shù)據(jù)驅(qū)動的學(xué)習(xí)和進化的方式;三是混合進路系統(tǒng),即將前兩種結(jié)合起來,使人工智能體在一定的普遍倫理準(zhǔn)則指引下、通過深度學(xué)習(xí)算法,在與人類的互動中不斷完善其倫理系統(tǒng)。

西安交通大學(xué)計算哲學(xué)實驗室中方主任、本書主譯王小紅向《中國科學(xué)報》記者介紹,《道德機器》的兩位作者的討論是基于哲學(xué)家、科學(xué)哲學(xué)家、技術(shù)倫理學(xué)家在交叉領(lǐng)域的深入思考和研究,沒有停留在形而上的討論上,而是提出了可行性方案讓這種自動控制系統(tǒng)機器人有道德的能力。“特別有預(yù)見性和超前意識,在10年前就考慮從前端來解決問題。”

王小紅進一步解釋,從前端將倫理算法嵌入機器,并不代表著其他的社會控制不需要,因為不可能把所有的實際社會場景、生活難題都預(yù)測到,后來遇到了還可以通過其他規(guī)范去制約。所以,她認(rèn)為,前端嵌入和后端制約應(yīng)該是齊頭并進的。

要走的路還很長

像所有開放的和影響深遠的人類活動一樣,人工智能的不斷發(fā)展和加速進步使人們很難明確界定其內(nèi)涵。同樣的,人工智能的倫理也沒有相對嚴(yán)格的定義和界限。

段偉文認(rèn)為,當(dāng)前,有關(guān)人工智能與機器人的倫理研究可大致分為四個進路。

一是面向應(yīng)用場景的描述性研究;二是凸顯主體責(zé)任的責(zé)任倫理研究;三是基于主體權(quán)利的權(quán)利倫理研究;四是探討倫理嵌入的機器倫理研究。

段偉文解釋說,第四種相當(dāng)于溫德爾·瓦拉赫和科林·艾倫的探討,因此說,怎么讓機器有道德,是前瞻性的探討,也是現(xiàn)在討論的一部分。盡管此進路已有一些探索,但在技術(shù)上存在極大困難,理論上也遭遇難以解決的道德困境。

“阿西莫夫所提出的機器人定律可能未必有實質(zhì)的意義,但其真正的價值可能更多地在于觀念上的超前與突破。”段偉文說,機器人三定律帶來的啟迪是:為了使人所創(chuàng)造的機器人和人工智能有益人類和免于失控,應(yīng)致力于從人類價值、利益、安全以及未來發(fā)展的角度對其加以價值校準(zhǔn)與倫理調(diào)適,以此消除人們對其終極創(chuàng)造物的疑慮。

人工智能的倫理問題要走的路還有很長。“它實際上是一個改變歷史的轉(zhuǎn)折點,而不僅僅是對過去問題的簡單延續(xù)。”溫德爾·瓦拉赫表示,而且這項研究幾乎所有的學(xué)科都涵蓋在內(nèi),如神經(jīng)科學(xué)、經(jīng)濟學(xué)、心理學(xué)、哲學(xué)等。“需要考慮的是,哪些方面會影響人類進行決策,以及它們是如何影響人類決策的。”

盡管人工智能的問題很多,但不能像限制直接對人類造成傷害的技術(shù)那樣限制人工智能的發(fā)展,因為沒人會懷疑,如果現(xiàn)在限制了,未來的10年、30年或50年之后,人們又不得不回過頭來重新開始發(fā)展這些技術(shù)。

在溫德爾·瓦拉赫和科林·艾倫看來,解決終極的人工智能倫理問題還很遙遠,但需要朝著這個方向走,而且,他們有關(guān)“道德機器”的觀點依然非常領(lǐng)先,甚至更具現(xiàn)代化,可作為人們反思這些問題的基礎(chǔ)。(張亞茹對本文亦有貢獻)

(原標(biāo)題:人工智能如何“德才兼?zhèn)?rdquo;)

THEEND