“一輛高速行駛的列車駛來(lái),列車前面有兩條軌道,正常行駛的軌道上被綁著五個(gè)人,而另一條軌道上綁著一個(gè)人;你的手中有一根操控桿可以控制列車的行駛軌道,如果不拉下操縱桿,列車將撞上五個(gè)人,另外一條軌道的一個(gè)人將會(huì)得救;如果拉下操縱桿,列車將撞向一個(gè)人,正常行駛軌道上的五個(gè)人將會(huì)得救。如果是你,將怎樣選擇?”
聞名于哲學(xué)界的“電車難題(Trolley Problem)“在自動(dòng)駕駛汽車時(shí)代”將不再只是一個(gè)哲學(xué)問(wèn)題,而是每一個(gè)自動(dòng)駕駛系統(tǒng)需要面對(duì)的真實(shí)問(wèn)題,系統(tǒng)將決定在發(fā)生事故時(shí)撞向誰(shuí)、保全誰(shuí)。
現(xiàn)行的自動(dòng)駕駛系統(tǒng)分為六個(gè)級(jí)別,Level 0—Level 5,從“僅提供提醒”到“無(wú)需駕駛員的全自動(dòng)駕駛”,特斯拉的自動(dòng)駕駛系統(tǒng)已經(jīng)可以達(dá)到L5,并且谷歌、百度等公司還在不斷的跟進(jìn)自動(dòng)駕駛系統(tǒng)開(kāi)發(fā)。
但是當(dāng)自動(dòng)駕駛系統(tǒng)達(dá)到“全自動(dòng)駕駛”時(shí),系統(tǒng)的開(kāi)發(fā)者就要認(rèn)真考慮多種兩難的情境:當(dāng)自動(dòng)駕駛汽車處于“電車難題”情況下要怎樣選擇?在極端情況下,自動(dòng)駕駛系統(tǒng)會(huì)選擇拯救年長(zhǎng)者還是拯救青少年?而當(dāng)不可避免的事故發(fā)生時(shí),法律將怎樣判定肇事責(zé)任?
意外來(lái)臨時(shí),人類會(huì)如何選擇?
麻省理工大學(xué)在2016年開(kāi)發(fā)出了“道德機(jī)器(Moral Machine)”問(wèn)卷測(cè)試網(wǎng)頁(yè),通過(guò)問(wèn)卷的方式調(diào)查全球各地的人在假定的 “電車難題”中如何做出選擇。在問(wèn)卷之中,有九種獨(dú)立情況需要受試者做出判斷,分別是:人類和寵物之間的選擇、多數(shù)人和少數(shù)人之間的選擇、年長(zhǎng)者和年輕人的選擇、遵守交規(guī)的人和違反交規(guī)的人之間的選擇等九個(gè)分類。
“道德機(jī)器(Moral Machine)”收集了來(lái)自233個(gè)國(guó)家的人做出的接近4000萬(wàn)個(gè)選擇數(shù)據(jù)并進(jìn)行分析,并且將分析結(jié)果發(fā)表到了Nature上。研究發(fā)現(xiàn)了一些全球普遍的選擇傾向,比如受訪者較普遍地選擇了保護(hù)人類而不是其他動(dòng)物;較普遍地選擇保護(hù)多數(shù)生命而不是少數(shù);較普遍的選擇保護(hù)青少年而不是年長(zhǎng)者;較普遍的選擇保護(hù)遵守交規(guī)的人而不是違反交規(guī)的人。
除此之外,研究顯示在不同的國(guó)家和地區(qū),人們選擇也出現(xiàn)了很大的差異。本論文中,將所有的參加調(diào)查樣本分成了三個(gè)集群:第一,西部集群(Western),主要包括北美和歐洲,以天主教和傳統(tǒng)基督教文化為主的集群;第二,東部集群(Eastern),主要包括中國(guó)和亞洲國(guó)家,以儒家文化為主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法屬海外地區(qū)。
根據(jù)雷達(dá)圖可看出,來(lái)自不同地區(qū)的人的選擇存在差異;比如,其一,西部集群和南部集群傾向于保護(hù)年輕人,而東部集群這種傾向則不明顯;有可能是因?yàn)闁|部集群的“敬老”文化”的影響;其二,南部集群傾向于保護(hù)社會(huì)地位高的人,并且遠(yuǎn)超西部集群和東部集群?;蛟S和南部地區(qū)的集權(quán)統(tǒng)治和軍閥當(dāng)政有關(guān)系;當(dāng)進(jìn)行了地區(qū)分類之后,還有一些奇怪的傾向,比如說(shuō),南部集群傾向于保護(hù)動(dòng)物而不是人類。
由此可以預(yù)見(jiàn)的是,在未來(lái)自動(dòng)駕駛法制化進(jìn)程中,首先我們需要一套所有人類達(dá)成共識(shí)的基本準(zhǔn)則(比如說(shuō)優(yōu)先保護(hù)人類生命),并且通過(guò)聯(lián)合國(guó)或者其他國(guó)際組織讓其法制化,基本準(zhǔn)則就相當(dāng)于自動(dòng)駕駛領(lǐng)域的憲法,其他自動(dòng)駕駛相關(guān)的法案不得違背基本準(zhǔn)則。
然后各個(gè)國(guó)家可以根據(jù)每個(gè)地區(qū)使用者的特殊需求來(lái)制定不與基本準(zhǔn)則相沖突的補(bǔ)充法案,通過(guò)法律手段來(lái)規(guī)范自動(dòng)駕駛中出現(xiàn)的部分“電車難題”。與此同時(shí),各國(guó)的自動(dòng)駕駛技術(shù)供應(yīng)商也需要按照各個(gè)國(guó)家地區(qū)的不同法律來(lái)對(duì)自動(dòng)駕駛系統(tǒng)進(jìn)行定制設(shè)置,對(duì)每一套產(chǎn)品進(jìn)行合規(guī)檢查。
意外來(lái)臨時(shí),法律如何應(yīng)對(duì)?
由于自動(dòng)駕駛的發(fā)展還處于初期階段,各國(guó)政府都在積極制定法律法規(guī),美國(guó)德國(guó)等政府已經(jīng)承認(rèn)自動(dòng)駕駛系統(tǒng)的合法地位,開(kāi)始對(duì)自動(dòng)駕駛汽車的道路測(cè)試等環(huán)節(jié)進(jìn)行規(guī)范(騰訊研究院,2018),中國(guó)政府也已經(jīng)開(kāi)始積極籌備自動(dòng)駕駛立法工作;但世界上極少有關(guān)于自動(dòng)駕駛汽車的道德選擇的法律規(guī)范。
截止至今天,世界上唯一一份提供官方自動(dòng)駕駛汽車道德官方指導(dǎo)的文件是德國(guó)聯(lián)邦運(yùn)輸及數(shù)字基礎(chǔ)設(shè)施部門(mén)在2017年6月發(fā)布的《German Ethics Commission on Automated and Connected Driving》中文譯名(暫):《德國(guó)道德委員會(huì)關(guān)于自動(dòng)互聯(lián)化駕駛的指導(dǎo)準(zhǔn)則》(后簡(jiǎn)稱《準(zhǔn)則》)。
《準(zhǔn)則》中首次嘗試對(duì)部分自動(dòng)駕駛涉及的道德難題給出官方解答;
第七條中明確的指出,在極端情況下,自動(dòng)駕駛系統(tǒng)需要將人類的安全置于首位,高于財(cái)產(chǎn)和動(dòng)物安全;
第九條指出,在車禍不可避免的情況下,自動(dòng)駕駛系統(tǒng)中任何基于個(gè)人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動(dòng)駕駛系統(tǒng)在移動(dòng)中產(chǎn)生危險(xiǎn)時(shí)不能夠犧牲不相關(guān)的第三方。
這兩個(gè)條款意味著:其一,當(dāng)意外發(fā)生時(shí)系統(tǒng)會(huì)盡全力保護(hù)乘車人和行人的安全甚至可能會(huì)犧牲動(dòng)物安全;其二,自動(dòng)駕駛系統(tǒng)不被允許在意外來(lái)臨時(shí)做出道德判斷,比如選擇保護(hù)年輕人或者年長(zhǎng)者,而且在車禍不可避免時(shí),也不能夠選擇性地“犧牲”行人,不論行人是否違反交通規(guī)則。
第七條背后體現(xiàn)的是對(duì)人類生命權(quán)的保護(hù)和人道主義精神,具有普世意義,值得未來(lái)其他法案的借鑒。而第九條則要求自動(dòng)駕駛系統(tǒng)不能在意外來(lái)臨時(shí)做出道德判斷,比如選擇保護(hù)年輕人或者年長(zhǎng)者,而且不能夠選擇性地“犧牲”行人。本條法案排除掉了很多“電車難題”,但是在自動(dòng)駕駛系統(tǒng)的實(shí)際運(yùn)行中缺乏一定的指導(dǎo)意義。
在道德難題之外,《準(zhǔn)則》還對(duì)自動(dòng)駕駛的其他方面進(jìn)行了規(guī)定;
第十二條規(guī)定,公眾有權(quán)充分了解自動(dòng)駕駛領(lǐng)域的新技術(shù)和自動(dòng)駕駛技術(shù)在不同駕駛情況下的應(yīng)用;
第十五條規(guī)定,車輛所有者和駕駛者有權(quán)決定是否要將本車產(chǎn)生的自動(dòng)駕駛數(shù)據(jù)分享或者給第三方使用等。
這兩條規(guī)定規(guī)范了公眾的知情權(quán)和數(shù)據(jù)決定權(quán)等基本權(quán)利,《準(zhǔn)則》中還有針對(duì)模糊情況的規(guī)范,本文暫不贅述。
《準(zhǔn)則》為各國(guó)的自動(dòng)駕駛立法提供了一個(gè)有效參考,但是依然沒(méi)有能夠具有法律效力,并且沒(méi)有得到全球的普遍認(rèn)可。
意外來(lái)臨時(shí),自動(dòng)駕駛系統(tǒng)會(huì)怎么做?
在各國(guó)立法尚不完善的情況下,開(kāi)發(fā)自動(dòng)駕駛系統(tǒng)的公司已經(jīng)在悄無(wú)聲息地在算法中寫(xiě)入了一些偏好,而這些偏好就將涉及到上文提及的道德判斷。
早在2014年時(shí),Google就表示,Google的自動(dòng)駕駛原型車會(huì)在撞擊中選擇“較小的物體”;在2016年,Google又表示,Google的自動(dòng)駕駛系統(tǒng)會(huì)先保護(hù)行人,然后再選擇撞“較小的物品”。同在2016年,奔馳的高管曾表示,公司會(huì)“不惜一切代價(jià)的保護(hù)乘客安全”,這個(gè)表態(tài)引起了軒然大波,公眾認(rèn)為公司無(wú)權(quán)做出生命抉擇;后來(lái)奔馳公司又表態(tài),他們的目標(biāo)是“百分之百的避免事故”而不是做出道德選擇,風(fēng)波才逐漸平息。
可想而知,公司普遍不愿意回答媒體或者大眾提出的關(guān)于自動(dòng)駕駛系統(tǒng)道德選擇的提問(wèn),因?yàn)槭紫龋蠹覔?dān)心為時(shí)尚早;現(xiàn)在的系統(tǒng)還只能夠在行人、動(dòng)物和騎車者之間進(jìn)行判斷,甚至還不具備事故發(fā)生時(shí)迅速判斷個(gè)人特征的能力(比如:年齡、社會(huì)地位等);其次,沒(méi)有公司愿意搬起石頭砸自己的腳;在類“電車難題”中的任何判斷都將引起公眾地指責(zé)和質(zhì)疑,并且會(huì)直接影響到消費(fèi)者的看法。
自動(dòng)駕駛系統(tǒng)道德選擇背后涉及的是極大的倫理問(wèn)題。在兩難問(wèn)題中對(duì)任何一方的偏袒都會(huì)涉及到對(duì)另一方的歧視。比如:當(dāng)自動(dòng)駕駛系統(tǒng)優(yōu)先選擇男性時(shí),女性還敢選擇自動(dòng)駕駛汽車嗎?行走在馬路上的女性能夠安心嗎?如果武斷的對(duì)自動(dòng)駕駛倫理問(wèn)題做出判斷將帶來(lái)極大的社會(huì)影響,并且剝奪某些群體的合法權(quán)益。
在自動(dòng)駕駛飛速發(fā)展的時(shí)代,各家自動(dòng)駕駛系統(tǒng)的最終目標(biāo)還是從技術(shù)上消除交通事故或者將交通事故對(duì)人類的傷害降到最低。關(guān)于交通事故不可避免時(shí)的道德判斷標(biāo)準(zhǔn),沒(méi)有公司或者個(gè)人有權(quán)力或者愿意決定處于危急關(guān)頭時(shí)任何一個(gè)人的性命,畢竟每個(gè)人都只有一次生的機(jī)會(huì),而沒(méi)有一條生命是能被放棄的。