人工智能時代的倫理道德

寒非說科技
數(shù)字信息技術(shù)已經(jīng)重新定義了人們?nèi)绾闻c他人進行社交互動,甚至如何找到伴侶。消費者、生產(chǎn)者和供應(yīng)商、實業(yè)家和勞動者、服務(wù)提供者和客戶、朋友和合作伙伴之間重新定義的關(guān)系,已經(jīng)在社會上造成一場劇變,正在改變后工業(yè)時代對道德理性的定義。

數(shù)字信息技術(shù)使幾乎任何人、任何時間、任何地點都能輕易獲得信息。這對我們社會的各個方面,從工業(yè)生產(chǎn)到分配、到商品和服務(wù)的消費,都產(chǎn)生了深遠的影響。就像之前的技術(shù)革命一樣,數(shù)字信息技術(shù)的影響如此廣泛,我們不再只是簡單地利用它——做我們以前做過的事情——而是通過改變我們的行為方式來適應(yīng)它。

今天,數(shù)字信息技術(shù)已經(jīng)重新定義了人們?nèi)绾闻c他人進行社交互動,甚至如何找到伴侶。消費者、生產(chǎn)者和供應(yīng)商、實業(yè)家和勞動者、服務(wù)提供者和客戶、朋友和合作伙伴之間重新定義的關(guān)系,已經(jīng)在社會上造成一場劇變,正在改變后工業(yè)時代對道德理性的定義。

我們正站在下一波科技革命的風(fēng)口浪尖:人工智能。20世紀晚期的數(shù)字革命將信息帶到了我們的指尖,讓我們能夠快速做出決定,而機構(gòu)做出決定,從根本上說,取決于我們。人工智能正在通過自動化決策過程來改變這一狀況,它有望帶來更好的定性結(jié)果和更高的效率。人工智能游戲系統(tǒng)在擊敗國際象棋世界冠軍卡斯帕羅夫(Gary Kasparov)和圍棋世界冠軍柯潔(Ke Jie)方面取得的成功,突顯出人工智能在計算當前決策對潛在未來棋步的影響方面,在質(zhì)量方面優(yōu)于人類專家。

然而,在這個決策過程中,人工智能也帶走了人類行為的透明性、可解釋性、可預(yù)測性、可教性和可審核性,取而代之的是不透明性。這一舉動的邏輯不僅不為參與者所知,也不為程序的創(chuàng)造者所知。隨著人工智能為我們做出決策,決策的透明度和可預(yù)測性可能會成為過去。

想象一下這樣的情景:你的孩子回家找你,要求你給她零花錢,讓她和朋友一起去看電影。你允許了。一周后,你的另一個孩子帶著同樣的要求來找你,但這次,你拒絕了。這將立即引起不公平和偏袒的問題。為了避免受到偏袒的指責(zé),你要向孩子解釋,她必須完成家庭作業(yè),才有資格獲得零花錢。

沒有任何解釋,家里一定會有緊張的氣氛?,F(xiàn)在想象一下用一個人工智能系統(tǒng)取代你的角色,這個系統(tǒng)已經(jīng)收集了成千上萬個處于類似情況的家庭的數(shù)據(jù)。通過研究其他家庭的零花錢決定的后果,得出結(jié)論,一個兄弟姐妹應(yīng)該得到零用錢,而另一個兄弟姐妹不應(yīng)該。

但人工智能系統(tǒng)無法真正解釋其中的原因,只能說它衡量了你孩子的頭發(fā)顏色、身高、體重以及其他所有它能獲得的屬性,以便做出對其他家庭似乎最有效的決定。那又怎么會有效呢?

在法庭上,過去的判決約束法官遵循先例,即使情況不完全相同,但大致相似。一致性在司法、政府、關(guān)系和道德規(guī)范中都很重要。AI沒有遵守先例的法律要求。人類往往只有有限的直接或間接經(jīng)驗,而機器可能可以訪問大量數(shù)據(jù)。

人類無法在一個長期的時間尺度內(nèi)篩選他們的經(jīng)歷,而機器可以很容易地做到這一點。人類會排除那些被認為對決策無關(guān)緊要的因素,而機器不會排除任何因素。這可能導(dǎo)致不尊重先例的決定,其規(guī)模之大是人類可以理解的。隨著企業(yè)和社會迅速轉(zhuǎn)向人工智能,人工智能實際上可能比人類在更長的時間范圍內(nèi)做出更好的決策,而人類在更短的時間范圍內(nèi)就會感到困惑和沮喪,并侵蝕一個正常運轉(zhuǎn)的社會的唯一貨幣,信任。

要理解基于人工智能的決策可能有多人工,研究人類如何做出決策是很重要的。人類的決策可能由一組明確的規(guī)則,或者僅僅基于結(jié)果論的關(guān)聯(lián),或者由組合來指導(dǎo)。人類對于與決策相關(guān)的信息也是有選擇性的。由于缺乏選擇性,機器在做決定時可能會考慮人類認為不恰當?shù)囊蛩亍?/p>

有無數(shù)這樣的例子,從微軟(Microsoft)在其聊天機器人Tay開始在Twitter上發(fā)表煽動性反猶太言論后關(guān)閉它,到波士頓大學(xué)(Boston University)的一項研究,該研究發(fā)現(xiàn)“老板”(boss)、“建筑師”(architect)和“金融家”(financier)等詞與男性、“護士”(nurse)和“接待員”(接待員)等詞與女性之間存在性別關(guān)聯(lián)。這可能是數(shù)據(jù)造成的,但它與我們的顯式值形成了對比。如果數(shù)據(jù)驅(qū)動的過程依賴于這些人工智能算法生成的輸出,它們將產(chǎn)生有偏見的決策,往往違背我們的道德價值觀。

ProPublica在2016年提供了明顯的證據(jù)。美國法院使用的一種電腦程序錯誤地將兩年之內(nèi)沒有再犯的黑人被告標記為“慣犯”,其再次犯案的可能性幾乎是白人被告的兩倍——前者為45%,后者為23%。如果一個人也這么做,就會被譴責(zé)為種族主義者。人工智能揭示了我們明確的價值觀和集體經(jīng)驗之間的分裂。我們的集體經(jīng)驗不是一成不變的。它們是由重要的社會決定所決定的,而這些決定又由我們的道德價值觀所指導(dǎo)。我們真的想把決策過程留給那些只從過去學(xué)習(xí)、因而受制于過去的機器,而不是塑造未來的機器嗎?

鑒于人工智能在醫(yī)療診斷、金融服務(wù)和就業(yè)篩查等領(lǐng)域的應(yīng)用規(guī)模之大,任何一個偶然事件的后果都是巨大的。隨著算法越來越依賴于提高可預(yù)測性的特性,控制這類決策的邏輯變得越來越不可思議。因此,我們失去了決策的全局性,拋棄了所有的原則來支持過去的觀察。在某些情況下,這可能是不道德的,在某些情況下是非法的,在某些情況下是短視的。“慣犯算法”公然藐視無罪推定、機會均等等原則。

一致性是道德和正直不可或缺的。我們的決定必須遵循一個高于統(tǒng)計準確性的標準;幾個世紀以來,相互信任、減少危害、公平和平等的共同美德已被證明是任何推理系統(tǒng)生存的基本基石。沒有內(nèi)部邏輯的一致性,人工智能系統(tǒng)缺乏健壯性和可問責(zé)性——這是在社會中建立信任的兩個關(guān)鍵措施。通過在道德情感和邏輯推理之間制造裂痕,數(shù)據(jù)驅(qū)動決策的不可知性阻礙了批判性地參與決策過程的能力。

這是我們生活的新世界,復(fù)雜的決定被削減成反射性的選擇,并被觀察到的結(jié)果所強化;把復(fù)雜的東西簡化成簡單的東西,把道德簡化成實用的東西。今天,我們的道德感為我們的決策提供了一個框架。也許不久之后,我們的決定就會讓人們對我們的道德產(chǎn)生懷疑。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論