當(dāng)談及人工智能的普及對(duì)人類造成的最大威脅時(shí),答案實(shí)際上與機(jī)器人沒(méi)有任何關(guān)系。相反,最大的障礙是有偏見(jiàn)的算法,而且,就像其他所有的壞事一樣,人工智能對(duì)窮人和邊緣人群造成了不成比例的影響。
機(jī)器學(xué)習(xí)算法,無(wú)論是“人工智能”形式的一種,還是用于篩選數(shù)據(jù)的簡(jiǎn)單快捷方式,都無(wú)法做出理性的決定,因?yàn)樗鼈儾痪邆浜侠硭伎嫉哪芰Α1M管如此,美國(guó)政府機(jī)構(gòu)卻還是讓機(jī)器學(xué)習(xí)算法負(fù)責(zé)可能對(duì)人類的生活產(chǎn)生深遠(yuǎn)影響的決策問(wèn)題,這已經(jīng)成為了讓人難以理解的不道德的問(wèn)題。
舉例來(lái)說(shuō),當(dāng)一個(gè)算法管理一個(gè)雜貨店的庫(kù)存時(shí),機(jī)器學(xué)習(xí)可以幫助人類做一些事情,畢竟經(jīng)理人可能無(wú)法憑借一人之力追蹤數(shù)百萬(wàn)件物品的情況。但是,在某些情況下,機(jī)器學(xué)習(xí)會(huì)成為一場(chǎng)災(zāi)難,比如,當(dāng)它被用來(lái)剝奪某人的自由或?qū)⒆舆M(jìn)行限制的時(shí)候,我們就會(huì)覺(jué)得,人類賦予它太多權(quán)力了。
兩年前,Pro Publica研究了COMPAS再犯算法。該算法用于預(yù)測(cè)犯人或被告人被釋放之后再次犯罪的可能性,并被用于保釋、量刑和假釋。調(diào)查結(jié)果顯示,黑人被告(錯(cuò)誤率45%)的假陽(yáng)性率(被標(biāo)記為“高風(fēng)險(xiǎn)”但沒(méi)有再犯)是白人被告(24%)的近兩倍。對(duì)此,ProPublica發(fā)表了一篇措辭嚴(yán)厲的文章,從此拉開(kāi)了人工智能偏見(jiàn)問(wèn)題爭(zhēng)論的序幕。
而在如今這個(gè)時(shí)代,算法正在“幫助”政府官員完成本該屬于他們的本職工作,如果你不是異性戀,不是白人,或者生活水平不在貧困線以上,那么你就會(huì)面臨更大的不公平偏見(jiàn)的風(fēng)險(xiǎn)。但這并不意味著,白人或富人不會(huì)受到偏見(jiàn)的影響,只不過(guò)相比起來(lái),他們失去自由、孩子或生計(jì)的可能性更小。所以問(wèn)題的重點(diǎn)在于,算法在這個(gè)不公平的過(guò)程中起著關(guān)鍵作用,而且正在讓事情變得更加糟糕。
新的算法讓兒童福利案件中的舊偏見(jiàn)繼續(xù)蔓延
1956年,著名作家Philip K.Dick發(fā)表了一篇短篇小說(shuō)《少數(shù)派報(bào)告》(The Minority Report),描述了一個(gè)名為“Precrime”的重罪預(yù)防系統(tǒng),利用了三個(gè)“先知”的超凡能力不斷捕捉他們腦電波中出現(xiàn)的未來(lái)犯罪場(chǎng)景,然后,Precrime就會(huì)在案件發(fā)生前對(duì)將要犯罪的人進(jìn)行逮捕。“預(yù)測(cè)人從不會(huì)錯(cuò)”也成為了小說(shuō)的主旋律。
不過(guò),當(dāng)該特殊部門的前負(fù)責(zé)人John Anderton成為預(yù)計(jì)中下一宗命案的兇手時(shí),事情發(fā)生了改變。在Anderton查找案件真相的過(guò)程中,他逐漸了解到,“先知”之間有時(shí)會(huì)出現(xiàn)沖突,當(dāng)對(duì)一個(gè)人是否會(huì)繼續(xù)犯罪存在不同的意見(jiàn)時(shí),便會(huì)秉承少數(shù)服從多數(shù)的原則,這一發(fā)現(xiàn)破壞了整個(gè)Precrime的體系。但Anderton認(rèn)為,Precrime的公眾利益值得冒著逮捕無(wú)辜公民的風(fēng)險(xiǎn),于是為了維護(hù)公眾對(duì)這個(gè)系統(tǒng)的信任,他選擇犧牲自己和受害者來(lái)實(shí)現(xiàn)關(guān)于自己的預(yù)言。
但現(xiàn)實(shí)呢?美國(guó)政府的任何部門都不可能有“先知”存在的,但是越來(lái)越多的兒童福利機(jī)構(gòu)卻在向電影的方向發(fā)展。據(jù)了解,現(xiàn)在有些州的政府機(jī)構(gòu)正在使用預(yù)測(cè)性分析來(lái)判斷一個(gè)孩子在家里是不是會(huì)處于危險(xiǎn)之中,然而基于他們對(duì)算法的過(guò)分信任,這些機(jī)構(gòu)正在進(jìn)行一種類似于Anderton的到的考量,只不過(guò)不存在自我犧牲的成分。
眾所周知,只有五分之一的被調(diào)查的虐待指控是經(jīng)過(guò)了法院或者兒童福利機(jī)構(gòu)證實(shí)的。比如,根據(jù)美國(guó)衛(wèi)生和公眾服務(wù)部(U.S.Department of Health and Human Services)的數(shù)據(jù),2001年有10萬(wàn)多名兒童被證明是因?yàn)闆](méi)有根據(jù)的指控而被迫從家庭中“移除”。更不用說(shuō)那些在上訴中被推翻的案件或者是那些屈服于兒童福利機(jī)構(gòu)要求的家庭,即使他們不同意法庭的調(diào)查結(jié)果。
目前,預(yù)測(cè)分析已經(jīng)被引入了兒童福利行業(yè),并承諾將使這個(gè)系統(tǒng)更加公正,但實(shí)際上,這一系統(tǒng)更容易針對(duì)脆弱人群做出錯(cuò)誤決定,并且更難以對(duì)錯(cuò)誤的決策提出上訴。對(duì)此,數(shù)學(xué)家、《數(shù)學(xué)殺傷性武器》一書(shū)的作者Cathy O’Neil表示,“數(shù)據(jù)科學(xué)家是人工智能道德選擇的譯者。”
也就是說(shuō),算法本身并不具備對(duì)人類道德品質(zhì)進(jìn)行客觀評(píng)價(jià)的洞察力,相反,他們只是從所獲得的數(shù)據(jù)中完成預(yù)測(cè)模式,而數(shù)據(jù)取決于哪些信息是可用的以及哪些是程序員認(rèn)為相關(guān)的。這意味著,哪些設(shè)計(jì)預(yù)測(cè)兒童福利算法的人,無(wú)論是多么善良,還是會(huì)將個(gè)人、歷史中存在的偏見(jiàn)嵌入到方程式中,而這些方程式會(huì)讓偏差永久化。偏見(jiàn)帶來(lái)的最糟糕的結(jié)果是,成千上萬(wàn)不知情的家庭會(huì)受到影響。
美自由媒體人“深受其害”
那這個(gè)預(yù)測(cè)分析算法的影響究竟有多嚴(yán)重呢?自由撰稿人Elizabeth Brico在一篇文章中透描述了自己的經(jīng)歷,表示預(yù)測(cè)分析軟件對(duì)她及孩子帶來(lái)了惡劣的影響。據(jù)了解,160天前,在不確定的情況下,Brico三歲和四歲的女兒被從她的監(jiān)護(hù)中移走了,因?yàn)楦チ_里達(dá)州布勞沃德縣的當(dāng)局認(rèn)為孩子在她的照顧下不安全。事情源于Brico和孩子的外公外婆離開(kāi)了三天,隨后孩子的祖母便打通了虐待電話,稱Brico在邁阿密使用毒品。
這一指控很快得到了重視,鑒于Brico過(guò)去五年一直在進(jìn)行一種被診斷為藥物使用障礙的藥物治療和咨詢,所以最終被認(rèn)定會(huì)讓其孩子處于危險(xiǎn)的境地。盡管Brico進(jìn)行了負(fù)面藥物檢測(cè),但當(dāng)法官做出讓孩子跟隨祖父母的決定時(shí),并沒(méi)有承認(rèn)其檢測(cè)結(jié)果,反而稱,其語(yǔ)言技巧表明她不值得被信賴。也就是說(shuō),在沒(méi)有任何證據(jù)證明Brico吸大麻,也沒(méi)有證據(jù)表明孩子受到任何虐待或忽視的情況下,Brico就被認(rèn)定是具有高風(fēng)險(xiǎn)不安全的因素。
據(jù)悉,佛羅里達(dá)州是美國(guó)首批實(shí)施預(yù)測(cè)分析的州之一,這也是當(dāng)?shù)貎和@贫鹊囊徊糠?。而在Brico的案件中,預(yù)測(cè)分析系統(tǒng)對(duì)她風(fēng)險(xiǎn)狀況的決策影響了調(diào)查者的決定,并最終將孩子從她身邊“奪走”。
在小智君(ID:Aiobservation)看來(lái),這種有偏見(jiàn)和隨意分離家庭的代價(jià)是不可忽視的,即使是短期的分離也會(huì)對(duì)兒童產(chǎn)生重大影響,特別是三歲以下的兒童更嚴(yán)重。有兒童專家表示,父母分離可能會(huì)在以后的生活中引起諸如沖動(dòng)、控制情緒、自卑以及注意力缺陷的問(wèn)題。而根據(jù)Brico的描述,現(xiàn)在她的孩子已經(jīng)表現(xiàn)出了憤怒和抑郁的跡象。
南加州大學(xué)社會(huì)工作副教授Emily Putnam-Hornstein曾幫助創(chuàng)建了一種兒童福利算法,按照她的說(shuō)法,這個(gè)系統(tǒng)的設(shè)計(jì)并不是為了評(píng)估虐待報(bào)告的嚴(yán)重程度,這一決定還是取決于人類。相反,它是被用于預(yù)測(cè)一個(gè)家庭將來(lái)需要兒童福利機(jī)構(gòu)進(jìn)行干預(yù)的可能性,比如有些信息可以幫助篩選者決定通過(guò)哪些指控進(jìn)行調(diào)查。不過(guò)Putnam-Hornstein也承認(rèn),被調(diào)查者中黑人和西班牙裔家庭比白人家庭要多。
此外,納入該算法的131個(gè)指標(biāo),包括了醫(yī)療補(bǔ)助計(jì)劃和其他聯(lián)邦援助項(xiàng)目的登記記錄,以及關(guān)于心理健康和藥物使用治療的公共記錄。Putnam-Hornstein強(qiáng)調(diào),參與這些服務(wù)并不是高分的自動(dòng)配方,但是使用這些服務(wù)的人比未使用者有更多的信息,對(duì)在系統(tǒng)中不存在足夠信息的家庭會(huì)被排除在打分之外。
在佛羅里達(dá)州,兒童和家庭部門與ASA簽訂了一項(xiàng)研究項(xiàng)目,以預(yù)測(cè)哪些家庭最有可能通過(guò)虐待至兒童死亡。根據(jù)SAS網(wǎng)站,他們使用了“犯罪歷史、行為健康數(shù)據(jù)以及藥物和酒精治療數(shù)據(jù)”。由于隱私法,這些數(shù)據(jù)必須來(lái)自公共衛(wèi)生數(shù)據(jù)庫(kù),因此行為健康和藥物治療統(tǒng)計(jì)不包括私人保險(xiǎn)患者。
換句話說(shuō),如果一個(gè)人遭到了虐待兒童的指控,但他正在私人機(jī)構(gòu)中治療心理健康問(wèn)題,那么算法就可能會(huì)跳過(guò)去,不做評(píng)判;但如果他正在使用政府援助或者擁有州伴發(fā)的醫(yī)療卡,那么就有很大可能陷入困境。這有點(diǎn)像Philip K.Dick的虛構(gòu)預(yù)言,如果“先知”只對(duì)窮人有異象,那結(jié)果可想而知。
當(dāng)然,這也是問(wèn)題所在,也許有些算法在幫助就掙兒童福利機(jī)構(gòu)調(diào)查中出現(xiàn)的歧視問(wèn)題,但必須要采取不同的方式來(lái)實(shí)現(xiàn)這一點(diǎn)。有時(shí),當(dāng)你使用數(shù)據(jù)驅(qū)動(dòng)的方式時(shí),結(jié)果中的缺陷會(huì)突出底層系統(tǒng)中存在的問(wèn)題??偟膩?lái)說(shuō),無(wú)論是膚色、還是種族等,與貧困或剝奪權(quán)利之間并沒(méi)有內(nèi)在聯(lián)系,但少數(shù)群里的邊緣化卻會(huì)受到很大的影響。在一些算法中,黑人已經(jīng)面臨了系統(tǒng)的不公平對(duì)待,如果使用算法來(lái)延續(xù)這種情況,不過(guò)是在將殘忍自動(dòng)化而已。
我們不能通過(guò)“黑盒子”AI或者有偏見(jiàn)的算法來(lái)解決社會(huì)問(wèn)題,這就有點(diǎn)像用火滅火。除非我們能開(kāi)發(fā)出百分百無(wú)偏見(jiàn)的AI,否則用它們來(lái)判斷是否要?jiǎng)儕Z一個(gè)人的自由,或者決定孩子的監(jiān)控權(quán)或者未來(lái)的發(fā)展,都是錯(cuò)誤的決定。