目前人工智能是許多日常應(yīng)用的必要組成部分,包括電子設(shè)備、搜索平臺和社交平臺等等。在多數(shù)情況下,人工智能為消費(fèi)者提供的服務(wù)均起到積極作用,例如機(jī)器自動檢測信用卡欺詐,風(fēng)控,亦或是在幫助醫(yī)療保險風(fēng)險評估。但是在少數(shù)情況下,例如信用額度或抵押貸款,依然存在決策偏見。
面部分析和面部檢測
AI助理警務(wù)是最早引起爭議一個領(lǐng)域,尤其是面部識別技術(shù)。其中主要存在兩個爭論點(diǎn):技術(shù)的準(zhǔn)確性,技術(shù)濫用的可能性。第一個問題是面部識別算法在訓(xùn)練時就可能輸入帶有偏見的數(shù)據(jù),這也就意味著算法運(yùn)行的結(jié)果可能會因為種族、人口、地域等等方面而產(chǎn)生偏見。第二個問題則是很多人所直接擔(dān)心的問題,即便準(zhǔn)確度很高,但并未按照預(yù)先設(shè)定的用途使用,而任何的誤用都有可能對部分人造成傷害。
目前,技術(shù)人員通過面部檢測和面部分析技術(shù)來縮小此類問題,面部檢測識別和匹配數(shù)據(jù)庫中人臉的行為,進(jìn)一步分析面部特征,例如鼻子的形狀和情緒分析。但是面部分析同樣引起公民權(quán)利和權(quán)益方面的關(guān)注,某種算法可以確定一個人是生氣或是害怕,同樣也有可能會錯誤分析結(jié)果,導(dǎo)致的后果更具災(zāi)難性。
法律的不確定性
在考慮算法偏差時,其中一個重要的問題是AI產(chǎn)品是否對被保護(hù)的群體造成不成比例的偏見,換個說法同個群體受到不同對待。但在起訴時很容易就會聯(lián)想到兩個問題,第一,在龐大的數(shù)據(jù)面前,很難發(fā)現(xiàn)有不同的對待。第二,即使發(fā)現(xiàn),也很難證明,通常需要大量人員匯總數(shù)據(jù),海量數(shù)據(jù)造成取證的難度。
但算法偏差問題還未經(jīng)法庭訴訟,因為前一步的應(yīng)用就已經(jīng)存在法律問題,或者說存在灰色定義的部分。例如在二次大戰(zhàn)后,美國在1964年修訂的《民權(quán)法》中:私人雇主可以通過證明其做法的“業(yè)務(wù)必要性”來對不同的影響索賠提出異議。但就目前自動化軟件的背景下,什么構(gòu)成“業(yè)務(wù)必要性”?算法偏見下,原告如何識別、證明算法對同一群體中不同人產(chǎn)生不同的影響?這是立法機(jī)構(gòu)所需要制定的標(biāo)準(zhǔn)。
確定目標(biāo)
由此可見,算法偏差本身是一個多層次的問題,自然需要多層次的解決方案,包括問責(zé)機(jī)制、行業(yè)協(xié)會監(jiān)管、民權(quán)訴訟立法等等。2019年,美國參議員Ron Wyde、Cory Booker和眾議員Yvette Clark提出《算法責(zé)任法案》,該法案要求公司進(jìn)行算法風(fēng)險評估,由他們選擇是否公布評估結(jié)果。
對于一個多層次的解決方案,首先要解決的一個最基本的問題:我們要解決的目標(biāo)是什么?例如對于某些人來說,在刑事司法中使用AI,最大的挑戰(zhàn)是不準(zhǔn)確的可能性,對不準(zhǔn)確的容忍度為0。而在某些情況下,結(jié)果與算法準(zhǔn)確無關(guān),例如在國家安全方面活刑事司法,當(dāng)百分百準(zhǔn)確,就是奧威爾式的無情,而當(dāng)運(yùn)行欠佳,就是卡夫卡式的噩夢。
可以說,這已經(jīng)超出科技討論的范疇了。