長期以來,對AI偏見的擔(dān)憂一直是業(yè)內(nèi)重點討論的話題。以前這方面討論多集中在性別歧視、種族歧視問題上,如今又有研究發(fā)現(xiàn),包括谷歌、微軟和亞馬遜等科技巨頭推廣的物體識別算法,都存在對來自低收入國家的物品時識別表現(xiàn)更差的現(xiàn)象。
這是Facebook AI實驗室進(jìn)行的一項新研究的結(jié)果,該研究表明,AI偏見不僅會重現(xiàn)國家內(nèi)部的不平等,還會重現(xiàn)國家之間的不平等。
在這項研究中,研究人員測試了5種流行的現(xiàn)成物品識別算法——微軟Azure、Clarifai、谷歌Cloud Vision、亞馬遜reko和IBM Watson——以了解每個程序識別全球數(shù)據(jù)集中各種家庭物品的能力。
數(shù)據(jù)集包括117個類別(從鞋子到肥皂再到沙發(fā)),并以不同的家庭收入和地理位置(例如月收入27美元的布隆迪家庭和月收入1090美元的烏克蘭家庭)作了區(qū)分。
研究人員發(fā)現(xiàn),與月收入超過3500美元的家庭相比,在識別月收入50美元的家庭物品時,算法出錯的幾率一下子高出了10%左右。而在準(zhǔn)確性上的絕對差異甚至更大:與索馬里和布基納法索家庭的物品相比,這些算法在識別來自美國的物品方面要高出15-20%。
研究作者表示,他們在“一系列商用云服務(wù)的圖像識別算法中得出了一致結(jié)論”。
這種偏見有很多潛在原因,最常見的解釋是,用于創(chuàng)建算法的培訓(xùn)數(shù)據(jù)往往反映了相關(guān)工程師的生活和背景。而由于這些人通常是來自高收入國家的白人男性,他們教授的課程所要識別的世界也是如此。
研究作者分析,有幾個可能的原因?qū)е铝诉@種現(xiàn)象:第一,用于創(chuàng)建系統(tǒng)的訓(xùn)練數(shù)據(jù)受地理限制,第二,算法本身無法識別文化差異。他表示,視覺算法的訓(xùn)練數(shù)據(jù)主要來自歐洲和北美,而“在人口眾多的地理區(qū)域,特別是非洲、印度、中國和東南亞,對視覺場景的采樣嚴(yán)重不足”。
人工智能偏見最著名的例子之一是面部識別算法,這種算法在識別女性面孔時,通常表現(xiàn)得更差,尤其是有色人種女性。這種偏見會滲透到各種各樣的系統(tǒng)中,從計算假釋的算法,到即將到來的面試前評估簡歷的算法。
還有一種情況是,大多數(shù)圖像數(shù)據(jù)集使用英語名詞作標(biāo)記,并收集相應(yīng)的數(shù)據(jù)。然而,某樣存在于某個地區(qū)的東西,在別的地方可能并不存在,也有可能出現(xiàn)同樣名字對應(yīng)在不同國家對應(yīng)不同事物的情況。比如說“dish soap”這個英語單詞,直譯為洗碗皂,在一些國家指的是一種肥皂,但在某一些國家,“洗碗皂”卻是一種液體容器。
這項研究結(jié)果說明什么?首先,這意味著任何使用這些算法創(chuàng)建的系統(tǒng)對于低收入和非西方國家的人來說都會表現(xiàn)得更差。由于美國科技公司在AI領(lǐng)域處于世界領(lǐng)先地位,這可能會影響到從照片存儲服務(wù)和圖像搜索功能,到動安全攝像頭和自動駕駛汽車等系統(tǒng)的方方面面。
這還可能只是冰山一角。行業(yè)對視覺算法的偏見已經(jīng)有了警惕,但創(chuàng)建這些程序的渠道同樣也在為整個行業(yè)提供算法,而一些不受重視的算法可能永遠(yuǎn)不會受到懷疑。
總而言之,硅谷經(jīng)常把自己的產(chǎn)品——尤其是近年來的AI產(chǎn)品——宣傳為人人平等、人人可得。但類似的研究表明,科技公司繼續(xù)按照自己的形象評估、定義和塑造世界。