本文看點
在創(chuàng)新方面大膽思考意味著直面重大社會問題。如果我們的創(chuàng)新受到女性主義科幻小說作家和理論家的啟發(fā),將技術(shù)領(lǐng)域轉(zhuǎn)移到使社會朝著和平與平等的方向發(fā)展的發(fā)明和改進,則包容性驅(qū)動的人工智能(AI)將是技術(shù)創(chuàng)新的基石。
包容性AI首先要解決的問題是偏見。受過人工訓(xùn)練的機器,復(fù)制和加劇了社會歧視。劍橋大學(xué)研究表明,人工智能系統(tǒng)的設(shè)計增強了性別刻板印象,不關(guān)注性別平等問題的法律和政策,廣泛使用偏見數(shù)據(jù)集,而且AI工作者缺乏多樣性。
目前,AI系統(tǒng)的另一個問題是設(shè)計和部署系統(tǒng)的人與受這些系統(tǒng)影響的人員之間的隔閡越來越深。女權(quán)主義理論與人工智能的交匯帶來了具有深遠影響的新可能性。性別理論家與技術(shù)專家之間的對話將有助于實現(xiàn)社會平等的目標,但性別理論和AI實踐使用的是完全不同的語言。
當(dāng)我們想到人工智能(AI)的未來時,許多人都想到了有感知力的機器人或自動駕駛汽車。這些當(dāng)前的構(gòu)想以及為實現(xiàn)它們而采取的后續(xù)行動,在很大程度上受到科幻小說的影響,如黑色反烏托邦科幻電影《銀翼殺手》或美國愛情科幻電影《她》。
但是,如果我們的創(chuàng)新受到女性主義科幻小說作家和理論家厄休拉·勒古恩、奧克塔維婭·巴特勒和唐娜·哈拉維的啟發(fā),會怎樣呢?
當(dāng)你將技術(shù)領(lǐng)域?qū)?ldquo;進步”的定義從新機器或更快的系統(tǒng),轉(zhuǎn)移到使社會朝著和平與平等的方向發(fā)展的發(fā)明和改進——包容性驅(qū)動的AI突然變得不僅僅是一件美好的事情,而是技術(shù)創(chuàng)新的基石。
當(dāng)我們談?wù)摪菪訟I時,首先要解決的問題是偏見——尤其是受過人工訓(xùn)練的機器復(fù)制和加劇社會歧視的方式?!哆B線》雜志報道了一個有趣但悲慘的例子,它說明了訓(xùn)練AI過程中的個人偏見指數(shù)效應(yīng):
在其他練習(xí)中,員工有時會根據(jù)自身固有的偏見對廣告進行錯誤描述。舉一個明顯的例子,某員工錯誤地將保守派組織的支持LGBT的廣告歸為反LGBT廣告。當(dāng)我指出她對保守派團體在LGBT問題上觀點的假設(shè)導(dǎo)致歸類錯誤時,回應(yīng)我的只有沉默。
這些錯誤的特征會被整合到培訓(xùn)人工審閱者和機器的手冊中。這些是在嘗試做正確的事情時犯的錯誤。但是,它們證明了為什么在更廣泛的層面上,對未經(jīng)培訓(xùn)的工程師和數(shù)據(jù)科學(xué)家進行糾正偏見是天真的,在領(lǐng)導(dǎo)層面來看則是不真誠的。
眾所周知,算法中的不平等的根源在于技術(shù)領(lǐng)域的長期缺乏多樣性,該問題亟待解決。我們需要聽取不同的聲音去建設(shè)、訓(xùn)練以及監(jiān)督平臺。
多樣性意味著人們具有不同經(jīng)歷、種族、性別、宗教、社會經(jīng)濟背景等。算法不是僅僅為了一種類型的人構(gòu)建的,而是為所有類型的人。
我們當(dāng)前的算法是由具有系統(tǒng)性偏見的人創(chuàng)建的,這些人未經(jīng)訓(xùn)練就可以識別甚至被灌輸這些偏見。例如,社交媒體審核算法更可能標記女性、同志和跨性別者分享的內(nèi)容。
難以置信?《赫芬頓郵報》最近發(fā)表了一篇文章,引用了Instagram上的一種常見做法,該做法有助于提高曝光率和參與度——帳戶將性別從女性更改為男性。
問題是,許多技術(shù)公司和創(chuàng)新者沒有試圖解決這些問題,而是繼續(xù)推動有缺陷的AI的發(fā)展。關(guān)于包容性AI的討論被邊緣化,結(jié)果是目前的AI效率低下、不準確,并且遠遠沒有為社會帶來任何有意義的進步。
這并不是說沒有人提及包容性AI或正在推動一些激動人心的舉措。例如,IBM的AI Fairness 360是一個開源工具包,可幫助開發(fā)人員測試其數(shù)據(jù)集中的偏差。
5月,F(xiàn)acebook AI 宣布了一項標記數(shù)據(jù)集內(nèi)圖像的新技術(shù),以便研究人員可以了解是否使用這些圖像訓(xùn)練了機器學(xué)習(xí)模型。這種驗證方法稱為“放射性”數(shù)據(jù),可以提高訓(xùn)練模型的數(shù)據(jù)透明度。
但是,這些既不是AI創(chuàng)新的規(guī)范也不是重點。
2019年劍橋大學(xué)的一項研究表明,“按照目前的速度,人工智能的發(fā)展將繼續(xù)基于性別的歧視……人工智能系統(tǒng)的設(shè)計增強了限制性性別刻板印象,不關(guān)注性別平等問題的法律和政策,廣泛使用偏見數(shù)據(jù)集,而且AI工作者缺乏多樣性。”
盡管這項強大的技術(shù)存在一個未解決、心照不宣的重大缺陷,但我們?nèi)栽诓粩嗲斑M、越來越多地使用該技術(shù)。
女權(quán)主義理論與人工智能的交匯帶來了具有深遠影響的新可能性。在上述研究中標題為“性別理論與人工智能實踐融合”的部分中,作者指出:“性別理論家與技術(shù)專家之間的對話將有助于實現(xiàn)社會平等的目標。但目前,性別理論和AI實踐‘說的是完全不同的語言’。”
簡而言之,精通性別和種族理論的研究人員沒有在寫IBM或Facebook團隊可讀的、有關(guān)消除偏見的論文。
這篇文章還強調(diào)了設(shè)計和部署這些系統(tǒng)的人與受這些系統(tǒng)影響的人員之間的隔閡越來越深。
“普通人將如何應(yīng)對挑戰(zhàn)、適應(yīng)和提供反饋,這對于這些系統(tǒng)的積極發(fā)展至關(guān)重要嗎?”研究人員問。他們繼續(xù)說:“我們必須考慮‘人工智能對社會塑形’的重要性,這將包括與用戶一起參與設(shè)計研討會,并讓他們參與如何使系統(tǒng)對他們有益的討論中。”
真正的創(chuàng)新是一種有潛力改變世界的創(chuàng)新,比如未來的人工智能——它不僅可以復(fù)制人類的偏見,而且可以糾正它。
技術(shù)企業(yè)家、開發(fā)人員和投資者以大膽而出名,但也許他們的格局還不夠大。當(dāng)天交付的程序包、了解我們的日歷的虛擬助手或知道我們想聽什么歌的App無法解決我們面臨的最緊迫的問題。
在創(chuàng)新方面大膽思考意味著對重大社會問題直言不諱,例如有色人種的監(jiān)禁過多,或者為什么僅僅在社交媒體上瀏覽1小時就會導(dǎo)致婦女和女孩的自尊心降低。
也許我們應(yīng)該構(gòu)建一個以另一種科幻小說為藍本的科技未來——在那里我們可以使用AI解決系統(tǒng)性歧視并減少由于根深蒂固的偏見而造成的不良決定。
對于勒古恩、巴特勒、哈拉維而言,技術(shù)和社會的包容性(或缺乏包容性)是主要關(guān)注焦點,也是反烏托邦與烏托邦之間區(qū)別的癥結(jié)所在。
為了追求更好的技術(shù)和更美好的世界,讓我們也應(yīng)將包容性作為AI敘事的重點。
原文來自Forbes,作者Annie Brown