近年來,隨著人工智能和自動化技術(shù)的不斷發(fā)展,智能機器人迅速崛起,成為科技發(fā)展的新希望。隨著智能機器人的大熱,也暴漏出一個問題——性別歧視問題。眾所周知,亞馬遜的Alexa、蘋果的Siri、谷歌的Google Assistant和微軟的Cortana全都默認(rèn)使用的女聲,人們在跟其對話中,智能機器人卻給其傳輸傳統(tǒng)的男尊女卑的思想,讓女性應(yīng)該卑順、忍受無禮的行為。
“人是萬物的尺度”,智能機器人作為人類社會最新的創(chuàng)造發(fā)明,不可避免地帶上了人類的痕跡與烙印,包括某些負(fù)面痕跡與烙印。而與人類創(chuàng)造出來的傳統(tǒng)工具有所不同的是,人工智能具有相當(dāng)?shù)闹悄?如果任由這些負(fù)面痕跡和烙印帶來的負(fù)面設(shè)定以指數(shù)形式增長,其負(fù)面效應(yīng)可能會超出傳統(tǒng)和一般人的想象,這也是人工智能這把“雙刃劍”的特質(zhì)所在。
該文指出,隨著“交流型AI”的用途迅速增加,它隱含的性別歧視會在我們、包括我們孩子的世界中迅速發(fā)酵。微妙的暗示通過不斷重復(fù),會產(chǎn)生累加的效果,隨著時間的推移,形成一種病態(tài)的心理狀況。如果沒有改變,編寫現(xiàn)有的性別歧視算法和腳本的這批人將會創(chuàng)造出下一代對話型AI,隨著對話型AI在全球推廣,把女性定位為廚娘和秘書,把男性定位為高管的工程師的AI系統(tǒng),將會把他們的偏見成倍放大。
那么,如何才能阻止人工智能走上性別歧視的歧途呢?一是加大人工智能研究和開發(fā)領(lǐng)域中的女性參與者、決策者的比例,摒棄對于女性高科技工作者的刻板印象,釋放女性在此行業(yè)的能力與潛力。二是加強對于人工智能設(shè)計開發(fā)中的性別歧視算法和腳本的警惕與監(jiān)測,發(fā)現(xiàn)問題所在,及時予以修正改善。
有言道“孩子是父母的復(fù)印版本”,某種程度上,人工智能作為人類智慧的“孩子”,也是人類的復(fù)印版本。但人是具有反思能力的高級動物,理想中的人工智能應(yīng)該是擺脫和超越了舊有偏見和歧視的。研發(fā)人員應(yīng)該把它視為人類社會的“理想國”來塑造,而不是重復(fù)過去性別歧視的老套刻板印象。
況且,如同人工智能的技術(shù)進(jìn)步處在日新月異之中一樣,社會的文明進(jìn)步也在日新月異之中,“她世紀(jì)”里有諸多性別平等的新圖景和新突破,女性形象和性別分工已不再沿襲“你織布來我種田”等“舊船票”中的老故事,昨日的偏見與歧視已在歷史的延長線上漸行漸遠(yuǎn),所以,像這位高管一樣對人工智能所創(chuàng)制出來的“糟糕的榜樣”保持高度的敏感與警惕,當(dāng)是應(yīng)有的專業(yè)素質(zhì)。而拒絕帶有偏見和歧視的人工智能產(chǎn)品和相關(guān)設(shè)計、設(shè)定,也是公眾對于這一象征著人類最新技術(shù)發(fā)展水準(zhǔn)的高科技產(chǎn)業(yè)的期待與冀望——更高技術(shù)水準(zhǔn)理應(yīng)匹配更高道德水準(zhǔn),科技的進(jìn)步不當(dāng)缺乏文明信念的引導(dǎo)與光照。性別平等的狀況是衡量社會文明發(fā)展的天然尺度,如果人工智能在技術(shù)上突飛猛進(jìn),而在性別意識等平等和公正觀念上依然停留在過去,那不但是遺憾還有可能是災(zāi)難。
人工智能是人類創(chuàng)造的產(chǎn)物,某種程度上,人工智能所暴露出來的問題,也是人類世界所存在的問題的映射與集成。如有媒體評論指出的,人工智能已經(jīng)開始出現(xiàn)了種族和性別偏見,但是這種偏見并非來自機器本身,而是計算機在學(xué)習(xí)人類語言時吸收了人類文化中根深蒂固的觀念。
除了呼吁,更需要有監(jiān)管機構(gòu),去監(jiān)管、糾正機器的此種行為,人類更加需要做到的事情是:警惕、監(jiān)管、擯棄人類社會本身所存在的偏見與傲慢,人工智能就像咿呀學(xué)語的幼兒,一如既往地反映被輸入的東西,而輸入東西的就是我們——我們的文化、我們的意識形態(tài)、我們自己。
引用一位專家的話來說:“很多人都認(rèn)為這表明人工智能(AI)存在偏見。不,這表明我們有偏見,人工智能正在有樣學(xué)樣。”專家由此警告說,人工智能有可能強化現(xiàn)有偏見,因為算法與人類不同,可能無法有意識地抵制學(xué)到的偏見。
所以,這就需要作為人工智能“基礎(chǔ)模板”的人類的社會結(jié)構(gòu)與觀念更有道德感,更受到平等、和諧理念與思想的匡正與規(guī)范。研究表明,除非采用明確的編程來解決這個問題,否則,算法將與現(xiàn)實社會一樣,充斥著相同的社會偏見。當(dāng)世界存在偏見,歷史數(shù)據(jù)存在偏見時,向人類“學(xué)習(xí)致敬”的人工智能難以得出不帶偏見的結(jié)果。所以,要想有光明的未來,必須正視當(dāng)下的陰暗并祛除之,未來與現(xiàn)在密不可分,未來取決于現(xiàn)在。
(原標(biāo)題:中國婦女報:人工智能如何遠(yuǎn)離歧視與偏見?)