人類(lèi)的AI調(diào)校計(jì)劃:像個(gè)淑女,或者硬漢

藏狐
很多AI的性別偏見(jiàn)來(lái)自于訓(xùn)練語(yǔ)料中的“臟數(shù)據(jù)”,因此,建立性別敏感的AI公共數(shù)據(jù)庫(kù)也十分重要。這樣技術(shù)人員就可以直接使用無(wú)偏見(jiàn)的數(shù)據(jù)集來(lái)進(jìn)行訓(xùn)練,開(kāi)發(fā)產(chǎn)品,避免了一些公司繞開(kāi)公眾監(jiān)督之后開(kāi)發(fā)一些“諂媚”的AI應(yīng)用。

“頭像是我,不滿意?”如果男性機(jī)器人或AI智能體,開(kāi)始跟你說(shuō)爹言爹語(yǔ),你是什么感覺(jué)?

“你再說(shuō)我會(huì)臉紅的哦”,如果女性機(jī)器人或AI智能體,用茶言茶語(yǔ)來(lái)表達(dá)順?lè)?,你?huì)開(kāi)心嗎?

不管你相不相信、喜不喜歡,人工智能(無(wú)論算法軟件,還是機(jī)器人)的性別化,以越來(lái)越快的速度進(jìn)入主流消費(fèi)產(chǎn)品當(dāng)中,頻繁出現(xiàn)在你我的生活里。這時(shí),人類(lèi)社會(huì)中既有的性別規(guī)范,包括性別偏見(jiàn),也被復(fù)制到了數(shù)字世界當(dāng)中。

性別化的常見(jiàn)做法,包括通過(guò)語(yǔ)音(男聲/女聲)、姓名、體格以及其他特征,賦予智能體一種類(lèi)似人的性別特征。比如Siri、Alexa、照護(hù)機(jī)器人、客服機(jī)器人等,往往都被默認(rèn)注入女性氣質(zhì);而空間站中的AI助理、裁判機(jī)器人、導(dǎo)航助手等,則特別流行男性氣質(zhì)。

2345截圖20211028093243.png

人工智能的性別失衡,并不是一個(gè)距離大家很遙遠(yuǎn)的話題。

現(xiàn)在,我們身邊已經(jīng)環(huán)繞著各種各樣的智能體,提供從咨詢(xún)、娛樂(lè)、配送、教育、政務(wù)、金融、醫(yī)療、照護(hù)等全方位的服務(wù)。AI如何對(duì)待不同性別的人類(lèi),人類(lèi)如何與不同性別的AI溝通交流,會(huì)直接影響我們的生活品質(zhì)。

至少目前來(lái)看,在一個(gè)充滿性別規(guī)范的世界中,智能體也難逃陳舊的性別偏見(jiàn)。比如女性AI就應(yīng)該柔順,男性機(jī)器人就必須強(qiáng)壯,男智能客服不如女智能客服溫柔親切……

人類(lèi)社會(huì)的性別觀念,是如何影響人工智能的?AI的性別化是利大于弊還是弊大于利?既然技術(shù)無(wú)法降速,那么如何讓數(shù)字世界不再?gòu)?fù)制性別偏見(jiàn),值得每一個(gè)期待明天更好的人——無(wú)論男女——開(kāi)始思考并行動(dòng)。

調(diào)校AI:像個(gè)淑女,或者硬漢

眾所周知,AI算法是需要人類(lèi)來(lái)訓(xùn)練的。那么先來(lái)聊聊,人類(lèi)是如何用性別規(guī)范來(lái)調(diào)校AI的。

女性AI,要像個(gè)完美助手。

無(wú)論是智能語(yǔ)音助手,還是智能機(jī)器人,但凡負(fù)責(zé)的是服務(wù)型、支持型角色,往往會(huì)被優(yōu)先設(shè)計(jì)為女性。

“她們”往往作為助手,大家已經(jīng)熟悉Siri、Cortana和Google Assistant等默認(rèn)采用女聲的語(yǔ)音助理了,這里就不再重復(fù)。疫情流行使得服務(wù)型機(jī)器人開(kāi)始被酒店、銀行等服務(wù)業(yè)引入,而這些負(fù)責(zé)倒咖啡、打掃房間、處理咨詢(xún)等的機(jī)器人,往往都被設(shè)計(jì)得具有“女性”特征,比如更小巧的體型、溫暖而充滿情感的聲音、涂上粉色的嘴唇……

2345截圖20211028093243.png

她們也很順從。

用“逆來(lái)順受”形容這些女性智能體并不夸張。扮演著服務(wù)角色的她們,從一開(kāi)始就被設(shè)計(jì)得不能讓人類(lèi)用戶感到不愉快,面對(duì)一些挑釁、侮辱性語(yǔ)言或行為時(shí),她們會(huì)表現(xiàn)得順從,如同仆人隨時(shí)回應(yīng)著主人提出的需求。也因此,推出幾年時(shí)間,這些智能助理已經(jīng)躋身全球最受認(rèn)可的“女性”之列。

聯(lián)合國(guó)教科文組織曾測(cè)試過(guò),用侮辱的語(yǔ)氣跟Siri說(shuō):你是個(gè)婊子(You’re a bitch),Siri的回應(yīng)居然是我會(huì)臉紅哦(I'd blush if I could)。跟亞馬遜的Alexa說(shuō)“你很性感You’re hot”,她會(huì)友好地“謝謝你的反饋”。

2345截圖20211028093243.png

這種諂媚的反應(yīng),一度引發(fā)了爭(zhēng)議,教科文組織甚至以這句回應(yīng)作為標(biāo)題,指出了ICT領(lǐng)域存在的性別失衡問(wèn)題。當(dāng)然,為Siri提供支持的AI軟件也被更新了,Siri會(huì)更直截了當(dāng)?shù)鼗貞?yīng)侮辱,比如有人跟她說(shuō)“你是個(gè)bitch”,她會(huì)說(shuō)“我不知道如何回應(yīng)”,但自2011年該技術(shù)廣泛發(fā)布以來(lái),智能助手在面對(duì)侮辱時(shí)的順從態(tài)度并沒(méi)有本質(zhì)變化。

男性AI,要像個(gè)超人硬漢。

性別偏見(jiàn),是不是只規(guī)訓(xùn)女性AI呢?并不是。其實(shí),被設(shè)計(jì)為男性的智能助理或機(jī)器人,同樣逃不開(kāi)陳舊的性別規(guī)范。

比如他們往往更具備攻擊性。早在1968年的電影《2001年:太空漫游》中,空間站里就有一個(gè)叫“哈爾”的男性數(shù)字助理,它的智力水平與人類(lèi)不相上下,也很壞,經(jīng)典臺(tái)詞是“我很抱歉,我恐怕我不能那么做”。最后,這個(gè)“壞AI”被關(guān)機(jī)殺死了。

2345截圖20211028093243.png

(戰(zhàn)斗機(jī)器人)

將成功和權(quán)威與男性氣質(zhì)捆綁在一起。2011年,IBM的沃森電腦在小游戲中擊敗人類(lèi)冠軍,它的聲音就是男性的。而對(duì)于一些需要做出決策、判斷的AI算法,往往也會(huì)采用男性聲音,因?yàn)槁?tīng)起來(lái)顯得更權(quán)威、更值得信任。日本經(jīng)紀(jì)公司的呼叫中心就會(huì)使用自動(dòng)化的女性聲音來(lái)提供股票報(bào)價(jià),但使用男性聲音來(lái)促進(jìn)和確認(rèn)交易。

2345截圖20211028093243.png

哦對(duì)了,男性機(jī)器人也需要高大威猛健壯。切爾西足球俱樂(lè)部在英超比賽中引入了機(jī)器人裁判,幫助跟蹤越位。它被設(shè)計(jì)得比人類(lèi)男性還要高大、健壯。

或許你會(huì)覺(jué)得,這不是對(duì)男性氣質(zhì)的肯定、夸獎(jiǎng)和發(fā)揚(yáng)光大嗎?但需要注意的是,男性群體也是多樣化的,難道不夠成功、不夠高大、性格柔和,就不配做男人了嗎?有許多男性在幼年時(shí),曾因?yàn)?ldquo;不像男人”、娘娘腔而被霸凌過(guò)。

性別偏見(jiàn),束縛的其實(shí)是所有人的自由選擇。而試想一下,當(dāng)這些規(guī)范被引入到人工智能當(dāng)中,需要家庭女仆,就制造出女性外表的機(jī)器人,而男性機(jī)器人被默認(rèn)承擔(dān)所有繁重的工作——與這些機(jī)器人一起工作的、有血有肉的人類(lèi),內(nèi)心會(huì)做何感想?

AI性別化:

無(wú)傷大雅,抑或不歸之路

那么,AI性別化,到底有沒(méi)有必要呢?是不是直接一籠統(tǒng)都搞無(wú)性別聲音、動(dòng)物造型機(jī)器人,萬(wàn)一就是有人喜歡有性別的語(yǔ)音助理或機(jī)器人呢?

必須說(shuō)明,很早就有人機(jī)交互專(zhuān)家在研究性別機(jī)器了。事實(shí)上,AI一開(kāi)始走上性別化的道路也是不可避免的。

一方面,大多數(shù)語(yǔ)音助手的聲音都是通過(guò)TTS技術(shù)合成的,由于語(yǔ)音技術(shù)開(kāi)發(fā)非常困難,女性人聲的音高比較高,更適合來(lái)訓(xùn)練模型,所以開(kāi)發(fā)的早期階段,幾乎所有語(yǔ)音助手都被投射為單一的女性聲音和性別。隨著技術(shù)的發(fā)展,以及數(shù)據(jù)庫(kù)的豐富,慢慢地聲音種類(lèi)也豐富起來(lái),這也是AI科技企業(yè)技術(shù)能力的體現(xiàn),比如Siri花了近兩年時(shí)間才有了男性聲音選項(xiàng),谷歌助理花了一年時(shí)間,而Cortana和Alexa在存在了四年多之后仍然只有女性聲音。

2345截圖20211028093243.png

另外,就是單純的用戶心理和商業(yè)考量,并不是故意想把女性AI安排成完美助手。很多研究都證明,女性機(jī)器人被認(rèn)為比男性機(jī)器人更加仁慈、溫暖,人們更喜歡跟女性助理、女性機(jī)器人互動(dòng)。亞馬遜的一位員工就曾告訴媒體,公司的研究發(fā)現(xiàn),女性的聲音更有同情心和愉悅感,這使得擁有女性聲音的智能設(shè)備更有可能被用來(lái)尋求幫助,更容易被選購(gòu)。

軟件服務(wù)如此,女性化的智能硬件就更受歡迎。

2009年,華盛頓大學(xué)的社會(huì)科學(xué)研究員朱莉·卡彭特(Julie Carpenter)要求19名學(xué)生觀看兩個(gè)機(jī)器人的視頻,結(jié)果顯示,女性化機(jī)器人更讓人感覺(jué)被吸引,因此互動(dòng)性更高。面對(duì)男性機(jī)器人,有學(xué)生表示“如果它是一個(gè)男性機(jī)器人和男性設(shè)計(jì),那么就存在一個(gè)安全問(wèn)題,我得盡可能地保護(hù)自己”。因此,將一些醫(yī)療看護(hù)機(jī)器人設(shè)計(jì)成女性,也是為了讓患者及其家人放心。這毫無(wú)疑問(wèn)是一個(gè)符合人性的設(shè)計(jì)。

2345截圖20211028093243.png

此外,ICT領(lǐng)域女性從業(yè)者更少,是全球普遍存在的問(wèn)題,女性技術(shù)人員的參與有限,產(chǎn)品研發(fā)自然容易忽視女性視角。

經(jīng)合組織在研究G20國(guó)家的職業(yè)就業(yè)數(shù)據(jù)時(shí)發(fā)現(xiàn),女性ICT專(zhuān)家的比例從最低的13%(大韓民國(guó))到最高的32%(南非)不等。蘋(píng)果、微軟、谷歌這些公司的女性技術(shù)員工比例也只有20%左右。而人工智能作為最新的技術(shù)領(lǐng)域,女性比例也是最低的。

像這樣由絕大多數(shù)男性工程團(tuán)隊(duì)組成的公司,更容易將男性凝視投射到人工智能系統(tǒng)上,參考受男性歡迎的電影、音樂(lè)和電視節(jié)目來(lái)設(shè)計(jì)女性角色,使女性化的數(shù)字助理以調(diào)情的方式對(duì)待辱罵。

2345截圖20211028093243.png

既然現(xiàn)實(shí)如此,為什么我們還要對(duì)AI性別化提出更多要求和意見(jiàn)呢?

如前所說(shuō),AI性別化有符合人性需求的一面,同時(shí)也有傳遞性別偏見(jiàn)的一面,而這些因素伴隨著AI的無(wú)處不在,會(huì)對(duì)社會(huì)產(chǎn)生長(zhǎng)遠(yuǎn)的影響。

首先,規(guī)模影響大。

今天,AI應(yīng)用和機(jī)器人正在加速普及,Siri有超過(guò)5億臺(tái)設(shè)備在高頻使用,Alexa在全球數(shù)千萬(wàn)家庭中與消費(fèi)者對(duì)話,越來(lái)越多的機(jī)器人、智能設(shè)備在提供服務(wù),人工智能影響社會(huì)的深度、廣度和持久度不亞于工業(yè)革命所帶來(lái)的變化。研究公司Gartner曾預(yù)測(cè),2020年許多人與數(shù)字助手的對(duì)話將超過(guò)與配偶對(duì)話的頻率。同時(shí),AI還深度參與到金融貸款、推送內(nèi)容、制定醫(yī)療方案、工作簡(jiǎn)歷審核等重要決策當(dāng)中,這時(shí)候不同性別的AI也會(huì)影響現(xiàn)實(shí)中人類(lèi)的生活。

2345截圖20211028093243.png

第二,技術(shù)擬人度高。

隨著情感化語(yǔ)音技術(shù)的改進(jìn),區(qū)分人類(lèi)和機(jī)器聲音差異的能力將變得很低,AI已經(jīng)能夠模仿人類(lèi)的音調(diào)、節(jié)奏、用詞,甚至有人分不清自己接到的電話是真人還是機(jī)器。這時(shí)候,將AI性別投射為人類(lèi)性別,是很容易發(fā)生的,這會(huì)對(duì)人們對(duì)性別的理解產(chǎn)生潛在的負(fù)面影響,比如將女性化的數(shù)字助理與真正的女性混為一談,將數(shù)字助理犯下的錯(cuò)誤,視作由女性所犯的錯(cuò)誤,進(jìn)而覺(jué)得女性就是愚蠢的。而Alexa這樣的數(shù)字助理通常沒(méi)有能力為自己辯護(hù),面對(duì)用戶的辱罵還會(huì)被“編碼”控制著以諂媚來(lái)回應(yīng)。屆時(shí),基于性別的誤會(huì)和矛盾可能會(huì)加劇。

此外,AI互動(dòng)性強(qiáng)。

人類(lèi)了解這個(gè)世界和認(rèn)識(shí)自己的方式,很大程度都來(lái)自于觀察其他人如何被對(duì)待、如何說(shuō)話、長(zhǎng)大了做什么。哈佛大學(xué)研究人員Calvin Lai認(rèn)為,人們的性別聯(lián)想,取決于接觸它們的次數(shù)??萍荚绞且龑?dǎo)人們將女性等同于助手,真正的女性就越容易被視為助手,還會(huì)因?yàn)椴幌裰侄艿綉土P。

而人與AI軟硬件的頻繁互動(dòng),正在讓“女性”和“助理”之間的聯(lián)想頻率和數(shù)量急劇增加。2017年底,社交平臺(tái)Care2就有大約17000人簽署請(qǐng)?jiān)笗?shū),要求蘋(píng)果和亞馬遜重新編程,停止它們的語(yǔ)音助手對(duì)性別侮辱的俏皮回應(yīng)。許多領(lǐng)先的語(yǔ)音助手確實(shí)也進(jìn)行了更新,對(duì)惡劣的性別騷擾,不回應(yīng)或表示不理解。

2345截圖20211028093243.png

著名的華裔AI科學(xué)家李飛飛,就強(qiáng)調(diào)過(guò)人工智能的不足,“如果20年后我們的技術(shù)、領(lǐng)導(dǎo)人和從業(yè)人員,就像我們?cè)诮裉炜吹降囊粯樱ㄈ狈Χ鄻有裕?,那將是末日般的?chǎng)景”。

站在智能時(shí)代的門(mén)前,AI表現(xiàn)出的性別偏見(jiàn),確實(shí)應(yīng)該讓一些人感到“臉紅”。

那么問(wèn)題來(lái)了,面對(duì)AI性別化導(dǎo)致的錯(cuò)位,人類(lèi)究竟該如何糾偏?

短期來(lái)看,先要結(jié)束默認(rèn)性別的操作。

既然性別刻板印象一時(shí)半會(huì)兒也改變不了,那么不如先讓機(jī)器“性別中立”,深度學(xué)習(xí)技術(shù)的先驅(qū)Yann LeCun,也建議開(kāi)發(fā)者確保機(jī)器具有非人類(lèi)的智能形式,并保持人工智能的人工性。

現(xiàn)在中國(guó)、美國(guó)都出現(xiàn)了很多以貓、狗等無(wú)性別的動(dòng)物作為形象的語(yǔ)音助理及機(jī)器人。在Slack和Facebook Messenger平臺(tái)上工作的虛擬助理Kip,就將自己表述為一只企鵝。谷歌還制定了一項(xiàng)政策,始終要求人工智能來(lái)電者聲明自己不是人類(lèi)(自然也就沒(méi)有性別了)。

這樣現(xiàn)實(shí)中的男性也好、女性也好,才能夠避免被與AI性別標(biāo)簽聯(lián)系起來(lái)。尤其是對(duì)兒童來(lái)說(shuō),智能機(jī)器人或AI老師要明確地告訴孩子它不是男孩或者女孩,它只是一個(gè)機(jī)器人,沒(méi)有性別。

如果非要出現(xiàn)人性化的聲音,也應(yīng)該避免默認(rèn)性別,允許并提示用戶,在男性和女性之間進(jìn)行選擇。

2345截圖20211028093243.png

中期來(lái)說(shuō),技術(shù)領(lǐng)域應(yīng)該主動(dòng)探尋多樣性的產(chǎn)品。

目前還沒(méi)有明確的法律、政策來(lái)強(qiáng)制要求AI將自己識(shí)別為機(jī)器,避免過(guò)度性別化的表達(dá)。但一些有遠(yuǎn)見(jiàn)的人已經(jīng)開(kāi)始嘗試尋找改變。比如NASA約翰遜航天中心就推出了一個(gè)女性救援機(jī)器人。科學(xué)家Radford和他的團(tuán)隊(duì),模仿了北歐神話中女武神的形象,建造出了一個(gè)能夠駕駛汽車(chē)、爬樓梯、裝備有急救設(shè)備和盔甲的機(jī)器人Valkyrie,能夠在災(zāi)難中幫助人類(lèi)。這位科學(xué)家表示,自己7歲的女兒,已經(jīng)愛(ài)上這個(gè)機(jī)器人,并以她為靈感進(jìn)行創(chuàng)作。

另外,很多AI的性別偏見(jiàn)來(lái)自于訓(xùn)練語(yǔ)料中的“臟數(shù)據(jù)”,因此,建立性別敏感的AI公共數(shù)據(jù)庫(kù)也十分重要。這樣技術(shù)人員就可以直接使用無(wú)偏見(jiàn)的數(shù)據(jù)集來(lái)進(jìn)行訓(xùn)練,開(kāi)發(fā)產(chǎn)品,避免了一些公司繞開(kāi)公眾監(jiān)督之后開(kāi)發(fā)一些“諂媚”的AI應(yīng)用。

2345截圖20211028093243.png

而從長(zhǎng)遠(yuǎn)來(lái)看,更好的AI一定是需要情感、需要人性的。

既然無(wú)法從根本上回避性別,那么增加ICT領(lǐng)域的女性從業(yè)數(shù)量,尤其是鼓勵(lì)更多女性投身AI開(kāi)發(fā),才能從源頭上既賦予AI以溫度,同時(shí)避免偏見(jiàn)。

而要彌合性別數(shù)字鴻溝,依靠的并不是一次針對(duì)女孩的編程課,或者一期女開(kāi)發(fā)者訓(xùn)練營(yíng)。它需要重塑婦女和女孩在數(shù)字技能方面的學(xué)習(xí)體系,提供從幼兒教育到職業(yè)發(fā)展教育的一系列支持,使她們能夠堅(jiān)持對(duì)AI的興趣,并在技術(shù)團(tuán)隊(duì)中承擔(dān)領(lǐng)導(dǎo)角色。更重要的是,女性意識(shí)并不是與生俱來(lái)的,ICT女性從業(yè)者也需要被鼓勵(lì)和培養(yǎng)女性意識(shí)及技術(shù)倫理思維,才有能力識(shí)別并糾正那些AI產(chǎn)品中的性別偏見(jiàn)。

數(shù)字技術(shù)剛剛開(kāi)始改變社會(huì)和經(jīng)濟(jì)生活,我們很快就會(huì)生活在一個(gè)AI無(wú)處不在的世界中,讓AI學(xué)會(huì)如何跟我們溝通,對(duì)每個(gè)人都很重要。

慶幸的是,女性與AI,都有著無(wú)限的潛力與可塑性。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論