人工智能也有歧視?亞馬遜關(guān)閉AI招聘

快資訊
手機(jī)中國
亞馬遜在發(fā)現(xiàn)實(shí)驗(yàn)性的人工智能招聘工具歧視女性之后,決定關(guān)閉該工具。這款工具可以搜索網(wǎng)絡(luò)發(fā)現(xiàn)潛在的候選人,并用1到5顆星對其進(jìn)行評定。但該算法學(xué)會(huì)了針對技術(shù)職位--例如軟件開發(fā)職位--系統(tǒng)地降低女性簡歷評分。...

亞馬遜在發(fā)現(xiàn)實(shí)驗(yàn)性的人工智能招聘工具歧視女性之后,決定關(guān)閉該工具。這款工具可以搜索網(wǎng)絡(luò)發(fā)現(xiàn)潛在的候選人,并用1到5顆星對其進(jìn)行評定。但該算法學(xué)會(huì)了針對技術(shù)職位--例如軟件開發(fā)職位--系統(tǒng)地降低女性簡歷評分。

雖然亞馬遜處于人工智能技術(shù)的最前沿,但該公司也無法找到一種方法使其算法保持性別中立。該公司的失敗提醒我們,人工智能會(huì)從各種來源中產(chǎn)生偏見。人類會(huì)受到各種偏見的左右,而人們普遍認(rèn)為算法不會(huì)這樣,它們應(yīng)該客觀公正,毫無偏見。然而事實(shí)上,算法可能會(huì)無意間從各種不同的來源學(xué)習(xí)到偏見。從訓(xùn)練它的數(shù)據(jù)到訓(xùn)練算法的人,一些甚至是看起來無關(guān)的因素也會(huì)導(dǎo)致人工智能偏見。

人工智能歧視

人工智能算法經(jīng)過訓(xùn)練,觀察大數(shù)據(jù)集中的模式以幫助預(yù)測結(jié)果。在亞馬遜的這個(gè)案例中,算法使用了十年間提交給該公司的所有的簡歷,以了解如何找到最佳候選人。

鑒于該公司的女性員工比例很低--就像大多數(shù)科技公司一樣--該算法很快就發(fā)現(xiàn)了男性的統(tǒng)治地位,并認(rèn)為這是成功的一個(gè)因素。因?yàn)樵撍惴ㄊ褂闷渥陨眍A(yù)測的結(jié)果來提高其準(zhǔn)確性,所以它陷入了對女性候選人的性別歧視模式。

而且由于用于訓(xùn)練它的數(shù)據(jù)是由人類創(chuàng)造,這意味著該算法還繼承了不良的人類特征,如偏見和歧視,這也是招聘領(lǐng)域多年存在的問題。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論