當(dāng)AI學(xué)會偏見 企業(yè)當(dāng)為技術(shù)應(yīng)用劃線

安防展覽網(wǎng)
當(dāng)前人工智能還處于弱人工智能階段,其“偏見”顯然取決于背后訓(xùn)練算法訓(xùn)練的數(shù)據(jù)。如上所述,如果AI訓(xùn)練數(shù)據(jù)庫中,白人、男性比黑人、女性更多,且膚色較深的人多與違法相關(guān)的場景同時(shí)出現(xiàn),就會導(dǎo)致AI產(chǎn)生偏見,這是訓(xùn)練集和測試集特征分布不一致導(dǎo)致的,在技術(shù)領(lǐng)域被稱為“過擬合”。

你對AI有什么印象,沒有感情、不會犯錯(cuò),還是公正客觀?但總之,AI是不食人間煙火的,既不會閃耀人性的光輝,也不存在“七宗罪”。實(shí)際上,AI并非那么沒有人性,不過這并非一件好事。AI獲得智能的同時(shí),也學(xué)會了人類的“歧視”與“偏見”。

AI偏見廣泛存在

麻省理工學(xué)院媒體實(shí)驗(yàn)室的Joy Buolamwini曾研究過各個(gè)領(lǐng)先科技公司的面部識別系統(tǒng),研究發(fā)現(xiàn),所有的系統(tǒng)在識別男性面孔和淺色皮膚的面孔上擁有較高的準(zhǔn)確率,其中,淺色皮膚男性的錯(cuò)誤率不超過1%,而深色皮膚女性的平均識別錯(cuò)誤率則高達(dá)35%。

提及對整個(gè)安防行業(yè)產(chǎn)生深刻影響的AI技術(shù),人臉識別肯定榜上有名,但AI人臉識別的這類偏見,也已經(jīng)滲入了安防領(lǐng)域。安防領(lǐng)域中,帶有偏見的AI可能會讓清白無辜者蒙冤,受到無理審查,這并非杞人憂天。

在英國,曾有一名黑人男性因人臉識別技術(shù)失誤而被誤認(rèn)為嫌犯,在公眾場合遭到搜身檢查。Big Brother Watch UK報(bào)告也顯示,倫敦警察廳使用的面部識別技術(shù)有超過90%的性別識別錯(cuò)誤率。

AI為何會產(chǎn)生偏見?

當(dāng)前人工智能還處于弱人工智能階段,其“偏見”顯然取決于背后訓(xùn)練算法訓(xùn)練的數(shù)據(jù)。如上所述,如果AI訓(xùn)練數(shù)據(jù)庫中,白人、男性比黑人、女性更多,且膚色較深的人多與違法相關(guān)的場景同時(shí)出現(xiàn),就會導(dǎo)致AI產(chǎn)生偏見,這是訓(xùn)練集和測試集特征分布不一致導(dǎo)致的,在技術(shù)領(lǐng)域被稱為“過擬合”。

目前針對算法“過擬合”,已經(jīng)有權(quán)值衰減、交叉驗(yàn)證、添加正則項(xiàng)等方法。而關(guān)于如何解決算法歧視問題,科技界則眾說紛紜。曾有人提出開發(fā)公正透明的算法,讓公眾進(jìn)行監(jiān)督,但這一方法壁壘較高,需受過專業(yè)訓(xùn)練才能夠進(jìn)行監(jiān)督。不過,現(xiàn)在已經(jīng)有不少的科學(xué)家在努力開發(fā)出一套“公平公正”的算法系統(tǒng)。

科技向善AI應(yīng)服務(wù)于人類

無論哪種方法,都不可能立竿見影地糾正AI偏見,因此,科技公司以及組織應(yīng)當(dāng)避免將“帶有明顯歧視性質(zhì)的算法”在不經(jīng)測試之下應(yīng)用到現(xiàn)實(shí)情景中。AI并無善惡之分,但人類需要推動科技向善。

在安防領(lǐng)域,公安部門應(yīng)用AI技術(shù)關(guān)愛孤寡老人,以往民警需要每天上門查看孤寡老人狀態(tài),現(xiàn)在可以通過人臉、人體及軌跡技術(shù)確認(rèn)孤寡老人活動是否有異常;AI跨年齡人臉識別則可以憑借一張泛黃照片找回被拐十年的兒童。

通過一張3歲的泛黃照片,騰訊優(yōu)圖利用AI技術(shù)突破“跨年齡人臉識別”,助力警方尋回被拐十年兒童。騰訊董事會主席馬化騰也多次在公開演講中闡釋“科技向善”的愿景與使命。

而在未來的算法開發(fā)過程中,應(yīng)該對算法開發(fā)者進(jìn)行適當(dāng)?shù)?ldquo;算法倫理”教育,并且確定一些算法的“基本準(zhǔn)則”,如同“機(jī)器人永不能傷害人類”一樣。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論