人類更用心,AI不“偏心”

延邊廣播電視臺
“人工智能很單純,復(fù)雜的是人”——在探討人工智能(AI)的公平性時(shí),香港科技大學(xué)講席教授、微眾銀行首席AI官楊強(qiáng)巧妙地化用了一句流行歌詞。他認(rèn)為,AI技術(shù)發(fā)展中出現(xiàn)的諸多公平性問題,其實(shí)是映射了人類社會中本已存在的歧視和偏見。

“人工智能很單純,復(fù)雜的是人”——在探討人工智能(AI)的公平性時(shí),香港科技大學(xué)講席教授、微眾銀行首席AI官楊強(qiáng)巧妙地化用了一句流行歌詞。他認(rèn)為,AI技術(shù)發(fā)展中出現(xiàn)的諸多公平性問題,其實(shí)是映射了人類社會中本已存在的歧視和偏見。

在未來論壇近日發(fā)起的“AI向善的理論與實(shí)踐”論壇上,多位業(yè)內(nèi)專家圍繞“AI公平”這個(gè)話題開展了深入討論。

AI跟誰學(xué)到了“偏心”?

與人類社會相似,在AI的世界里,偏見與不公隨處可見。

2014年,亞馬遜公司啟動了一個(gè)通過AI技術(shù)開展自動化招聘的項(xiàng)目。這個(gè)項(xiàng)目完全基于求職者簡歷提供的信息,通過AI算法進(jìn)行評級。然而,第二年亞馬遜便意識到這個(gè)機(jī)器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當(dāng)一份簡歷中出現(xiàn)“women”等字眼時(shí),在打分上就會吃虧。

亞馬遜分析,這是因?yàn)樗麄兪褂昧诉^去10年的歷史數(shù)據(jù)來訓(xùn)練這個(gè)AI模型,而歷史數(shù)據(jù)中包含對女性的偏見。之后,亞馬遜便不再用這個(gè)算法來進(jìn)行招聘。

“AI的公平性問題,本質(zhì)上并非來源于技術(shù)本身,而是來自人心,也就是說,其本源是社會的公平性。”中科院計(jì)算所研究員,中科視拓(北京)聯(lián)合創(chuàng)始人山世光說。

他解釋道,AI技術(shù)從算法和系統(tǒng)的設(shè)計(jì),走向社會的應(yīng)用實(shí)踐,這個(gè)過程涉及方方面面的人,在很多環(huán)節(jié),都有可能有意或無意地引入歧視和偏見。“以大家最熟悉的健康碼為例,這個(gè)產(chǎn)品在為防疫做出重大貢獻(xiàn)的同時(shí),也因?yàn)榻o老年出行帶來困難等現(xiàn)象,引起了很多爭議。這就是目標(biāo)人群設(shè)定不夠周全,而引入了潛在的歧視風(fēng)險(xiǎn)。”他說。

除了不同人群間的公平問題,AI公平還涉及到開發(fā)者和使用者(通常是企業(yè)和用戶)之間的不平等問題。

清華大學(xué)法學(xué)院院長申衛(wèi)星補(bǔ)充了一個(gè)生活中非常常見的案例。大量APP在使用時(shí)會出現(xiàn)一個(gè)“知情同意”的選項(xiàng),這個(gè)知情同意書往往少則上千字,多則上萬字,大量的信息讓消費(fèi)者無力長時(shí)間閱讀,只好選擇同意,否則只能退出。

“過去我們對知情同意格式條款的主要要求是‘告知要充分’。但現(xiàn)在更常見的問題反而是‘告知過量’,或者叫信息超載。”申衛(wèi)星說,“過度冗余的格式條款,其實(shí)恰恰剝奪了消費(fèi)者的自我決定權(quán)。這是一種非常隱蔽的不公平”

雙刃劍的正確打開方式?

AI技術(shù)與社會公平的關(guān)系,比想象中更為復(fù)雜。

搜狗公司CEO王小川指出:“總體來講,AI技術(shù)的高度發(fā)展對公平性的提升是有利的。首先在技術(shù)的加持下,教育、醫(yī)療等重大領(lǐng)域在資源供給的數(shù)量和質(zhì)量上都會有極大提升,供給側(cè)的繁榮有助于緩解社會資源分配不均;其次,隨著大數(shù)據(jù)的連接,人們有機(jī)會在全局層面上提煉主要矛盾,探討公平問題,進(jìn)而達(dá)成社會共識。”

但這也是一柄雙刃劍。“互聯(lián)網(wǎng)發(fā)展、信息發(fā)展和AI發(fā)展對于公平性提供了更好的抓手,但也會帶來更多新的挑戰(zhàn)。”王小川說,“其中一個(gè)比較敏感的問題是,在機(jī)器判斷越來越準(zhǔn)確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險(xiǎn)等領(lǐng)域,如果對用戶進(jìn)行個(gè)人畫像并作出判斷后,拒絕向該用戶提供服務(wù),如此是否公平?此外,隨著AI技術(shù)進(jìn)步帶來的資源極大繁榮,很容易產(chǎn)生‘馬太效應(yīng)’,導(dǎo)致資源集中在金字塔尖上,拉大社會差距。這是人類歷史上不斷出現(xiàn)的問題,值得警惕。”

對此,山世光則強(qiáng)調(diào):“作為AI從業(yè)者、開發(fā)者、運(yùn)營者的我們,一定要意識到:我們所開發(fā)的AI既可能被用來促進(jìn)社會公平和消除歧視,也有可能被濫用,甚至助紂為虐。”

那么,人類應(yīng)該如何揮舞這柄雙刃劍,讓它向善而不作惡呢?山世光說:“問題的最終解決不僅僅依賴技術(shù)的進(jìn)步,更依賴于技術(shù)專家和社會學(xué)家兩個(gè)群體的順暢溝通,深度對話。”

為了更公平的AI而奮斗

論壇上,專家們介紹了產(chǎn)業(yè)界、學(xué)術(shù)界、法律界等在AI公平性上做出的種種努力。

“人們開發(fā)了很多工具,包括分析數(shù)據(jù)集形態(tài)和質(zhì)量的工具,能讓開發(fā)者、工程師清楚地看到他們用于訓(xùn)練的數(shù)據(jù)特征的分布,比如性別、年齡等等,至少要滿足統(tǒng)計(jì)學(xué)意義上的合理分布,從而減少潛在的偏見;還有分析算法模型的工具,可以對模型的公平性進(jìn)行評估,并做出相應(yīng)糾偏和優(yōu)化;此外還有幫助開發(fā)者對決定模型輸出的關(guān)鍵數(shù)據(jù)特征進(jìn)行探索的工具;以及公平性約束條件下的算法訓(xùn)練工具等。”華為公司AI治理首席專家段小琴說。

“AI公平性的一個(gè)重要方向是數(shù)據(jù)的可獲得性和可使用性。”楊強(qiáng)說,他在論壇講座中強(qiáng)調(diào)了“聯(lián)邦學(xué)習(xí)”在抵抗數(shù)據(jù)“馬太效應(yīng)”、促進(jìn)AI公平性方面的作用,“我們研究聯(lián)邦學(xué)習(xí),一個(gè)更大的目標(biāo)是實(shí)現(xiàn)‘數(shù)據(jù)可用不可見’,其特征是:隱私保護(hù)、權(quán)益保障、缺陷保障以及確權(quán),而確權(quán)和權(quán)益保證需要通過經(jīng)濟(jì)學(xué)來完成。”

申衛(wèi)星則指出:“在這個(gè)問題上,企業(yè)和技術(shù)的自律,要與以法律為代表的‘他律’相結(jié)合,未來相關(guān)領(lǐng)域的立法應(yīng)該是三駕馬車——技術(shù)、法律和倫理——并駕齊驅(qū),技術(shù)是根本、法律是保障、倫理是社會基礎(chǔ)。”

他進(jìn)一步補(bǔ)充道:“就AI技術(shù)立法問題而言,法律既要解決形式上的公平、機(jī)會上的公平和程序上的公平,還要實(shí)現(xiàn)形式公平和實(shí)質(zhì)公平的統(tǒng)一。個(gè)人建議,應(yīng)在時(shí)機(jī)成熟的時(shí)候推出綜合立法。在這個(gè)過程中,既要考慮對個(gè)人數(shù)據(jù)的保護(hù),也要考慮保護(hù)和創(chuàng)新之間如何形成平衡。”

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論