近日,高考考生考場用小猿搜題的事鬧得沸沸揚(yáng)揚(yáng),高考的公平性被挑戰(zhàn),高考公平與否,不僅關(guān)系到考生能否平等地享有高等教育的入學(xué)機(jī)會,甚至關(guān)乎其他考生的命運(yùn)。
高考的公平性也一度成為人們關(guān)注的焦點(diǎn),成為考生和家長們心中敏感脆弱、不能觸碰的紅線。
如果公平性出現(xiàn)偏差,則會造成很嚴(yán)重的社會后果,對于人工智能來說也是一樣。隨著AI算法在社會各行業(yè)的廣泛落地應(yīng)用,作為輔助人們決策的重要工具,算法的公平性問題正受到越來越多的關(guān)注。
近日,騰訊優(yōu)圖實(shí)驗(yàn)室聯(lián)合廈門大學(xué)人工智能研究院發(fā)布《2021十大人工智能趨勢》報告中顯示,算法公平性研究將推動AI應(yīng)用走向普惠無偏見。
由于數(shù)據(jù)偏差、算法本身缺陷、甚至是人為偏見的存在,現(xiàn)有AI算法普遍存在對于某些特定人群效果不公平的"歧視性現(xiàn)象"。
隨著人工智能的發(fā)展,機(jī)器學(xué)習(xí)的技術(shù)來幫助人們進(jìn)行決策,其潛在的影響力已經(jīng)變得越來越大,特別是在具有重要影響力的領(lǐng)域。
因此,考慮一個機(jī)器學(xué)習(xí)系統(tǒng)在做決策時,尤其是有高影響力的決策時,是否會對弱勢群體造成更加不利的影響,至關(guān)重要。
過去的幾年業(yè)界已在逐步探索一些針對性的解決方案,包括構(gòu)建更公正的數(shù)據(jù)集、算法訓(xùn)練中引入公平性約束損失、提高機(jī)器學(xué)習(xí)算法的可解釋性等。
然而,想要確保一個公正、公平而又合乎倫理的結(jié)果,不僅僅要面對來自數(shù)據(jù)科學(xué)的挑戰(zhàn),還需要設(shè)置人工智能學(xué)習(xí)程序的人,有巨大的責(zé)任和堅韌的信念,以設(shè)置出最為公平的程序。