如何確保人工智能人性化和規(guī)范化

文財(cái)網(wǎng)
盡管潛力巨大,但人們對AI的廣泛采用存在合理和合理的擔(dān)憂。惡意行為者對AI的使用會給個(gè)人和組織的網(wǎng)絡(luò)安全帶來很多風(fēng)險(xiǎn),而AI在預(yù)測個(gè)人決策中的使用會引起一系列隱私問題。

人工智能(AI)有望在幾乎每個(gè)行業(yè)帶來變革性變革并節(jié)省成本。實(shí)際上,人工智能帶來的生產(chǎn)力和創(chuàng)新能力的提高目前正在引發(fā)“第四次工業(yè)革命”,普華永道估計(jì),到2030年,這將為全球經(jīng)濟(jì)貢獻(xiàn)超過15.7萬億美元,并為北歐GDP至少增長9.9%。

但是,如果我們的社會未能正確實(shí)施該技術(shù),則AI可能會釋放出大量社會不公。歐盟目前沒有專門的標(biāo)準(zhǔn)或立法工具來規(guī)范AI的開發(fā)和實(shí)施,以幫助防止AI成為不公正的根源。在未來的幾年中,我認(rèn)為我們需要看到與GDPR范圍類似的立法在這一領(lǐng)域發(fā)揮作用。

人工智能的風(fēng)險(xiǎn)

盡管潛力巨大,但人們對AI的廣泛采用存在合理和合理的擔(dān)憂。惡意行為者對AI的使用會給個(gè)人和組織的網(wǎng)絡(luò)安全帶來很多風(fēng)險(xiǎn),而AI在預(yù)測個(gè)人決策中的使用會引起一系列隱私問題。我們還知道,人工智能將給某些行業(yè)帶來的工作流離失所可能會威脅到生計(jì),更不用說人工智能將帶來的較少討論的心理健康挑戰(zhàn)了。

更陰險(xiǎn)的是,人工智能的不當(dāng)實(shí)踐可能導(dǎo)致它使社會中的不良偏見長期存在。數(shù)據(jù)科學(xué)家和開發(fā)人員對AI系統(tǒng)進(jìn)行“培訓(xùn)”的數(shù)據(jù)對其輸出的發(fā)現(xiàn)和決策具有直接影響,這意味著提供有AI模型偏差的數(shù)據(jù)可能導(dǎo)致其做出社會不公正的決策。例如,美國許多預(yù)測性警務(wù)認(rèn)可機(jī)構(gòu)都受到了偽造數(shù)據(jù)的“訓(xùn)練”,這些數(shù)據(jù)使他們的決策偏向少數(shù)族裔。這是一個(gè)非常棘手的問題,并突出顯示了使用經(jīng)過仔細(xì)評估和具有代表性的數(shù)據(jù)來??訓(xùn)練AI模型的重要性。

此外,存在個(gè)人和組織可以將決策完全委派給AI系統(tǒng)的風(fēng)險(xiǎn),這降低了責(zé)任感并增加了歧義。這很危險(xiǎn),因?yàn)锳I模型做出的決策會影響重大決策,例如某人獲得貸款,被雇用從事工作或受到執(zhí)法部門的懷疑。

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論