65%的企業(yè)無(wú)法解釋人工智能是如何工作的

科幻網(wǎng)
對(duì)于人工智能必須達(dá)到什么樣的道德標(biāo)準(zhǔn),各方缺乏共識(shí),這進(jìn)一步加劇了這個(gè)問(wèn)題。雖然約55%的人同意人工智能系統(tǒng)應(yīng)滿足基本的道德標(biāo)準(zhǔn),但43%的人認(rèn)為,除了最基本的監(jiān)管合規(guī)外,它們沒(méi)有其他責(zé)任,即使有關(guān)的人工智能系統(tǒng)會(huì)影響人們的生計(jì)。

11.png

人工智能(AI)可能正在席卷商業(yè)世界,然而企業(yè)對(duì)此顯然并不是很了解。

根據(jù)市場(chǎng)研究公司Corinium和分析公司FICO的一份新報(bào)告顯示,約65%的受訪企業(yè)無(wú)法解釋它們使用的人工智能是如何做出決策或預(yù)測(cè)的。由于缺乏相關(guān)知識(shí),企業(yè)很容易被濫用人工智能。

FICO首席分析官斯科特佐爾迪表示,在過(guò)去15個(gè)月里,越來(lái)越多的企業(yè)一直在投資人工智能工具,但并沒(méi)有將人工智能治理和重要性提升到董事會(huì)層面。企業(yè)越來(lái)越多地利用人工智能來(lái)實(shí)現(xiàn)關(guān)鍵流程的自動(dòng)化,在某些情況下,這些流程會(huì)為客戶和利益相關(guān)者做出改變生活的決定。高級(jí)領(lǐng)導(dǎo)和董事會(huì)必須理解并執(zhí)行可審計(jì)的、不可改變的AI模型治理和產(chǎn)品模型監(jiān)控,以確保決策是負(fù)責(zé)任的、公平的、透明的。

對(duì)于人工智能必須達(dá)到什么樣的道德標(biāo)準(zhǔn),各方缺乏共識(shí),這進(jìn)一步加劇了這個(gè)問(wèn)題。雖然約55%的人同意人工智能系統(tǒng)應(yīng)滿足基本的道德標(biāo)準(zhǔn),但43%的人認(rèn)為,除了最基本的監(jiān)管合規(guī)外,它們沒(méi)有其他責(zé)任,即使有關(guān)的人工智能系統(tǒng)會(huì)影響人們的生計(jì)。

AI Truth創(chuàng)始人兼首席執(zhí)行官Cortnie Abercrombie表示:“隨著企業(yè)在業(yè)務(wù)運(yùn)營(yíng)層面將人工智能整合到數(shù)字經(jīng)濟(jì)中,人工智能變得更加普遍。關(guān)鍵利益相關(guān)者,如高級(jí)決策者、董事會(huì)成員、客戶等,需要清楚地了解人工智能如何在其業(yè)務(wù)中使用,涉及的潛在風(fēng)險(xiǎn),以及幫助治理和監(jiān)控它的系統(tǒng)。人工智能開發(fā)人員可以在幫助教育關(guān)鍵利益相關(guān)者方面發(fā)揮重要作用,邀請(qǐng)他們參與人工智能模型的審查過(guò)程。”

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論