人工智能來了,八大風險不可輕忽

半月談網(wǎng)
周舟
全球首個獲得“公民身份”的機器人索菲婭(左) 人工智能正在推動一場新的工業(yè)革命,其影響范圍小則涉及個人生活,大則影響國家安全,讓人們在期待的同時,也帶著些許忐忑。事實上,當前人工智能的...

全球首個獲得“公民身份”的機器人索菲婭(左)

人工智能正在推動一場新的工業(yè)革命,其影響范圍小則涉及個人生活,大則影響國家安全,讓人們在期待的同時,也帶著些許忐忑。事實上,當前人工智能的發(fā)展狀況與未來學(xué)家或科幻電影中作出的設(shè)想并不完全一樣。

真實進展到了哪一步

當前,越來越多的行業(yè)都在發(fā)展人工智能技術(shù),新概念和新算法層出不窮,但人工智能的主要應(yīng)用領(lǐng)域是圖像識別和語言翻譯,圖像識別領(lǐng)域進展要優(yōu)于語言翻譯,前者在某些指標上超過了人類水平,但語言翻譯能力還不及人類,這是該技術(shù)進展的基本情況。

具體說,人工智能可以做以下四個方面的工作。

第一,數(shù)據(jù)分類。人工智能可對圖像或聲音等數(shù)據(jù)進行分類,安防領(lǐng)域中對攝像頭采集數(shù)據(jù)的處理及醫(yī)療影像識別和診斷,這兩個領(lǐng)域發(fā)展迅猛,產(chǎn)業(yè)前景廣闊。

第二,異常探測。人工智能可幫助發(fā)現(xiàn)欺詐性金融交易或新惡意軟件等異常行為,可用于實時監(jiān)控大規(guī)模數(shù)據(jù),央行及其他市場金融機構(gòu)正致力于類似應(yīng)用。

第三,預(yù)測。從海量數(shù)據(jù)中發(fā)現(xiàn)某種規(guī)律后,人工智能可基于統(tǒng)計特征對未來行為作出預(yù)測,這在搜索引擎的自動填充、視頻和網(wǎng)購平臺的產(chǎn)品推薦等領(lǐng)域得到廣泛應(yīng)用,還可用于天氣預(yù)報。

第四,優(yōu)化。人工智能可對復(fù)雜的系統(tǒng)和任務(wù)進行優(yōu)化,例如美國“深度思維”公司使用機器學(xué)習(xí)優(yōu)化了谷歌數(shù)據(jù)中心的能源效率,節(jié)約了40%用于冷卻的能量,使能效整體提升了15%。

綜上,人工智能確實具有諸多優(yōu)勢,其反應(yīng)時間比人類更快,在不少領(lǐng)域和場景下,有優(yōu)于人類的精確性、可靠性和敏捷性,也比人類更有耐心和警覺性,同時還能獨立于人類進行工作。

應(yīng)用中不可忽視的弱點

不容忽視的是,當前的人工智能技術(shù)也存在弱點,美國智庫“新美國安全中心”最近發(fā)布《人工智能:每個決策者需要知道什么》報告,提示人工智能的一些弱點可能對國家安全等領(lǐng)域造成巨大影響。

第一,脆弱性。目前的人工智能系統(tǒng)還無法超出場景或語境理解行為,其在下棋或游戲等有固定規(guī)則的范圍內(nèi)不會暴露出這一弱點,而一旦場景發(fā)生變化或這種變化超出一定范圍,人工智能可能就立刻無法“思考”。

第二,不可預(yù)測性。用戶無法預(yù)測人工智能會做出何種決策,這既是一種優(yōu)勢,也會帶來風險,因為系統(tǒng)可能會做出不符合設(shè)計者初衷的決策。

第三,弱可解釋性。人工智能或許可以幫助人類做出好的決策,但決策理由目前仍然是一個“黑箱”。例如,圖像識別能力可以發(fā)現(xiàn)圖片中的校車,但無法解釋哪些圖像特征讓它作出這種判斷,而在醫(yī)學(xué)診斷領(lǐng)域,診斷的理由往往是重要的。

第四,安全問題和漏洞。機器會重結(jié)果而輕過程,通過找到系統(tǒng)漏洞,實現(xiàn)字面意義上的目標,但其采用的方法不一定是設(shè)計者的初衷。例如,網(wǎng)站會推薦一些極端主義視頻,因為刺激性內(nèi)容可以增加瀏覽時間。再如,網(wǎng)絡(luò)安全系統(tǒng)會判斷人是導(dǎo)致破壞性軟件植入的主要原因,于是索性不允許人進入系統(tǒng)。

第六,系統(tǒng)事故。在算法不能共享的對抗性環(huán)境中,系統(tǒng)性錯誤很容易發(fā)生,導(dǎo)致做出無法估量的決策。比如,在國家安全領(lǐng)域,兩種相互對抗的算法為了獲得優(yōu)勢會采用某些導(dǎo)致毀滅性后果的行為,尤其在網(wǎng)絡(luò)安全和電子戰(zhàn)過程中,對抗性決策會非常迅速,人類幾乎來不及叫停。

第七,人機交互失敗。盡管讓機器提供建議,由人類做最后決策是解決人工智能某些弱點的常用方法,但由于決策者對系統(tǒng)局限性或系統(tǒng)反饋的認知能力不同,這一問題并不能得到根本解決。2016年特斯拉自動駕駛汽車撞毀事故中,人類操作員就沒能理解系統(tǒng)給出的提示而發(fā)生致命性事故,在軍事、邊境安全、交通安全、執(zhí)法等諸多領(lǐng)域都面臨類似挑戰(zhàn)。

第八,機器學(xué)習(xí)漏洞可被對手利用。在對抗性過程中,對手還會釋放有毒數(shù)據(jù)或利用人工智能行為方式的某些漏洞發(fā)起攻擊,目前還沒有抵御這種攻擊的有效辦法。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論