歷史表明,網(wǎng)絡(luò)安全威脅隨著新的技術(shù)進(jìn)步而增加。關(guān)系數(shù)據(jù)庫(kù)帶來(lái)了SQL注入攻擊,Web腳本編程語(yǔ)言助長(zhǎng)了跨站點(diǎn)腳本攻擊,物聯(lián)網(wǎng)設(shè)備開(kāi)辟了創(chuàng)建僵尸網(wǎng)絡(luò)的新方法。
而互聯(lián)網(wǎng)打開(kāi)了潘多拉盒子的數(shù)字安全弊病,社交媒體創(chuàng)造了通過(guò)微目標(biāo)內(nèi)容分發(fā)來(lái)操縱人們的新方法,并且更容易收到網(wǎng)絡(luò)釣魚(yú)攻擊的信息,比特幣使得加密Ransomware勒索軟件攻擊成為可能。
近年來(lái)網(wǎng)絡(luò)安全事件不斷曝光,新型攻擊手段層出不窮,安全漏洞和惡意軟件數(shù)量更是不斷增長(zhǎng)。2019年VulnDB和CVE收錄的安全漏洞均超過(guò)了15000條,平均每月高達(dá)1200條以上,2019年CNCERT全年捕獲計(jì)算機(jī)惡意程序樣本數(shù)量超過(guò)6200萬(wàn)個(gè),日均傳播次數(shù)達(dá)824萬(wàn)余次,涉及計(jì)算機(jī)惡意程序家族66萬(wàn)余個(gè)。
根據(jù)研究集團(tuán)IDC的數(shù)據(jù),到2025年聯(lián)網(wǎng)設(shè)備的數(shù)量預(yù)計(jì)將增長(zhǎng)到420億臺(tái);有鑒于此,社會(huì)正在進(jìn)入“超數(shù)據(jù)”時(shí)代。于是,在數(shù)據(jù)算法大行其道,人工智能方興未艾的今天,我們也迎來(lái)了新一輪安全威脅。先想象一個(gè)超現(xiàn)實(shí)場(chǎng)景:未來(lái)的恐怖襲擊是一場(chǎng)不需要炸彈、鈾或者生化武器的襲擊,想要完成一場(chǎng)恐怖襲擊,恐怖分子們只需要一些膠布和一雙健步鞋,通過(guò)把一小塊膠布粘貼到十字路口的交通信號(hào)燈上,恐怖分子就可以讓自動(dòng)駕駛汽車(chē)將紅燈識(shí)別為綠燈,從而造成交通事故。
要了解人工智能的獨(dú)特攻擊,需要先理解人工智能領(lǐng)域的深度學(xué)習(xí),深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,其中,軟件通過(guò)檢查和比較大量數(shù)據(jù)來(lái)創(chuàng)建自己的邏輯,機(jī)器學(xué)習(xí)已存在很長(zhǎng)時(shí)間,但深度學(xué)習(xí)在過(guò)去幾年才開(kāi)始流行。
人工神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的基礎(chǔ)結(jié)構(gòu),大致模仿人類(lèi)大腦的物理結(jié)構(gòu)。與傳統(tǒng)的軟件開(kāi)發(fā)方法相反,傳統(tǒng)軟件開(kāi)發(fā)需要程序員編寫(xiě)定義應(yīng)用程序行為的規(guī)則,而神經(jīng)網(wǎng)絡(luò)則通過(guò)閱讀大量示例創(chuàng)建自己的行為規(guī)則。
當(dāng)你為神經(jīng)網(wǎng)絡(luò)提供訓(xùn)練樣例時(shí),它會(huì)通過(guò)人工神經(jīng)元層運(yùn)行它,然后調(diào)整它們的內(nèi)部參數(shù),以便能夠?qū)哂邢嗨茖傩缘奈磥?lái)數(shù)據(jù)進(jìn)行分類(lèi)。這對(duì)于手動(dòng)編碼軟件來(lái)說(shuō)是非常困難的,但神經(jīng)網(wǎng)絡(luò)卻非常有用。
但由于神經(jīng)網(wǎng)絡(luò)過(guò)分依賴(lài)數(shù)據(jù),從而引導(dǎo)了神經(jīng)網(wǎng)絡(luò)的犯錯(cuò),一些錯(cuò)誤對(duì)人類(lèi)來(lái)說(shuō)似乎是完全不合邏輯甚至是愚蠢的,人工智能也由此變成了人工智障。例如,2018年英國(guó)大都會(huì)警察局用來(lái)檢測(cè)和標(biāo)記虐待兒童圖片的人工智能軟件就錯(cuò)誤地將沙丘圖片標(biāo)記為裸體。
當(dāng)這些錯(cuò)誤伴隨著神經(jīng)網(wǎng)絡(luò)而存在,人工智能算法帶來(lái)的引以為傲的“深度學(xué)習(xí)方式”,就成了敵人得以攻擊和操控它們的途徑。于是,在我們看來(lái)僅僅是被輕微污損的紅燈信號(hào),對(duì)于人工智能系統(tǒng)而言則可能已經(jīng)變成了綠燈,這也被稱(chēng)為人工智能的對(duì)抗性攻擊,即引導(dǎo)了神經(jīng)網(wǎng)絡(luò)產(chǎn)生非理性錯(cuò)誤的輸入,強(qiáng)調(diào)了深度學(xué)習(xí)和人類(lèi)思維的功能的根本差異。
此外,對(duì)抗性攻擊還可以欺騙GPS誤導(dǎo)船只、誤導(dǎo)自動(dòng)駕駛車(chē)輛、修改人工智能驅(qū)動(dòng)的導(dǎo)彈目標(biāo)等,對(duì)抗攻擊對(duì)人工智能系統(tǒng)在關(guān)鍵領(lǐng)域的應(yīng)用已經(jīng)構(gòu)成了真正的威脅。