進(jìn)入2021年,隨著越來越多的組織采用新技術(shù),人工智能在技術(shù)和網(wǎng)絡(luò)安全方面的未來將繼續(xù)發(fā)展。根據(jù)最近的一項調(diào)查,三分之二的組織已經(jīng)在將智能技術(shù)用于網(wǎng)絡(luò)安全目的。使用這些工具可以使公司為使用網(wǎng)絡(luò)犯罪技術(shù)而不斷發(fā)展的創(chuàng)新攻擊做好更充分的準(zhǔn)備,也可以使用AI技術(shù)。例如,僅在去年,犯罪分子就使用了基于AI的軟件來復(fù)制CEO的聲音,要求現(xiàn)金轉(zhuǎn)移220,000歐元(約合243,000美元)。
對于希望在2021年將更多的AI集成到其安全堆棧中的企業(yè)而言,遵循以下六個步驟以確保有效使用AI而不至于損害其他任何地方的安全至關(guān)重要。
鼓勵將AI負(fù)責(zé)任地用于網(wǎng)絡(luò)安全
最近的數(shù)據(jù)發(fā)現(xiàn),四分之三的高管認(rèn)為使用AI可使他們的組織對違規(guī)行為做出更快的響應(yīng)。威脅形勢繼續(xù)迅速變化,網(wǎng)絡(luò)安全領(lǐng)導(dǎo)者必須采用AI來應(yīng)對網(wǎng)絡(luò)犯罪分子制定的新策略。反過來,企業(yè)必須集中精力確保政策支持這種擁抱。例如,美國對AI計劃的出口管制應(yīng)確保企業(yè)在使用AI方面繼續(xù)在全球網(wǎng)絡(luò)安全市場中保持競爭力。
確保AI概念參與威脅建模和風(fēng)險管理
AI的部署在全球范圍內(nèi)不斷增長,已經(jīng)有超過四分之一的AI計劃已經(jīng)投入生產(chǎn),而超過三分之一的項目則處于高級開發(fā)階段。但是,謹(jǐn)慎考慮攻擊者可能如何試圖破壞這種增長和新集成的AI系統(tǒng)的穩(wěn)定性。盡管尚未廣泛使用,但隨著數(shù)據(jù)攻擊被廣泛采用,包括數(shù)據(jù)中毒攻擊和訓(xùn)練模型后門在內(nèi)的網(wǎng)絡(luò)攻擊可能會針對機器學(xué)習(xí)系統(tǒng)進(jìn)行部署。結(jié)合了AI系統(tǒng)的威脅模型很少見,而且往往不成熟。業(yè)務(wù)領(lǐng)導(dǎo)者應(yīng)努力開發(fā)方法,以確保AI處于風(fēng)險管理活動范圍之內(nèi),以最大程度地減少此類威脅。
制定和推廣AI系統(tǒng)的道德準(zhǔn)則
公共部門和私營部門都應(yīng)在AI應(yīng)用程序中使用道德準(zhǔn)則,并鼓勵在這些道德框架中納入強大的安全性和透明度控制。有很多方法可以將AI應(yīng)用于網(wǎng)絡(luò)安全程序,并且重要的是要確保認(rèn)可諸如Microsoft AI原則之類的框架。可以支持道德AI的原則包括:消除AI偏見,保護(hù)AI數(shù)據(jù)以及確保人們對AI技術(shù)如何影響世界負(fù)責(zé)。
支持透明度并公開分享新發(fā)現(xiàn)
有關(guān)AI的新研究以及新的對抗性攻擊和防御經(jīng)常在會議論文集和學(xué)術(shù)期刊上發(fā)表。但是,有時,這些貢獻(xiàn)沒有足夠深入地解釋如何得出這些發(fā)現(xiàn),并且許多論文沒有提供或鏈接到代碼,這將導(dǎo)致結(jié)果的準(zhǔn)確再現(xiàn)。同樣,進(jìn)行AI研究的企業(yè)通常是秘密進(jìn)行的,這給AI進(jìn)步的驗證和實施帶來了負(fù)擔(dān)。這給安全從業(yè)人員提供了一個更具挑戰(zhàn)性的環(huán)境,以評估針對這些模型的可能攻擊,最終使企業(yè)更難應(yīng)對這些威脅。
優(yōu)先進(jìn)行AI系統(tǒng)的進(jìn)攻性研究
在將AI技術(shù)應(yīng)用于產(chǎn)品之前,企業(yè)必須驗證針對這些新技術(shù)的潛在風(fēng)險。組織應(yīng)確保AI應(yīng)用程序和相關(guān)的機器學(xué)習(xí)系統(tǒng)對當(dāng)前的安全程序監(jiān)視和測試范圍有意義。監(jiān)視和測試應(yīng)包括兩家企業(yè)自發(fā)采取的措施,以支持發(fā)現(xiàn)可能未注意到的無法預(yù)料的AI缺陷,以及安全框架和指導(dǎo)以及與安全研究人員的合作。
敦促創(chuàng)建和整合隱私保護(hù)機器學(xué)習(xí)
盡管機器學(xué)習(xí)和AI技術(shù)繼續(xù)變得越來越流行,但對隱私的影響尚待廣泛探討。特別是神經(jīng)網(wǎng)絡(luò)可以從訓(xùn)練數(shù)據(jù)中記住特定的例子。因此,AI系統(tǒng)可能容易受到模型反轉(zhuǎn)攻擊的攻擊,這些攻擊導(dǎo)致通過重復(fù)查詢模型重新創(chuàng)建訓(xùn)練示例的方式,竊取了模型所訓(xùn)練的數(shù)據(jù)。如果模型是針對敏感數(shù)據(jù)進(jìn)行訓(xùn)練的,則攻擊者可能能夠恢復(fù)有關(guān)訓(xùn)練數(shù)據(jù)的信息。隱私漏洞的風(fēng)險不斷增加,導(dǎo)致人們越來越需要采用和開發(fā)保留隱私的機器學(xué)習(xí)系統(tǒng)。這不僅可以保護(hù)業(yè)務(wù),還可以保護(hù)使用數(shù)據(jù)來訓(xùn)練模型的消費者。
將AI集成到網(wǎng)絡(luò)安全計劃中并非易事。企業(yè)領(lǐng)導(dǎo)者必須認(rèn)識到合并所帶來的挑戰(zhàn),并開發(fā)解決方案以增強網(wǎng)絡(luò)安全計劃,同時保持道德并保護(hù)私有數(shù)據(jù)。負(fù)責(zé)任地使用人工智能技術(shù),除了遵循明確的公共準(zhǔn)則外,鼓勵進(jìn)行威脅建模和持續(xù)的人工智能研究是必不可少的步驟,這些步驟將在將AI集成到網(wǎng)絡(luò)安全程序中時帶來成功。