安全和隱私問題是采用人工智能的最大障礙,這是有充分的理由。良性和惡意行為者都可以威脅AI模型和數(shù)據(jù)的性能、公平、安全與隱私。
隨著AI逐漸成為主流并轉(zhuǎn)向他們承諾一系列好處,這是企業(yè)不能忽略的發(fā)展趨勢。實際上,在最近的2020年Gartner新興技術(shù)發(fā)展曲線圖中,所列技術(shù)中有三分之一以上與AI有關(guān)。
同時,人工智能也有一個往往無法解決的陰暗面,特別是因為當(dāng)前的機器學(xué)習(xí)和人工智能平臺,市場上還沒有提供一致或全面的工具來保護企業(yè)組織和個人的權(quán)益。人工智能企業(yè)而言,更糟糕的是,根據(jù)Gartner的一項調(diào)查,消費者認(rèn)為,使用或提供AI的組織在出現(xiàn)問題時應(yīng)負(fù)責(zé)任。
實施應(yīng)對威脅的安全措施以保護AI投資符合每個組織的利益。對AI的威脅和攻擊不僅損害AI模型的安全性和數(shù)據(jù)安全性,而且損害模型的性能和結(jié)果。
犯罪分子通常會以兩種方式攻擊AI,技術(shù)人員可以采取行動來減輕此類威脅,但首先讓我們探討AI的三大核心風(fēng)險。
人工智能的安全、責(zé)任和社會風(fēng)險
使用AI的組織面臨三種風(fēng)險。隨著AI越來越普及并嵌入到關(guān)鍵的企業(yè)運營中,安全風(fēng)險正在上升。例如,自動駕駛汽車的AI模型中可能存在導(dǎo)致致命事故的錯誤。
由于使用敏感客戶數(shù)據(jù)的AI模型越來越多地影響著影響客戶的決策,因此責(zé)任風(fēng)險正在增加。例如,錯誤的AI信用評分會阻礙消費者獲得貸款,從而導(dǎo)致財務(wù)和聲譽損失。
隨著“不負(fù)責(zé)任的AI”通過做出既不透明也不容易理解的偏見決策,給消費者帶來不利和不公平的后果,社會風(fēng)險正在增加。即使是輕微的偏差也會導(dǎo)致算法的嚴(yán)重錯誤行為。
罪犯通常如何攻擊AI
上述風(fēng)險可能是由犯罪分子攻擊AI的兩種常見方式造成的:惡意輸入,騷擾和調(diào)查攻擊。
對AI模型的惡意輸入可以采取對抗性AI、操縱數(shù)字輸入或惡意物理輸入的形式。對抗性AI可能會使用AI生成的聲音以社會工程學(xué)人類的形式出現(xiàn),該聲音可用于任何類型的犯罪,被認(rèn)為是網(wǎng)絡(luò)釣魚的“新”形式。例如,去年3月,犯罪分子使用AI合成語音模仿了CEO的語音,并要求將243000美元的資金以欺詐方式轉(zhuǎn)移到自己的帳戶中。
調(diào)查攻擊涉及犯罪分子向組織的AI模型發(fā)送調(diào)查,以了解其工作方式,并且可能以黑匣子或白匣子的形式出現(xiàn)。具體來說,黑匣子查詢攻擊確定了不常見的擾動輸入,以用于所需的輸出,例如財務(wù)收益或避免檢測。一些學(xué)者已經(jīng)能夠通過操縱輸出來欺騙領(lǐng)先的翻譯模型,從而導(dǎo)致翻譯不正確。
白盒查詢攻擊會重新生成訓(xùn)練數(shù)據(jù)集以重現(xiàn)類似的模型,這可能會導(dǎo)致有價值的數(shù)據(jù)被盜。這樣的一個例子是,語音識別供應(yīng)商成為新的外國供應(yīng)商偽造他們的技術(shù)然后出售它的受害者,這導(dǎo)致外國供應(yīng)商能夠基于被盜的IP搶占市場份額。
最新的安全支柱使AI值得信賴
對于IT領(lǐng)導(dǎo)者而言,承認(rèn)其組織中對AI的威脅至關(guān)重要,以便評估和支持他們現(xiàn)有的現(xiàn)有安全支柱(以人為中心和企業(yè)安全控制)和新的安全支柱(AI模型的完整性和AI數(shù)據(jù))完整性)。
AI模型的完整性鼓勵組織探索對員工的對抗培訓(xùn),并通過企業(yè)安全控制來減少攻擊面。將區(qū)塊鏈用于AI模型的起源和跟蹤以及用于訓(xùn)練該模型的數(shù)據(jù)也屬于這一支柱,作為組織使AI更加值得信賴的一種方式。
AI數(shù)據(jù)完整性側(cè)重于數(shù)據(jù)異常分析(如分布模式和異常值)以及數(shù)據(jù)保護(如差異性隱私或合成數(shù)據(jù)),以應(yīng)對對AI的威脅。
為了保護AI應(yīng)用程序的安全,專注于安全技術(shù)和基礎(chǔ)架構(gòu)的技術(shù)專業(yè)人員應(yīng)執(zhí)行以下操作:
通過進(jìn)行威脅評估并應(yīng)用嚴(yán)格的訪問控制以及對訓(xùn)練數(shù)據(jù)、模型和數(shù)據(jù)處理組件的監(jiān)視,可以最大程度地減少開發(fā)和生產(chǎn)期間AI應(yīng)用的攻擊面。
通過解決四個特定于AI的方面來增強用于保護軟件開發(fā)生命周期(SDLC)的標(biāo)準(zhǔn)控件:模型開發(fā)過程中的威脅,AI模型中缺陷的檢測,對第三方預(yù)訓(xùn)練模型的依賴以及公開的數(shù)據(jù)管道。
通過保護和維護最新,高質(zhì)量并且包含對抗性樣本的數(shù)據(jù)存儲庫,防御所有數(shù)據(jù)管道中的數(shù)據(jù)中毒。越來越多的開源和商業(yè)解決方案可用于提高針對數(shù)據(jù)中毒,對抗性輸入和模型泄漏攻擊的魯棒性。
除非欺詐者被人發(fā)現(xiàn)并隨后對該欺詐者的系統(tǒng)進(jìn)行取證,否則很難證明AI模型何時遭到攻擊。同時,企業(yè)不會簡單地停止使用AI,因此確保其安全對于在企業(yè)中成功實施AI至關(guān)重要。將安全性改造到任何系統(tǒng)中的成本要比從一開始就內(nèi)置它要高得多,因此請立即保護您的AI。