本文來(lái)自微信公眾號(hào)“GoUpSec”。
根據(jù)EndorLabs的數(shù)據(jù),開(kāi)源在AI技術(shù)堆棧中發(fā)揮著越來(lái)越重要的作用,但大多數(shù)項(xiàng)目(52%)引用了存在已知漏洞的易受攻擊的依賴項(xiàng)。
EndorLabs在最新的《軟件依賴管理狀態(tài)報(bào)告》聲稱,在發(fā)布僅五個(gè)月后,ChatGPT的API就被超過(guò)900個(gè)npm和PyPI軟件包調(diào)用,其中70%是全新的軟件包。
然而,EndorLabs警告說(shuō),任何開(kāi)源項(xiàng)目,都必須重視和管理與易受攻擊的依賴項(xiàng)相關(guān)的安全風(fēng)險(xiǎn)。
OstermanResearch首席分析師MichaelSampson表示:“EndorLabs的這份報(bào)告證明了風(fēng)光無(wú)限的人工智能技術(shù)的安全性并未跟上其發(fā)展步伐。”
不幸的是,企業(yè)不僅低估了開(kāi)源依賴項(xiàng)中人工智能API的風(fēng)險(xiǎn),而且還低估了安全敏感API的風(fēng)險(xiǎn)。
報(bào)告稱,超過(guò)一半(55%)的應(yīng)用程序在其代碼庫(kù)中調(diào)用了安全敏感API,如果包含依賴項(xiàng),這一比例將上升至95%。
EndorLabs還警告說(shuō),ChatGPT等大型語(yǔ)言模型(LLM)技術(shù)在對(duì)可疑代碼片段的惡意軟件潛力進(jìn)行評(píng)分方面表現(xiàn)不佳。結(jié)果發(fā)現(xiàn),OpenAIGPT3.5的準(zhǔn)確率僅為3.4%,而VertexAItext-bison的表現(xiàn)也好不到哪里去,為7.9%。
“這兩種模型都會(huì)產(chǎn)生大量誤報(bào),這需要手動(dòng)審查工作,并阻止自動(dòng)通知相應(yīng)的程序包存儲(chǔ)庫(kù)以觸發(fā)程序包刪除。也就是說(shuō),模型似乎確實(shí)正在改進(jìn),”報(bào)告指出。
“這些發(fā)現(xiàn)說(shuō)明,目前將大語(yǔ)言模型用于安全敏感用例的難度很大。大語(yǔ)言模型肯定可以幫助人工審核人員,但即使評(píng)估準(zhǔn)確率可以提高到95%甚至99%,也不足以實(shí)現(xiàn)自主決策。”
報(bào)告指出,開(kāi)發(fā)人員可能會(huì)花費(fèi)大量時(shí)間修復(fù)代碼中的漏洞,而這些(依賴項(xiàng)的)漏洞甚至沒(méi)有在他們的應(yīng)用程序中使用。
報(bào)告聲稱,71%的典型Java應(yīng)用程序代碼來(lái)自開(kāi)源組件,但應(yīng)用程序僅使用了這些軟件包中的12%的代碼。
“未使用的代碼中的漏洞很少可被利用;如果能了解整個(gè)應(yīng)用程序中哪些代碼是可訪問(wèn)的,企業(yè)可以消除或調(diào)低高達(dá)60%的修復(fù)工作的優(yōu)先級(jí)。”報(bào)告指出。