本文來自極客網(wǎng),作者:極客AI。
為了保護(hù)數(shù)據(jù)的機(jī)密性,越來越多的企業(yè)禁止使用ChatGPT和其他類似基于云的生成AI服務(wù),蘋果也加入了這一行列。
根據(jù)《華爾街日報》的報道,蘋果還禁止員工使用GitHub的Copilot工具,而很多開發(fā)人員使用該工具來幫助編寫軟件。
最近的一項調(diào)查發(fā)現(xiàn),39%的Mac開發(fā)者正在使用這項技術(shù)。
真的有必要實施全面禁令么?
盡管蘋果實施這一禁令似乎有些極端,但表明該公司聽從了一些信息安全專家對使用這些服務(wù)發(fā)出的警告。令人擔(dān)憂的是,使用這些服務(wù)可能泄露敏感數(shù)據(jù)或機(jī)密數(shù)據(jù)。在今年早些時候,三星發(fā)現(xiàn)其員工向ChatGPT上傳了機(jī)密的源代碼,隨后禁止員工使用這些工具。
一些信息安全專家非常清楚這個問題。網(wǎng)絡(luò)安全服務(wù)商Orange Cyberdefense的高級安全研究員Wicus Ross警告說:“雖然AI聊天機(jī)器人經(jīng)過了開發(fā)人員進(jìn)一步的訓(xùn)練和完善,但工作人員仍有可能訪問輸入到它們的數(shù)據(jù)。而且,考慮到人類通常是企業(yè)安全態(tài)勢中最薄弱的因素,這會使這些信息面臨一系列威脅,即使風(fēng)險是偶然的。”
雖然OpenAI向企業(yè)客戶提供了一個更保密(運行成本也更高)的自托管版本的服務(wù),但其風(fēng)險在于,在公共使用協(xié)議下數(shù)據(jù)幾乎沒有機(jī)密性。
這在處理機(jī)密代碼和內(nèi)部文檔方面很糟糕,而在處理來自嚴(yán)格監(jiān)管的行業(yè),如銀行、醫(yī)療和其他領(lǐng)域的信息時,將面臨更大的風(fēng)險。如今已經(jīng)看到了一些數(shù)據(jù)泄露事件,例如一些人詢問ChatGPT的問題已經(jīng)泄露給不相關(guān)的人員。
人們提出的問題變成了數(shù)據(jù),那么能夠信任擁有這些數(shù)據(jù)的人嗎?
盡管蘋果的這一決定可能讓人感覺反應(yīng)過度,但企業(yè)必須說服員工對他們正在共享的數(shù)據(jù)保持警惕。問題是,當(dāng)使用基于云的服務(wù)來處理數(shù)據(jù)時,這些信息很可能會被保留,用于評分或評估,甚至在將來使用。
從本質(zhì)上來說,用戶向AI聊天機(jī)器人提出的問題將成為未來答案的數(shù)據(jù)點,他們提供給基于云的服務(wù)的信息可能被人訪問,無論是來自企業(yè)內(nèi)部還是外部攻擊?,F(xiàn)在已經(jīng)出現(xiàn)了這種情況,在今年早些時候發(fā)生數(shù)據(jù)泄露事件之后,OpenAI不得不讓ChatGPT暫時下線。
英國國家網(wǎng)絡(luò)安全研究中心(NCSC)提供的建議解釋了這種風(fēng)險的本質(zhì)。建議指出,這些詢問的問題對服務(wù)提供者是可見的,還將被存儲起來,并且肯定會在某個時候用于開發(fā)服務(wù)。
在這種情況下,在任何人進(jìn)行查詢之前,需要對服務(wù)的使用條款和隱私政策進(jìn)行深入審查。此外,人們面臨的另一個挑戰(zhàn)是,他們提出的問題也會變成數(shù)據(jù)。
正如NCSC所解釋的那樣:“隨著越來越多的組織開發(fā)大型語言模型(LLM),也增加了另一種風(fēng)險,那就是存儲在網(wǎng)上的查詢問題可能被黑客攻擊和泄露,或者更有可能意外地被公開訪問,這可能包括潛在的用戶身份信息。”
誰將擁有和保存人們的問題?
隨著AI行業(yè)的整合加速,還存在另一層風(fēng)險。用戶可能在某一天向一個經(jīng)過安全驗證的LLM詢問敏感問題,這個LLM符合企業(yè)安全協(xié)議的所有要求,但它可能不久會被網(wǎng)絡(luò)安全策略較弱的第三方購買,第三方購買者將擁有以前提供給該服務(wù)的敏感數(shù)據(jù),但其安全防護(hù)性較差。
這個令人擔(dān)憂的問題并沒有被提出,是因為信息安全專家在測試中了解到會出現(xiàn)這種情況,反映出人們已經(jīng)看到了問題。例如,根據(jù)最近發(fā)布的一份調(diào)查報告,去年在GitHub等公共存儲庫中對外泄露了1000多萬條機(jī)密數(shù)據(jù),包括API密鑰和憑據(jù)。
很多時候,這類機(jī)密數(shù)據(jù)都是通過使用這類服務(wù)的個人賬戶共享的,豐田、三星和蘋果發(fā)布的禁令表明這種情況確實已經(jīng)發(fā)生了??紤]到這一點,大多數(shù)信息安全專家都警告用戶不要在向公共服務(wù)(例如ChatGPT)進(jìn)行查詢時包含敏感機(jī)密信息。
因此,用戶永遠(yuǎn)不應(yīng)該問那些公開之后可能會帶來麻煩的問題,對于任何試圖保護(hù)其數(shù)據(jù)安全的大公司來說,都可能全面禁止使用ChatGPT,而這是迄今為止最簡單的解決方案,至少目前是這樣。
生成式AI會走向邊緣
但情況不會一直如此。生成式AI最合乎邏輯的發(fā)展之路是朝著能夠托管在邊緣設(shè)備上的小型LLM系統(tǒng)發(fā)展。這是可能實現(xiàn)的,因為斯坦福大學(xué)開發(fā)了能夠在谷歌Pixel手機(jī)上運行的小型LLM系統(tǒng)。這可以讓人們預(yù)期,在未來可能沒有人會在iPhone上使用ChatGPT應(yīng)用程序,因為他們將使用手機(jī)本身提供的類似技術(shù)。
但是,對于任何使用基于云的LLM服務(wù)的人來說,其遵守的規(guī)則是,如果安全性得不到保證,永遠(yuǎn)不應(yīng)該共享機(jī)密或敏感數(shù)據(jù)。這證明了邊緣處理和隱私保護(hù)在互聯(lián)時代的價值。