目前,機(jī)器學(xué)習(xí)被視作最具智能特征的研究領(lǐng)域,但科學(xué)家提出了新的問(wèn)題:機(jī)器會(huì)學(xué)習(xí),但它會(huì)遺忘嗎?
機(jī)器學(xué)習(xí)研究者們已經(jīng)開(kāi)始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標(biāo)是在不影響模型性能的前提下,從機(jī)器學(xué)習(xí)中刪除特定人員或點(diǎn)的敏感數(shù)據(jù)。
如果未來(lái)能夠?qū)崿F(xiàn),那么這一概念將幫助人們更好地控制數(shù)據(jù)。
機(jī)器學(xué)習(xí)的“遺忘”,對(duì)于有需求的用戶,也就是那些對(duì)他們?cè)诰W(wǎng)上分享的內(nèi)容感到后悔的人來(lái)說(shuō),其實(shí)很直觀。
但從技術(shù)層面來(lái)講,消除特定數(shù)據(jù)點(diǎn)影響的傳統(tǒng)方法,是“從零開(kāi)始”重建系統(tǒng),這是一項(xiàng)代價(jià)可能相當(dāng)高昂的工作,令企業(yè)幾乎難以承受。
具體來(lái)說(shuō),某些地區(qū)的用戶如果他們對(duì)披露的內(nèi)容改變了主意,其實(shí)是有權(quán)要求公司刪除他們的數(shù)據(jù)的。但徹底抹除這件事很難實(shí)現(xiàn),因?yàn)橐坏┙?jīng)過(guò)訓(xùn)練,機(jī)器學(xué)習(xí)系統(tǒng)就不會(huì)輕易改變,甚至就連訓(xùn)練者們自己,也不清楚系統(tǒng)是如何掌握這些能力的,因?yàn)樗麄儾⒉荒芡耆斫庾约赫{(diào)試或訓(xùn)練出的算法。
人們對(duì)人工智能系統(tǒng)侵犯?jìng)€(gè)人隱私的擔(dān)憂日益嚴(yán)重。如何讓AI學(xué)會(huì)“選擇性失憶”,從而可以在無(wú)需“從零開(kāi)始”對(duì)系統(tǒng)進(jìn)行再培訓(xùn)的情況下刪除敏感數(shù)據(jù),成為時(shí)下研究的熱點(diǎn)問(wèn)題。
賓夕法尼亞大學(xué)機(jī)器學(xué)習(xí)教授亞倫·羅斯表示,他們目前進(jìn)行的研究就是希望能找到一些“中間地帶”?;蛟S在不久的將來(lái),有望找出一條既可以控制數(shù)據(jù)也可以保護(hù)由數(shù)據(jù)產(chǎn)生的價(jià)值的發(fā)展道路。