《美國醫(yī)學(xué)會(huì)雜志網(wǎng)絡(luò)公開版》載文稱,美國加州大學(xué)伯克利分校(UC Berkeley)工程學(xué)院教授阿尼爾•阿斯瓦尼(Anil Aswani)領(lǐng)導(dǎo)的團(tuán)隊(duì)研究發(fā)現(xiàn),人工智能的進(jìn)步對(duì)健康數(shù)據(jù)的隱私構(gòu)成了新威脅。阿斯瓦尼等認(rèn)為,面對(duì)人工智能快速發(fā)展帶來的挑戰(zhàn),目前的法律法規(guī)遠(yuǎn)不足以保證個(gè)人健康狀況的隱私安全。
阿斯瓦尼表示,通過對(duì)1.5萬多名美國人兩年內(nèi)的數(shù)據(jù)進(jìn)行挖掘和分析,他們認(rèn)為,利用人工智能對(duì)用戶日常行為模式進(jìn)行收集,例如活動(dòng)追蹤器、智能手表和智能手機(jī)收集步數(shù),并將其與人口統(tǒng)計(jì)數(shù)據(jù)關(guān)聯(lián)起來以識(shí)別出特定個(gè)體是完全可能的。因此,1996年設(shè)置的健康保險(xiǎn)流通與責(zé)任法案(HIPAA)中關(guān)于隱私的內(nèi)容需要重新審視和修訂。阿斯瓦尼說:“由于國家健康與營養(yǎng)調(diào)查(NHANES)的數(shù)據(jù)代表了美國多樣化的人口特點(diǎn),我們嘗試使用這些數(shù)據(jù)來研究隱私問題。研究結(jié)果指出了一個(gè)尖銳的問題:即使已經(jīng)去掉了所有的識(shí)別信息,它也不會(huì)如你所愿的那樣為你的隱私提供保護(hù)。只要第三方掌握了正確的信息,他們就可以把匿名數(shù)據(jù)重新組合起來。例如,臉書(Facebook)通過用戶智能手機(jī)中的應(yīng)用程序收集步行數(shù)據(jù),然后從另一家公司購買醫(yī)療數(shù)據(jù)并進(jìn)行匹配分析。最后,他們就能利用這些數(shù)據(jù)做廣告銷售或者繼續(xù)轉(zhuǎn)賣他人了。隱私問題不在于設(shè)備本身,而在于信息的誤用以及在市場上的銷售。”
那么用戶是否就應(yīng)該摒棄智能設(shè)備呢?阿斯瓦尼的答復(fù)是否定的。他認(rèn)為數(shù)據(jù)的使用應(yīng)該非常謹(jǐn)慎。如果信息保護(hù)得當(dāng),人工智能帶來的就是凈收益。他說:“雖然我們的研究只是針對(duì)步數(shù)統(tǒng)計(jì),但它折射出的隱私問題非常嚴(yán)重。HIPAA規(guī)定個(gè)人醫(yī)療保健信息是受隱私保護(hù)的,但實(shí)際效果非常有限——只有非常具體的信息是不允許被共享的。并且,許多科技公司往往會(huì)選擇在灰色地帶游走。他們購買本應(yīng)是匿名數(shù)據(jù)的健康數(shù)據(jù),進(jìn)而通過商業(yè)運(yùn)作模式為數(shù)據(jù)打上姓名標(biāo)簽后出售。”
阿斯瓦尼認(rèn)為,隨著人工智能技術(shù)的進(jìn)步,企業(yè)更容易獲得健康數(shù)據(jù),企業(yè)以非法或不道德的方式使用這些數(shù)據(jù)的誘惑將會(huì)顯著增加。例如,雇主、抵押貸款機(jī)構(gòu)和信用卡公司可能會(huì)使用人工智能來歧視懷孕或有殘疾的員工。他說:“我希望相關(guān)部門出臺(tái)保護(hù)健康數(shù)據(jù)的新法規(guī)。健康隱私問題的風(fēng)險(xiǎn)在與日俱增。”