人工智能何以向善

在過(guò)去幾年中,涌現(xiàn)了許多關(guān)于可信賴AI的良好治理指南。這些AI治理框架中的大多數(shù)在基本原則的定義上存在相同之處,包括隱私和數(shù)據(jù)治理、問(wèn)責(zé)制和可審計(jì)性、穩(wěn)健性和安全性、透明度和可解釋性、公平和非歧視、監(jiān)督和促進(jìn)人類(lèi)價(jià)值。

2345截圖20211028093243.png

人工智能和機(jī)器學(xué)習(xí)正以前所未有的速度發(fā)展。這就提出了一個(gè)問(wèn)題:如何以負(fù)責(zé)任和合乎道德的方式使用AI/ML系統(tǒng),值得用戶和社會(huì)的信任?

隨著政府當(dāng)局在這個(gè)復(fù)雜領(lǐng)域加強(qiáng)執(zhí)法、規(guī)則制定和立法,組織了解當(dāng)前適用于AI的隱私要求、即將出現(xiàn)的隱私要求以及可用于為AI和ML(機(jī)器學(xué)習(xí))應(yīng)用程序構(gòu)建合規(guī)數(shù)據(jù)保護(hù)計(jì)劃的資源至關(guān)重要。

人工智能治理發(fā)展

在過(guò)去幾年中,涌現(xiàn)了許多關(guān)于可信賴AI的良好治理指南。這些AI治理框架中的大多數(shù)在基本原則的定義上存在相同之處,包括隱私和數(shù)據(jù)治理、問(wèn)責(zé)制和可審計(jì)性、穩(wěn)健性和安全性、透明度和可解釋性、公平和非歧視、監(jiān)督和促進(jìn)人類(lèi)價(jià)值。

公共組織制定負(fù)責(zé)任的人工智能框架的一些突出例子包括聯(lián)合國(guó)教科文組織關(guān)于人工智能倫理的建議、中國(guó)使用人工智能的倫理準(zhǔn)則、歐洲委員會(huì)的報(bào)告“走向人工智能系統(tǒng)的監(jiān)管”、經(jīng)合組織人工智能原則和倫理歐盟委員會(huì)成立的人工智能高級(jí)別專家組制定的可信賴人工智能指南。

除此之外,人們還可以找到無(wú)數(shù)公司的自我監(jiān)管舉措。此外,工業(yè)界與學(xué)術(shù)界和非營(yíng)利組織聯(lián)手推進(jìn)人工智能的負(fù)責(zé)任使用;例如,在人工智能伙伴關(guān)系或人工智能全球伙伴關(guān)系中。ISO/IEC、IEEE和NIST等標(biāo)準(zhǔn)化機(jī)構(gòu)也提供指導(dǎo)。

目前的治理舉措主要采取聲明的形式,不具約束力。但同時(shí),現(xiàn)有的各種隱私法已經(jīng)在很大程度上規(guī)范了人工智能系統(tǒng)的負(fù)責(zé)使用。

隱私監(jiān)管機(jī)構(gòu)在人工智能治理中的突出作用也體現(xiàn)在新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)發(fā)布的人工智能治理框架模型、英國(guó)信息專員辦公室在開(kāi)發(fā)人工智能審計(jì)框架方面的廣泛工作,以及發(fā)布了關(guān)于人工智能治理框架的指南。香港個(gè)人資料私隱專員公署對(duì)人工智能的道德發(fā)展和使用。

隱私法規(guī)和負(fù)責(zé)任的人工智能

負(fù)責(zé)任的人工智能原則之一明確提到了“隱私”。這讓人想起將一般隱私原則(全球隱私和數(shù)據(jù)保護(hù)的支柱)應(yīng)用于處理個(gè)人數(shù)據(jù)的AI/ML系統(tǒng)的義務(wù)。這包括確保收集限制、數(shù)據(jù)質(zhì)量、目的規(guī)范、使用限制、問(wèn)責(zé)制和個(gè)人參與。

可信賴的人工智能原則,如透明度和可解釋性、公平和非歧視、人工監(jiān)督、數(shù)據(jù)處理的穩(wěn)健性和安全性,通常與特定的個(gè)人權(quán)利和相應(yīng)隱私法的規(guī)定相關(guān)。

2345截圖20211028093243.png

關(guān)于歐盟GDPR,解釋權(quán)就是這種情況(Arts 1(1),12,13,14,15(1)(h),22(3),Recital 71),公平原則(第5(1)(a)條,第75條)、人為監(jiān)督(第22條)、穩(wěn)健性(第5(1)d條)和處理安全性(第5(1)(f)、25、32條)。中國(guó)的PIPL或英國(guó)GDPR等其他隱私法包括與這些負(fù)責(zé)任的人工智能原則相關(guān)的類(lèi)似規(guī)定。

在美國(guó),聯(lián)邦貿(mào)易委員會(huì)根據(jù)FTC法案第5條、美國(guó)公平信用報(bào)告法案以及平等信用機(jī)會(huì)法案要求AI開(kāi)發(fā)人員和使用算法的公司承擔(dān)責(zé)任。在其2016年報(bào)告和2020年和2021年的指導(dǎo)方針中,F(xiàn)TC毫無(wú)疑問(wèn)地表明,人工智能的使用必須是透明的,包括向消費(fèi)者解釋算法決策,并確保決策是公平和經(jīng)驗(yàn)合理的。

不了解源自隱私法規(guī)的人工智能系統(tǒng)的合規(guī)性要求不僅會(huì)給受影響的個(gè)人帶來(lái)風(fēng)險(xiǎn)。公司可能面臨巨額罰款,甚至被迫刪除數(shù)據(jù)、模型和算法。

違法案例

去年年底,澳大利亞信息專員辦公室發(fā)現(xiàn)Clearview AI在未經(jīng)同意的情況下收集圖像和生物特征數(shù)據(jù)違反了澳大利亞隱私法。不久之后,根據(jù)與澳大利亞OAIC的聯(lián)合調(diào)查,英國(guó)ICO宣布出于同樣的原因,它打算處以超過(guò)1700萬(wàn)英鎊的潛在罰款。此外,三個(gè)加拿大隱私當(dāng)局以及法國(guó)的CNIL下令Clearview AI停止處理并刪除收集到的數(shù)據(jù)。

歐洲數(shù)據(jù)保護(hù)機(jī)構(gòu)在2021年追查了其他幾起AI/ML系統(tǒng)侵犯隱私的案件。

2021年12月,荷蘭數(shù)據(jù)保護(hù)局宣布對(duì)荷蘭稅務(wù)和海關(guān)總署處以275萬(wàn)歐元的罰款,理由是其違反了GDPR,原因是ML算法以歧視性方式處理申請(qǐng)人的國(guó)籍。該算法系統(tǒng)地將雙重國(guó)籍識(shí)別為高風(fēng)險(xiǎn),導(dǎo)致這些人的索賠更有可能被標(biāo)記為欺詐。

在2021年8月的另一個(gè)具有里程碑意義的案例中,意大利的DPA加蘭特對(duì)食品配送公司Foodinho和Deliveroo分別處以約300萬(wàn)美元的罰款,理由是它們違反了GDPR,因?yàn)槠溆糜诠芾沓丝偷乃惴ㄈ狈ν该鞫取⒐叫院蜏?zhǔn)確信息。監(jiān)管機(jī)構(gòu)還發(fā)現(xiàn),這些公司的數(shù)據(jù)最小化、安全性和隱私設(shè)計(jì)和默認(rèn)保護(hù)缺乏,數(shù)據(jù)保護(hù)影響評(píng)估也缺失。

在2021年初的類(lèi)似案件中,阿姆斯特丹地方法院裁定拼車(chē)公司Uber和Ola Cabs不符合GDPR的透明度要求,并侵犯了要求人工干預(yù)的權(quán)利。荷蘭DPA的調(diào)查正在進(jìn)行中。

在美國(guó),F(xiàn)TC最近的命令明確表明,在開(kāi)發(fā)模型或算法時(shí)不遵守隱私要求的風(fēng)險(xiǎn)很高。

在Everalbum的問(wèn)題上,F(xiàn)TC不僅關(guān)注向用戶披露收集的生物特征信息并獲得同意的義務(wù),還要求非法獲取的數(shù)據(jù),以及使用這些數(shù)據(jù)開(kāi)發(fā)的模型和算法,被刪除或銷(xiāo)毀。

有了這個(gè),F(xiàn)TC從2019年開(kāi)始在其Cambridge Analytica訂單中遵循其方法,其中還要求刪除或銷(xiāo)毀不僅有問(wèn)題的數(shù)據(jù),而且還要求刪除或銷(xiāo)毀所有工作產(chǎn)品,包括全部或部分源自的任何算法或方程式數(shù)據(jù)。

挑戰(zhàn)—不可解釋黑盒

盡管有責(zé)任不執(zhí)行法規(guī)要求的負(fù)責(zé)任的人工智能原則,但仍有許多懸而未決的問(wèn)題。盡管有很多關(guān)于同意和適當(dāng)通知用戶的法律指導(dǎo),但對(duì)AI公平性和可解釋性等要求的法律解釋和實(shí)際實(shí)施仍處于起步階段。共同點(diǎn)是,沒(méi)有一種萬(wàn)能的方法來(lái)評(píng)估各種用例中值得信賴的AI原則。

AI可解釋性或透明度旨在打開(kāi)所謂的ML模型“黑盒”。圍繞可解釋人工智能的整個(gè)人工智能研究領(lǐng)域已經(jīng)出現(xiàn)。解釋ML模型的含義有很多答案。為了向監(jiān)管機(jī)構(gòu)或用戶解釋個(gè)人預(yù)測(cè),基于結(jié)果的事后本地模型很常見(jiàn)。在這里,可以在由黑盒模型的樣本和輸出組成的數(shù)據(jù)集上訓(xùn)練代理模型(或元模型)以近似其預(yù)測(cè)。任何解釋都應(yīng)適應(yīng)接收器的理解,并包括對(duì)系統(tǒng)設(shè)計(jì)選擇的參考,以及部署它的基本原理。

2345截圖20211028093243.png

人工智能公平是另一個(gè)不斷發(fā)展的領(lǐng)域,涵蓋了一個(gè)非常復(fù)雜的問(wèn)題。偏見(jiàn)、歧視和公平是高度針對(duì)具體情況的。在數(shù)學(xué)、計(jì)算機(jī)科學(xué)、法律、哲學(xué)和經(jīng)濟(jì)學(xué)的各個(gè)學(xué)科之間和內(nèi)部,存在許多公平的定義,并且差異很大。一些隱私監(jiān)管機(jī)構(gòu)已經(jīng)發(fā)布了明確的指導(dǎo)方針。根據(jù)ICO,公平意味著個(gè)人數(shù)據(jù)需要以人們合理預(yù)期的方式處理,而不是以對(duì)他們產(chǎn)生不合理不利影響的方式使用。同樣,F(xiàn)TC解釋說(shuō),根據(jù)FTC法案,如果一種做法弊大于利,就會(huì)被認(rèn)為是不公平的。另一方面,在GDPR的背景下對(duì)公平原則的定義仍然很少。.同時(shí),許多組織不確定如何在實(shí)踐中避免偏見(jiàn)。一般來(lái)說(shuō),偏差可以通過(guò)預(yù)處理(在訓(xùn)練算法之前)、處理中(在模型訓(xùn)練期間)和后處理(預(yù)測(cè)中的偏差校正)來(lái)解決。

AI可解釋性和公平性只是負(fù)責(zé)任的AI領(lǐng)域中眾多快速發(fā)展的原則中的兩個(gè)。正如歐盟ENISA在最近的一份報(bào)告中所強(qiáng)調(diào)的那樣,其他領(lǐng)域,例如保護(hù)AI/ML算法也需要提高意識(shí)和保障措施。另一個(gè)挑戰(zhàn)是不同原則之間的權(quán)衡。一些可信度屬性之間可能會(huì)出現(xiàn)緊張關(guān)系,例如透明度和隱私,或隱私和公平。

實(shí)際舉措

對(duì)于隱私專業(yè)人士來(lái)說(shuō),從數(shù)據(jù)治理和風(fēng)險(xiǎn)管理的角度來(lái)處理該主題以確保問(wèn)責(zé)制可能是一個(gè)良好的開(kāi)端。與計(jì)算機(jī)工程、數(shù)據(jù)科學(xué)、安全、產(chǎn)品開(kāi)發(fā)、用戶體驗(yàn)設(shè)計(jì)、合規(guī)性、營(yíng)銷(xiāo)和新興的人工智能倫理學(xué)家等其他團(tuán)隊(duì)共同設(shè)計(jì)適當(dāng)?shù)娜斯ぶ悄苤卫砹鞒淌谴_保人工智能/機(jī)器學(xué)習(xí)系統(tǒng)能夠處理個(gè)人數(shù)據(jù)會(huì)在整個(gè)ML流程中考慮隱私要求。

內(nèi)部政策應(yīng)確保人工參與處理數(shù)據(jù)質(zhì)量、數(shù)據(jù)注釋、訓(xùn)練數(shù)據(jù)準(zhǔn)確性測(cè)試、算法(重新)驗(yàn)證、基準(zhǔn)評(píng)估和外部審計(jì)。也可以考慮使用外部透明度標(biāo)準(zhǔn),例如最近由IEEE或英國(guó)發(fā)布的標(biāo)準(zhǔn)。

數(shù)據(jù)保護(hù)影響評(píng)估或隱私影響評(píng)估可以通過(guò)與負(fù)責(zé)任的人工智能相關(guān)的其他問(wèn)題來(lái)增強(qiáng)。通過(guò)這種方式,可以識(shí)別和控制使用人工智能可能給個(gè)人帶來(lái)的權(quán)利和自由風(fēng)險(xiǎn)。在這里,應(yīng)該評(píng)估算法和數(shù)據(jù)集中的偏見(jiàn)或不準(zhǔn)確可能對(duì)個(gè)人造成的任何損害,并記錄使用AI/ML算法的比例。PIA可以描述權(quán)衡取舍,例如統(tǒng)計(jì)準(zhǔn)確性和數(shù)據(jù)最小化之間的權(quán)衡,并記錄任何決策的方法和基本原理。

此外,組織可以考慮保護(hù)隱私的機(jī)器學(xué)習(xí)解決方案或使用合成數(shù)據(jù)。雖然它們不會(huì)取代負(fù)責(zé)任的人工智能和隱私政策、全面的模型風(fēng)險(xiǎn)管理以及模型可解釋性或偏差檢測(cè)的方法和工具的使用,但它們?cè)谠O(shè)計(jì)人工智能架構(gòu)時(shí)加強(qiáng)了隱私優(yōu)先的方法。

挪威DPA在一份致力于在ML算法中使用個(gè)人數(shù)據(jù)的報(bào)告中強(qiáng)調(diào)了這些方法:“與使用AI的組織特別相關(guān)的兩個(gè)新要求是設(shè)計(jì)隱私要求和DPIA。”

在這種情況下,負(fù)責(zé)任的人工智能原則的關(guān)鍵問(wèn)題也可以考慮在內(nèi)。起點(diǎn)可以是歐盟AI-HLEG提出的清單,也可以是人工智能伙伴關(guān)系編制的清單??鐚W(xué)科討論和部署用于負(fù)責(zé)任的AI、AI公平和AI可解釋性(如LIME、SHAP或LORE)的工具包可以進(jìn)一步促進(jìn)相互理解和對(duì)用戶的透明度。

進(jìn)一步的非技術(shù)方法可以包括成立一個(gè)道德人工智能委員會(huì)、內(nèi)部培訓(xùn)、團(tuán)隊(duì)組成的多樣化,或分析數(shù)據(jù)收集機(jī)制以避免偏見(jiàn)。其他組織已經(jīng)開(kāi)始發(fā)布AI可解釋性聲明。無(wú)論采用何種方法,組織都必須向消費(fèi)者提供必要的信息,以防AI/ML系統(tǒng)產(chǎn)生不利行為以及評(píng)分的使用和后果。

未來(lái)展望

確保值得信賴的AI和ML的原則將在未來(lái)幾年的大量法律中得到體現(xiàn)。在全球范圍內(nèi),經(jīng)合組織統(tǒng)計(jì)了60個(gè)國(guó)家的700項(xiàng)人工智能政策舉措。

隨著新的歐盟人工智能法案,高風(fēng)險(xiǎn)人工智能系統(tǒng)將受到明確監(jiān)管。在美國(guó),拜登政府宣布制定“人工智能權(quán)利法案”。除了即將為FTC提供的額外5億美元資金外,F(xiàn)TC還申請(qǐng)了關(guān)于隱私和人工智能的規(guī)則制定權(quán)。此外,新的加州隱私保護(hù)局可能會(huì)負(fù)責(zé)在2023年之前發(fā)布管理人工智能的法規(guī),預(yù)計(jì)這將產(chǎn)生深遠(yuǎn)的影響。

隨著執(zhí)法力度的加大和新法規(guī)的出臺(tái),確保人工智能系統(tǒng)的隱私合規(guī)將成為負(fù)責(zé)任地使用人工智能的最低要求。隨著未來(lái)的發(fā)展,人工智能應(yīng)用程序現(xiàn)在必須滿足隱私要求,這一點(diǎn)很重要。共同努力和對(duì)AI/ML生態(tài)系統(tǒng)的良好理解將極大地幫助為這些新的發(fā)展做準(zhǔn)備。

THEEND

最新評(píng)論(評(píng)論僅代表用戶觀點(diǎn))

更多
暫無(wú)評(píng)論