自AI誕生那天起,人類就開始擔心一個問題:作為人類頂尖智慧和技術(shù)的結(jié)晶,AI會不會有一天超出人類控制,甚至反噬人類?
阿西莫夫的“機器人三定律”曾經(jīng)暫時解決了這個問題,但隨著相關技術(shù)的發(fā)展和應用的擴大,人們發(fā)現(xiàn),機器智能所面臨倫理沖突的復雜性,遠不是簡單的3條定律就能約束的。近幾年各大科技巨頭相繼在AI加大注碼,讓外界對這個問題的擔憂日趨加重。
在這個問題上,實際上存在一個悖論:當你決定針對AI建立一整套倫理體系時,就已經(jīng)默認了,人類社會現(xiàn)有的倫理體系已經(jīng)不適用于AI時代,但是反過來,建立新的倫理體系,依照的卻仍然是舊的東西。一句話言之,針對未知的東西,你如何確保你的解決方案是對的?
前一陣子,谷歌就因為這事招致內(nèi)外雙方面的口誅筆伐。
谷歌向后
作為應對公共輿論的手段,不少AI科技公司專門成立了所謂的“道德委員會”,用來調(diào)節(jié)“AI和人的關系”,谷歌也不例外。3月底,該公司聘請了一個由第三方獨立人士組成的AI倫理委員會,取名“先進技術(shù)外部咨詢委員會(ATEAC)”。
從事后來看,谷歌成立ATEAC,與其說是為了真正解決AI發(fā)展所面臨的倫理問題,倒不如說是裝成努力解決問題的樣子,以堵住外界的批評聲音。然而事與愿違,這個組織本身導致了一場紛亂。
周一,谷歌員工集體請愿,要求公司撤掉ATEAC中的一員——凱伊·科爾斯·詹姆斯(Kay Coles James)。到周一晚間,在請愿書上簽字的員工已經(jīng)超過500人。詹姆斯之所以招人恨,是因為他是一名右翼分子,是著名保守派智庫傳統(tǒng)基金會(Heritage Foundation)的總裁。右翼在西方國家本身就是“政治不正確”的同義詞,更何況他還是最政治不正確——反同反變性人——的那批。
外界還有聲音,要求谷歌從委員會中撤掉無人機技術(shù)公司Trumbull Unmanned的CEO吉本斯(Dyan Gibbens),理由同樣是政治不正確,因為她和Trumbull Unmanned另一位創(chuàng)始人都曾經(jīng)和美軍就無人機進行合作。而在美國科技行業(yè),和軍事扯上關系是非常敏感的事。
從根本上說,倫理學研究的是我們做的決定對別人的影響,以及我們因此該承擔什么責任。所以,所謂倫理委員會本質(zhì)上是要為弱者利益發(fā)聲。而在AI研究領域,由于現(xiàn)在仍處于并將長期處于“實驗”階段,很多事情可能會在無意中越過客觀數(shù)據(jù)處理和道德決策間的界限,導致更復雜的倫理問題,更加敏感。
《金融時報》評論稱,谷歌為其委員會所做的選擇表明,它不理解這一點,要不然就是有意忽略了問題的復雜性。
終于,在上周四下午,谷歌公開宣布解散ATEAC:“很明顯,在當前的環(huán)境中,ATEAC不能按我們所希望的方式運行。所以我們要解散這個委員會,回到計劃上來。”
或許有人想問,ATEAC解散了,AI技術(shù)的倫理問題怎么解決?
前面提到,ATEAC的存在本身是為了裝裝樣子,這是因為在谷歌內(nèi)部,其實有另一個幾乎與ATEAC名字相同的團隊,即“高級技術(shù)審查委員會(ATRC)”,據(jù)稱這個團隊才有真正的權(quán)利調(diào)動資源研究解決AI倫理困境的方法。
據(jù)彭博報道,相較于獨立人士組成的ATEAC,ATRC的成員都是公司實權(quán)人士。團隊領導人是谷歌首席法律官沃克(Kent Walker),其他成員包括谷歌基礎設施主管霍爾澤 (Urs Holzle) 、AI主管迪恩(Jeff Dean)、Google.org副總裁富勒(Jacquelline Fuller)、教育和大學項目副總裁約翰遜(Maggie Johnson)以及谷歌母公司Alphabet旗下領先AI研究公司DeepMind聯(lián)合創(chuàng)始人蘇雷曼(Mustafa Suleyman)。
然而,像ATEAC這種“客觀獨立第三方”組織都不受信賴,更何況是ATRC這種內(nèi)部利益人士組成的不透明小團體呢?
外媒指出,希望ATEAC的取消不會造成谷歌在AI倫理工作上的倒退,而是轉(zhuǎn)為更具建設性地與外部利益相關者接觸。
有意思的是,在谷歌宣布解散ATEAC 4天后,歐盟公布了一份官方的AI道德準則。
歐盟前進
新的準則和“機器人三定律”有很大不同,它沒有提供一套直接針對AI的道德框架,而是梳理了AI在醫(yī)療、教育和消費技術(shù)等領域一些之前厘不清的問題。
舉例來說,如果某個AI系統(tǒng)在未來某個時候診斷出你有癌癥,在歐盟的指導方針下,AI軟件不會因為你的種族或性別產(chǎn)生偏見,同時,它不會凌駕于醫(yī)生的意見之上,患者可以要求AI解釋治療方案,也可以自主選擇治療方案。
總的來說,相比起“機器人三準則”的一刀切,歐盟準則更加溫和,對多種細分場景提出針對性原則,更加適應當前的技術(shù)發(fā)展,但也更加復雜。為了實現(xiàn)這一目標,歐盟召集了52名專家組成小組,他們提出了未來AI系統(tǒng)應該滿足的7項要求。具體如下:
1、人的能動性和人工監(jiān)督。AI不應該踐踏人類的自主性,AI不允許操縱或脅迫人類,人類應該能夠干預或監(jiān)督軟件做出的每一個決定;
2、技術(shù)的穩(wěn)健性和安全性。AI應當是安全并且準確的,它不能輕易被外部攻擊(如對抗性的例子)影響,應具有相當?shù)目煽啃?
3、隱私和數(shù)據(jù)管理。AI系統(tǒng)必須保證收集到的個人數(shù)據(jù)的安全和私密性,在未經(jīng)允許的情況下,不向任何第三方透露數(shù)據(jù),也不應該輕易被盜;
4、透明度。創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應是可訪問的,AI輸出的決定也理應能“被人類理解和追蹤”,換句話說,操作員應能夠解釋其AI系統(tǒng)所做的決定;
5、普惠、公平和非歧視。AI提供的服務應面向所有人,無論年齡、性別、種族或其他特征,反過來說,AI也不應該產(chǎn)生基于這些特征的偏見;
6、環(huán)境和社會福祉。AI作出的決策應該是可持續(xù)的,即對生態(tài)環(huán)境負責,還要有助于“積極的社會變革”;
7、問責制度。應設立機制,確保有人能控制AI系統(tǒng),并對AI決策的后果負責。
其中一些準則非常抽象,很難量化評估,比如“積極的社會變革”的定義就因人而異、因國而異,但大部分準則都是直截了當、操作性強的。這意味著,許多準則可以通過政府監(jiān)督進行檢驗。舉個例子,共享行政AI系統(tǒng)的訓練數(shù)據(jù),可能有助于對抗算法偏見。
雖然這些準則并沒有法律約束力,但作為歐盟廣泛討論的結(jié)果,它們可能就是未來所有AI相關立法的基礎。歐盟一再表示,它希望成為AI倫理領域的領導者。早前的超級嚴格的《通用數(shù)據(jù)保護條例》已經(jīng)表明了他們在信息技術(shù)安全使用方面的決心。
這不是應為歐洲人多有良心,只是大勢決定,在投資和前沿技術(shù)研究方面,它已經(jīng)失去了和美國及中國競爭的能力。所以,想要在AI時代保持存在感,它只能選擇技術(shù)以外的方面——比如倫理——作為未來方向。
除了7條準則外,歐盟在同日還發(fā)布了一份“值得信賴的AI評估列表”,羅列出了AI軟件中所有潛在弱點或危險的問題,包括“您是否驗證了系統(tǒng)在意外情況的行為”和“您是否評估了數(shù)據(jù)集中的數(shù)據(jù)類型和范圍”等細節(jié)問題。這些評估清單只是初步的,但歐盟將在未來幾年收集各公司的反饋,并在2020年提交一份關于其公共事業(yè)的最終報告。
新的節(jié)點?
面對AI倫理問題,谷歌寸步難行,歐盟大步前進,這種鮮明對比似乎預示著,AI技術(shù)的發(fā)展已經(jīng)到了一個新的節(jié)點,即技術(shù)的影響已經(jīng)滲透到社會的每一個角落,私人公司通過技術(shù)獲利的欲望和公共利益的沖突開始顯現(xiàn),單獨某個公司很難再以一己之力摸索出行業(yè)前進的方向。
至少對于谷歌而言是如此。有業(yè)內(nèi)人士懷疑,在谷歌聲明的倫理原則與其財務利益相抵觸的情況下,由高管組成的內(nèi)部AI倫理委員會不太可能對谷歌起到認真的制衡作用。
這一點在《金融時報》的采訪中也有所體現(xiàn),某公司高管向記者表示,他對歐盟的監(jiān)管準則表示歡迎,因為在競爭日益激烈的AI領域,這是唯一讓他知道公司該在哪里“收手”的標準。除此以外,它不會承認任何形式的限制。
數(shù)字版權(quán)組織Access Now的政策經(jīng)理希德韋吉(Fanny Hidvegi)表示:“評估列表是該報告最重要的部分。它提供了一個實用的、前瞻性的角度,指導我們?nèi)绾螠p輕AI的潛在危害。在我們看來,歐盟有潛力和責任走在這項工作的前列。同時我們認為,歐盟不應僅僅滿足于制定倫理準則。”