近期,谷歌AI倫理團(tuán)隊(duì)(Ethical AI group)的“連續(xù)劇”又有了新料:谷歌下屬機(jī)構(gòu)——谷歌大腦(Google Brian)的知名機(jī)器學(xué)習(xí)專家Samy Bengio宣布本月底將從谷歌離職。外界普遍認(rèn)為,這是他對谷歌此前解雇兩名AI倫理研究者的抗議。
在諸多媒體的筆下,該事件正成為一場娛樂大眾的鬧劇,充滿了“氣急敗壞的巨頭公司”、“犧牲自己做出反抗”、“不畏強(qiáng)權(quán)的平民英雄”等等觀眾喜聞樂見的元素。
不過,較少有人注意到這件事背后的一些關(guān)鍵詞,例如AI倫理、人工智能、種族歧視、少數(shù)群體和算法等等。盡管這些詞我們早已經(jīng)司空見慣,但它們距離現(xiàn)實(shí)的生活卻顯得遙遠(yuǎn)且無從觸及。
格奧爾格曾在詩中寫道:“詞語破碎處,無物可存在”。想要真正吃好谷歌AI倫理團(tuán)隊(duì)的瓜,還得從AI這個(gè)詞講起。
AI的三次浪潮:從學(xué)界走向業(yè)界
AI,即Artificial Intelligence,中文通常翻譯為人工智能。在相關(guān)科學(xué)技術(shù)仍在迅猛發(fā)展的今天,我們還不能給AI下一個(gè)本質(zhì)性的定義。不過,今天人工智能已經(jīng)覆蓋到了我們生活的方方面面,哪怕是從個(gè)人的角度,我們也可以在許多場景中觸摸到它的影子。
比如我們手機(jī)支付需要用到的指紋和人臉識別,新聞客戶端中“千人千面”的信息流、外賣軟件中的個(gè)性化推薦等等。
不過,從學(xué)界到業(yè)界,人工智能的誕生與發(fā)展并非一帆風(fēng)順的連續(xù)不斷,深入到我們生活中也只不過是最近十幾年的事情。這里需要簡單回顧一下人工智能發(fā)展的三次浪潮,而這也正是構(gòu)成如今人工智能倫理問題的底層邏輯。
現(xiàn)在普遍認(rèn)為,“人工智能”這一概念最早出自1956年美國的達(dá)特茅斯會議上。
圖|2006年,五十年后,達(dá)特茅斯會議當(dāng)年的與會者重聚。左起:摩爾,麥卡錫,明斯基,賽弗里奇,所羅門諾夫
1956年的夏天,被后人認(rèn)為是最早提出人工智能這一概念的約翰·麥卡錫,組織了一場“人工智能夏季研討會”(Summer Research Project on Artificial Intelligence),會議主要探討如何讓機(jī)器模仿人的智能。
但兩個(gè)月過去,會議最終也沒有達(dá)成共識。不過,對這一問題的探索以及提出建立人工智能這一學(xué)科,也就使1956年成為了人工智能元年。人工智能的三次發(fā)展浪潮也就隨之而來。
第一次浪潮:20世紀(jì)50到60年代,這段時(shí)間內(nèi)科學(xué)家們在探索如何讓機(jī)器具備邏輯推理能力,并且成功研發(fā)出第一款感知神經(jīng)網(wǎng)絡(luò)軟件和聊天軟件。
第二次浪潮:20世紀(jì)70年代中期,這段時(shí)間學(xué)界提出了Hopfield神經(jīng)網(wǎng)絡(luò)和BT訓(xùn)練算法,解決特定領(lǐng)域的專家系統(tǒng)問世并得到廣泛應(yīng)用。
第三次浪潮:進(jìn)入到2006年,人工智能再次迎來新發(fā)展?;ヂ?lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)、芯片等新興技術(shù)都為AI產(chǎn)業(yè)發(fā)展提供充足的數(shù)據(jù)支持和算力支撐。深度學(xué)習(xí)大放異彩,算法的應(yīng)用被普及到許多行業(yè)。
最近幾年,計(jì)算機(jī)視覺、自然語言處理、智能芯片、腦機(jī)接口等人工智能技術(shù)的分支,都獲得了不同程度的突破。
不過,隨著技術(shù)走向尖端,曾經(jīng)“野蠻生長”的人工智能技術(shù),如果想要百尺竿頭更進(jìn)一步,學(xué)界的資源已無法滿足。
目前人工智能已經(jīng)逐漸從學(xué)界主導(dǎo)轉(zhuǎn)移向業(yè)界主導(dǎo),商業(yè)化的同時(shí)也背負(fù)上了爭議。隨著AI走進(jìn)我們生活的方方面面,這種爭議聲也就越來越大。
陽光下的陰影:強(qiáng)大的滲透力讓AI成了“雙刃劍”
人工智能在科學(xué)層次的發(fā)展帶動(dòng)了相關(guān)技術(shù)的成熟。隨著人工智能多個(gè)分支研究的精進(jìn),其中較為成熟的技術(shù)就逐漸進(jìn)入到我們的生活當(dāng)中。隨著人工智能的覆蓋面越來越廣,對個(gè)人、企業(yè)乃至社會,都正發(fā)揮著越來越重要的作用。
伴隨人工智能地位的提高,人工智能產(chǎn)業(yè)巨大的經(jīng)濟(jì)潛力也慢慢浮現(xiàn)出來。據(jù)統(tǒng)計(jì),僅2020年,全球人工智能產(chǎn)業(yè)規(guī)模就達(dá)1565億美元,同比增長率是12%,中國人工智能產(chǎn)業(yè)規(guī)模大約3100億元人民幣,同比增長15%。另有統(tǒng)計(jì)稱,全球人工智能產(chǎn)業(yè)未來的趨勢仍是穩(wěn)步向上。
巨大的利益背后,自然少不了科技巨頭們的身影。之前說過,限于研發(fā)資源的門檻,目前人工智能的發(fā)展已經(jīng)逐漸從學(xué)界主導(dǎo)走向了業(yè)界主導(dǎo)。目前像IBM、谷歌、亞馬遜、微軟和Facebook等巨頭,是少數(shù)擁有足夠資源投入對人工智能進(jìn)行開發(fā)的公司。
但這些公司對人工智能的研發(fā)投入并非出于對科學(xué)的追求,而是希望技術(shù)革新能夠給公司帶來豐厚的回報(bào)。這本無可厚非,不過人工智能的特殊之處就在于,當(dāng)公司因其而獲益時(shí),有可能是以傷害社會為代價(jià)。
例如作為人工智能重要分支之一的人臉識別,就曾被指存在“種族偏見”而在多個(gè)國家引起過爭議。據(jù)外媒表示,目前像美國各地警方以及FBI等執(zhí)法部門存在高度依賴人臉識別技術(shù)來協(xié)助犯罪調(diào)查的現(xiàn)象,但出現(xiàn)了多起涉及有色人種的誤判,引起了廣泛的批評甚至是抵制。
美國波士頓市,就在去年6月通過了《波士頓禁止人臉監(jiān)控技術(shù)條例》來抵制人臉識別在該市的應(yīng)用。法案中稱,“人臉識別技術(shù)在識別非裔和亞裔群體時(shí)準(zhǔn)確率更低。人臉識別監(jiān)控中的種族偏見有可能傷害有色人種群體。”
這種批評和抵制并不是對技術(shù)的偏見。事實(shí)上,巨頭們的技術(shù)目前還沒有那么完善,對有色人種的誤判的確存在,而這有可能助推社會的撕裂。
回到谷歌AI倫理團(tuán)隊(duì)的系列鬧劇中,首個(gè)被谷歌解雇的Timnit Gebru,就曾因揭露面部識別系統(tǒng)中的種族和性別偏差而聞名。而本次害她丟掉工作的導(dǎo)火索,是她的郵件內(nèi)容中涉及了對谷歌AI倫理現(xiàn)存問題的不滿。這不禁讓我們沉思,AI倫理問題是巨頭們的“逆鱗”嗎?
巨頭口中的“科技向善”,真能實(shí)現(xiàn)嗎?
實(shí)際上,為了消除外界的質(zhì)疑,巨頭們也做出了很多努力。像2014年谷歌收購人工智能公司DeepMind時(shí),就要求后者成立倫理和安全委員會,來監(jiān)督公司的AI研發(fā)方向。微軟在2018年也成立了人工智能倫理道德委員會AETHER,意圖來規(guī)范公司在人工智能方向的業(yè)務(wù)。
2016年時(shí),亞馬遜,微軟,谷歌,IBM和Facebook還聯(lián)合成立了一家非營利性的人工智能合作組織(Partnership on AI),推進(jìn)AI研究的同時(shí)也希望針對倫理挑戰(zhàn)能做出解決方案。后面,蘋果、百度、英特爾、Salesforce、eBay、索尼、SAP、麥肯錫、Zalando和Cogitai等企業(yè)也紛紛加入該組織。
但問題是,目前人工智能的問題涉及的非常廣泛。除了偏見歧視,像人工智能作惡(如機(jī)器人在戰(zhàn)爭中的潛在應(yīng)用)、責(zé)任歸屬(如無人車交通意外)、過度依賴(如算法造成的“信息繭房”現(xiàn)象)和技術(shù)鴻溝(如本次疫情中部分老年人對“健康碼”等要求的手足無措),都是AI給我們帶來絢麗而又方便生活背后的陰影。那么,企業(yè)自身對AI的倫理研究與問題管控,真的可行嗎?
本次谷歌AI團(tuán)隊(duì)的風(fēng)波,就把現(xiàn)實(shí)更真實(shí)地?cái)[在了每個(gè)人面前:無論像谷歌等巨頭公司的承諾多么真誠,被企業(yè)所資助的研究,可能永遠(yuǎn)無法逃離資本的權(quán)力邊界。