2019年AI年度主題:公眾對面部識別更加警惕,反對浪潮洶涌

新智元
正如AI行業(yè)將自己標(biāo)榜為財(cái)富和權(quán)力的紐帶一樣,它也變得更加同質(zhì)。整個(gè)領(lǐng)域顯然存在一個(gè)普遍的問題。

近日,紐約大學(xué)AI Now Institute第四屆年度AI Now研討會舉辦,AI Now聯(lián)合創(chuàng)始人進(jìn)行了簡短演講,并著重討論了五個(gè)主題:面部表情和情感識別;從“AI偏見”向正義的轉(zhuǎn)變;城市、監(jiān)視、邊界;勞工、工人組織和AI;人工智能對氣候的影響。來新智元AI朋友圈與AI大咖一起參與討論吧~

近日,紐約大學(xué)AI Now Institute 第四屆年度AI Now研討會在紐約大學(xué)舉辦,AI Now聯(lián)合創(chuàng)始人凱特·克勞福德(Kate Crawford)和梅雷迪斯·惠特克(Meredith Whittaker)進(jìn)行了簡短的演講,總結(jié)了一年來的關(guān)鍵時(shí)刻,并著重討論了五個(gè)主題:

面部表情和情感識別;

從“AI偏見”向正義的轉(zhuǎn)變;

城市、監(jiān)視、邊界;

勞工、工人組織和AI,

人工智能對氣候的影響。

接下來和大家分享演講的摘錄。

公眾對面部和表情識別更加警惕

在2019年,公司和政府加大了在公共住房、招聘和城市街道中推廣面部識別的力度?,F(xiàn)在,一些美國航空公司甚至使用它代替登機(jī)牌,聲稱這樣做更方便。

情感識別(面部識別的一個(gè)子集)也得到了更廣泛的使用,它聲稱可以通過解釋面部的微表情來“讀取”我們的內(nèi)在情緒。正如心理學(xué)家Lisa Feldman Barret在一份廣泛的調(diào)查報(bào)告中所表明的那樣,這種類型的人工智能沒有可靠的科學(xué)基礎(chǔ)。但是,它已經(jīng)被用于教室和工作面試中,而且常常是在人們不知情的情況下。

例如,Georgetown隱私和技術(shù)中心獲得的文件顯示,F(xiàn)BI和ICE(美國移民和海關(guān)執(zhí)法局)一直在悄悄訪問駕照數(shù)據(jù)庫,在未經(jīng)個(gè)人同意或未經(jīng)州或聯(lián)邦立法者授權(quán)的情況下,對數(shù)百萬張照片進(jìn)行面部識別搜索。

但是今年,在嚴(yán)格限制使用面部識別的學(xué)者和組織者(如美國公民自由協(xié)會的Kade Crockford,羅切斯特理工學(xué)院的Evan Selinger和東北大學(xué)的Woodrow Hertzog)的呼吁之后,選民和立法者開始改變。第九巡回上訴法院(The Ninth Circuit Court of Appeals)最近裁定,F(xiàn)acebook可能因未經(jīng)許可而對用戶的照片進(jìn)行面部識別而被起訴,稱這是對隱私的侵犯。

由于媒體正義(Media Justice)等組織的領(lǐng)導(dǎo),舊金山于今年5月簽署了第一個(gè)面部識別的禁令。緊接著又有兩個(gè)城市禁止面部識別?,F(xiàn)在有一個(gè)總統(tǒng)候選人承諾全國范圍內(nèi)的禁令,音樂家們要求在音樂節(jié)上停止面部識別,并且有一項(xiàng)名為“ No Biometric Barriers to Housing Act”的聯(lián)邦法案,將焦點(diǎn)聚焦在公共房屋中的面部識別。

面部識別在歐洲同樣受阻,英國議會委員會要求在建立法律框架之前停止對面部識別的試驗(yàn),布魯塞爾警方最近對這些工具的測試被發(fā)現(xiàn)是非法的。

當(dāng)然,這些改變需要大量工作。我們要清楚的是,這不是需要完善技術(shù)方面或消除偏見的問題??紤]到被監(jiān)視、跟蹤和逮捕的人在種族和收入方面的差異,即使是非常準(zhǔn)確的面部識別也會產(chǎn)生不同的危害。正如凱特·克勞福德最近在《自然》雜志上所寫的那樣 :消除這些系統(tǒng)的偏見不是重點(diǎn),它們“失敗時(shí)是危險(xiǎn)的,成功時(shí)是有害的”。

從“AI 偏見”到正義

今年,我們還看到了一些重要的轉(zhuǎn)變,從狹隘的專注于純技術(shù)的AI“去偏見”轉(zhuǎn)向更加關(guān)注正義。

許多令人不安的事件在一定程度上推動了這一點(diǎn)。

例如,密歇根州的前州長里克·斯奈德(Rick Snyder)是一名技術(shù)主管,他決定安裝一個(gè)全州范圍的自動化決策系統(tǒng),稱為MiDAS。它的目的是自動標(biāo)記涉嫌福利欺詐的工人。為了削減成本,該州安裝了MiDAS并解雇了整個(gè)欺詐檢測部門。但是事實(shí)證明,MiDAS系統(tǒng)有93%的時(shí)間是錯(cuò)誤的。它錯(cuò)誤地指控了40,000多名居民,從而引發(fā)了許多破產(chǎn)甚至自殺事件。但是,MiDAS只是一系列更大的緊縮政策的一部分,這些政策的重點(diǎn)是尋找窮人當(dāng)替罪羊。

另一個(gè)例子來自AI Now的政策主管Rashida Richardson領(lǐng)導(dǎo)的研究,她研究了警察日常工作和預(yù)測性警務(wù)軟件之間的聯(lián)系。她和她的團(tuán)隊(duì)發(fā)現(xiàn),在美國許多警察部門中,預(yù)測性警務(wù)系統(tǒng)可能會使用來自種族主義和腐敗的警務(wù)記錄。

顯然,在這種情況下糾正偏差與刪除數(shù)據(jù)集中的變量無關(guān)。它需要更改警察制作數(shù)據(jù)的做法。人權(quán)數(shù)據(jù)分析小組的研究人員Kristian Lum在她關(guān)于算法如何放大警務(wù)中的歧視性的開創(chuàng)性工作中也表明了這一點(diǎn)。

凱特·克勞福德和AI Now藝術(shù)家研究員Trevor Paglen最近還在他們的Training Humans展覽中提到了分類政治,這是首個(gè)大型藝術(shù)展,旨在研究用于創(chuàng)建機(jī)器學(xué)習(xí)系統(tǒng)的訓(xùn)練數(shù)據(jù)。該項(xiàng)目考察了AI訓(xùn)練集的歷史和邏輯,從1963年Woody Bledsoe進(jìn)行的第一次實(shí)驗(yàn)到最著名和使用最廣泛的基準(zhǔn)集,例如Wilded Labeled Faces和ImageNet。

ImageNet Roulette是與展覽一起提供的視頻安裝和應(yīng)用程序。

今年9月,在數(shù)百萬人上傳了他們的照片,以查看他們將如何被ImageNet分類后,這一消息在網(wǎng)上流傳開來。這是一個(gè)具有重大意義的問題,ImageNet是規(guī)范的對象識別數(shù)據(jù)集,它在塑造AI產(chǎn)業(yè)方面做得比任何其他行業(yè)都多。

雖然ImageNet的一些分類很奇怪,甚至很有趣,但數(shù)據(jù)集中也充斥著非常有問題的分類,其中許多是種族主義者和厭女主義者(misogynist)。Imagenet Roulette提供了一個(gè)界面,使人們可以查看AI系統(tǒng)如何對他們進(jìn)行分類??藙诟5潞团粮駛怭aglen發(fā)表了一篇調(diào)查性文章,揭示了他們?nèi)绾谓议_多個(gè)基準(zhǔn)訓(xùn)練集的面紗,以揭示其政治結(jié)構(gòu)。

這也是為什么藝術(shù)和研究結(jié)合在一起有時(shí)會比單獨(dú)的影響更大的原因,這使我們考慮由誰來定義我們所處的類別,以及由此產(chǎn)生的后果。

城市,監(jiān)視,邊界

能源、分類和控制問題,是今年在美國范圍內(nèi)大規(guī)模部署公司監(jiān)視系統(tǒng)的前提。以亞馬遜的Ring為例,它是一款監(jiān)控?cái)z像頭和門鈴系統(tǒng),旨在使人們能夠24小時(shí)監(jiān)控家和附近地區(qū)。

亞馬遜正在與400多個(gè)警察部門合作推廣Ring,希望警察說服當(dāng)?shù)孛癖娰徺I該系統(tǒng)。這樣的行為,有點(diǎn)像將警察變成挨家挨戶上門推銷的安防產(chǎn)品銷售員。

作為交易的一部分,亞馬遜將持續(xù)獲取視頻內(nèi)容,同時(shí)為警察提供一個(gè)視頻訪問入口,可以隨時(shí)調(diào)用監(jiān)控視頻。

該公司已經(jīng)在該領(lǐng)域申請了人臉識別專利,表明他們希望能夠?qū)⒁曨l中的人臉與“可疑人員數(shù)據(jù)庫”進(jìn)行比對,從而有效地在全國范圍內(nèi)建立私有化的家庭監(jiān)控系統(tǒng)。

但是Ring并非解決問題的最佳方案。正如Burku Baykurt,Molly Sauter和AI Now研究員Ben Green這樣的學(xué)者所表明的那樣,“智慧城市”的技術(shù)烏托邦式言論,掩蓋了更深層次的不公正和不平等問題。

居民社區(qū)開始考慮這個(gè)問題。8月,圣地亞哥居民抗議安裝“智能”燈桿。

今年6月,紐約州洛克波特市的學(xué)生和家長抗議學(xué)校使用的面部識別系統(tǒng),該系統(tǒng)使該地區(qū)能夠隨時(shí)追蹤和繪制任何學(xué)生或老師的信息,現(xiàn)已暫停工作。

2月份紐約的一個(gè)大型聯(lián)合組織,迫使亞馬遜放棄了其在皇后區(qū)的第二個(gè)總部。該組織負(fù)責(zé)人強(qiáng)調(diào),紐約不光給亞馬遜提供了龐大的激勵(lì)計(jì)劃,還有亞馬遜的勞動實(shí)踐,面部識別技術(shù)的部署以及與ICE的合同。

當(dāng)然,這些工具最被濫用的情況之一是在美國南部邊境。ICE,海關(guān)和邊境巡邏隊(duì)正在部署AI系統(tǒng)。

目前,有52000名移民被關(guān)在監(jiān)獄、拘留所以及其他限制人身自由的場地。40000名無家可歸的人在邊境的墨西哥一側(cè)等待庇護(hù)。在過去的一年中,有7名兒童在ICE拘留中死亡,許多兒童面臨食物和醫(yī)療不足的問題。

根據(jù)宣傳組織Mijente的報(bào)告,我們知道像亞馬遜和Palantir這樣的公司正在為ICE提供驅(qū)逐難民出境的理由。

為了反對驅(qū)逐行動以及對抗科技巨頭和ICE,已經(jīng)有來自數(shù)十所大學(xué)的2000多名學(xué)生簽署了不與Palantir合作的保證書;而與ICE簽約的科技公司總部幾乎每周都有抗議活動。

勞工,工會和人工智能

當(dāng)然,當(dāng)我們檢查AI領(lǐng)域日益增長的多樣性問題時(shí),種族,階級和性別等方面的結(jié)構(gòu)性歧視問題將得到充分展示。

4月,AI Now發(fā)布了由博士后Sarah Myers West領(lǐng)導(dǎo)的Discriminate Systems。這項(xiàng)研究展示了AI內(nèi)部的歧視性文化、與AI系統(tǒng)中嵌入的偏見及歪曲事實(shí)之間的反饋回路。

調(diào)查結(jié)果令人震驚。正如AI行業(yè)將自己標(biāo)榜為財(cái)富和權(quán)力的紐帶一樣,它也變得更加同質(zhì)。整個(gè)領(lǐng)域顯然存在一個(gè)普遍的問題。

但是,也有人不斷呼吁求變。爆料人希恩·斯文森(Signe Swenson)和記者羅南·法羅(Ronan Farrow)幫助揭示了麻省理工學(xué)院的籌款文化,這種文化將地位和金錢置于婦女和女孩的安全之上。

最早要求問責(zé)的人之一是肯尼亞研究生Arwa Mboya。她討要公道做法,像極了當(dāng)初處于社會底層、無權(quán)無勢的有色人種婦女爭取權(quán)利而發(fā)聲的狀態(tài)。但是,麻省理工學(xué)院當(dāng)然并非個(gè)案。

從Google罷工到Riot game,再到與CEO面對面的Microsoft工人,我們已經(jīng)看到了多家科技公司的一系列罷工和抗議,所有這些都要求消除工作中的種族和性別不平等。

AI Now聯(lián)合創(chuàng)始人梅雷迪思·惠特克(Meredith Whittaker)于今年早些時(shí)候離開了Google。她對行業(yè)的發(fā)展方向越來越感到震驚。事情變得越來越糟,而不是更好。因此,她和她的同事們開始圍繞工作場所中AI的有害使用和濫用進(jìn)行梳理。

AI Now的研究和許多其他學(xué)者的研究也為這項(xiàng)梳理工作提供了信息,這些研究為政治行動和組織提供了寶貴的指導(dǎo)。科技工作者運(yùn)動不斷發(fā)展也取得了一些重大勝利。

合同工是這個(gè)故事的關(guān)鍵部分,他們是最早使用技術(shù)進(jìn)行組織的人。

在許多科技公司中,他們占勞動力的一半以上,他們沒有得到全面的就業(yè)保障,他們的收入通常勉強(qiáng)維持生計(jì)。Lilly Irani,莎拉·羅伯茨,杰西卡·布魯?shù)潞同旣?middot;格雷等學(xué)者的著作幫助吸引了對這些影子勞動力的關(guān)注。

用于工人管理的AI平臺也是一個(gè)日益嚴(yán)重的問題。從Uber到亞馬遜的倉庫,這些龐大的自動化平臺可指導(dǎo)員工行為,設(shè)定績效目標(biāo)并確定員工工資,從而使員工完全受制于AI。例如,在今年早些時(shí)候,Uber大幅削減了工人的工資,沒有任何解釋或警告,而是通過對其平臺的更新悄悄地實(shí)施了這一變更。

幸運(yùn)的是,我們也看到了這些工人的一些重大勝利。CA的Rideshare工人在AB-5法中取得了巨大勝利,該法要求基于應(yīng)用程序的公司向駕駛員提供全面的就業(yè)保護(hù)。

AI的氣候影響

所有這些問題的背景都是氣候。

人工智能非常耗能,消耗大量自然資源。來自Amherst的研究員Emma Strubell在今年早些時(shí)候發(fā)表了一篇論文,揭示了訓(xùn)練AI系統(tǒng)的巨大碳消耗。她的團(tuán)隊(duì)表明,僅創(chuàng)建一種用于自然語言處理的AI模型,就可以排放多達(dá)600000磅的二氧化碳,相當(dāng)于在紐約和北京之間的125次往返飛行的耗能。

大型AI的碳消耗足跡通常隱藏在諸如“云”之類的抽象產(chǎn)品后面。實(shí)際上,據(jù)估計(jì),世界計(jì)算基礎(chǔ)設(shè)施的碳排放量與航空業(yè)一樣多,占全球排放量的很大比例。

不斷增長的反抗

越來越多的反對浪潮涌現(xiàn)。

你可以看到一股越來越大的反對浪潮正在出現(xiàn)。從拒絕承認(rèn)面部識別是不可避免的,到我們家園和城市中的追蹤技術(shù),大量的重要工作正在進(jìn)行中。

很明顯,人工智能引發(fā)的問題主要是社會,文化和政治問題,而非技術(shù)問題。這些問題,從刑事司法到工人權(quán)利,再到種族和兩性平等,都有悠久的歷史。

我們?nèi)匀挥幸粋€(gè)機(jī)會來決定可以接受哪種類型的AI、以及讓它們負(fù)什么責(zé)!

THEEND

最新評論(評論僅代表用戶觀點(diǎn))

更多
暫無評論