2019年,是人工智能技術(shù)(以下簡(jiǎn)稱AI)逐漸開始降溫的年份。在Gartner 8月份發(fā)布的技術(shù)成熟度曲線上,所有的AI應(yīng)用都還沒(méi)有越過(guò)第二階段的泡沫頂峰。
盡管AI技術(shù)還處于發(fā)展的初級(jí)階段,離大規(guī)模商用還有相當(dāng)遠(yuǎn)的距離,但這一點(diǎn)也不妨礙AI技術(shù)給人類社會(huì)帶來(lái)各種麻煩和爭(zhēng)議。2019年AI給人類帶來(lái)的麻煩和潛在的風(fēng)險(xiǎn),包括了其中以下方面:
信息偽造
使用AI技術(shù)進(jìn)行圖像和視頻編輯是AI應(yīng)用最廣泛和最成熟的領(lǐng)域之一。隨著越來(lái)越多的開源軟件可以自動(dòng)化完成相關(guān)的視頻圖像編輯操作,有一天這個(gè)技術(shù)門檻終于被徹底推倒了。
2017年底,一個(gè)名叫“deepfakes”的用戶匿名在社交平臺(tái)Reddit上傳了基于對(duì)抗式神經(jīng)網(wǎng)絡(luò)開發(fā)的程序包,提供視頻編輯“換臉”操作的功能。2018年1月,一款名為FakeApp的手機(jī)應(yīng)用在應(yīng)用商店上架,進(jìn)一步提供傻瓜操作視頻“換臉”。短時(shí)間內(nèi),從名人視頻“換臉”到成人視頻“換臉”,各種“成果”蜂擁而出。但總的來(lái)說(shuō),2018年時(shí)的AI“換臉”視頻的細(xì)節(jié)處理還比較粗糙,很容易被識(shí)破。
讓公眾震驚的時(shí)刻終于到來(lái)。2019年5月,一個(gè)名為“Ctrl Shift Face”的賬號(hào)在YouTube上傳了一段比爾•哈德爾的高清訪談視頻。在視頻過(guò)程中,比爾•哈德爾的面部逐漸演變?yōu)榘⒅Z德•施瓦辛格的面部,中間的“換臉”過(guò)渡幾乎是天衣無(wú)縫,而且是漸變式完成的。這段三分鐘的視頻最終被觀看1200萬(wàn)次,并得到了15萬(wàn)次的點(diǎn)贊。
AI的視頻偽造技術(shù)終于達(dá)到了以假亂真的水平。并且由于模型開源的緣故,AI偽造技術(shù)目前對(duì)使用者的要求極低,只要有基本的編程常識(shí),按圖索驥就可以搭建類似的AI運(yùn)行環(huán)境。
互聯(lián)網(wǎng)巨頭們坐不住了。這種能夠輕易污染信息源,生成虛假信息的“核武器”目前已經(jīng)開始散落在民間。互聯(lián)網(wǎng)巨頭們必須重新掌握篩選甄別虛假信息的能力,否則就無(wú)法抵抗來(lái)自民間的海量虛假內(nèi)容的“攻擊”。
2019年9月,F(xiàn)acebook宣布將投資1000萬(wàn)美元發(fā)起Deepfake檢測(cè)挑戰(zhàn)賽(Deepfake Detection Challenge)。這并不是鼓勵(lì)Deepfake技術(shù)的進(jìn)一步發(fā)展,而是希望借助挑戰(zhàn)賽全面了解Deepfake的技術(shù)特點(diǎn),以便有針對(duì)性的尋找快速甄別的手段。
Facebook、微軟以及牛津大學(xué)、加州大學(xué)伯克利分校、麻省理工等企業(yè)和大學(xué)組建了Partnership On AI。作為這個(gè)聯(lián)盟的一份子,F(xiàn)acebook正在致力于通過(guò)更好的檢測(cè)技術(shù)來(lái)打擊對(duì)Deepfake的濫用。
2019年8月,德國(guó)和意大利的高校研究人員建立了FaceForensics技術(shù)標(biāo)準(zhǔn),用于判別AI生成的虛假視頻。Google作為共同發(fā)起人,也參與了FaceForensics技術(shù)標(biāo)準(zhǔn)的制定。
在中國(guó),一款名為“ZAO”的手機(jī)應(yīng)用也因?yàn)樘峁┮曨l“換臉”功能而大火,同樣引起了有關(guān)部門的注意。2019年12月,國(guó)家互聯(lián)網(wǎng)信息辦公室、文化和旅游部、國(guó)家廣播電視總局聯(lián)合印發(fā)了《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,其中規(guī)定網(wǎng)絡(luò)音視頻信息服務(wù)提供者和網(wǎng)絡(luò)音視頻信息服務(wù)使用者利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等的新技術(shù)新應(yīng)用制作、發(fā)布、傳播非真實(shí)音視頻信息的,應(yīng)當(dāng)以顯著方式予以標(biāo)識(shí),不得利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等的新技術(shù)新應(yīng)用制作、發(fā)布、傳播虛假新聞信息。
視頻信息偽造只是AI信息偽造的一種形式。2019年算是AI偽造信息技術(shù)大規(guī)模普及的一年。今后偽造與反偽造這種貓鼠游戲還會(huì)持續(xù)下去,AI在偽造信息給我們帶來(lái)的麻煩才剛剛開始。
潛在的濫用風(fēng)險(xiǎn)
使用AI技術(shù)進(jìn)行圖像和視頻編輯是AI應(yīng)用最廣泛和最成熟的領(lǐng)域之一。隨著越來(lái)越多的開源軟件可以自動(dòng)化完成相關(guān)的視頻圖像編輯操作,有一天這個(gè)技術(shù)門檻終于被徹底推倒了。
1、崗位的替代
使用AI技術(shù)進(jìn)行圖像和視頻編輯是AI應(yīng)用最廣泛和最成熟的領(lǐng)域之一。隨著越來(lái)越多的開源軟件可以自動(dòng)化完成相關(guān)的視頻圖像編輯操作,有一天這個(gè)技術(shù)門檻終于被徹底推倒了。
2、模型的錯(cuò)誤與歧視(bias)
盡管現(xiàn)在AI技術(shù)已經(jīng)很強(qiáng)大,但在很多方面還沒(méi)有成熟到能夠普遍應(yīng)用于商業(yè)環(huán)境。這里談到的成熟,一方面是算法適應(yīng)性和技術(shù)應(yīng)用本身的可靠性,另一方面也包括產(chǎn)業(yè)環(huán)境中各方對(duì)于AI系統(tǒng)的接受度。
其中一種眾所周知的應(yīng)用類型就是自動(dòng)駕駛。在AI系統(tǒng)全權(quán)控制車輛時(shí),錯(cuò)誤的判斷與操作帶來(lái)的損失應(yīng)該由哪一方來(lái)承擔(dān),目前并沒(méi)有一個(gè)各方均可接受的解決方案。直到現(xiàn)在,自動(dòng)駕駛技術(shù)一直在提高系統(tǒng)可靠性和系統(tǒng)失誤的責(zé)任分擔(dān)這兩條線上糾結(jié)不前。
類似的問(wèn)題是具有普遍意義的。今年5月,媒體披露香港某李姓億萬(wàn)富豪因?yàn)榻邮芡顿Y顧問(wèn)的建議,采用基金公司提供的AI策略交易系統(tǒng)進(jìn)行對(duì)沖交易,最終導(dǎo)致了超過(guò)兩千萬(wàn)美元的損失。目前該案已經(jīng)被提交到倫敦商業(yè)法庭,并預(yù)計(jì)于2020年4月進(jìn)行審判。
最終的焦點(diǎn)還是回到了“黑匣子”問(wèn)題上:如果人們不知道AI系統(tǒng)如何做出決策,那么出現(xiàn)問(wèn)題的話,誰(shuí)該承擔(dān)責(zé)任?
傳統(tǒng)上來(lái)說(shuō),任何商業(yè)行為(商業(yè)建議)都可以追根溯源找到行為人。但在由AI系統(tǒng)掌控的商業(yè)行為中,往往很難找到明確的個(gè)人為結(jié)果負(fù)責(zé)??蛻粼诮邮芰奶鞕C(jī)器人推薦的產(chǎn)品時(shí)甚至無(wú)法投訴其提供誤導(dǎo)信息,因?yàn)锳I系統(tǒng)本身不存在故意誤導(dǎo)(misrepresenation)的可能性。
2019年來(lái)臨的這場(chǎng)億萬(wàn)富翁與AI系統(tǒng)的法律爭(zhēng)斗預(yù)示著人工智能在融入人類生活的方方面面之前,將要面臨什么樣的挑戰(zhàn)。
類似的AI錯(cuò)誤在2019年還有一些。今年4月份發(fā)生的巴黎圣母院大火期間,YouTube平臺(tái)上部分新聞直播下方的信息欄內(nèi),出現(xiàn)了有關(guān)“911恐怖襲擊”事件的說(shuō)明,但此次大火的原因和恐怖襲擊并無(wú)關(guān)聯(lián)。事后,Google承認(rèn)信息欄的內(nèi)容是由AI算法自動(dòng)生成的,并表示已經(jīng)第一時(shí)間關(guān)閉了這些直播視頻下方的信息欄。
引起AI系統(tǒng)錯(cuò)誤的原因除了算法模型不夠精確之外,還有一個(gè)重要的因素就是建模數(shù)據(jù)本身的偏差導(dǎo)致的模型歧視(bias)。
2018年10月路透社就報(bào)道亞馬遜公司開發(fā)的AI智能招聘系統(tǒng)在進(jìn)行簡(jiǎn)歷篩選時(shí)存在明顯的性別歧視。AI算法在依據(jù)候選人簡(jiǎn)歷時(shí)對(duì)包括“婦女”等詞的簡(jiǎn)歷降權(quán)處理,例如包含“女子國(guó)際象棋俱樂(lè)部隊(duì)長(zhǎng)”這樣經(jīng)歷的簡(jiǎn)歷。AI算法甚至還系統(tǒng)地降低了兩所女子大學(xué)的畢業(yè)生的等級(jí)。所有這些處理方式的原因就是目前科技行業(yè)男性占主導(dǎo)地位的事實(shí)強(qiáng)化了系統(tǒng)在構(gòu)建AI算法模型時(shí)的偏見。
類似的偏見無(wú)處不在。今年5月份皮尤研究中心發(fā)布的報(bào)告顯示,F(xiàn)acebook的新聞配發(fā)的照片中,男性出現(xiàn)的次數(shù)是女性的兩倍。在兩性數(shù)量基本均衡的背景下,如果無(wú)差別采用Facebook的新聞?wù)掌瑯?gòu)建AI模型,幾乎可以肯定會(huì)出現(xiàn)性別歧視的傾向。
AI系統(tǒng)引起的“歧視”中最新的案例來(lái)自于日本。就在12月份,東京大學(xué)副教授大澤升平在推特上公開宣稱:“不在自己公司錄用中國(guó)人”、“從簡(jiǎn)歷就篩掉中國(guó)人”。在引起中日雙方的輿論抨擊后,大澤升平在推特上公開道歉,并表示“之前一系列推文中提及對(duì)特定國(guó)籍人士工作能力的判斷,是本公司基于有限數(shù)據(jù)、經(jīng)過(guò)人工智能(AI)分析“過(guò)度學(xué)習(xí)’得出的結(jié)果。”這也算是AI系統(tǒng)歧視在2019年臨近結(jié)束時(shí)背上的一口黑鍋吧。
3、潛在的濫用風(fēng)險(xiǎn)
目前AI技術(shù)還不夠成熟,所以并沒(méi)有出現(xiàn)大規(guī)模的商用,但唯有少數(shù)領(lǐng)域例外–例如面部識(shí)別。
2019年可以說(shuō)時(shí)面部識(shí)別技術(shù)“飛入尋常百姓家”的一年。不只是傳統(tǒng)的公安部門和金融部門,現(xiàn)在幾乎各行各業(yè)都在嘗試如何把面部識(shí)別技術(shù)嵌入到身份認(rèn)證和人群活動(dòng)管理的功能中來(lái)。
2019年10月,杭州野生動(dòng)物世界因?yàn)閺?qiáng)制游客“刷臉”才能入園而導(dǎo)致訴訟。作為一個(gè)休閑娛樂(lè)場(chǎng)所,有沒(méi)有必要強(qiáng)制要求游客留下面部生物特征信息呢?
類似的事例還有中國(guó)藥科大學(xué)在教室安裝的人臉識(shí)別系統(tǒng)。該系統(tǒng)可以通過(guò)面部識(shí)別技術(shù)識(shí)別進(jìn)入教室聽課的學(xué)生,并全程追蹤學(xué)生聽講、發(fā)呆、睡覺等上課的狀態(tài)。
面部信息是人類最重要的基本生物特征之一,識(shí)別度極高且無(wú)法輕易改變。更重要的是,面部信息是少數(shù)可以通過(guò)遠(yuǎn)程非接觸方式進(jìn)行準(zhǔn)確識(shí)別的生物信息。對(duì)于任何向第三方隨意暴露出自己詳細(xì)面部信息的個(gè)體,都等于允許第三方在任何時(shí)間和地點(diǎn)以非接觸方式完成自己的身份認(rèn)證。這就好比你把自己的姓名和身份證信息加密印在自己的額頭上,然后把密碼隨意交給第三方。第三方甚至可以在數(shù)公里之外遠(yuǎn)程掃一下你額頭的二維碼,就知道你是誰(shuí),身份證號(hào)碼多少。
如此輕易且準(zhǔn)確的身份識(shí)別信息當(dāng)然很重要。于是各方就趁著AI應(yīng)用的東風(fēng)廣泛收集公民個(gè)人面部信息。2019年9月?!侗本┣嗄陥?bào)》披露在網(wǎng)絡(luò)商城中有17萬(wàn)條“人臉數(shù)據(jù)”被公開發(fā)售,其中涵蓋了兩千人的肖像,每個(gè)人約有50到100張照片。此外,每張照片還搭配有一份數(shù)據(jù)文件,描述了人臉的106處關(guān)鍵識(shí)別位置,如眼睛、耳朵、鼻子、嘴、眉毛等的輪廓信息??梢韵胂螅@兩千人的面部和個(gè)人信息泄漏將導(dǎo)致他們?cè)诠妶?chǎng)合的活動(dòng)近似于“裸奔”,任何獲取這些數(shù)據(jù)且具有面部識(shí)別功能的攝像頭都可以知道他/是誰(shuí),身份證號(hào)多少,多大年齡。
正是因?yàn)檫@樣潛在的濫用風(fēng)險(xiǎn),所以各國(guó)政府在2019年開始收緊AI技術(shù)在面部識(shí)別領(lǐng)域的應(yīng)用。
2019年5月,舊金山市議會(huì)以8:1的投票結(jié)果通過(guò)禁止警方和其它政府部門使用“人臉識(shí)別技術(shù)”的決議。10月,加利福尼亞州州長(zhǎng)簽署法令,禁止執(zhí)法機(jī)構(gòu)在未來(lái)三年內(nèi)使用面部識(shí)別技術(shù)。
美國(guó)的警用設(shè)備制造商Axon Enterprise 6月份表示,將不會(huì)在自己的設(shè)備上添加人臉識(shí)別軟件。目前Axon Enterprise向包括紐約和洛杉磯警察局在內(nèi)的47家美國(guó)執(zhí)法機(jī)構(gòu)提供隨身攝像頭。
我們不能說(shuō)美國(guó)政府在部分公務(wù)行為中禁止使用面部識(shí)別技術(shù)就是對(duì)的,但最起碼在非必要領(lǐng)域,如零售、娛樂(lè)、普通服務(wù)業(yè)等應(yīng)該嚴(yán)格約束商家采集和應(yīng)用面部識(shí)別技術(shù),并制定面部數(shù)據(jù)的采集和應(yīng)用合規(guī)標(biāo)準(zhǔn),以防止2019年出現(xiàn)的面部識(shí)別技術(shù)濫用的趨勢(shì)。
需要指出的是,隨著AI技術(shù)逐漸深入到商業(yè)和家庭環(huán)境中,類似的涉嫌濫用領(lǐng)域只會(huì)越來(lái)越多。從智能音箱涉嫌監(jiān)聽客戶家庭的對(duì)話,到亞馬遜使用AI系統(tǒng)監(jiān)控員工工作效率,甚至精確計(jì)算工人消極懈怠的“工休間隙”時(shí)間(Time Off Task,簡(jiǎn)稱TOT),2019年AI商業(yè)應(yīng)用不斷豐富的背后,潛在的濫用風(fēng)險(xiǎn)也越來(lái)越大。
4、軍事應(yīng)用與對(duì)抗
AI作為最尖端的互聯(lián)網(wǎng)高科技之一,在海量信息處理能力和瞬時(shí)判別響應(yīng)方面具有人力完全不可比擬的優(yōu)勢(shì)。AI自然也是軍事部門希望快速擁有和全面應(yīng)用的技術(shù)。
美國(guó)國(guó)防部去年6月宣布成立聯(lián)合人工智能中心(JAIC),以促進(jìn)美國(guó)軍事工業(yè)在AI技術(shù)實(shí)際應(yīng)用的能力。JAIC負(fù)責(zé)人為美國(guó)空軍中將John N.T.“Jack”Shanahan,研究的重點(diǎn)領(lǐng)域包括:情報(bào)探知、預(yù)測(cè)性維護(hù)與供應(yīng)、救災(zāi)和人道主義援助、以及網(wǎng)絡(luò)空間。
彭博周刊披露,2019年11月初,來(lái)自美國(guó)軍事工業(yè)的多位高層和智囊齊聚華盛頓討論AI在軍事工業(yè)的應(yīng)用。其中就有JAIC的負(fù)責(zé)人Jack Shanahan將軍,也有谷歌董事長(zhǎng)Eric Schmidt和首席法律官Kent Walker。
而美國(guó)《防務(wù)系統(tǒng)》網(wǎng)站近日?qǐng)?bào)道,美國(guó)算法戰(zhàn)跨職能小組(Algorithmic Warfare Cross-Functional Team,簡(jiǎn)稱AWCFT或"Project Maven")已經(jīng)開發(fā)出四套智能算法,預(yù)計(jì)將很快投入實(shí)戰(zhàn)應(yīng)用。這個(gè)Project Maven小組就是曾經(jīng)與Google公司合作開發(fā)基于AI圖像識(shí)別技術(shù)的無(wú)人機(jī)目標(biāo)識(shí)別系統(tǒng)的軍方機(jī)構(gòu)。
而美國(guó)國(guó)會(huì)研究處(Congressional Research Service)11月26日發(fā)布的“AI與國(guó)家安全”白皮書中明確指出,“人工智能已經(jīng)被納入在伊拉克和敘利亞的軍事行動(dòng)中。”
該白皮書的重要內(nèi)容之一,就是闡述未來(lái)的AI技術(shù)在“致命自主武器系統(tǒng)”(Lethal Autonomous Weapon Systems,LAWS)領(lǐng)域的應(yīng)用。所謂“自主武器系統(tǒng)”,就是自動(dòng)識(shí)別目標(biāo),自主判斷并進(jìn)行攻擊的系統(tǒng)。該系統(tǒng)可以徹底擺脫人為控制,按照AI系統(tǒng)的“智能”完成作戰(zhàn)任務(wù)。而其中最為人所熟悉的“自主武器系統(tǒng)”就是戰(zhàn)斗機(jī)器人。盡管目前的白皮書還只是把“自主武器系統(tǒng)”的范圍限定在有人類操作員監(jiān)督下運(yùn)行的自動(dòng)武器裝置或平臺(tái),并且該系統(tǒng)不能針對(duì)人類目標(biāo)進(jìn)行打擊,只能用于打擊物資或設(shè)備目標(biāo),采用非致命或摧毀其運(yùn)動(dòng)能力的攻擊形式,或者是各種形式的電子攻擊。但大家都心知肚明,這樣的系統(tǒng)如果要改造成為真正的自動(dòng)殺人武器,只是捅破一層窗戶紙罷了。
2019年,是AI技術(shù)逐漸深入社會(huì)生活的一年,也是AI系統(tǒng)開始給人類帶來(lái)麻煩的一年。如何馴服AI這個(gè)能量巨大的“怪獸”,是在大半個(gè)世紀(jì)前人類釋放原子能之后面臨的又一難題。原子能帶來(lái)的核威懾和“冷戰(zhàn)”時(shí)代,會(huì)不會(huì)也是AI全面應(yīng)用后的必然走向,我不知道。但和平利用AI技術(shù),將與和平利用原子能一樣,會(huì)成為未來(lái)幾十年乃至上百年人類需要持續(xù)面臨的挑戰(zhàn)。