在斯皮爾伯格的經(jīng)典科幻電影《少數(shù)派報(bào)告》中,未來的人們已經(jīng)發(fā)明了能偵察人的腦電波的人工智能――“先知”。“先知”能偵察出人的犯罪企圖,所以在罪犯犯罪之前,就已經(jīng)被犯罪預(yù)防組織的警察逮捕并獲刑。
看起來,這個(gè)系統(tǒng)讓世界變得很完美:所有犯罪在發(fā)生之前就被制止,沒有人會(huì)受到傷害。
但電影中,身為精英探員的主角,卻突然被控“即將”謀殺一名他根本不認(rèn)識(shí)的男子。這自然也就引發(fā)了我們思考一個(gè)問題:把裁決人們是否“有罪”的巨大權(quán)力交給人工智能,是否合適?這樣的人工智能又能否保證百分百準(zhǔn)確?
“預(yù)測(cè)犯罪”并不遙遠(yuǎn)
實(shí)際上,電影中的未來離我們并不遙遠(yuǎn)。
據(jù)報(bào)道,2002年,美國(guó)德拉瓦州威明頓市警方也做過“預(yù)言犯罪”的類似嘗試,只不過他們沒有用人工智能,而是人力。
他們派出便衣去大街上那些毒品交易頻繁的地方,偷拍下經(jīng)常在此出沒的人的一舉一動(dòng)。然后警方搜集這些人物的資料,建立特別的警方資料庫。盡管這些人中許多都還沒有犯罪,但警方認(rèn)為,他們犯罪的幾率要比其它普通市民大得多。
2002年9月,英國(guó)加迪夫大學(xué)的科學(xué)家們也提出一種預(yù)言犯罪的構(gòu)思——開發(fā)一種攝像機(jī),它可以自動(dòng)鎖定人群中某個(gè)長(zhǎng)時(shí)間站著不動(dòng)的人,因?yàn)樵谖跷跞寥恋娜肆髦校@么長(zhǎng)時(shí)間站著多少有些“不尋常”。這種“鬼鬼祟祟”的行為,往往和預(yù)謀犯罪——比如搶劫、暗殺之類相關(guān)。
真正讓AI出面則是在9·11事件后。在五角大樓的授意下,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局成立了一個(gè)由41名計(jì)算機(jī)專家、政策專家和政府官員組成的顧問小組。這些人曾數(shù)次討論,是否有可能在保護(hù)個(gè)人隱私的前提下,對(duì)美國(guó)民眾進(jìn)行全方位電子監(jiān)視,并用先進(jìn)的數(shù)據(jù)搜索技術(shù)來預(yù)防潛在的恐怖襲擊。
然后,一個(gè)名為“全面信息感知系統(tǒng)”(TIA)的構(gòu)想誕生了。簡(jiǎn)單來說,所有美國(guó)人只要有數(shù)字技術(shù)的接觸,都將會(huì)自動(dòng)地處于這個(gè)系統(tǒng)的監(jiān)視之下,如電子郵件、在線購(gòu)物、旅行訂票、ATM自動(dòng)取款系統(tǒng)、移動(dòng)電話、電子收費(fèi)系統(tǒng)和信用卡支付終端等。
盡管其中所涉及的部分技術(shù)已經(jīng)使用多年,但這個(gè)工程依然十分浩大。這一項(xiàng)目的初期投資為1000萬美元,但有專家估計(jì),3年后它的總造價(jià)將達(dá)到2.4億美元。此外,TIA系統(tǒng)不出意外地遭到了上至美國(guó)國(guó)會(huì)下至民權(quán)組織的廣泛非議。
目前,國(guó)外非常多的國(guó)家已經(jīng)開始使用犯罪預(yù)測(cè)系統(tǒng)。據(jù)美國(guó)官方公開的數(shù)據(jù), 僅僅只是美國(guó)最少 20個(gè)以上城市、1000個(gè)以上執(zhí)法人員正在使用預(yù)測(cè)性警務(wù)系統(tǒng)。
報(bào)道稱,美國(guó)孟菲斯市警察局啟用Blue CRUSH預(yù)測(cè)型分析系統(tǒng)后,過去五年暴力犯罪率大幅下降。
美國(guó)馬里蘭州和賓夕法尼亞州也開始啟用一種能極大降低兇殺犯罪率的犯罪預(yù)測(cè)軟件,因?yàn)槠淠茴A(yù)測(cè)罪犯假釋或者緩刑期間的犯罪可能性,這款軟件還成為了法庭假釋條款和審判的參考依據(jù)。
專家稱預(yù)測(cè)犯罪“毫無用處”
盡管前景聽起來很美好,但“預(yù)測(cè)犯罪”的準(zhǔn)確性和有效性仍有待商榷。
近日,就有人工智能領(lǐng)域的知名專家說,預(yù)測(cè)性的監(jiān)管工具不僅“毫無用處”,而且容易大大夸大暴力犯罪的可能性。
在本月早些時(shí)候發(fā)表的一封信中,來自麻省理工學(xué)院、哈佛大學(xué)、普林斯頓大學(xué)、紐約大學(xué)、加州大學(xué)伯克利分校和哥倫比亞大學(xué)的專家們就這一問題發(fā)表了看法,他們對(duì)這項(xiàng)技術(shù)的懷疑態(tài)度達(dá)到了前所未有的程度。
人工智能專家切爾西?巴拉巴斯(Chelsea Barabas)、卡蒂克?迪納卡爾(Karthik Dinakar)和科林?多伊爾(Colin Doyle)在《紐約時(shí)報(bào)》(New York Times)的一篇專欄文章中寫道:“在預(yù)測(cè)暴力時(shí),風(fēng)險(xiǎn)評(píng)估提供的是更神奇的思維,而不是有用的預(yù)測(cè)。”
預(yù)測(cè)性警務(wù)工具,或風(fēng)險(xiǎn)評(píng)估工具,是用來預(yù)測(cè)某人未來犯罪可能性的算法。
根據(jù)美國(guó)國(guó)家司法研究所(National Institute of Justice)的數(shù)據(jù),預(yù)測(cè)性警務(wù)是:“(利用)信息、地理空間技術(shù)和基于證據(jù)的干預(yù)模式的力量,以減少犯罪和改善公共安全。”
隨著人工智能的迅速發(fā)展,這些工具已經(jīng)開始進(jìn)入法官和警察部門的日常程序,法官利用它們來決定該如何判決,警察部門則利用它們來分配資源等等。
它也被用來評(píng)估面臨審判的人再次犯罪的可能性,以及他們是否應(yīng)該被拘留。
其中,法官最常用的工具之一被稱為公共安全評(píng)估(PSA),它和其他許多工具一樣,根據(jù)犯罪歷史和個(gè)人特征來計(jì)算。
根據(jù)計(jì)算結(jié)果,該工具可能會(huì)將一個(gè)人標(biāo)記為“新的暴力犯罪活動(dòng)”的候選者。
盡管該技術(shù)被定位為先發(fā)制人打擊犯罪的一種方式,但專家表示,它的能力被大大夸大了。
研究人員寫道,在預(yù)測(cè)未來的暴力事件時(shí),算法風(fēng)險(xiǎn)評(píng)估被吹捧為比法官更客觀、更準(zhǔn)確。
“從政治角度看,這些工具已經(jīng)成為保釋改革的寵兒。但他們的成功建立在這樣的希望之上:風(fēng)險(xiǎn)評(píng)估可以成為糾正法官錯(cuò)誤直覺的寶貴途徑。”
AI可能會(huì)造成“冤案”
專家們反對(duì)這種預(yù)測(cè)犯罪算法的理由之一是對(duì)其準(zhǔn)確性的疑慮。
專家表示,這些工具往往高估了被指控者的暴力風(fēng)險(xiǎn),而事實(shí)上,審判期間犯罪的可能性很小。
據(jù)報(bào)道,華盛頓特區(qū)94%的犯罪嫌疑人被釋放,其中只有2%的人隨后因暴力犯罪被捕。然而研究人員指出,在各州,有30%等待審判的人被拘留的情況并不罕見,這種比例的懸殊顯然揭示了一個(gè)“過度監(jiān)禁”的問題。
研究人員寫道,(這些工具)給法官提供的建議讓未來的暴力事件看起來比實(shí)際情況更可預(yù)測(cè)、更確定。但在這個(gè)過程中,使用這種AI風(fēng)險(xiǎn)評(píng)估工具可能會(huì)持續(xù)性地導(dǎo)致大規(guī)模監(jiān)禁情況的出現(xiàn),并讓人們產(chǎn)生誤解和恐懼。
專家們說:“如果這項(xiàng)技術(shù)真正準(zhǔn)確,它應(yīng)該能預(yù)測(cè)出幾乎所有人都處于零風(fēng)險(xiǎn)狀態(tài),因?yàn)榻y(tǒng)計(jì)上的可能性很低。相反,PSA犧牲了準(zhǔn)確性,只是為了在暴力可能性低、不確定或無法計(jì)算的人群中區(qū)分出有問題的人。”
而以此前提到的意在辨別恐怖分子的TIA系統(tǒng)為例,假設(shè)這個(gè)預(yù)言系統(tǒng)的準(zhǔn)確性能達(dá)到99%,那么它理論上就能預(yù)言出恐怖分子群體中99%的未來罪犯,同時(shí)也會(huì)在無辜群眾中錯(cuò)誤將1%的人判定為未來恐怖分子。
假設(shè)在全美國(guó)3億人口中有1000人是真正的“未來恐怖分子”,而剩下的299999000人都是清白的,那么理論上會(huì)有2999990人被錯(cuò)誤地列入恐怖分子的行列。也就是說,這個(gè)系統(tǒng)將會(huì)逮捕將近300萬無辜的人——幾乎是那些真正罪犯人數(shù)的3000倍。
AI到底如何判定人“有罪”?
人工智能究竟如何預(yù)測(cè)犯罪?其實(shí),其判斷依據(jù)跟人類警察也大致相同。
富有多年工作經(jīng)驗(yàn)的警察們往往能總結(jié)出自己的一套辨別犯罪分子的依據(jù),而破案時(shí)警察們也經(jīng)常需要一些基本經(jīng)驗(yàn)判斷,如什么區(qū)域、時(shí)間容易犯罪率高發(fā),什么人物更有可能犯罪等。
這些歸納性的判斷有其意義,但對(duì)于某個(gè)特定個(gè)體而言,用類似分析去判定其“有罪”顯然對(duì)其不公平。
此外,算法的設(shè)計(jì)者也可能在算法中無意加入了自己的偏見,而機(jī)器學(xué)習(xí)算法的黑盒子屬性讓其設(shè)計(jì)者也不能肯定其判定邏輯是什么。
1980年代,美國(guó)軍方使用機(jī)器學(xué)習(xí)算法訓(xùn)練機(jī)器分辨美蘇兩國(guó)的坦克,但后來卻發(fā)現(xiàn)計(jì)算機(jī)并未真正認(rèn)出兩國(guó)坦克的設(shè)計(jì)不同,而是把像素更高的圖片當(dāng)作“美國(guó)坦克”,因?yàn)橛?xùn)練使用的資料中俄羅斯坦克的照片更模糊。
“新技術(shù)有為善和作惡的潛在力量。如果你的假設(shè)沒有被仔細(xì)考證,那么機(jī)器學(xué)習(xí)技術(shù)只會(huì)帶來更多的不公平和加速現(xiàn)有的不平等。”普林斯頓大學(xué)法學(xué)系教授 Alexander T. Todorov 表示。
為了更好地預(yù)防犯罪,在近日對(duì)人工智能學(xué)家的采訪中,研究人員建議減少對(duì)算法的依賴,將資源投入到更全面的措施中。
文章寫道,政策解決方案不能局限于鎖定“正確的”人。他們必須通過更廣泛的社會(huì)政策和社區(qū)投資來解決公共安全問題。