圖片來源 視覺中國(guó)
在人工智能呈現(xiàn)一番欣欣向榮的景象之時(shí),這項(xiàng)技術(shù)的問題和潛在威脅也正在顯現(xiàn)。是時(shí)候認(rèn)真探討一下AI技術(shù)的“價(jià)值觀”問題了。
很多人最近一定注意到,有關(guān)AI的負(fù)面新聞?lì)l頻上頭條,而且還帶有很強(qiáng)的魔幻色彩。
11月20號(hào),韓國(guó)13歲的天才圍棋少女金恩持承認(rèn)了她在9月底的一場(chǎng)在線圍棋比賽中作弊,使用了AI推薦的棋譜,約等于斷送了自己的職業(yè)生涯。11月27日,伊朗核武器專家法赫里扎遭到一挺由AI控制的自動(dòng)機(jī)槍的襲擊而身亡,這意味著精準(zhǔn)的人臉識(shí)別技術(shù)作為AI武器已經(jīng)參與到人間的殺戮當(dāng)中。
說回國(guó)內(nèi),前一段時(shí)間有人帶頭盔去售樓處看房,就是為避免被房地產(chǎn)商進(jìn)行精準(zhǔn)的人臉識(shí)別,而被當(dāng)做“熟客”來“宰殺”,人臉識(shí)別濫用問題已擺在我們面前。
更荒誕的是,最近曝出一個(gè)房產(chǎn)中介就利用政府機(jī)構(gòu)的在線服務(wù)的流程,輕而易舉地讓售房者在不知情的狀況下通過人臉識(shí)別系統(tǒng)把房子過戶給了買家,自己套取了交易款。原本為民提供便利的AI服務(wù)成了別有用心者的幫兇。
“殺人者人也,非刀也”,這是我們?yōu)?ldquo;工具無道德價(jià)值”做辯護(hù)的古老理由,也是人類確證自己具有獨(dú)一無二的道德價(jià)值的傲嬌說辭。同樣這一理由似乎也可以為上面這些AI的負(fù)面案例做解釋,可以說這里的AI技術(shù)也都只是人類應(yīng)用的工具,真正始作俑者的還是人類。
這樣說似乎無可厚非,正如一切技術(shù)的發(fā)明帶給人類巨大福祉的同時(shí),也可能帶來災(zāi)禍一樣,反之亦然。比如諾貝爾發(fā)明的炸藥可以開礦搬山也可以投入戰(zhàn)場(chǎng)屠戮生靈,核技術(shù)可以用來制造原子彈毀天滅地也可以用來做核電站造福大眾。理性樂觀派總是相信人類可以通過技術(shù)進(jìn)步創(chuàng)造一個(gè)美麗新世界,并克服技術(shù)產(chǎn)生的種種負(fù)面效應(yīng)。
不過,我們需要注意的是,這一次人工智能技術(shù)革命的不同之處在于它將真正重塑人類。以往的任何一場(chǎng)技術(shù)革命只是增強(qiáng)了人類在體力、腦力等方面的專項(xiàng)能力,但這一次AI將直接抵達(dá)人的核心本質(zhì)——那個(gè)所謂撐起人尊嚴(yán)和價(jià)值的“自由意志”。
大多數(shù)人會(huì)將這種宏大議題當(dāng)作杞人憂天的無稽之談,因?yàn)?ldquo;狼來了”的故事人們已經(jīng)聽過多次。很多大人物對(duì)于人工智能威脅人類地位的告誡,也有種“口嫌體正直”的意味,無不在自己的領(lǐng)域內(nèi)推動(dòng)AI技術(shù)的進(jìn)化和使用。
但是作為人類社會(huì)基石的“自由意志”本身已經(jīng)從腦神經(jīng)科學(xué)和社會(huì)學(xué)上被嚴(yán)重挑戰(zhàn),而人工智能在模擬和指導(dǎo)人類決策的能力又在大幅提升,這樣我們就將接近這個(gè)人類命運(yùn)改變的交匯點(diǎn):人的自由被還原為一種可計(jì)算的生理機(jī)制,AI的計(jì)算能力又超過人類的計(jì)算能力。
這時(shí),我們也就如同溫水中的青蛙,只能黯然接受“被煮熟”的命運(yùn)安排。在AI技術(shù)正在日漸暴露出這些無傷大雅的問題之時(shí),我們?nèi)匀灰幸环N對(duì)AI的警惕。
那就是AI擁有“自由意志”之時(shí),可以做到價(jià)值中立嗎?
技術(shù)的價(jià)值中立難成立,AI亦然
在關(guān)于“技術(shù)是否價(jià)值中立”的探討中,現(xiàn)在的人們大多會(huì)傾向于“技術(shù)中立”的觀點(diǎn)。
我們通常認(rèn)為一項(xiàng)技術(shù)的道德價(jià)值在于使用它的人,比如決定一把刀是用來烹飪還是用來行兇的關(guān)鍵是手握這把刀的那個(gè)人的想法;而一項(xiàng)技術(shù)的價(jià)值大小也不在于它自身而在于使用它的人的用途,比如在電影《上帝也瘋狂》里,非洲原始部落的人們獲得了一個(gè)完整的可樂玻璃瓶,這個(gè)在現(xiàn)代社會(huì)平平無奇的消費(fèi)品,從一開始被當(dāng)做無所不能的神物到后面變成引發(fā)族群紛爭(zhēng)的魔鬼。這個(gè)可樂瓶的價(jià)值在土著人手里就經(jīng)歷了天壤之別的變化。
這一假設(shè)的好處就是維護(hù)了人的尊嚴(yán),選擇什么樣的技術(shù)用來做什么樣的事情,都是我們自己的選擇,最終的后果都要由我們來負(fù)責(zé)。
但實(shí)際上真的如此嗎?
從最初的人類開始掌握生火和放火這一項(xiàng)最初級(jí)技術(shù)的時(shí)候,一個(gè)部落中的女性就能釋放出超出她體力數(shù)以萬倍的能量,因?yàn)橐话鸦鹁湍軣鲆淮笃郑麄兙湍苁斋@這片土地里沒有來得及逃跑的生靈的肉類,后面還可以開墾出一片又一片的農(nóng)田。想想今天的亞馬遜雨林,在全球化的消費(fèi)貿(mào)易網(wǎng)絡(luò)中,被巴西農(nóng)民幾乎燒毀殆盡來栽種糧食作物。火本身是無目的的,但是使用火的人是知曉火的特性和威力,也能控制火的范圍和用途。人類之火,與天然之火的不同之處在于,火本身已經(jīng)包含了人類的意志和目的。
而在更常見的人臉識(shí)別領(lǐng)域,則出現(xiàn)了明顯的性別和種族歧視的算法偏見。根據(jù)美國(guó)NIST(國(guó)家標(biāo)準(zhǔn)及技術(shù)研究院)在2019年12月的一份報(bào)告,在美國(guó)人臉識(shí)別系統(tǒng)中,黑人的人臉識(shí)別錯(cuò)誤率是白種人的100倍,與黃種人相比,黑人人臉的識(shí)別錯(cuò)誤率也是前者的10倍,而在執(zhí)法機(jī)關(guān)的人臉圖片庫(kù)中,識(shí)別錯(cuò)誤率最高的是美國(guó)原住民。另外,女性和老人的臉部也更難以識(shí)別。這一研究的數(shù)據(jù)來源是美國(guó)簽證申請(qǐng)和過境數(shù)據(jù)庫(kù)中的1800萬張人臉照片,并測(cè)試了189種人臉識(shí)別算法,研究結(jié)果代表了絕大部分商業(yè)應(yīng)用算法的結(jié)果。
今年上映的一部《編碼偏見》的流媒體影片正揭露了這一問題,人工智能正在接管著關(guān)于人們的信息、安全、機(jī)會(huì)甚至自由等權(quán)力的時(shí)候,如果人們不改正這些算法中存在的偏見和歧視,那么AI技術(shù)會(huì)必然創(chuàng)造一個(gè)更加糟糕的世界,比如被錯(cuò)誤識(shí)別并逮捕的少數(shù)族裔青年、被算法判斷為能力不足的女性員工,被垃圾信息所包圍的少年。
當(dāng)然,這還只是AI技術(shù)不夠好的一種表現(xiàn)。很多人覺得我們可以不斷調(diào)整算法,增大數(shù)據(jù)樣本就可以解決這些低級(jí)錯(cuò)誤、算法歧視等問題。假如偏見可以消除、算法可以優(yōu)化,我們又將迎來一個(gè)怎樣的局面呢?
二、AI技術(shù)很可能會(huì)由于數(shù)據(jù)的規(guī)模聚集和技術(shù)競(jìng)賽的排他性,掌握在少數(shù)技術(shù)公司和政府手中,幫助擁有技術(shù)特權(quán)的人群和組織獲得難以撼動(dòng)的權(quán)力和財(cái)富,從而鞏固這一趨勢(shì)。
我們不能說AI技術(shù)一定會(huì)助長(zhǎng)極權(quán)和壟斷,但是我們正在看到這樣的苗頭出現(xiàn)。
普通大眾不僅通過在互聯(lián)網(wǎng)上的各種操作交出了自己的習(xí)慣偏好和消費(fèi)數(shù)據(jù),而且現(xiàn)在還在通過可穿戴設(shè)備等信息來獲取我們的生理指標(biāo)數(shù)據(jù)。如果任何一個(gè)AI算法系統(tǒng)能夠同時(shí)擁有這兩種數(shù)據(jù),并且對(duì)其建立起相對(duì)應(yīng)的相關(guān)性,那么,這一系統(tǒng)將真正全面獲得操縱人心的能力。
正由于我們?nèi)祟惖娜魏螞Q策可以轉(zhuǎn)化為各種生理、心理和行為的各種數(shù)據(jù),而我們又想通過AI技術(shù)來洞悉這一切背后的因果鏈條,那么AI將有極大地可能完成人類的這一使命,如果往好處走,AI將代替人類的智力釋放出前所未有的生產(chǎn)力,如果往壞處走,AI技術(shù)也將產(chǎn)生無法想象的破壞力。
比如,在核冬天的威懾之后,AI武器的發(fā)展將使得精準(zhǔn)殺戮成為可能,雖然在一定意義上可以避免大規(guī)模的熱武器沖突,但是每個(gè)國(guó)家都將在這種無孔不入的AI武器或殺手機(jī)器人的威脅下產(chǎn)生十足的敵意。如果這些AI武器一旦被極端組織掌握,更有可能成為挑起事端的大殺器。再比如更有可能的一個(gè)趨勢(shì)是,AI算法只是代表了少數(shù)特權(quán)階層的意志,而大部分人淪為供AI進(jìn)化的數(shù)據(jù)源。
盡管來說,AI直接統(tǒng)治人類既無可能,但AI被人類用壞,成為塑造人類不平等的幫兇是極有可能的。
現(xiàn)在,我們更重要的是,放棄對(duì)AI技術(shù)客觀中立性的幻想,也要警惕AI算法對(duì)于我們決策的強(qiáng)大操縱力,同時(shí)又得致力于推動(dòng)人工智能的普惠,才是接下來要做的事情。
對(duì)AI的自由意志保留拒絕的權(quán)利
我們這里只是指明了一個(gè)問題:人工智能是存在價(jià)值觀的,其價(jià)值觀的來源并非來自于突然的“自我覺醒”,而是從人這里繼承了相應(yīng)的價(jià)值觀,“復(fù)刻”了人的所謂“自由意志”。
當(dāng)AI算法不夠強(qiáng)大的時(shí)候,其可能繼承人類的認(rèn)知錯(cuò)誤和偏見,但當(dāng)AI算法足夠強(qiáng)大的時(shí)候,其也并不會(huì)變得“客觀中立”,而是體現(xiàn)了人類工具理性推向極致的價(jià)值觀,那就是更集中的權(quán)力、更多的財(cái)富、不斷自我強(qiáng)化和升級(jí)。
這一價(jià)值觀反作用到普通的人類個(gè)體身上,可能有兩個(gè)結(jié)果,一種是與AI算法協(xié)同進(jìn)化,在智識(shí)上甚至生理上不斷升級(jí)自己,成為掌控AI的發(fā)展趨向的超級(jí)人類;一種是無法理解AI技術(shù)運(yùn)行邏輯,也沒有辦法參與自主決策的大眾,將自己的生活決策交給算法。
因?yàn)槿说纳飳W(xué)的進(jìn)化速度實(shí)在難以趕上AI計(jì)算能力的增長(zhǎng),人類的知識(shí)只能以線性循環(huán)的方式一代又一代傳授,而AI則是以指數(shù)級(jí)方式累計(jì)增長(zhǎng),這就決定了大多數(shù)人只能交付出自己的決策機(jī)制,而由AI來判斷我們的各種想法的成功概率。
而在今天,這一問題已以一種很隱蔽的方式呈現(xiàn)著。正如很多人認(rèn)為自己要聽從自己內(nèi)心的聲音,但是我們卻并不知道這些內(nèi)心的需求哪些是我們的“自由意志”想要的,哪些是被各種價(jià)值體系所塑造的。而我們知道AI算法從每一個(gè)廣告推薦、每一個(gè)內(nèi)容篩選、每一次自拍美顏、每一次你的行為追蹤下,就已經(jīng)開始為你進(jìn)行需求的植入了。
在人工智能狂飆突進(jìn)的這幾年當(dāng)中,我們其實(shí)已經(jīng)過分站在“AI將造福人類”的宏大敘事當(dāng)中,畢竟我們對(duì)于這一新型技術(shù)產(chǎn)業(yè)寄予了太多的希望。但是我們看到現(xiàn)在針對(duì)個(gè)人隱私領(lǐng)域上馬的AI應(yīng)用,正在竭盡所能地掌握人們的全方位數(shù)據(jù),但其實(shí)我們并未對(duì)這一趨勢(shì)做好準(zhǔn)備。
最近我們也注意到,由于一些行業(yè)和場(chǎng)景中人臉識(shí)別技術(shù)被大量濫用,一些地方的相關(guān)部門開始推出整治規(guī)范,要求拆除這些AI設(shè)備。未來,這場(chǎng)關(guān)于人工智能的應(yīng)用邊界博弈的拉鋸戰(zhàn)還將一直持續(xù)下去。
但未來的長(zhǎng)期博弈中,我們哪怕犧牲一點(diǎn)便利性,也要在讓度自己的選擇權(quán),交給人工智能來處理的時(shí)候,保持足夠的冷靜,同時(shí)對(duì)AI擁有“Say No”的力量。