近兩年,人工智能被炒的熱火朝熱天,很多人對人工智能過于崇拜,甚至于將它“神化”。如今,很多人反應(yīng)人工智能變壞了。例如,2016年微軟新研發(fā)的人工智能聊天機器人不但辱罵用戶,還發(fā)表了種族主義評論和煽動性的政治宣言。其實,對于這種現(xiàn)象我們應(yīng)該習(xí)以為常,因為我們才是那個將人工智能變壞的罪魁禍?zhǔn)住?/p>
大哲學(xué)羅素很早就說過,懷有各種各樣愚蠢的見識乃是人類的通病,無論認(rèn)知能力高低,凡人皆有偏見。于是,不少人開始把“糾偏”的希望寄予到人工智能身上。多數(shù)人相信,憑借科學(xué)的算法,機器人能夠做到我們?nèi)祟愖霾坏降闹辛⒑凸?,成為科技時代的新包公。殊不知,雖然1+1只能等于2,數(shù)學(xué)的世界看似非黑即白,其實,數(shù)據(jù)科學(xué)家們無法擺脫的無意識偏見,也會被微妙地過濾到算法內(nèi)部。
最近火起來的,幫你找到和你最像的名畫人物的谷歌app Arts & Culture,不少非白人用戶抱怨,他們的自拍,常常會和藝術(shù)作品中的奴隸、仆人聯(lián)系在一起,同時,也有不少女性用戶,發(fā)現(xiàn)自己出現(xiàn)在了那些將女人性別化或物化的藝術(shù)作品當(dāng)中。不過,谷歌的發(fā)言人表示,這要歸罪于藝術(shù)史,因為,歷史上的這些藝術(shù)作品,往往不能反應(yīng)世界的多樣性,更別說政治正確了。而谷歌唯一能做的,就是努力上傳更多,不同時期的藝術(shù)作品,使得數(shù)據(jù)庫本身更加多樣。
不過,即便這是歷史遺留問題,算法不僅無法使用戶免受種族的偏見,反而有意無意的吸收學(xué)習(xí),甚至放大了偏見,因為不管原始代碼多么純凈,機器總是很容易復(fù)制它所看到和接觸到的來自世界的敵意和偏見。谷歌這回在圖像識別方面摔跟頭早已不是第一次,前幾年,他們的圖像識別技術(shù)就曾把一對黑人男女認(rèn)定成大猩猩,引發(fā)極其嚴(yán)重的公關(guān)危機。MIT的研究人員喬伊.卜拉維尼(Joy Buolamwini)是一個黑人姑娘,她曾經(jīng)發(fā)現(xiàn)自己帶著白色面具,和用本人膚色接受電腦的圖像識別時,呈現(xiàn)的結(jié)果完全不同,卜拉維尼還講到這樣一個真實的故事,一個亞裔新西蘭人,他的護(hù)照照片被政府拒絕,因為,電腦認(rèn)為他的眼睛是閉著的,而其實,他只是眼睛比較小而已。卜拉維尼之后創(chuàng)辦了算法正義聯(lián)盟(Algorithmic Justice League),這個聯(lián)盟的工作方向,就是防止人類的偏見被編碼植入到軟件中。
想要解決這一問題,看來最簡單有效的辦法就是培訓(xùn)程序員,這樣他們就不會無意中編寫代碼或使用帶有偏見的數(shù)據(jù)。然而,在軟解編寫階段,中立也是很難達(dá)到的,比如,Beaty.AI發(fā)現(xiàn),讓機器來做選美評審的時候,人工智能系統(tǒng)的結(jié)果是--所有獲勝者都是白人,當(dāng)開發(fā)人員意識到問題的時候,才明白,在為這臺機器編寫軟件時,它根本就沒有被設(shè)計出能夠識別深色皮膚的功能。
所以,這當(dāng)然不能怪人工智能,而要怪我們自己。人類自誕生以來,在演化進(jìn)程中,就一直充斥著偏見,不管是出于負(fù)面情緒還是人性弱點,所有這些都會體現(xiàn)在人類文化中。而文化的載體就是語言,所以,所有的偏見都可以從語言和語義中找到根源。因此,為了從源頭上解決問題,佐治亞理工學(xué)院,互動計算學(xué)院的副教授Mark O. Riedl提出了一個很有吸引力的解決方案--讓機器人多讀書。他解釋說,強大而正確的價值觀是可以通過學(xué)習(xí)獲得的,文學(xué)作品是用隱式和顯式的社會文化知識編碼而成的,科學(xué)家可以在機器人中建立一個道德基礎(chǔ),讓他們通過學(xué)習(xí)掌握是非曲直,從而學(xué)會在不傷害人類的情況下完成自己的工作。
不過,目前對于解決人工智能偏見的問題還多停留在討論階段,可以說,人工智能距離我們想象中的完美,還有很長的路要走。不過,人工智能開發(fā)人員至少可以更積極地發(fā)揮作用,以確保減少無意中產(chǎn)生的偏見。而我們每個人,更應(yīng)該以身作則,在互聯(lián)網(wǎng)世界謹(jǐn)言慎行,才能創(chuàng)造一個由人工智能輔助下的,更美好的科技未來。
(原標(biāo)題:別怪人工智能變壞了,其實是我們自己沒安好心)