在即將到來的人工智能時代,人到底應(yīng)該怎么辦,怎么做才能不把工作輸給機器人,現(xiàn)在已經(jīng)是一個熱門話題。談?wù)撨@個問題有兩個危險。
第一個危險是你可能會低估人工智能。
我曾經(jīng)在《萬萬沒想到》這本書里說,計算機下國際象棋厲害,但是面對復(fù)雜度高得多的圍棋就不行了,所以人應(yīng)該如何如何……我這個說法其實是當(dāng)時人們的共識——結(jié)果我的書出來還不到兩年,AlphaGo(阿爾法狗)就贏了李世石和柯潔?,F(xiàn)在人工智能的圍棋水平比人類至少高出一個段位。我后來收到好多次讀者來信說“你的書得改了”。
第二個危險是你可能會低估人。
2012 年,麻省理工學(xué)院的兩個管理學(xué)教授,埃里克·布林約爾松(Erik Brynjolfsson)和安德魯·麥卡菲(Andrew McAfee)出了一本書,叫《與機器競賽》(Race Against the Machine),從經(jīng)濟學(xué)的角度,把人工智能取代人類工作這個問題嚴(yán)肅地擺在世人面前。他們2016 年又出了第二本書,叫《第二次機器革命》(The Second Machine Age),說了類似的意思,這本書還被認(rèn)為是近年來最重要的一本商業(yè)管理類書籍。
這兩本書說的都是人工智能即將導(dǎo)致人類的大失業(yè)。讓兩位教授感到緊張的是,首先,這一輪人工智能將要取代的是放射科醫(yī)生、翻譯,甚至是律師這種高端工作;其次,在美國經(jīng)濟已經(jīng)從金融危機中恢復(fù)過來、高速增長的情況下,失業(yè)率卻居高不下。
然而到了2017年,思想風(fēng)向就變了,人們意識到放射科醫(yī)生和律師這樣的工作并沒有那么容易被人工智能取代,“人的因素”仍然非常重要,而且大失業(yè)并沒有發(fā)生:現(xiàn)在美國失業(yè)率下降到了4%,這是歷史上最好的成績。
所以我們到底應(yīng)不應(yīng)該擔(dān)心人工智能?人工智能跟人到底是個什么關(guān)系?
技術(shù)進步的節(jié)奏捉摸不定,與其搞短期預(yù)測,我們不如思考一些更長期、更根本的問題。比如說換一個角度,我們不問人工智能到底有什么是不能干的——干脆假定將來人工智能什么都能干。我們改問這個問題:
有沒有什么事情,哪怕機器能做,甚至做得比人還好,但我們還是希望找個真實的人來做?
這就是杰夫·科爾文在《不會被機器替代的人》(Humans Are Underrated)書中最想說的事兒。
科爾文是個功力深厚的媒體人,他不僅報道別人的研究結(jié)果,而且能自己調(diào)研、總結(jié)和提出新思想。我讀的上一本科爾文的書叫 Talent Is Overrated,中文版書名為《天才源自刻意練習(xí)》,而直譯的話則是“天才被高估了”——這和本書書名的直譯“人類被低估了”正好連貫對仗。據(jù)我所知,科爾文的《天才源自刻意練習(xí)》這本書其實比格拉德威爾的《異類》更早介紹了“刻意練習(xí)”的概念,而且我認(rèn)為科爾文說得更好。
那么在科爾文看來,人類在哪些方面被低估了呢?
科爾文說,如果說將來人工智能技術(shù)無比發(fā)達,能制造出來跟人一模一樣、有人類全部功能的機器人,已經(jīng)到了你無法區(qū)別誰是人誰是機器的程度,那萬事皆休,人肯定不如機器。但是就目前人工智能的研發(fā)水平而言,機器雖然在某些方面比人強得多,但畢竟跟人是有區(qū)別的,我們總能看出來誰是人,誰是機器。這就給人留下了機會。
亞利桑那州有個兩次暴力性侵兒童的罪犯,即將刑滿。而該州法律規(guī)定,像這樣的罪犯,即便刑期滿了,如果他未來再次犯罪的可能性比較大,可以把他轉(zhuǎn)到精神病院繼續(xù)關(guān)起來。到底是放是關(guān),陪審團說了算。研究者利用這個案例搞了個實驗。
研究者找來100 多位可能當(dāng)陪審員的人,把他們分成兩組,讓他們觀看整個庭審過程——律師、檢察官、精神病專家,都是真的——唯一區(qū)別是兩組陪審員看到的錄像里的專家證詞不同。
在第一組中,專家說自己跟罪犯有兩個小時的面談,然后根據(jù)自己的專業(yè)知識判斷,他仍有強烈暴力犯罪傾向,應(yīng)該繼續(xù)關(guān)起來。
第二組中,同一個專家,說自己并未見到罪犯本人,他只是把罪犯的所有相關(guān)數(shù)據(jù)輸入一個心理學(xué)模型——這個工作任何人都可以做——而這個模型判斷罪犯仍有強烈暴力犯罪傾向,應(yīng)該繼續(xù)關(guān)起來。
如果你是陪審員,你認(rèn)為這個專家的哪個意見更有說服力呢?
這里我先插敘一個背景知識: 目前在我聽說過的所有領(lǐng)域——從紅酒到政治事件到犯罪預(yù)測,專家的個人判斷都遠(yuǎn)遠(yuǎn)比不上統(tǒng)計模型(現(xiàn)在流行叫“大數(shù)據(jù)”)的預(yù)測。所以你應(yīng)該聽模型的。
但是實驗結(jié)果是第一組的專家意見對陪審團的影響力遠(yuǎn)遠(yuǎn)超過第二組。
人們更相信面對面的“人性化”判斷。
也就是說,人有這么一種偏見,喜歡過高評價“人與人面對面交往”這個行為,而對抽象數(shù)據(jù)不怎么買賬。這是可以理解的,人類有史以來都是面對面交往的,而抽象數(shù)據(jù)這種東西可能根本就沒有進入文化基因。人本質(zhì)上是個社交動物。
這個偏見,在人工智能時代給人類留下了一個工作機會。人工智能再怎么發(fā)達,我們還是要求:
• 最重要的決定是由人做出的。如果某國要對其他國家宣戰(zhàn),我們要求這個命令是人下達的,在這個問題上我們不可能聽從人工智能的指揮,我們不可能把核按鈕交給人工智能。人說了算,不能讓機器說了算。
• 我們喜歡什么、想要什么,這個想法隨時都在變,我們無法給人工智能一個清晰的目標(biāo),所以有些事兒還是讓人自己解決比較好——因為我們有時候自己都不知道要“解決”的是什么。
• 最重要的一點,我們更愿意跟人打交道。所以想讓別人放著機器不用而用你,最好的辦法就是表現(xiàn)出“人味兒”。
科爾文說,從工業(yè)革命時代開始,人就一直在模仿機器,好像人的價值就是機器化一樣。亨利·福特有句名言:“為什么每次我只要一雙手,卻總是還要來一個腦袋?”但是現(xiàn)在時代變了?,F(xiàn)在機器已經(jīng)能做大部分應(yīng)該讓機器干的活兒,人就應(yīng)該去干人該干的事兒。
本質(zhì)上說,利用“人性化”找工作,就是在迎合人的偏見。然而從另一個角度,這種“偏見”也可以叫作“特點”。人活著的目的到底是什么?到底什么叫“對”?難道“按我的偏見走”,不也是一種合法的目的嗎?
怎么才能讓自己更“人性化”呢?結(jié)合科爾文《不會被機器替代的人》這本書,我大概能想到以下這些策略——
• 跟客戶建立個人關(guān)系,不要只談利益
• 衣著打扮、說話語言彰顯個性
• 一個團隊要有私下的個人互動,要有“化學(xué)反應(yīng)”
• 做報告不要把數(shù)字直接擺在別人面前,得發(fā)揮想象力把這些數(shù)字形象化
• 逢年過節(jié)給群眾送溫暖
• 關(guān)鍵時刻站出來調(diào)動周圍人的情緒
• 出了事主動承擔(dān)責(zé)任
• 表態(tài)支持你支持的人
• 發(fā)現(xiàn)別人身上的亮點,互相吹捧
• 面對敵人同仇敵愾
我不能肯定,包括科爾文自己也不能肯定,他在這本書里的論斷都是對的。比如科爾文提到美軍戰(zhàn)斗機飛行員的“人的因素”非常厲害,優(yōu)秀的飛行員比先進的飛機更重要。可是既然人工智能都能下好圍棋,為什么就不能開好戰(zhàn)斗機呢?也許科爾文也會低估人工智能,高估人類。
但無論如何,在這個機器橫行的時代,科爾文這本書給我們帶來了一點溫暖,更帶來了一種尖銳思考。中國科普人士都愛嘲諷感性贊美理性,而科爾文提醒我們,“理性”的工作機器都能做,也許未來“感性”更值錢,如果你知道怎么運用的話。