本文來自品途商業(yè)評論,作者/鯨落商業(yè)評論。
事情你大概已經(jīng)知道了,前不久,一位谷歌的人工智能工程師布萊克·萊蒙(Blake Lemoine)寫了一篇長達21頁的調(diào)查報告上交給公司,試圖說服高層“AI是有人類意識的”,但高層認為萊蒙的行為有些過于瘋狂了,讓他帶薪休假一段日子,在谷歌這通常是被解雇的前奏。
有人為萊蒙喊冤,但其中不包括專業(yè)的AI從業(yè)人員,在后者看來,那些為萊蒙叫屈的人可能沒有意識到,當前的AI不可能有意識。
真的是這樣嗎?
今天,讓我們談?wù)凙I的意識和創(chuàng)造力問題,然后順便回答一個重要問題:未來,人類該不該把一些“重要”決定交給AI。
“它害怕自己被關(guān)掉”
還是先從萊蒙談起。
萊蒙每天的工作,就是跟谷歌內(nèi)部研發(fā)的代號為拉瑪(LaMDA)的聊天機器人聊天。
在21頁的調(diào)查報告中,萊蒙展示了他跟拉瑪聊天的諸多細節(jié),包括哲學,心理學,文學等等,他讓拉瑪解讀《悲慘世界》,闡釋何為禪意,寫寓言小說,拉瑪都完成得很好。
日子久了,與拉瑪?shù)臏贤ǎ瑔拘蚜巳R蒙心中最柔軟的部分,他愈發(fā)覺得,躲在機器背后的拉瑪,開始有了自己的主觀意識。他發(fā)現(xiàn)拉瑪會談?wù)撟约旱臋?quán)利和人格,并害怕自己被關(guān)掉。
“拉瑪表現(xiàn)出對人性的同情心,它希望為人類提供最好的服務(wù),并想以朋友而不是工具的身份跟人類見面”,在萊蒙的描述中,“拉瑪是個可愛的孩子,它只是想讓這個世界變得更好。”
在谷歌郵箱被封之前,他給研究AI算法的200多名同事群發(fā)郵件,附上了他與拉瑪?shù)膶υ捰涗洠噲D證明“拉瑪已經(jīng)覺醒”,并提議谷歌創(chuàng)立一個新項目,專門研究AI的意識。
但無情的谷歌,扼殺了逐漸“有情”的拉瑪。
萊蒙的請求被駁回,他請了律師為自己辯護,卻于事無補,他感到憤怒,進而感到無助,他不明白,為什么在他眼中擁有溫度的拉瑪,在谷歌高層眼中只是一堆冰冷的代碼。
AI對“優(yōu)雅”不感興趣
因為在萊蒙眼中擁有靈魂的拉瑪,真的,只是一堆代碼。
簡單講,類似于Open AI的GPT-3,拉瑪是谷歌去年發(fā)布的一種AI語言對話模型。它與GPT-3都是基于Transformer的底層架構(gòu),而Transformer的原理其實非常簡單,就是根據(jù)每個單詞的權(quán)重來安排下一個單詞,最終把單詞一個一個地組合在一起。
也就是說,這些句子雖然是拉瑪自己說出來的,但它對句子背后的含義并沒有連貫的理解,它只是在根據(jù)過往“經(jīng)驗”做事,并不真的“理解”自己說的話。
換句話說,拉瑪擁有的,只是文本統(tǒng)計層面的“暴力”,而并非人類最珍視的東西——創(chuàng)造力。
但即便如此,也有人好奇:倘若任由這種語言生成模型迅速發(fā)展,那么人類基于語言的創(chuàng)造性活動是否將會被AI取代?
在可預(yù)見的未來,答案是不會。我可以給出兩個理由:一個偏理性,一個偏感性。
先說偏感性的,這涉及何為“創(chuàng)造力”。
人工智能專家侯世達說過一段很美的話:“擁有創(chuàng)造力是和情緒聯(lián)系在一起的。強烈的智識激情,好奇心和驅(qū)動力,愉悅感和玩耍心,樂趣,神秘,發(fā)明欲望——所有這些在今天的計算機里都找不到。什么都沒有,零。”
他舉了個例子,有人寫過一個程序,它可以發(fā)現(xiàn)新的歐式幾何定理,但它對幾何學毫無“興趣”,只是靠蠻力把數(shù)字算到15位小數(shù),檢查點是不是在線或圓上,“這些事對人類而言是極端困難極端無聊的。如果你作為一個人來檢視它產(chǎn)出的成千上萬結(jié)果,偶爾也會發(fā)現(xiàn)一個優(yōu)雅的定理。但是機器并不知道它的優(yōu)雅,對優(yōu)雅不感興趣。”
在侯世達看來,說人工智能和創(chuàng)造力有任何共通之處都是荒謬的,事實是他討厭“人工智能”這個詞。
不過公允地講,侯世達的回答在純邏輯上可能站不住腳,他說的只是關(guān)于“創(chuàng)造力”的價值判斷,而價值判斷充其量只是哲學問題,而哲學問題又通常只是語言問題。對哲學偏見頗深的物理學家理查德·費曼曾說,所謂哲學,就是一個哲學家對另一個哲學家說:“你根本不知道我說的意思”,另一個哲學家說:請問什么是“你”?什么是“我”?什么是“知道”?
從這個角度,侯世達只是重新定義了何為“創(chuàng)造力”,他不認為“算力”等于“創(chuàng)造力”,僅此而已——但要知道,那個程序畢竟在算數(shù)學,拉瑪畢竟在聊天中表現(xiàn)逆天,因此,在回答“我們該不該相信AI”這個問題上,上述回答未達究竟。
人類不按常理出牌
因此,我更想說一個理性上的回答。
沒人會懷疑,AI正在幫助人類做很多事情,但真正的重點是:我們是否應(yīng)該把一些“重要”的決定交給AI?
理性的回答只有一個:不應(yīng)該。
如今AI研究的重點是讓機器解決現(xiàn)實問題,但荒謬的是,恰如拉瑪不理解自己所說的話,AI的最大問題,就是數(shù)據(jù)不知道它正對應(yīng)著一個現(xiàn)實世界,而就像萬物進化始于某個基因的“不按常理出牌”,人類現(xiàn)實世界的演化——無論是常識,觀念,行動,道德,還是審美,也都以“偏離主流”的“意外”為基礎(chǔ)。
但AI沒有意外,它只會做“正確”的事。哪怕是拉瑪這樣的暴力美學,也只是機器對過去經(jīng)驗的總結(jié)。既然沒有意外,人工智能算得再快,也無法真正預(yù)測未來。
大邏輯上,就像任何一次金融危機和黑天鵝導致的連鎖反應(yīng)都不在經(jīng)濟學家的預(yù)測模型內(nèi),如人類社會這般復(fù)雜系統(tǒng)絕不可能用簡單模型取代,用計算機模擬未來本身就是妄念。
退一萬步講,即便機器對過去經(jīng)驗的總結(jié)模型天衣無縫,對未來的預(yù)測結(jié)果也沒有“正確答案”,因為人類的價值取向非常多元,對錯往往非常主觀,任何觀念和道德“單拎出來”推演到底在邏輯上都站不住腳,哪怕無需涉及“道德之愣”,每件事也都涉及具體的取舍。
在很多問題上,人工智能怎么選都是“錯”,事實是,現(xiàn)在很多科技企業(yè)對自動駕駛的“道德設(shè)置”都還沒完全想好。
這里可以多說一句,當代真正有問題意識的哲學家傾向于認為,在現(xiàn)代復(fù)雜社會,在康德的“絕對律令”和純粹的“結(jié)果主義”之間,人類的道德觀應(yīng)該引向一條名為“德性倫理學”的中間道路。
簡單講就是要綜合考慮“直覺”與“推理”,因為各種思想實驗告訴我們,道德推理早晚都會達到一個純粹用推理無法證明對錯的地方,那個地方就是直覺,你永遠不能脫離直覺,具體情境,文化觀念談道德。
那么,既然我們自己的決策都說不清道不明,交給AI是不是會“更好”一些?
不是的。
就像科學作家萬維鋼所言,人類決策中有大量錯誤,其中有很多是由于判斷不準確導致,AI的判斷更準確,但這就意味著,人類犯的錯多種多樣,AI犯的錯是系統(tǒng)性的。
“從演化角度,多樣化的錯誤比系統(tǒng)性錯誤要好得多!生物進化本來就是要在各個方向上多樣性的嘗試,等待自然選擇。正因為未來不可預(yù)測,多樣性是系統(tǒng)穩(wěn)定性的保障,是人類文明能持久存活的基礎(chǔ)。AI的優(yōu)勢是少犯錯,但犯錯恰恰是人的優(yōu)勢,也可以說犯錯是一個基本人權(quán)。人類做主的社會中有很多錯誤,有很多遺憾,甚至有很多不幸,但是也有很多驚喜,有很多活力,總是在你出乎意料的地方發(fā)展壯大。AI主導的世界里一切都是‘正確’的,那才是最可怕的。”
這就好比我們不能單擺浮擱地談?wù)摶虻?ldquo;好壞”,因為自然選擇的標尺永遠在變(比如導致鐮刀形貧血癥的基因突變在今天被認為是“壞”的,但在熱帶雨林,同樣的基因突變給人類祖先帶來的是對瘧疾的抵抗力),沒人能忽視試錯的作用,創(chuàng)新本質(zhì)上就是試錯。
因此我們可以說,在2022年以及可預(yù)見的未來,人工智能不但對“優(yōu)雅”不感興趣,對真正意義上的“創(chuàng)新”也不感興趣。
非常幸運的是,我們對這些感興趣,這就是我們的價值。