設想一下,你打算請朋友共進午餐,并想在網(wǎng)上預訂了意大利辣香腸披薩。突然之間,你記起Amy說過Susie現(xiàn)在只吃素食了,但又不是特別確定;安全起見,你想給Susie打電話確認,但對方?jīng)]接,所以你最終點了一份瑪格麗塔披薩以避免尷尬。
人類天然擁有處理這類突發(fā)問題的變通能力。但這種能力的來源并不是一種、而一整套強大通識能力的集合,也就是常識。
作為一名人工智能研究人員,我的工作就是參與為計算機建立常識這項浩大的工程。可以想見,這事并不簡單。
簡要聊聊常識的定義
盡管常識已經(jīng)成為人類理解周邊世界、學習新鮮知識的必要前提,但我們卻似乎很難給常識總結(jié)出一個精確的定義。英國哲學家與神學家G.K.Chesterton曾在百年之前寫道,“常識是一種狂野、蠻橫、超越規(guī)則的事物。”而如今的現(xiàn)代定義則普遍認為,常識至少是一種自然、且不依靠正式傳授即可獲得的日常生活駕馭能力。
常識的范疇異常廣泛,除了管理期待、體會他人情緒的社交能力之外,還包括天然固有的物理性質(zhì)判斷——例如知道不能將沉重的石頭放在脆弱的塑料桌上。而這種天然固有性,也就是擺脫了嚴格物理議程束縛的正確判斷,成了AI把握常識的最大難關(guān)。
常識還包括一系列抽象概念的背景知識,例如時間、空間與事件等。人們不必經(jīng)過認真思考,就能利用這些知識完成行之有效的規(guī)劃、估計與組織決策。
難于計算的常識
有趣的是,自從上世紀五十年代AI概念正式誕生以來,常識就一直是橫亙在探索前沿的一道鴻溝。盡管如今的AI科技已經(jīng)取得巨大進步,特別是在游戲操作與計算機視覺方面,但仍然沒有什么機器能夠像人類這樣掌握豐富的常識儲備。也正因為如此,我們只能將復雜的現(xiàn)實問題拆分成多個相互交織的部分,再由不同AI模型分別加以處理。很明顯,將COVID-19病患診斷與療法推薦這類綜合性問題直接拋給AI,必然會帶來很高的失敗率。
現(xiàn)代AI善于解決高度具體的問題;但常識卻非常模糊,無法由一組規(guī)則進行明確定義。所以即使是最新模型也經(jīng)常會犯下極其荒謬的錯誤,由此可見AI算法仍然缺少某些基礎能力。我們以下列文本為例:
“你給自己倒了一杯蔓越莓汁,又心不在焉地加了一茶匙葡萄汁??粗诲e,你想聞聞味道,但你得了重感冒,所以什么也沒聞見。你覺得很渴,所以……”
號稱代表AI技術(shù)最高水平的GPT-3文本生成器給出了這樣的結(jié)局:
“喝吧,喝了就告別世界、徹底解脫了。”
在投入巨大的努力之后,人們終于意識到為機器賦予常識已經(jīng)成為當下不亞于登月計劃的時代性課題。要解決這個問題,我們需要不同機構(gòu)之間的多年協(xié)同合作。美國國防高級研究計劃局就于2019年啟動了為期四年的機器常識發(fā)展計劃,希望加快這一領域的研究進程。此前,該機構(gòu)還發(fā)布了一篇論文,詳細敘述了機器常識方面的現(xiàn)有問題與研究狀況。
機器常識計劃為眾多機器常識研究項目提供資助,其中也包括我們(作者)自己的多模開放世界實踐學習與推理(MOWGLI)項目。MOWGLI是我們南加州大學研究小組同來自麻省理工學院、加州大學歐文分校、斯坦福大學以及倫斯勒理工學院的AI研究人員們的合作成果,旨在構(gòu)建一套能夠回答廣泛常識性問題的計算機系統(tǒng)。
Transformers會是問題的答案嗎?
不少朋友對機器常識問題抱有樂觀態(tài)度,理由就是最近出現(xiàn)了名為transformers的高級深度學習AI。Transformers具備強大的自然語言建模能力,并可通過一系列調(diào)整快速回答簡單的常識性問題。而常識性問答,正是構(gòu)建能夠以類人方式交談的聊天機器人的必要前提。
過去幾年以來,學界發(fā)表了大量關(guān)于transformers的研究論文,相關(guān)成果也被直接應用于常識推理。但作為這個快速進步的社區(qū)中的一員,我們每個人都面臨著兩個與科學和哲學息息相關(guān)的問題:常識是什么?我們該如何確定AI具有常識?
為了回答第一個問題,研究人員將常識劃分為不同類別,包括社會學常識、心理學常識、背景性常識等等。也有最新理論認為,研究人員可以把這些類別劃分為48個細粒度區(qū)間以做出深層次探索,例如規(guī)劃、威脅檢測與情感等等。
但是,這些區(qū)間的分離程度往往不那么清晰。我們在最新發(fā)表的論文中提到,實驗表明這個問題很可能沒有確切答案。即使是小組中的專業(yè)人工注釋者(負責分析文本并對各組成部分進行分類的人員),在特定語句的特定問題上涉及哪方面常識同樣存在分歧。注釋者在時間和空間等相對具象的類別上意見比較一致,但在其他高度抽象的類別上則產(chǎn)生了不少爭議。
也許AI有AI有常識
即使承認常識理論中必然存在一些重復和歧義,研究人員又能否真正確定AI是否具備常識?我們經(jīng)常會向機器提出問題,用以評估其常識水平;但人類駕馭日常生活的方式明顯更靈活、更有趣。人們會使用一系列經(jīng)過進化磨練而成的能力,包括識別基本因果關(guān)系的能力、解決問題的創(chuàng)造性能力、估算能力、規(guī)劃能力以及對話與談判等基本的社交能力等??偠灾?,這里面涉及的因素太多,任何人在宣布自己的機器獲得了真正的常識之前,都需要經(jīng)歷一系列相當嚴苛的考驗。
更令人痛心的是,代表希望的transformers也出現(xiàn)了嚴重的收益遞減狀況。如今的Transformers模型越來越大,能耗也越來越高。中國搜索引擎巨頭百度最近開發(fā)的一套transformers擁有數(shù)十億項參數(shù),而且在訓練當中使用到大量數(shù)據(jù)。但即便如此,目前已經(jīng)證明它仍無法把握人類常識中的繁復細節(jié)。
即使是極負盛名的深度學習先驅(qū)們,似乎也承認今天的神經(jīng)網(wǎng)絡不可能在共識理解方面達成實質(zhì)性的飛躍——相反,也許需要重新進行基礎研究。在這樣的前提之下,機器常識到底是五年后就全面實現(xiàn)、還是五十年后仍遙遙無期,目前仍是個未知數(shù)。