維基百科對智能有如下定義:
智能是一種能夠感知或推斷信息,并將其作為知識留存下來,自適應地用于某種環(huán)境或上下文的能力。
人工智能(Artificial Intelligence)
雖然我們很難對人工智能做一個確切的解釋,但可以從查爾斯巴貝奇的分析機講起。它雖然沒有任何特殊的“自適應”能力,但卻非常靈活。遺憾的是,理論上雖然完美,但卻沒有得以實現(xiàn)。
巴貝奇分析機早圖靈機50年左右出現(xiàn)。從理論上講,它能夠?qū)⑷魏慰捎嬎愕暮瘮?shù)作為輸入,并在完全機械的情況下產(chǎn)生輸出。
復雜性理論(complexity theory)由此得以發(fā)展,同時人們也意識到構(gòu)建通用計算機其實相對簡單。此外,算法的實現(xiàn)也越發(fā)多樣。盡管還存在一些技術(shù)上的挑戰(zhàn),但在過去的70年中,相同價格可購買到的計算量大約每兩年翻一番。
也就是說,構(gòu)建計算力強大的人工智能系統(tǒng)越發(fā)容易。然而,這受到了所提供或輸入的數(shù)據(jù),以及處理時間的限制??梢宰鋈缦滤伎迹喝绻颗_計算機的能力都受到數(shù)據(jù)和時間的限制,我們還能稱之為智能計算機么?
下面我們簡單回顧一下人工智能的發(fā)展史。人類的智能主要包括歸納總結(jié)和邏輯演繹,對應著人工智能中的聯(lián)結(jié)主義(如人工神經(jīng)網(wǎng)絡)和符號主義(如吳文俊方法)。符號主義認為智能是基于邏輯規(guī)則的符號操作;聯(lián)結(jié)主義認為智能是由神經(jīng)元構(gòu)成的信息處理系統(tǒng)。其發(fā)展軌跡如下圖所示:
聯(lián)結(jié)主義,即“橙色陣營”在一開始處于領(lǐng)先地位,得益于其與神經(jīng)科學和人類大腦之間的關(guān)系。人類大腦被視為“強AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”唯一的成功應用。然而,第一代神經(jīng)網(wǎng)絡在處理實際問題時屢屢受挫。因為神經(jīng)網(wǎng)絡多數(shù)是線性的,并且能力十分有限,深受外界質(zhì)疑。與此同時,符號主義,即“藍色陣營”利用嚴謹?shù)臄?shù)學理論創(chuàng)造出了更多有用的東西。
隨著手工知識的積累,輸入或輸出數(shù)據(jù)量急速增長,系統(tǒng)的性能無法適應需求,聯(lián)結(jié)主義逐漸衰敗。就好比法律,專家制定出再完備的規(guī)則都有可能相互沖突,此時便需要越來越多的“法官”來解決這些問題。這減緩了聯(lián)結(jié)主義的發(fā)展。
后來,“橙色陣營”獲取了足夠的標簽數(shù)據(jù)和計算資源,能夠在可接受的時間內(nèi)對網(wǎng)絡進行“訓練”,世界各地的研究學者開始進行大量試驗。盡管如此,聯(lián)結(jié)主義仍花費了大量的時間使大眾重新信任神經(jīng)網(wǎng)絡,開發(fā)人員也花了較長才適應了模糊邏輯和統(tǒng)計的概念。
在對人工神經(jīng)網(wǎng)絡進行詳細討論前,本文將先介紹一些其它方法:決策樹、概率模型、進化算法。
決策樹(Decision Tree)是最簡單有效的算法之一。其“學習”是通過順序地遍歷數(shù)據(jù)的每個屬性并找到對特定輸出具有最大預測能力的屬性來執(zhí)行的。像隨機森林這樣的高級變體使用了更復雜的學習技術(shù),并在同一個模型中組合多個樹,它們的輸出是通過“投票”得到的,這與人類的“直覺”類似。
概率模型(Probabilistic models)是統(tǒng)計方法的代表。概率模型與神經(jīng)網(wǎng)絡常共享架構(gòu)、學習/優(yōu)化過程甚至符號。但是概率模型大多受概率邏輯(通常是貝葉斯)的約束,而神經(jīng)網(wǎng)絡則無此約束。
進化算法(Evolutionary computation)最初是受到生物進化的啟發(fā),且以隨機突變和適應度為主。由于修改通常是隨機的,其限制噪聲的效果突出。進化算法是一種引導式搜索,許多方面與退火過程類似。
上述方法有一個共同點:它們從較差的策略開始,逐漸對其改善,以期在某種性能評估方法中取得更好的分數(shù)。
如今,機器學習技術(shù),尤其是深度學習正在主導人工智能的發(fā)展。與大多數(shù)使用1到2個中間抽象層(所謂的淺模型)機器學習方法不同,深度學習可能包含數(shù)百甚至數(shù)千個堆疊的可訓練層。
研究學者認為對這樣的深度網(wǎng)絡進行訓練,需要全新的優(yōu)化程序。事實證明,使用梯度下降的逆向傳播(即鏈式法則)即可很好的進行訓練,也可使用Adam或RMSProp。
神經(jīng)網(wǎng)絡訓練流程如下:
1、獲取輸入
2、計算輸出
3、評估性能
4、調(diào)節(jié)參數(shù)
5、重復訓練,至性能最優(yōu)
梯度下降法只需調(diào)整參數(shù)使誤差最小。但該方法容易使網(wǎng)絡陷入局部最優(yōu),而沒有獲得最優(yōu)性能。然而,最新研究表明許多神經(jīng)網(wǎng)絡已經(jīng)能夠獲取全局最優(yōu)解。
深度學習實現(xiàn)了訓練的并行化,即分布式學習。能在同一時間跨多臺機器訓練相同的體系結(jié)構(gòu),同時實現(xiàn)梯度交換,加速超過1000倍。
此外,經(jīng)過訓練的網(wǎng)絡可以處理相似的任務,即遷移學習,這也是人工神經(jīng)網(wǎng)絡廣泛流行的重要原因。例如,經(jīng)過圖像分類訓練的網(wǎng)絡可以用于其他計算機視覺任務,自然語言處理和其他領(lǐng)域。更重要的是,同一個網(wǎng)絡還可以用來解決不同模式的問題。
強化學習(Reinforcement Learning,RL)則將它們結(jié)合在了一起。RL的最初想法來自行為心理學,科研人員探究了在行為心理學中獎勵如何影響學習和塑造動物的行為。
RL并不需要出現(xiàn)正確的輸入/輸出對,也不需要精確校正次優(yōu)化的行為。舉個例子,我們并不需要教會機器人如何精確移動,只需根據(jù)它走多遠或多快對其進行獎勵,它會自己找出正確的路線。然而,這種訓練模式在實踐中也是最具挑戰(zhàn)性的,即使是相對簡單的任務,通常也需要付出大量的努力才能正確設(shè)置。
在實際問題中,通常很難在環(huán)境中指定獎勵,研究人員目前更多地關(guān)注內(nèi)部獎勵模型。
與RL并行的是逆向強化學習(Inverse Reinforcement Learning):當完成復雜的任務時,強化學習的回報函數(shù)很難指定,我們希望有一種方法能夠找到高效且可靠的回報函數(shù),這種方法就是逆向強化學習。
通用人工智能中一些框架來自于嚴格的數(shù)學理論,一些受神經(jīng)元回路的啟發(fā),還有一些基于心理模型。本文將以HTM、AIXI、ACT-R和SOAR為例進行介紹。
層級實時記憶算法(Hierarchical Temporal Memory,HTM),HTM算法旨在模擬新大腦皮層的工作原理,將復雜的問題轉(zhuǎn)化為模式匹配與預測。它強調(diào)對“神經(jīng)元”進行分層級,以及信息模式的空間特性與時間特性。
稀疏分布表示(Sparse Distributed Representation,SDR)是HTM算法中的一個重要概念。實際上,它只是擁有幾千個元素的位數(shù)組。就像大腦中的信息總是通過億萬神經(jīng)細胞中的小部分活躍細胞來表示一樣,HTM使用稀疏分布表示語義相關(guān)的輸入。
HTM算法中的抑制(Inhibition)類似于批規(guī)范化和其他一些正則化技術(shù),提升(Boosting)在機器學習中已經(jīng)是一個相對較老的概念,層次結(jié)構(gòu)(Hierarchical Structure)并沒有真正的大腦皮層的結(jié)構(gòu)靈活。HTM對物體間關(guān)系的重視程度低,甚至連稀疏分布表示也可以用普通神經(jīng)網(wǎng)絡構(gòu)建??傮w來說,HTM需要進行大量調(diào)整才能獲取與其它機器學習算法相當?shù)男阅堋?/p>
接下來介紹AIXI,它是一個對通用人工智能的理論上的數(shù)學形式化表示。然而,它有一個顯著的缺點——無法計算。事實上,許多機器學習算法均不能精確計算,只能做近似處理。AIXI表示如下:
AIXI的核心是一個強化學習智能體,在諸多方面與Schmidhuber開發(fā)的Godel Machine類似。然而,它們都是AGI的描述性模型,復雜程度高,無法執(zhí)行,但不可否認,它們都是人工智能研究人員的靈感源泉。
相反,ACT-R,即理性思維的自適應控制系統(tǒng)(AdaptiveControl of Thought—Rational),它不僅是一種理論,而且是一種用LISP編寫的軟件框架。
ACT-R主要關(guān)注不同類型的內(nèi)存,較少關(guān)注其中數(shù)據(jù)的轉(zhuǎn)換。該理論試圖理解人類如何獲得和組織知識以及如何產(chǎn)生智力活動,其研究進展基于神經(jīng)生物學研究成果并從中得以驗證,且已成功地為許多不同認知現(xiàn)象建立起合理的模型。然而,它在實際應用中并未取得成功,最終只作為研究人員的工具。SOAR與ACT-R有著相似的根源和基本假設(shè),但它更關(guān)注于實現(xiàn)AGI,而不是建立人類認知的模型。
ACT-R和SOAR是人工智能符號主義的經(jīng)典代表,在認知科學的發(fā)展中起到了重要作用,但是應用它們相比現(xiàn)代聯(lián)結(jié)主義需要更多的配置和先驗知識。此外,神經(jīng)影像和其他用于心智研究的工具越發(fā)詳細和準確,而且ACT-R和SOAR在某一定程度上過于僵化,無法保持相關(guān)性。