AI = 神經(jīng)網(wǎng)絡?這8個技術就不是!

木馬童年
目前在AI技術領域中,投入資金最多的當屬對神經(jīng)網(wǎng)絡的研究了。在眾人眼中,神經(jīng)網(wǎng)絡技術貌似就是“程序構造的大腦”(雖然比喻很不準確)。

AI熱潮中,有關神經(jīng)網(wǎng)絡的聲音最大。然而,AI遠遠不止如此。

目前在AI技術領域中,投入資金最多的當屬對神經(jīng)網(wǎng)絡的研究了。在眾人眼中,神經(jīng)網(wǎng)絡技術貌似就是“程序構造的大腦”(雖然比喻很不準確)。

神經(jīng)網(wǎng)絡的概念早在20世紀40年代就被提出,但直到現(xiàn)在,人們對于神經(jīng)元及大腦的工作方式仍然知之甚少,最近幾年,科研界關于神經(jīng)網(wǎng)絡技術創(chuàng)新的呼聲越來越強,渴望重啟神經(jīng)網(wǎng)絡的熱潮……

其實,除了神經(jīng)網(wǎng)絡以外,AI領域中還包含很多更有趣、更新穎,更有前景的技術,文章中就將這些技術介紹給大家。

1.Knol提取

Knol指信息單元,也就是關鍵字、詞等,Knol提取技術則是從文本中提取關鍵信息的過程。舉個簡單的例子:比如“顧名思義,章魚有8條腿”這句話經(jīng)過提取后,就變成了這個樣子:{“章魚”:{“腿的數(shù)目”:8}}。

我們常用的Google搜索引擎就依賴于這項技術,后續(xù)介紹的技術中,很多也都包含了這項技術。

2.本體構建

本體構建是基于NLP的技術,旨在用軟件來構建實體名詞的層次結構,這一技術對實現(xiàn)AI會話大有幫助。雖然本體構建表面看起來簡單,但事實上構建卻并不容易,主要因為事物之間的實際聯(lián)系比我們所認為的要復雜的多。

例如,利用NLP分析文本來建立實體關系集:

例句:“我的拉布拉多犬剛剛生了一群小狗崽,它們的父親是只獅子狗,所以它們是拉布拉多貴賓犬(一種混血犬)”這句話被轉換后,就變成了:{“小狗崽”:{“可能是”:“拉布拉多貴賓犬”,“擁有/生(have)”:“父親”},“拉布拉多犬”:{“擁有/生(have)”:“小狗崽”}}。

但是,人類在進行語言表達時,通常不會將所有的關系都陳述出來,比如這句話中,是要通過推斷才能得出“我的拉布拉多犬為雌性”這一事實,這就是本體構建的難點所在。

正如此,本體構建技術目前只應用在了頂尖的聊天機器人中。

3.自定義啟發(fā)式

啟發(fā)式是一種用于分類的規(guī)則,通常類似于“如果這件物品是紅色的”或“如果Bob在家里”這樣的條件語句,這些條件語句常伴隨某項動作或決定,例如:

如果某物[“成分”]屬性中包含“砷”這一元素:則它的[“毒藥”]屬性為“True”。

對于每個新的信息,都伴隨著新的啟發(fā)式和新的關系,隨著新的啟發(fā)式的建立,又可以對相關的名詞產(chǎn)生新的理解。比如:

啟發(fā)式一:"puppies"(小狗)說明是幼崽(Babies);

啟發(fā)式二:幼崽(Babies)說明很年輕;

通過以上兩個啟發(fā)式推斷出:"puppies"都很年輕。

啟發(fā)式的難點在于,多數(shù)情況下,規(guī)則并不會如“If/Then”一樣簡單。類似于“有些人頭發(fā)是金色的”這樣的語句,就很難用啟發(fā)式來表述。所以我們有了“認知論”(見下)。

4.認識論

認識論是本體構建和自定義啟發(fā)式的結合,并在其中加入了概率特性,通過概率表示名詞與任一屬性產(chǎn)生關聯(lián)的可能。比如,用這樣本體結構:

{'人':{'性別':{'男':0.49,'女':0.51},'種族':{'亞裔':0.6,'非洲裔':0.14}}

來表示對一個人性別和種族的判斷。同時,概率能幫助識別一些具有多重含義的“混合型”詞組,比如像“梅子像是打了激素的葡萄干”這句話中,因為“打了激素”這一詞組很大可能地意味著“體積較大”,從而得出,這句話很大可能的意思是“梅子體積比葡萄干大”。

認識論的實現(xiàn)相比本體構建要困難得多。首先,它需要更多的數(shù)據(jù);并且,由于其結構的復雜性,很難在確定規(guī)則后快速地建立起數(shù)據(jù)庫來實現(xiàn)查找;還有,規(guī)則的確定通?;谀稠検挛镌谝欢挝淖种斜惶峒暗念l率,但文字卻未必能真實地反映現(xiàn)實情況。

認識論與Asimov提出的“張量流”理論很相似。Google開發(fā)的同名TensorFlow系統(tǒng)并不是真正基于張量,而認識論是基于張量的。

5.自動量規(guī)技術

一個量規(guī)系統(tǒng),必定包含相應的評估標準。想象一下,在選購房子時,有房屋面積,位置,價格和風格等因素需要考量,而這些因素未必都是積極的,這就需要有通過衡量取舍來決策。比如,相比價格你更在乎房屋面積,就會寧愿多花幾倍的錢來購買大房子。

自評估技術通過你對不同因素的重視程度來確定每項因素的權重,從而提出決策建議。通過這一過程,還可以預測庫存變化,推薦產(chǎn)品,實現(xiàn)自動駕駛等。也就是說,大多數(shù)神經(jīng)網(wǎng)絡可以實現(xiàn)的功能,自動量規(guī)技術都能勝任,盡管需要更長的訓練時間,但卻有著快幾個數(shù)量級的決策速度。

6.矢量差分

矢量差分技術常用于圖像分析,也可用于時變數(shù)據(jù)的處理。通過對目標構建抽象矢量圖,將候選對象與待識別目標對象進行比較,從而判斷出是否為“最佳的約會臉型”或“最佳的買入時機”等。

通常,目標對象之間差異都伴隨一個衡量差異程度的量化規(guī)則,通過特征的矢量化,將一些“模糊”的概念,簡單、清晰的表示出來。

比如,對于人類來講,我們籠統(tǒng)地認為對稱的臉型更具有吸引力,但是對于計算機,就需要精確的計算來判斷,而這時,通過30個三角形來進行臉部抽象,比通過完整臉部圖像來進行運算對比,能節(jié)省很多的計算時間和存儲空間。

對于非圖像的數(shù)據(jù)的處理也是可以的。比如股票價格變動、每股收益與保證金的比率等,通過對這些數(shù)據(jù)矢量化,將其與理想值進行比較,就可以確定一次投資的利好或風險程度。

7.矩陣卷積

卷積矩陣常用于圖像處理領域中的邊緣檢測和提高對比度等方面,例如,PhotoShop中的許多濾鏡都是基于卷積矩陣或疊加卷積(按特定順序進行多個卷積運算)實現(xiàn)的。

同時,卷積矩陣還可用于處理非圖像數(shù)據(jù)。比如,當使用卷積矩陣對時序向量進行處理時,可以像邊緣檢測那樣,快速地找出模式來,再在最小或最大值處查找特定值或范圍,從而做出判斷。

8.多視角決策系統(tǒng)

一項決定的做出并不簡單。多視角決策系統(tǒng)以一種更民主的形式,多方面地作出決定。

比如,在剛剛房子的例子中,你對于某套房子的看好可能基于并不全面的因素,而之后的一個“這套房子建在懸崖上”的事實(當然,這種壓倒性因素可能來自于Knol提取)就會消除你先前的所有好感,讓你重新決策。

所以,決策需要通過更全面的因素考量,而多視角決策系統(tǒng),可以利用兩個人的兩套標準(比如你和你的配偶)來衡量決策。多視角決策系統(tǒng)還可應用于自動駕駛領域,比如,收集10000個車主的看法來制定新標準等。

寫在最后——要相信技多不壓身

許多人眼中只有一把工具,掉進“我有的就是一把錘子,所以一切都是釘子”的深坑。諸如Recognant這樣的公司,在應用神經(jīng)網(wǎng)絡的同時,也同樣在應用文章中這些相對冷門的技術,畢竟相比于神經(jīng)網(wǎng)絡硬件系統(tǒng),

這些軟件技術的優(yōu)勢就在于,能針對不同情況進行隨時的調(diào)整和開發(fā),而無需花費額外的成本。所以,技術面窄,就有可能被一些情況所困住,而技術面越寬,面對問題就越容易迎刃而解。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論