語言之精妙彰顯人類之精巧,人工智能能否習得?

陳述根本
陳根
語言作為人們與生俱來的能力,能幫助人們傳遞很多重要的信息。正因為人類獨特的語言能力,人類才具有特殊性。這也是人工智能至今仍在艱難突破的技術桎梏。

語言作為人們與生俱來的能力,能幫助人們傳遞很多重要的信息。正因為人類獨特的語言能力,人類才具有特殊性。這也是人工智能至今仍在艱難突破的技術桎梏。

究其原因,世界上有千萬種不同的語言和方言,既有共通之處,又各自獨立不同。此外,每個詞匯和句子還會給人一種語義,而這個語義對每個人的反饋又各不相同。語言的復雜性給機器學習帶來了挑戰(zhàn)。

比如,那么對于同一個語義,不同語言和方言對應反饋都可能有差異,甚至對于不同環(huán)境成長的同一語言人群以及同一個人在不同年齡段和不同情緒狀態(tài)下的反饋都可能不同。

1.jpg

近日,斯坦福大學人工智能實驗室(SAIL)發(fā)表博客,介紹了其兩篇 ACL 2020 論文。這兩項研究立足于近段時間 BERT 等神經(jīng)語言模型的突破性成果,指出了一個頗具潛力的新方向:使用語言解釋來輔助學習 NLP 乃至計算機視覺領域的任務。

簡單來說,就是針對自然語言處理(NLP)和計算機視覺領域的多種高難度任務,他們首先用語言解釋這些任務,然后使用深度神經(jīng)網(wǎng)絡模型來學習這些語言解釋,進而幫助解決這些任務。

事實上,BERT 等現(xiàn)代深度神經(jīng)語言模型已經(jīng)顯現(xiàn)出解決多項語言理解任務的潛力。因此,SAIL 在這兩篇論文中提出使用神經(jīng)語言模型來緩解這些基本問題。這些神經(jīng)語言模型或以確定相關領域內(nèi)語言解釋為目標,或使用了可以解讀語言解釋的通用型“知識”來進行預訓練。

第一篇論文研究了如何使用語言解釋來構建文本分類器,即使用自然語言解釋來幫助解決單個任務?;诖?,研究人員提出了 ExpBERT 模型,其使用了針對文本蘊涵任務訓練的 BERT 模型,BERT 在這一過程中輸出的特征可替代上述語義解析器提供的指示特征。

2.png

第二篇論文提出一種名為語言塑造型學習(Language Shaped Learning/LSL)的方法,即在訓練時使用語言解釋,則可以促使模型學習不僅對分類有用的表征,而且該表征還能用于預測語言解釋。

3.png

語言之精妙彰顯了人類之精巧,人工智能想要克服語言的技術桎梏依然還有漫長的路要走,但研究已在路上。在人工智能獲得語言能力前,社會也將對其技術進行謹慎的設計,這也是科技時代下必然要面對的問題。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論