2019年AI人工智能領域都發(fā)生了什么?

David Foster
計算機視覺還被應用于一些具有重大商業(yè)和社會意義的領域,包括自動駕駛車輛和醫(yī)學。但是,人工智能算法在這些領域中的應用自然是緩慢的,因為它們直接與人類生活直接互動。至少到目前為止,這些系統(tǒng)還不是完全自主的,它們的目的,在于支持和增強人類操作員的能力。

2019年無疑是忙碌的一年。人工智能的進步和新聞頻頻登上頭條新聞,讓我們的生活充滿了敬畏和自豪的時刻,但一些其他時刻充卻斥著一種惱人的想法,那就是這項技術讓人們發(fā)現,我們的社會并沒有準備好迎接人工智能的普及。

2019年,究竟是人工智能進步的一年,還是幻滅的一年呢?隨著研究人員攻城略地,迅速攻克以前難以企及的基準,今天,我們可不可以這樣認為,這個領域已經正在步入穩(wěn)步發(fā)展的軌道呢?

在ADSP(Applied Data Science Partners,意即“應用數據科學合作伙伴”)網站上,我們想后退一步,把2019年的人工智能界發(fā)生的事件整理好,以讓公眾能夠有個全新的視角。在聚光燈下,重要的是要將一項工作最初吸引人們的興趣,與它的實際重要性,以及它對該領域產生的影響區(qū)分開來。為此,本文將展開人工智能故事的平行線索,并試圖分離出它們的意義。多虧了我們出色的內容作家Elena Nisioti,她將這些故事講得如此精彩!

讓我們坐下來,一起回顧2019年的人工智能領域的方方面面。

處在文藝復興時期的領域

如果讓我們用一句話來描述2019年的人工智能現狀,那很可能是:“強化學習(Reinforcement Learning)回歸,看起來將永存”。

到目前為止,我們中的大多數人可能已經熟悉了監(jiān)督式學習(Supervised Learning):有些人收集了大量的訓練數據,將它們饋送到機器學習算法中,然后得到一個模型,這個模型可以為我們進行預測和分類。我們中的一些人甚至可能有這樣的印象:即,人工智能就是監(jiān)督式學習的同義詞。然而,監(jiān)督式學習只不過是我們今天擁有的眾多類型的機器學習中的一種罷了。

在強化學習(Reinforcement Learning,RL)中,智能體用試錯的方法,通過與環(huán)境進行交互來學習,這種環(huán)境會給它們的行為提供獎勵回報。當涉及到多個智能體時,它們被稱為多智能體強化學習系統(tǒng)(Multi-agent Reinforcement Learning System)。

這個領域已經存在幾十年,從概念上來講,它聽起來比監(jiān)督式學習更像是一種合理的創(chuàng)造智能的學習機制。然而,直到2015年,DeepMind才獲得了人們的關注,當時DeepMind使用深度Q學習(Deep Q-learning)創(chuàng)建了Atari(雅達利)游戲的智能體,這是一種結合了經典強化學習算法和深度神經網絡的算法。2018年,OpenAI也通過解決Montezuma’s Revenge(一款被認為難度特別高的Atari游戲),從而在這一領域確立了自己的地位。

在過去的幾個月里,事態(tài)升級了:

這些工作重新喚起了學術界對強化學習的信念,在過去,人們曾經認為強化學習效率低下,過于簡單,無法解決復雜的問題,甚至連游戲的問題也不能解決。

今年,另一個大受歡迎的應用是自然語言處理(Natural Language Processing,NLP)。盡管研究人員在這一領域工作了幾十年,但近些年的自然語言處理系統(tǒng)生成的文本聽起來還是不夠自然。自2018年底以來,人們的注意力已經從過去的詞嵌入轉移到預訓練語言模型,這是自然語言處理從計算機視覺中借鑒來的一種技術。這些模型的訓練是以非監(jiān)督的方式進行的,這使得現代系統(tǒng)能夠從互聯(lián)網上的大量文本中進行學習。因此,這些模型變得“博聞強識”,并發(fā)展出了理解上下文的能力。然后,可以通過監(jiān)督式學習進一步提高它們在特定任務上的表現。這種通過在不同任務上訓練機器學習模型來改進模型的做法,屬于遷移學習(transfer learning)的范疇,被認為具有巨大的潛力。

自去年Google BERT、ELMo和ulmfit等系統(tǒng)在2018年底推出以來,自然語言處理一直風頭正茂,但今年的聚光燈被OpenAI的GPT-2給“奪走了”,它的表現引發(fā)了人們對自然語言處理系統(tǒng)的道德使用的大討論。

實踐走向成熟

今年,人們也見證了最近一些深度學習技術走向成熟。應用監(jiān)督式學習,特別是計算機視覺技術,已經催生了現實生活中成功的產品和系統(tǒng)。

生成對抗網絡(Generative Adversarial Networks,GAN)是一對神經網絡,其中,生成器網絡試圖通過學習生成模仿訓練數據的圖像來欺騙判別器網絡,現在已經達到了近乎完美的水平。對人工智能來說,創(chuàng)造虛假但又逼真的人物和物體的圖像,已經不再是前沿領域了。從2014年生成對抗網絡的引入到2019年NVDIA開源的StyleGAN,一圖勝千言,我們用下面的圖片來說明,這可能是理解該領域進展情況的最佳方式:

2019年,人工智能創(chuàng)造的藝術品甚至脫離了過去幾年的假設性討論,成為了今天博物館裝置和拍賣的一部分。

計算機視覺還被應用于一些具有重大商業(yè)和社會意義的領域,包括自動駕駛車輛和醫(yī)學。但是,人工智能算法在這些領域中的應用自然是緩慢的,因為它們直接與人類生活直接互動。至少到目前為止,這些系統(tǒng)還不是完全自主的,它們的目的,在于支持和增強人類操作員的能力。

研究團隊正與醫(yī)院密切合作,開發(fā)用于疾病早期預測的人工智能系統(tǒng),并整理大量的健康數據檔案,其中一個值得注意的例子,是DeepMind Health和UCLH之間正在進行的合作。然而,這些工作中的大部分仍處于試驗階段,迄今為止,唯一獲得FDA批準的人工智能系統(tǒng)是SubtlePet,這是一款使用深度學習增強醫(yī)學圖像的軟件。

沉睡的巨人

AutoML是機器學習的子領域之一,自20世紀90年代以來就一直存在,在2016年引起了人們的極大興趣,但不知何故從未登上頭條新聞,至少不像其他人工智能趨勢那樣。也許這是因為它并不那么花哨的性質:AutoML的目的是通過自動化決策來使機器學習的實踐更有效,而今天數據科學家是通過手動、蠻力調優(yōu)做出的決策。

在過去三年中,我們對這一領域的理解已經發(fā)生了變化,今天,大多數大公司都提供了AutoML工具,包括Google Cloud AutoML、Microsoft Azure、Amazon Web Service和DataRobot等。今年,隨著學習進化人工智能框架(Learning Evolutionary AI Framework,LEAF)成為最先進的人工智能技術,人們的興趣轉向了“進化”(Evolutionary)方法。然而,AutoML還沒有達到可以讓一個完全自動化的人工智能系統(tǒng)比人工智能專家團隊執(zhí)行更好的成熟水平。

對人工智能的擔憂

盡管取得了壓倒性的成功,但今年人工智能領域也給我們帶來了一些令人沮喪的故事。其中主要問題之一是機器學習模型中的偏見,這一問題直到2018年才顯現出來,當時Amazon發(fā)現他們的自動招聘系統(tǒng)中存在性別偏見,而美國法院廣泛使用的判決工具COMPAS也被發(fā)現存在性別和種族的偏見。

今年案件的數量有所增加,這可能表明,公眾和機構對用于自動化決策的現有人工智能系統(tǒng)越來越懷疑。以下是圖景的一小部分:

今年10月份,某醫(yī)院的算法被發(fā)現對黑種人患者存有偏見。

去年10月,某人權組織指責用于發(fā)放英國簽證的人工智能系統(tǒng)存在種族偏見。

今年11月,Apple的信用評分系統(tǒng)被客戶指責存有性別偏見。

偏見是一個特別令人擔憂的問題,因為它位于監(jiān)督式深度學習的核心中:當有偏見的數據被用于訓練,且預測模型無法解釋時,我們不能真正判斷出是否存有偏見。迄今為止,學術界的反應一直是致力于開發(fā)技術,以了解深度模型決策背后的原因,但專家警告稱,如果我們采用正確的實踐方法,那么許多問題都可以迎刃而解。Google Cloud Model Cards是最近的一次嘗試,旨在使組織社區(qū)走向開源模式,同時明確描述其性質和局限性。

今年另一個讓人擔憂的發(fā)現是,當一項技術變得越復雜時,它被濫用的可能性就越大。Deepfake就是生成對抗網絡的陰暗面,深度學習算法被用來在純粹虛構的場景中創(chuàng)建涉及真實人物的圖片或視頻。人們不難看出,這項技術如何被用于傳播虛假新聞,從政治宣傳到欺凌。這個問題單靠科學家是無法解決的,歷史已經證明,科學家并不善于預測他們的發(fā)現對現實生活的影響,更不用說控制它們了,這需要社會各界進行廣泛的對話。

今天的人工智能有多強大?

如今,要量化人工智能的價值真的很困難。但有一點是可以肯定的:人工智能已經脫離了科幻小說和前衛(wèi)計算機科學的領域,現在,人工智能已成為社會不可分割的一部分,人們對人工智能進行了大量的投資。

今年早些時候,三名主要的深度學習研究人員獲得了圖靈獎,這是對人工智能作為計算機科學的一個領域的認可,而人們對此期待已久。

編譯/Sambodhi

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論