【獵云網(wǎng)(微信號:ilieyun)】4月17日報道 (編譯:蔡妙嫻)
編者注:本文作者Will Knight是麻省理工學院技術評論的高級編輯。主要涉及機器智能、機器人和自動化領域,也感興趣于大多數(shù)方面的電子計算。
去年,一輛自動駕駛汽車駛?cè)胄聺晌髦菝擅┧箍h。這輛實驗汽車出自芯片制造商英偉達之手,從外觀看,它和谷歌、特斯拉或通用的其他自動駕駛汽車并沒有多大差別。
但它的內(nèi)在可大不一樣。這輛車不需要工程師或編程人員的任何指令;相反,它依賴一套算法,通過觀看人類司機來自學如何開車。
能讓一輛汽車做到這個程度,確實是非常大的進步。
但與此同時,這也讓人心有不安,誰知道這車到底是怎樣做決定的呢。根據(jù)駕駛程序,這輛車的傳感器所收集的信息會直接進入一個巨大的人工神經(jīng)網(wǎng)絡,進行處理數(shù)據(jù),然后發(fā)送指令,是轉(zhuǎn)動方向盤啦,還是剎車啦,還是其他動作等等??瓷先ィ@輛車能夠模仿人類司機的應對措施。
但是,如果有一天,它做了讓人意想不到的事情——比方說撞樹了,或者停在綠燈前面不走了——這怎么辦?按照目前的情況,我們可能不太能輕易找出背后的原因。這套系統(tǒng)實在復雜,哪怕是開發(fā)它的工程師都很難獨立出每個動作背后的原因。而且你也沒法讓工程師設計一個能解釋所有動作的系統(tǒng)。
汽車“神秘”的思維模式,也就是人工智能技術的一大潛在問題。英偉達汽車所使用的人工智能技術,也叫做深度學習。近幾年,這一技術在解決問題上顯示出了強大的能力,而在圖像捕捉、語音識別和翻譯等方面,人工智能已經(jīng)被廣泛使用?,F(xiàn)在有人開始想象用人工智能來診斷致命疾病、進行商業(yè)決策等。
但是,這樣的事情是不會發(fā)生的——或者說不應當發(fā)生,除非我們找到某些方式,讓技術開發(fā)人員能夠進一步理解人工智能的思維,同時也為用戶負責。如果貿(mào)然普及這一技術,我們將無法預測什么時候發(fā)生災難——而且,這是一定會發(fā)生的。這也是英偉達汽車至今仍在實驗階段的原因。
很早之前我們就開始用數(shù)學模型來幫助決策,比方說誰能申請到假釋,誰能獲得貸款,誰能得到某份工作。如果你能接觸到這些數(shù)學模型,那你或許能理解它們的決策模式。但現(xiàn)在,銀行、軍隊、雇主等開始尋求更為復雜的機器學習方法,好實現(xiàn)整個決策過程的自動化。
深度學習是決策方式中最常見的技術,代表著與從前完全不同的計算機編程方式。致力于研究機器學習技術應用的麻省理工教授Tommi Jaakkola說:“這個問題現(xiàn)在已經(jīng)與我們息息相關,未來還會更加普遍。不管是做投資決定、疾病診斷決定,還是軍事決定,你都不希望完全依賴一個黑箱模型吧。”
對于質(zhì)詢?nèi)斯ぶ悄芟到y(tǒng)的決策原因是否應立為一項法律,這個問題已經(jīng)引起廣泛討論。從2018年夏天開始,歐盟或許會要求各個公司對自動系統(tǒng)的決策作出解釋。但是,這一規(guī)定或許根本沒法實現(xiàn),即便是看起來相對簡單的系統(tǒng)——比方說使用深度學習來投放廣告或推薦歌曲的應用和網(wǎng)站。提供這些服務的計算機已經(jīng)自己重新編程,而它們的編程方式我們沒辦法理解。哪怕是開發(fā)這些應用的工程師,也無法全面解釋它們的行為。
這就引起了反對者的質(zhì)疑。沒錯,我們?nèi)祟愐膊豢偰芙忉屪约旱乃季S過程,但是我們能根據(jù)直覺信任他人,評估他人。而面對一個思維和決策過程與人類完全不同的機器,直覺還能奏效嗎?
我們從未發(fā)明過連開發(fā)人員自己都不能理解的機器,那我們?nèi)绾芜€能期待和這些不可預測的機器溝通和友好相處呢?
帶著這些問題,我踏上了尋找答案的旅程。從谷歌到蘋果,我走遍了那些開發(fā)人工智能算法的公司,甚至還和當代最知名的哲學家們進行了一次交談。
2015年,紐約西奈山醫(yī)院的一組研究人員受到啟發(fā),開始用深度學習技術來分析醫(yī)院里的大量病歷數(shù)據(jù)。這些數(shù)據(jù)可分為上百項,包括病人的檢測結果、看診記錄等等。研究人員將這一分析系統(tǒng)命名為Deep Patient,開發(fā)完成后,他們用70萬份病患數(shù)據(jù)對其進行了訓練。結果證明,在測試新數(shù)據(jù)時,Deep Patient顯示出了超高的疾病預測率。在沒有專家指導的情況下,Deep Patient發(fā)現(xiàn)了醫(yī)院數(shù)據(jù)中隱藏的模型,而這些模型預示著對方是否將患上某些疾病。當然,在根據(jù)病歷預測疾病方面,還有很多其他方法,但西奈山醫(yī)院研究團隊的主管Joel Dudley說,“這種辦法更好?!?/span>
但與此同時,Deep Patient也讓醫(yī)生們有些摸不著頭腦。舉個例子,Deep Patient非常擅長預測精神疾病,比方說精神分裂癥。從醫(yī)的人都知道,精神分裂癥對于人類醫(yī)生來說是極難診斷的,Dudley搞不清Deep Patient是怎樣識別出來的。直到今天他也不知道。
如果諸如Deep Patient這樣的系統(tǒng)真的要幫助醫(yī)生,那它最好提供預測的基本理論,否則如何讓人相信它的準確性。“我們可以創(chuàng)建這些模型,”Dudley苦笑著說,“卻不知道它們是怎樣運作的?!?/span>
人工智能并非生來如此。對于人工智能應當如何理解和解釋,主要存在兩大派別。
許多人認為應當根據(jù)一定的規(guī)則和邏輯來制造機器,使其內(nèi)部運作公開透明,方便所有想要檢驗某些代碼的人。也有人認為,智能只有借助生物靈感——也就是觀察、體驗人類活動,才能更順利地發(fā)展。這也就意味著,我們要把計算機編程的任務交給機器本身。
現(xiàn)在的機器學習是這樣的:編程人員編寫指令來解決某個問題,程序根據(jù)樣本數(shù)據(jù)和預期目標來生成自己的算法。之后,機器學習技術會沿著后一條道路——也就是自己編寫程序——來升級為當今最強大的人工智能系統(tǒng)。
最初,上述模式的實際用例非常有限。上世紀60和70年代,機器學習技術大多數(shù)還在行業(yè)邊緣徘徊。但很快,許多行業(yè)開始計算化,大數(shù)據(jù)催生了新的興趣點,更強大的機器學習技術隨之誕生,尤其是人工神經(jīng)網(wǎng)絡。到90年代,神經(jīng)網(wǎng)絡已經(jīng)可以實現(xiàn)手寫字符的數(shù)字化。
不過,人工智能真正的崛起時期,還要數(shù)過去10年。在幾次開發(fā)方式轉(zhuǎn)變和改良之后,超大型——或者說“深度”——神經(jīng)網(wǎng)絡在自動感知方面顯示出了卓越進步。深度學習也就是今天人工智能爆發(fā)的基礎,它賦予了計算機無窮的能力,比方說幾近人類級別的語音識別功能。由于語音識別系統(tǒng)太過復雜,此前編程人員遲遲無法開發(fā)成功。而如今,這一系統(tǒng)已經(jīng)在醫(yī)藥、金融、制造等多個行業(yè)得到運用。
即使是對計算機科學家來說,機器學習技術的運作也是晦澀不明的,遠不如人工編程易于理解。但這并不意味著未來所有的人工智能技術都是不可知的,只是從本質(zhì)上來說,深度學習就好比一個看不見內(nèi)部的黑盒子。
你無法直接探到神經(jīng)網(wǎng)絡內(nèi)部,觀察它是如何運作的。神經(jīng)網(wǎng)絡的推理基于數(shù)千個模擬神經(jīng)元,分布于數(shù)十個或數(shù)百個復雜的互聯(lián)層上。第一層的每個神經(jīng)元負責接收數(shù)據(jù)輸入,比如圖片的像素強度,之后這些神經(jīng)元會對數(shù)據(jù)進行計算,生成新的信號發(fā)送到下一層,逐次類推,直到得到最后的結果。此外,反向傳播能夠保證該神經(jīng)網(wǎng)絡生成期望結果。
深度網(wǎng)絡的多層結構也讓其能夠從多個抽象層次識別物體。舉例來說,在一個設計來識別小狗的系統(tǒng)中,低層神經(jīng)元負責識別線條或顏色等簡單目標,高層神經(jīng)元負責識別毛發(fā)或眼睛等負責目標,而在最頂端的神經(jīng)元則能認出這是一只狗。粗略地說,這種方法也能用于機器的自我學習,比如識別語言中的發(fā)音,文本中的字母、單詞或駕駛中轉(zhuǎn)動方向盤的動作。
幾年以前,研究人員開始設計一些策略,試圖了解這些系統(tǒng)內(nèi)部都發(fā)生了什么。2015年,谷歌研究人員對一套以深度學習為基礎的圖像識別算法進行了修改,把物體識別功能變成了生成或修改功能。只要反向運行這一算法,他們就能知道這些程序是如何識別小鳥、大樓等物體的。很快,這項代號為Deep Dream的反向研究項目結果出爐,程序根據(jù)云朵和植物,繪制了一群荒誕恐怖、形似外星人的動物圖片,在森林和山谷之間,還有在幻覺中才會出現(xiàn)的寶塔。
Deep Dream繪制的圖片證明,深度學習或許不是完全不可理解的。雖然它們可以識別出鳥嘴、語言等熟悉的視覺特征,但和人類的認知能力相比還是有很大差距的。比如我們都知道忽略圖片中的人工制品,但深度學習網(wǎng)絡不懂這些。谷歌研究人員指出,當算法準備繪制一幅啞鈴圖片時,它會自動加上人的手臂,因為系統(tǒng)認為手臂是啞鈴的一部分。
針對上述問題,科學家已經(jīng)借用神經(jīng)科學和認知科學的知識,進行了進一步改良。比方說懷俄明大學助理教授Jeff Clune帶領了一支團隊,用和上述圖片類似的幻覺圖像對深度神經(jīng)網(wǎng)絡進行了測試。2015年,Clune團隊研究證明,某些圖片會欺騙這一系統(tǒng),讓其識別出根本不存在的物體。這是因為這些圖片抓住了系統(tǒng)搜索的模式特點。
我們需要的,不是一孔之見,而是對人工智能思維模式的全面探索,但這并不容易。深度神經(jīng)網(wǎng)絡計算的相互作用對高層模式識別和決策至關重要,但這些計算結果背后,是大量的數(shù)學函數(shù)和變量?!叭绻愕纳窠?jīng)網(wǎng)絡規(guī)模很小,那你可能還能理解它的運作?!盝aakkola說,“但是一旦規(guī)模擴大到上百層,每一層有上千個神經(jīng)元單位時,你就很難理解了?!?/span>
在Jaakkola隔壁辦公室的,是麻省理工教授Regina Barzilay,她決心要把機器學習技術運用到醫(yī)藥行業(yè)。43歲那年,Barzilay被診斷出乳腺癌,讓她大為震驚。然而更讓她驚愕的是,最前沿的統(tǒng)計和機器學習法居然沒有運用到致癌研究或病患治療上。Barzilay說,人工智能有巨大的潛力革新醫(yī)藥行業(yè),但想要挖掘出這些潛力,必然得在病歷分析的基礎上再進一步。Barzilay希望將來能用上更多原始數(shù)據(jù),比方說圖像數(shù)據(jù)、病理學數(shù)據(jù)等等。
去年,在結束癌癥治療后,Barzilay開始帶領學生,和馬薩諸塞綜合醫(yī)院的醫(yī)生共同研發(fā)一套系統(tǒng),用于分析病理學報告,找出研究人員想要研究的特殊的臨床特征。但是,Barzilay知道,這套系統(tǒng)是沒法解釋自己的推理過程的。于是,她和Kaakkola以及一名學生一起,給系統(tǒng)增加了一個步驟:選取、標注文本中代表某種病理模式的段落。與此同時,Barzilay還在和學生編寫深度學習算法,試圖在乳房X光照片中找到乳腺癌的早期癥狀,并呈現(xiàn)出分析結果背后的原因。
正如人類行為不能完全得到解釋一樣,人工智能或許也不知道自己為什么做這個決定。Clune說:“即使某個人言辭鑿鑿地告訴你他某個行為背后的原因,這個原因很可能也是片面的,人工智能同樣適用這個道理。它可能有自己的直覺、潛意識,或者就是神神秘秘的?!?/span>
如果真的是這樣,那么到將來某個時期,我們可能只能選擇相信人工智能的判斷,要么就徹底不用它。同樣,人工智能的判斷還要結合社會智能。人類社會建立在預期行為契約之上,我們需要人工智能系統(tǒng)尊重社會規(guī)范,融入社會規(guī)范。如果我們打算制造機器人坦克和其他殺人機器,那么它們的決策過程必須符合道德判斷的標準。
對此,塔夫茨大學著名哲學家和認知科學家Daniel Denneyy說:“問題是,我們應當采納什么樣的標準來要求人工智能系統(tǒng)?或者說我們自己?如果人工智能系統(tǒng)在解釋自身行為上不如人類,那就不要信任它們了?!?/span>