互聯(lián)網(wǎng)企業(yè)踏向AI芯片

鎂客網(wǎng)
事實上,隨著市場需求變化和技術迭代,一直以來軟件算法和硬件芯片雖各自發(fā)展卻也如兩股互相“博弈”的力量般糾纏不休。而當深度學習發(fā)展步入模式時,一邊是專家對創(chuàng)新衰退的憂慮,另一邊則預示著深度學習架構(gòu)的發(fā)展已經(jīng)邁入一定的成熟階段,此時將部分功能下沉到硬件端的需求則順勢衍生。

圖片來源于視覺中國

新年剛過,人工智能界先后有兩次理論上的新知公諸于世:一是圖靈獎獲得者David Patterson與John Hennessy發(fā)布論文稱計算機體系結(jié)構(gòu)的新黃金時代將到來,二是計算機視覺奠基者之一Alan Yuille公開懟了一波深度學習,他認為神經(jīng)網(wǎng)絡已進入瓶頸期,現(xiàn)在科研人員一股腦兒涌入深度學習不利于軟件算法的發(fā)展。

透過兩則消息,不難察覺到人工智能產(chǎn)業(yè)急需變革的呼聲已經(jīng)十分強烈,無論是硬件端還是軟件算法,而它確實要迎來了新的發(fā)展階段。

事實上,隨著市場需求變化和技術迭代,一直以來軟件算法和硬件芯片雖各自發(fā)展卻也如兩股互相“博弈”的力量般糾纏不休。而當深度學習發(fā)展步入模式時,一邊是專家對創(chuàng)新衰退的憂慮,另一邊則預示著深度學習架構(gòu)的發(fā)展已經(jīng)邁入一定的成熟階段,此時將部分功能下沉到硬件端的需求則順勢衍生。

互聯(lián)網(wǎng)企業(yè)踏向AI芯片

圖 |《計算機體系結(jié)構(gòu)的新黃金時代》

在《計算機體系結(jié)構(gòu)的新黃金時代》中,Patterson和Hennessy這樣寫道,“計算機體系結(jié)構(gòu)領域?qū)⒂瓉碛忠粋€黃金十年,就像20世紀80年代我們做研究那時一樣,新的架構(gòu)設計將會帶來更低的成本,更優(yōu)的能耗、安全和性能。”

如所言,在深度學習算法熱潮過后,2019年的硬件產(chǎn)業(yè)也開始了新的蠢蠢欲動,而在AI賦能應用的大背景下,它具體表現(xiàn)為推理芯片市場的崛起。

英特爾沉不住氣了,推理芯片市場開啟群雄爭霸

回到2019年年初前后這一期間,迎來了歷史轉(zhuǎn)型期的芯片市場可以說動蕩不安,一邊存儲芯片價格在漲一波跌一波的云雨之中起伏;另一邊為了滿足人工智能催生的產(chǎn)能需求,英特爾、美光等老牌IDM廠商開始大肆興建起工廠。而不同于已有的成熟市場,有一部分新興的AI芯片市場也逐漸有了蓬勃生長的態(tài)勢,產(chǎn)業(yè)化發(fā)展向好。

“苗頭”就出現(xiàn)在CES 2019上,英特爾高調(diào)宣布與Facebook合作開發(fā)一款AI推理芯片,并宣稱將于2019年下半年完成。

在曝光度極高的CES上,提前半年大肆宣傳并隆重預告這一款公眾并不熟知的推理芯片,作為x86架構(gòu)締造者,占據(jù)數(shù)據(jù)中心服務器市場90%份額的英特爾,顯然有些沉不住氣了。

無獨有偶,在研發(fā)推理芯片這件事情上,各家有能力爭一塊蛋糕的廠商也都開始摩拳擦掌,不出意外得集中在2019年前后幾個月推出自家產(chǎn)品。2018年9月,英偉達推出自己的推理預測芯片;11月,亞馬遜召開re:Invent大會,在會議上隆重發(fā)布了一款專用推理芯片AWS Inferentia,以用于自己的服務器推理任務處理;而阿里也透露了自己首款推理芯片Ali-NPU的發(fā)布時間,同F(xiàn)acebook相近,定在了2019年中。

在2019年前后巨頭們不約而同得帶起了一波“節(jié)奏”,這樣的集群效應或多或少說明了專用推理芯片系統(tǒng)市場已經(jīng)開始要“變天”。

數(shù)據(jù)統(tǒng)計顯示,到2021年,訓練市場規(guī)模將增長到82億美元,而推理市場規(guī)模將達到118億美元,超出前者近四十億美元。時間緊迫,機會轉(zhuǎn)瞬即逝,在沒有巨頭的大片“藍海”市場面前,換作誰都是要坐不住的。

一場由互聯(lián)網(wǎng)企業(yè)引發(fā)的芯片之戰(zhàn)

既知是藍海,早些年亦有許多科研院所在積極研究,巨頭們卻都到今年才遲遲動手,是為何?

Facebook公開道出了其中的緣由。

去年四月份,F(xiàn)acebook暗地里組建芯片團隊的事情被彭博社報道,稱它想擺脫對英特爾和高通的依賴,隨后成為熱議的焦點。后沒有多久,在一年一度的大會上,F(xiàn)acebook的高管大大方方承認了。

作為一家互聯(lián)網(wǎng)公司,F(xiàn)acebook坦言它的初衷不是為造芯片而造芯片,實則是深受成本成倍增加之苦但同時又尋不到更優(yōu)硬件方案,無奈使然。2018年末的大會上,對于這一點,F(xiàn)acebook高管Jason Taylor就直接毫不留情的懟了當時市面上的推理芯片:“市面上是有很多加速器芯片,但是我們發(fā)現(xiàn)他們設計的芯片在完成關鍵工作負載任務的能力上,值得考量。”

言下之意,Taylor認為很多公司在沒有弄清楚深度學習應用端需要處理的推理任務有哪些就開始造芯片,頗有亂打亂撞的嫌疑。而在深度學習算法的應用上,以精準營銷著長的Facebook似乎也更有發(fā)言權(quán)。

據(jù)公司工程師Kim Hazelwood介紹,每天Facebook的AI應用程序產(chǎn)生超過200萬億個推送,翻譯超過50億個文本,并自動刪除超過一百萬個假賬戶,在推理功能上,F(xiàn)acebook的任務計算量是其他任務的100倍。官方透露的數(shù)據(jù)顯示,2018年,F(xiàn)acebook的資本支出大約在140億美元,2019年,這個數(shù)字預計將增長到200億美元,其中很大一部分支出都在數(shù)據(jù)中心服務器上。

但苦于沒有合適替代方案,今天Facebook還不得不采用“CPU+GPU”的服務器。

和Facebook類似,最接近應用,需求也是最為強烈,因而谷歌、亞馬遜、阿里等將人工智能與互聯(lián)網(wǎng)應用融合密切的企業(yè)都不可避免的遇到了這個問題,因而也陸續(xù)開啟了自研芯片之路。

不可不知的“鼻祖”

在這組互聯(lián)網(wǎng)梯隊中,谷歌是第一位吃螃蟹的“人”,同時它用這個秘密武器助力AlphaGo戰(zhàn)勝李世石,引起轟動。而這里的秘密武器就是谷歌TPU(張量處理單元)。

其實2017年,當谷歌重磅推出TPU時,很多人都好奇作為一家成功的互聯(lián)網(wǎng)公司,谷歌怎么突然有興趣做起了芯片,還做出了這樣一款“腦洞大開”的芯片?

在后來的公開論文中,谷歌提到其實自己的軟件服務背后需要龐大的服務器網(wǎng)絡在支持,即需要難以計數(shù)的硬件服務器日夜運行。提供的數(shù)據(jù)顯示,為了支持各類大量的數(shù)據(jù)應用,谷歌當時已經(jīng)在全球四個洲建有15個倉庫般大小的數(shù)據(jù)中心。

但是隨著深度學習算法的出現(xiàn),令谷歌自己驚奇的事情發(fā)生了。在后來計算機架構(gòu)專家David Patterson和Norm Jouppi合著的論文中,他們提到這樣一個細節(jié):六年前,谷歌開始為安卓操作系統(tǒng)添加語音識別功能之后,原來相對充裕的計算能力突然間捉襟見肘,根據(jù)當時谷歌工程師的推算——如果世界上每一臺安卓手機每天都使用3分鐘的語音搜索功能,且識別率百分之百正確,即一次搜索成功,那么谷歌的數(shù)據(jù)中心的規(guī)模就起碼要翻倍。

這樣的解釋,與Facebook后提到的境況幾近相同。

意識到這樣的問題,谷歌為這樣的大規(guī)模擴張需求而背后生寒,更何況當時還只是深度學習算法應用剛剛開始的階段。因此在慎重考慮了語音識別技術的迅速發(fā)展和推理運算需求的激增等情況之后,谷歌決定開發(fā)專屬推理芯片以替代性能不足的CPU,即后來的TPU。

不過當時外界只知谷歌街景、AlphaGo等應用中用到了TPU,對于“蒙上一層面紗”的TPU到底為何物,眾說紛紜。后來直到看見谷歌公開發(fā)表的TPU論文并眼見AlphaGo的成功,眾人才意識到谷歌TPU劃時代的意義。

寒武紀陳天石毫不吝嗇得用了“濃墨重彩”一詞盛贊其對于整個產(chǎn)業(yè)發(fā)展的意義;而英偉達黃仁勛也不惜親自撰寫長文來回應谷歌TPU與自己產(chǎn)品的對比,雖然言語之中難掩對英偉達技術的偏袒,但也只有勢均力敵的對手值得“老黃”如此重視。

后來Jouppi在一篇論文中這樣評價這款芯片,“這并不意味著TPU有多復雜,它看起來更像雷達的信號處理引擎,而不是標準X86架構(gòu)。而且它與浮點單元協(xié)處理器更為神似,跟GPU倒不太一樣。”

所謂創(chuàng)新,大概如此。

一股清流,從通用出發(fā)去做專用芯片

目前主導推動推理芯片市場的以互聯(lián)網(wǎng)公司居多,除了領頭的谷歌,還有Facebook、亞馬遜等,不可忽視的還有以硬件結(jié)構(gòu)創(chuàng)新為出發(fā)點、骨骼清奇的寒武紀和尋求新增長力的英偉達。

不過,其中Facebook最有意思。

從他們在公共場合的表態(tài)來看,和谷歌、亞馬遜所處之境一樣,面對不可控的成本上漲,F(xiàn)acebook不是不著急。但不同于其他四家的芯片設計方向,即依據(jù)應用需求調(diào)試算法,隨后依次開發(fā)設計硬件,F(xiàn)acebook選擇耐著性子去做一款通用的深度學習專用芯片。按照Facebook的意思,雖然是深度學習專用芯片,但是也不可順著應用需求過于專一,因此它的做法也是非常獨特。

圖 | Facebook Glow平臺

這始于Facebook早早為自己搭建好的一款名為Facebook Glow的深度學習通用處理器。提到這款平臺,F(xiàn)acebook稱其可用于處理云端的各種深度學習加速,但又不同于TensorFlow等開源工具,它不是針對用戶設計的。

Taylor解釋說:“推理加速器的市場必將表現(xiàn)為硬件碎片化,但我們的Glow主要是幫助深度學習專家設計神經(jīng)網(wǎng)絡而不是讓大家用它來開發(fā)算法,以調(diào)試到去適應各類硬件推理加速器。我們知道碎片化時代正在到來,因為沒人知道怎樣把硬件資源組合起來最優(yōu),所以我們會讓開發(fā)者專注在上層的網(wǎng)絡圖上而不是讓他們?yōu)?lsquo;硬件’敲代碼。”

在軟件加速器上樹立好絕對的標準,而后基于此來設計芯片,F(xiàn)acebook的造芯計劃可謂宏圖。

其實對于Facebook研發(fā)芯片這件事,業(yè)內(nèi)人多用“奇葩”來形容。依據(jù)精準的上層架構(gòu)來反向“強行”設計出底層具有通用性的AI芯片,很難評價其做法是否過于執(zhí)拗和宏大,只能暗嘆它的不走尋常路,因此對于CES2019上Intel宣布的這款與Facebook聯(lián)手的芯片,還是值得期待一下。

終端市場緣何如此重要?

不難發(fā)現(xiàn),上文提到的在推理芯片市場引起軒然大波的芯片產(chǎn)品都可歸為一類:服務器芯片,即終端市場。

從技術角度來看,其實不僅僅是終端市場對推理芯片有著強需求,隨著智能應用需求的深入,手機等移動端亦有此需求,如華為麒麟平臺中用到的NPU芯片正是一款專用于解決神經(jīng)網(wǎng)絡推理計算的芯片。

但是不同于端側(cè)市場的現(xiàn)有產(chǎn)品飽和與增長力不足,因云計算快速的深入,服務器的計算任務需求呈爆發(fā)式增長,因而對硬件架構(gòu)提升的需求格外迫切。

亞馬遜James Hamilton曾結(jié)合亞馬遜所遇到的問題給出這樣的分析:一直以來,雖然專用芯片可以成十倍改善延遲、降低成本和功耗,但是通用芯片的地位卻是不可撼動的,這里面有其原因。以傳統(tǒng)服務來說,一般情況下每個用戶只會用到幾個固定的服務器,即我們的服務器是按照用戶分配的,這樣的情況下專用芯片通常是沒什么用的。

但是云改變了一切,在一個完備的云系統(tǒng)中,比較“罕見”的工作負載甚至需要連接進入數(shù)千甚至數(shù)萬個服務器里,同時運行以完成任務。這在過去是完全不可能實現(xiàn)的,因為以前即便能夠很好的分配任務給專用硬件,也不能節(jié)約成本,尤其是當一些緊急狀況出現(xiàn)時。

云的出現(xiàn)打通了硬件之間的“壁壘”,也極大程度的發(fā)揮了深度學習算法的威力,但它同時很快耗盡了眾多公司現(xiàn)有服務器芯片的計算能力。

IDC曾做過數(shù)據(jù)統(tǒng)計,2018年第二季度全球服務器市場的廠商收入同比增長43.7%達到225億美元,該季度全球服務器出貨量同比增長20.5%達到290萬臺。而其中最大的增長力就表現(xiàn)在云計算服務器上。

深度學習、推理芯片與產(chǎn)業(yè)變遷

回到推理芯片,即處理邏輯運算的芯片。其實它并不是什么新產(chǎn)物,這里不得不提英特爾的x86架構(gòu)。

所謂x86架構(gòu),通俗來講就是一種通用的“CPU+Linux”操作系統(tǒng)的架構(gòu),它伴隨著1978年英特爾推出的8086處理器出現(xiàn),具體指的是英特爾開發(fā)的一套通用的計算機指令集合。目前市面上所有主流的服務器都是基于Intel x86架構(gòu)的CPU公版二次開發(fā)而來。

采用Intel的x86架構(gòu)來處理服務器大量的計算任務,有人說是考慮CPU通過馮諾依曼架構(gòu)可以為數(shù)百萬的不同應用加載任何軟件的靈活性優(yōu)勢,有人認為英特爾x86架構(gòu)的向后兼容性讓用戶只要換個CPU就能獲得性能提升的優(yōu)勢主導使然??偠灾?,不同于訓練模式的單一,深度學習推理任務的復雜讓產(chǎn)業(yè)界綜合考慮成本、技術成熟度等因素而最終選擇了CPU芯片+x86指令集的系統(tǒng)架構(gòu)。

但眾所周知的是,古老的x86架構(gòu)雖經(jīng)過了幾十年的技術迭代,受系統(tǒng)架構(gòu)本身的訪問限制(又稱馮諾依曼瓶頸),其總體的吞吐量和能耗都限制了它在大量計算任務上的表現(xiàn)能力,尤其是當深度學習算法出現(xiàn)后,這一弊端愈加被凸顯。

深度學習算法之所以如此重要,主要原因在于它剛剛誕生不久就能夠迅速適應幾乎所有的應用需求,歷史上很少有一項技術有如此的影響力,因此其特殊屬性催生了對大量數(shù)據(jù)進行處理和分析的需求。對于這一算法帶來的影響,黃仁勛一句話點出其中奧妙:深度學習是一種新的計算方法,所以整個產(chǎn)業(yè)需要發(fā)展出一種新的計算體系結(jié)構(gòu)。

因而在深度學習的兩大功能——訓練和推理的模式推動下,Caffe、Tensorflow等軟件架構(gòu)工具迅速發(fā)展,芯片巨頭也爭相以此為起點開發(fā)新的芯片。英偉達借助GPU與訓練功能的天生匹配登上了市場龍頭的寶座,但他們發(fā)現(xiàn)要實現(xiàn)訓練之后的推理功能,即對圖像的識別、語義的關聯(lián)處理等,GPU卻是不適合的。

沒有合適“人選”,推理市場因此空出霸主之位。退而求其次,CPU+GPU發(fā)展成了服務器市場中主流的架構(gòu)解決方案,但終究不是長久之計。對此,大家心知肚明。

最后

在這一波巨頭帶動的小高潮背后,無疑預示著產(chǎn)業(yè)發(fā)展中推理任務處理需求積聚到了一個新的高點。

箭在弦上,不得不發(fā)。但最終誰將勝出,還只能靜候各廠家接下來的芯片產(chǎn)品。

正如Patterson與Hennessy在《計算機體系結(jié)構(gòu)的新黃金時代》里所言,“在摩爾定律走向終點的同時,體系結(jié)構(gòu)正在閃耀新的活力——以TPU為代表的領域特定架構(gòu) (Domain Specific Architectures, DSA) 興起,但CPU、GPU、FPGA仍然有用武之地,最終,市場會選出勝者。”

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論