AI芯片之爭,你選誰?

半導體行業(yè)觀察
半導體行業(yè)觀察
從AI芯片的應用場景類別來看,主要分為云端和終端。目前,AI在云端應用的更多,相對成熟,而其在云端應用又可分為訓練和推理兩種,其中訓練的市場規(guī)模占比較高。另外,訓練需要的數(shù)據(jù)量和計算量較大,所用的處理器主要是GPU。

目前,行業(yè)為實現(xiàn)AI計算,主要采用的芯片有三種,分別是通用型的GPU,可定制的FPGA,以及專用的ASIC。專用的AI芯片應該是未來的發(fā)展趨勢,無論是在云端還是在邊緣側,隨著應用的逐漸落地,應用場景和各種專用功能會愈加清晰,市場需求也會越來越多,三者之間有何具體不同,看下文分析。

人工智能(AI)主要包括三大要素,分別是數(shù)據(jù)、算法和算力。其中數(shù)據(jù)是基礎,正是因為在實際應用當中的數(shù)據(jù)量越來越大,使得傳統(tǒng)計算方式和硬件難以滿足要求,才催生了AI應用的落地。而算法是連接軟件、數(shù)據(jù)、應用和硬件的重要橋梁,非常關鍵。算力方面,主要靠硬件實現(xiàn),也就是各種實現(xiàn)AI功能的處理器,而隨著應用和技術的發(fā)展,能實現(xiàn)各種算力、滿足不同應用的AI處理器陸續(xù)登場,經(jīng)過不同的發(fā)展階段,發(fā)揮著各自的作用。

在比較成熟的AI平臺方面,在2012年出現(xiàn)了AlexNet,一直到最近,2018年出現(xiàn)了AlphaGo Zero,在短短的6年內,算力提高了20多萬倍,這完全不同于傳統(tǒng)計算硬件(如CPU、MCU等)的演進軌跡,速度之驚人令我們難以預測。

來自OpenAI的分析顯示,近幾年,AI訓練所需的算力每3個多月就會翻倍,這比著名的摩爾定律(每18~24個月,芯片的性能翻倍)演進速度快多了。而提升算力的關鍵是芯片設計,特別是底層的架構設計,目前來看,傳統(tǒng)的芯片架構已經(jīng)難以滿足AI應用的需要。包括IC廠商和互聯(lián)網(wǎng)企業(yè)在內,越來越多的廠商開始投入研發(fā)或已經(jīng)推出AI專用芯片。根據(jù)Gartner統(tǒng)計,AI芯片在2017年的市場規(guī)模約為46億美元,而到2020年,預計將會達到148億美元,年均復合增長率為47%。而據(jù)麥肯錫預測,未來10年,人工智能和深度學習將成為提升硅片需求的主要因素,2025年,在AI的推動下,全球硅片營收將超過600億美元,接近全球半導體銷售額的20%。

三種AI芯片的對比

從AI芯片的應用場景類別來看,主要分為云端和終端。目前,AI在云端應用的更多,相對成熟,而其在云端應用又可分為訓練和推理兩種,其中訓練的市場規(guī)模占比較高。另外,訓練需要的數(shù)據(jù)量和計算量較大,所用的處理器主要是GPU。至于推理,也以GPU為主,此外,還有FPGA,以及專用的AI芯片(ASIC),其中,ASIC還不是很成熟,量產(chǎn)的產(chǎn)品也不多,因此用量有限,還處于發(fā)展初期,如果能實現(xiàn)大規(guī)模量產(chǎn),其性能和成本是最優(yōu)的,主要推進廠商是Google,其標志性產(chǎn)品就是TPU。

綜上,目前,行業(yè)為實現(xiàn)AI計算,主要采用的芯片有三種,分別是通用型的GPU,可定制的FPGA,以及專用的ASIC。

在計算層面,芯片的晶體管數(shù)量和芯片面積決定了算力,面積越大算力越強,但功耗也將隨之增加。過去幾年,在AI處理器的選擇上,可用于通用基礎計算且運算速率更快的GPU迅速成為實現(xiàn)AI計算的主流芯片,英偉達也因此占據(jù)著數(shù)據(jù)中心AI芯片的主要市場份額。

FPGA是典型的半定制化芯片,其功能可以通過編程來修改,并行計算能力很強,但是延遲和功耗遠低于GPU,而與ASIC相比,F(xiàn)PGA的一次性成本要低很多,但其量產(chǎn)成本很高。因此,在實際應用需求還未成規(guī)模,且算法需要不斷迭代、改進的情況下,利用FPGA的可重構特性來實現(xiàn)半定制的AI芯片是最佳選擇。

AI專用芯片ASIC是面向特定應用需求而定制的芯片,一旦流片,其功能無法更改,因此,必須要有量的保證,且應用需求穩(wěn)定,不會發(fā)生大的變化。專用ASIC芯片的性能高于FPGA,如果出貨量可觀,其單顆成本可做到遠低于FPGA和GPU。

目前來看,由于GPU具備強大的并行計算能力和完善的生態(tài)系統(tǒng),現(xiàn)在云端AI應用方面處于主導地位。FPGA方面,由于是半定制化的,可以通過編程來實現(xiàn)不同的功能電路,因此,其在通用性和性能之間取得了比較好的平衡,但是較高的開發(fā)門檻和量產(chǎn)成本,對其應用是個限制。

圖:在實現(xiàn)AI功能方面,GPU、FPGA和ASIC的優(yōu)缺點對比

(來源:長城證券研究所)

專用的AI芯片應該是未來的發(fā)展趨勢,無論是在云端還是在邊緣側,隨著應用的逐漸落地,應用場景和各種專用功能會愈加清晰,市場需求也會越來越多。另外,與GPU和FPGA相比,ASIC的專利壁壘要小得多,而且其設計難度也是最小的。隨著AI應用場景的落地,專用的ASIC芯片量產(chǎn)成本低、性能高、功耗低的優(yōu)勢會逐漸凸顯出來。

AI芯片案例

目前,在AI應用方面,全球數(shù)據(jù)中心用GPU市場基本被英偉達壟斷,這里用到的都是高性能GPU,其門檻很高,又是用于AI,因此,還沒有什么競爭對手。

除了GPU芯片本身之外,英偉達還有一個優(yōu)勢,那就是其在AI計算方面,有CUDA軟件生態(tài)系統(tǒng)的配合。CUDA編程工具包讓開發(fā)者可以對每一個像素輕松編程,在這之前,對程序員來說,GPU編程是一件很痛苦的事,CUDA成功將Java、C++等高級語言開放給了GPU編程,從而讓GPU編程變得簡單了許多,研究者也可以更低的成本快速開發(fā)他們的深度學習模型。以圖形處理器加速卡Tesla V100 PCIe/SXM2為例,其芯片采用臺積電的12nm制程工藝,通過與CUDA軟件和NVLink快速通道的配合,能達到近125兆次深度學習的浮點運算訓練速度,而以16bit的半精度浮點性能來看,可達到31Tera FLOPS。

FPGA方面,Altera被英特爾收購之后,賽靈思是目前的霸主,作為傳統(tǒng)的CPU廠商,英特爾近幾年正在AI領域大力布局,收購相關公司自然是一個重要手段,通過收購全面布局FPGA和ASIC,除了Altera的FPGA之外,還通過收購Mobileye和視覺處理器公司Movidius,布局無人駕駛和計算機視覺,這也是將來AI大有可為的兩個應用領域。

在收購Altera之后,英特爾的技術發(fā)展路線就出現(xiàn)了調整,例如,其原來的產(chǎn)品策略是做分立的CPU+FPGA加速器,而兩家公司整合后,由簡單的分立器件疊加改為了封裝集成,即將CPU和FPGA芯片封裝在一起,這還不算完,英特爾下一步還要將CPU和FPGA集成在同一芯片內,做成SoC。

賽靈思方面,該公司于2018年底推出了以低成本、低延遲、高能效深度神經(jīng)網(wǎng)絡(DNN)算法為基礎的Alveo加速卡,基于該公司的UltraScale架構,采用了臺積電的16nm制程工藝,目標市場就是數(shù)據(jù)中心和云端的AI推理市場。

AI專用ASIC方面,國內外已經(jīng)有多家企業(yè)投入了研發(fā),例如國內的寒武紀(正在開發(fā)NPU)、地平線(BPU系列),還有華為海思和比特大陸,也在專用AI芯片方面投入了不少資源。國外最為知名的就是谷歌的TPU了,這也是到目前為止,最為成熟的高性能AI專用芯片了。做ASIC需要對應用場景有深刻和精確到位的了解,而這方面卻是傳統(tǒng)芯片設計企業(yè)和IDM的短板,因此,目前做AI專用ASIC的,大多是系統(tǒng)產(chǎn)商,互聯(lián)網(wǎng)巨頭,或者以算法起家的公司。

在中國,比特大陸的算豐(SOPHON)BM1680和BM1682云端安防及大數(shù)據(jù)AI推理系列產(chǎn)品已經(jīng)上市,此外,還有其它幾家沒有量產(chǎn)的芯片,如華為海思的昇騰Ascend 910系列,據(jù)悉會采用臺積電的7nm制程工藝,預計會在今年年底量產(chǎn)。此外,百度的昆侖芯片(采用三星的14nm制程),以及阿里平頭哥的Ali-NPU等,也處在研發(fā)階段,距離量產(chǎn)還有一段時日。

以上談的主要是用于云端的AI芯片,包括GPU、FPGA和ASIC,這也是目前AI的主要應用領域,而在終端和邊緣側,更多的要依靠不斷成熟的ASIC,因為ASIC與應用場景有著非常緊密的關系,而這里說的應用場景,主要是在終端和邊緣側。

結語

AI發(fā)展正處于強勁的上升階段,此時,各種AI芯片實現(xiàn)方案都有其發(fā)揮的空間,可以說是處于最佳時期,這也給眾多廠商占領各自擅長之應用市場提供了更多的機會。而隨著應用場景的完全落地,以及AI專用芯片的成熟和大規(guī)模量產(chǎn),這一發(fā)展窗口期很可能就將關閉,因此,眼下各家廠商,無論是做GPU、FPGA,還是做ASIC的,都在抓緊時間研發(fā)和拓展市場,競爭愈發(fā)激烈。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論