2024年,人工智能芯片展望

對于終端人工智能來說,智能汽車場景中由于對于延遲有著較強的需求,因此新技術(shù)有比較多的機會能產(chǎn)生影響。在云端,以GPU為代表的加速芯片都是主要基于優(yōu)化吞吐量的考慮,而不是延遲,因此在智能車領(lǐng)域必須有新的架構(gòu)設計。對于車載應用來說,數(shù)據(jù)都是以數(shù)據(jù)流的形式(而不是批量的形式)進入處理器,因此人工智能芯片必須能高速低延遲處理這些數(shù)據(jù)流。

本文來自半導體行業(yè)觀察,作者/ 李飛。

2023年,隨著以大語言模型為代表的人工智能市場持續(xù)火爆,我們看到了人工智能成為了半導體行業(yè)的最大推動力,也見證了Nvidia驚人的銷售業(yè)績以及其市值創(chuàng)下新高。隨著新年的到來,我們也對2024年人工智能芯片做一個展望。

市場需求:人工智能仍將繼續(xù)火熱

從市場需求側(cè)來看,我們認為人工智能在2024年仍然將繼續(xù)火熱,這也將繼續(xù)推動相關(guān)的芯片行業(yè)保持良好的態(tài)勢。然而,與2023年不同的是,我們認為在2024年,人工智能市場的需求會同時從云端慢慢擴展到終端,這也將驅(qū)動相應的芯片市場發(fā)展。

首先,從云端需求來看,大語言模型仍然將是主要的增長點。同時,圖像生成類模型也會保持快速增長的勢頭。具體來說,大語言模型仍然是各大科技公司競相研發(fā)的核心技術(shù),包括OpenAI,微軟,谷歌,華為,阿里巴巴,百度等中外科技公司都在大力研發(fā)下一代的大語言模型,而包括中國移動等傳統(tǒng)行業(yè)的公司也在入局大語言模型領(lǐng)域,同時還有大量的初創(chuàng)公司在依靠風險投資的支持也在大力開發(fā)大語言模型。大語言模型的百家爭鳴時代才剛剛開始并且遠遠沒有落下帷幕,在這樣的群雄逐鹿的時間節(jié)點,預計對于芯片的需求也會快速增長。大語言模型的特點是需要海量的數(shù)據(jù)和訓練芯片資源,而且同時由于格局尚未塵埃落定有大量的公司在研發(fā)新的模型,因此總體來說訓練芯片的需求會非常大。

而隨著云端人工智能交互進入多模態(tài)時代,聊天機器人已經(jīng)不僅僅可以用文字回答,而且還可以完成看圖說話以及圖像甚至視頻生成等任務,因此我們認為,圖像生成類的模型,以及圖像和語言結(jié)合的多模態(tài)模型也將會成為云端人工智能的一個重要增長點。

除了云端之外,我們認為終端(包括手機和智能車)也將會成為人工智能的新增長點。手機上的人工智能雖然早已不再新鮮,但是隨著生成模型的成熟,我們可望看到這類模型落地手機端并賦能新的用戶體驗。手機端生成類模型又分為兩種,一種是圖像生成類模型,即以擴散模型(diffusion model)為代表的模型,這類模型可以實現(xiàn)高質(zhì)量超分辨以及高質(zhì)量修圖,從而可望給用戶的拍照和照片編輯帶來革命性的變化。另一類應用是語言模型——與運行在云端的大語言模型(LLM)相對地,過去幾個月我們看到了小語言模型(SLM)的興起。小語言模型和大語言模型一樣,都是主要用于語言的理解和生成(或者說,與人對話);小語言模型在參數(shù)量變少之后,可以更靈活地應用在一些專用的場景中(而不是像大語言模型一樣試圖覆蓋所有場景)并且提供很高的準確性,同時還有可能運行在終端設備中。

從智能車領(lǐng)域,一方面隨著端到端多任務大模型帶來的革命性性能提升(例如BEVFormer帶來的俯瞰場景識別性能提升,以及商湯在2023發(fā)布的UniAD帶來的多任務性能大幅提升)會推動這類模型進一步落地并且推動芯片的需求,另一方面則是來自于語言模型人機交互這類源自于云端的人工智能應用遷移到智能車場景。

因此,我們預測,2024年將會是人工智能持續(xù)火熱的一年,與2023年不同的是除了云端人工智能保持熱門之外,我們預計終端應用場景也會成為新的人工智能需求增長點。

云端市場格局分析

云端人工智能芯片市場,我們預計Nvidia仍然將保持領(lǐng)跑地位,但是AMD等競爭者預計也將獲得更多市場份額。

首先,如前所述,云端市場目前主要的需求在于大語言模型和生成式圖像的訓練和推理。由于這些模型對于計算資源需求非常大,而且訓練任務占的比例很大,因此給相應的芯片設了一個很高的門檻。這里的門檻包括了:

-芯片算力:為了支持巨大的計算量,芯片需要有足夠的計算單元,內(nèi)存容量和帶寬

-分布式計算支持:對于大模型來說分布式計算是必須的

-軟件兼容性和生態(tài):對于訓練來說,對于模型進行反復快速迭代是一個很強的需求,因此必須有足夠好的生態(tài)來支持不同的模型算符快速迭代

目前而言,Nvidia在這一個領(lǐng)域仍然是領(lǐng)先,無論是其芯片和分布式計算性能,還是軟件生態(tài)兼容性來說,都是首選。這也是為什么2023年Nvidia的H100成為了人工智能相關(guān)公司最寶貴的資源,在市場上供不應求。在2024 H2,Nvidia將會開始出貨H200,相對于H100來說,H200擁有40%和內(nèi)存帶寬提升以及80%的內(nèi)存容量提升,因此可望會被人工智能公司爭相購買。

640.png

在2024年,我們預計AMD在云端人工智能領(lǐng)域也將更加站穩(wěn)腳跟,并由此開始慢慢走向更大的市場份額。2023下半年,AMD發(fā)布了最新的MI300X用于高性能計算的GPU模組,該芯片包含大芯片粒(12個處理器/IO芯片粒),并且相比于H200來說,擁有更高(1.6倍)的FP8算力,以及更大的內(nèi)存容量和帶寬(1.2倍)。從AMD公布的實測數(shù)據(jù)來看,MI300X的推理能力大約比H100強20%-40%,訓練性能則和H100持平。我們認為,軟件生態(tài)(包括編譯器性能)將成為決定AMD在云端人工智能市場能否成功的決定性因素,而這一點預計在2024年將會有所改善:OpenAI將在最新發(fā)布的Triton框架中加入對于AMD MI300X的支持,而各大初創(chuàng)公司的人工智能加速軟件框架也在加強對于AMD GPU的支持。隨著芯片性能和軟件生態(tài)的提升,以及各大科技公司對于Nvidia GPU一家獨大地位的擔憂態(tài)度,我們預計2024年對于AMD的GPU在人工智能市場將會是重要的一年,預計將會看到更多客戶的應用。

640 (1).png

從供應鏈角度,由于云端人工智能芯片對于HBM3等高帶寬內(nèi)存有著強力的需求,我們認為HBM內(nèi)存以及高級封裝(如CoWoS)的產(chǎn)能仍然將會火熱,這也將推動相應半導體企業(yè)擴大產(chǎn)能,以及積極研發(fā)下一代內(nèi)存和高級封裝技術(shù)。從這個角度看,人工智能應用仍然將會是推動半導體新技術(shù)高速發(fā)展的核心動力。

終端市場格局分析

除了云端市場外,我們預計人工智能對于終端市場也有更強的需求,這也將推動人工智能成為終端計算芯片中越來越重要的差異化元素。

在手機端,人工智能的使用頻率將會進一步增強,這也會推動芯片加入更多相應的算力,并且將人工智能支持作為SoC的核心亮點。例如高通發(fā)布的Snapdragon 8 Gen 3就以“低于一秒的延遲實現(xiàn)圖像生成任務”作為一個重要賣點,估計這樣的人工智能能力將會深度集成到手機廠商的操作系統(tǒng)中。除了高通這樣的第三方芯片公司之外,自研手機芯片的系統(tǒng)廠商預計也會繼續(xù)加碼人工智能;蘋果雖然在這方面保持低調(diào),但是預計在未來會以各種方式(加大NPU算力,或者是加大軟件支持)的方法來開始賦能更多人工智能在iPhone上的新拍攝用戶體驗。vivo在自研ISP芯片領(lǐng)域已經(jīng)有了數(shù)年積累,而目前生成式人工智能對于拍攝體驗的提升恰好和ISP有很強的協(xié)同作用,這也是2023年8月vivo發(fā)布的v3 ISP芯片強調(diào)了生成式人工智能作為一個核心亮點。未來,預計會看到越來越多這樣的芯片強調(diào)人工智能對于用戶體驗上的賦能作用。

在智能汽車領(lǐng)域,Nvidia雖然不如在云端強勢,但是其Orin系列芯片仍然是各大車廠考慮的標準芯片模組。我們認為,隨著人工智能大模型對于智能駕駛的賦能作用逐漸加強,無論是第三方芯片還是車廠自研的芯片都將會進一步強化對于人工智能算力的投入,同時也推動芯片性能的快速提升——最近,無論是蔚來發(fā)布新自研芯片的算力規(guī)格,還是特斯拉傳出將使用TSMC 3nm作為下一代芯片的生產(chǎn)工藝,都在提示著我們2024年人工智能將在智能車芯片領(lǐng)域扮演越來越重要的角色。

哪些新技術(shù)值得關(guān)注?

除了以上討論的芯片之外,有哪些新技術(shù)可望會為人工智能芯片領(lǐng)域帶來新的變化?

首先,存內(nèi)計算和近內(nèi)存計算/處理技術(shù)可望會得到越來越多的關(guān)注。對于云端人工智能來說,內(nèi)存訪問開銷一直是一個性能瓶頸,而隨著大模型的參數(shù)量越來越大,內(nèi)存訪問帶來的開銷也越來越大。存內(nèi)計算和近內(nèi)存計算/處理技術(shù)的主要目的就是為了降低這樣的開銷,讓一些計算和處理任務能夠在內(nèi)存中就完成。在這個領(lǐng)域,三星的PIM(process in memory)和PNM(process near memory)技術(shù)非常值得我們關(guān)注,而這些技術(shù)也可望會成為三星未來進一步提高自身存儲器技術(shù)差異化競爭力的關(guān)鍵。

對于終端人工智能來說,智能汽車場景中由于對于延遲有著較強的需求,因此新技術(shù)有比較多的機會能產(chǎn)生影響。在云端,以GPU為代表的加速芯片都是主要基于優(yōu)化吞吐量的考慮,而不是延遲,因此在智能車領(lǐng)域必須有新的架構(gòu)設計。對于車載應用來說,數(shù)據(jù)都是以數(shù)據(jù)流的形式(而不是批量的形式)進入處理器,因此人工智能芯片必須能高速低延遲處理這些數(shù)據(jù)流。另一方面,大模型正在進入智能車應用,因此如何在低延遲的情況下支持大模型推理,將會是智能車芯片中新技術(shù)需要重點突破的方向。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論