本文來自微信公眾號(hào)“半導(dǎo)體產(chǎn)業(yè)縱橫”,作者/九林。
最近,英特爾財(cái)務(wù)長DavidZinsner表示,雖然數(shù)據(jù)中心芯片需求在過去兩季有所好轉(zhuǎn),但庫存消化將比電腦芯片更長,可能還要過幾季才能達(dá)到較佳的狀態(tài)。在這個(gè)AI被炒的火熱的時(shí)代,當(dāng)英特爾說數(shù)據(jù)中心芯片的庫存正在積壓,出乎很多人的意料。
01
前所未有的壓力
PC產(chǎn)業(yè)正同時(shí)經(jīng)歷“加速運(yùn)算”和“生成式AI”兩大轉(zhuǎn)變。據(jù)Gartner最新報(bào)告,2023年全球用于AI的硬件銷售收入預(yù)計(jì)將達(dá)到534億美元,按年增長20.9%,這一銷售還將在2024年進(jìn)一步增長到671億美元,在2027年進(jìn)一步增長到1194億美元。
今年,不少互聯(lián)網(wǎng)公司紛紛開發(fā)自己的大模型。3月,百度制作了類似ChatGPT的項(xiàng)目ErnieBot;4月,騰訊云發(fā)布了新的服務(wù)器集群,該集群可供其他人租用計(jì)算能力;阿里巴巴計(jì)劃將所有產(chǎn)品插入大型語言模型,包括在線購物平臺(tái)淘寶和地圖工具高德地圖。
據(jù)報(bào)道,目前百度、騰訊、阿里巴巴和字節(jié)跳動(dòng)四家公司合計(jì)向英偉達(dá)訂購了價(jià)值50億美元的AI芯片。這些芯片包括英偉達(dá)2023年發(fā)貨的10萬塊A800芯片,價(jià)值10億美元,另外價(jià)值40億美元的芯片將在2024年交付。
數(shù)據(jù)中心芯片風(fēng)光一時(shí)無兩。目前,數(shù)據(jù)中心領(lǐng)域有三大巨頭:英特爾、英偉達(dá)、AMD。在數(shù)據(jù)中心CPU方面,根據(jù)Counterpoint數(shù)據(jù),2022年英特爾以71%的份額保持?jǐn)?shù)據(jù)中心市場(chǎng)的領(lǐng)先地位,AMD以20%的市場(chǎng)份額位居第二。
在數(shù)據(jù)中心GPU方面,英偉達(dá)不僅占有一席之地,甚至可以說幾乎“壟斷”。英偉達(dá)數(shù)據(jù)中心產(chǎn)品的客戶主要來自云服務(wù)商和大型互聯(lián)網(wǎng)公司,它們貢獻(xiàn)了英偉達(dá)大約一半的數(shù)據(jù)中心收入。英偉達(dá)的GPU用于ChatGPT等人工智能應(yīng)用程序背后大模型的訓(xùn)練和推理,目前科技公司對(duì)英偉達(dá)最高端的人工智能芯片H100的需求極大。
從今年的業(yè)績來看,英偉達(dá)是毋庸置疑的收入暴漲,尤其是在數(shù)據(jù)中心領(lǐng)域,在英偉達(dá)公布的截至7月30日的季度財(cái)報(bào)中,英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)收入增長141%至103億美元,占其總收入比超過76%。按照這種趨勢(shì),有分析師估計(jì),到2025財(cái)年,英偉達(dá)的數(shù)據(jù)中心部門收入將擴(kuò)大到400億美元。
英偉達(dá)如此強(qiáng)勢(shì),其他兩大巨頭自然頗受影響。
AMD對(duì)數(shù)據(jù)中心同時(shí)供應(yīng)CPU、GPU、FPGA、DPU和SoC,二季度AMD的數(shù)據(jù)中心業(yè)務(wù)下滑了。根據(jù)其財(cái)報(bào)數(shù)據(jù),AMD數(shù)據(jù)中心營收為13.21億美元,同比下滑11%。AMD坦言,報(bào)告期內(nèi)的Epyc處理器銷售沒有預(yù)期那么好,而且加大的研發(fā)支出也攤薄了利潤率。
從二季度的業(yè)績來看,英特爾數(shù)據(jù)中心和人工智能業(yè)務(wù)銷售額從去年同期的47億美元下降15%至40億美元。英特爾首席執(zhí)行官帕特·基辛格表示,服務(wù)器CPU的庫存過剩將持續(xù)到今年下半年,數(shù)據(jù)中心芯片銷售將在第三季度小幅下降,在第四季度恢復(fù)。
對(duì)于英特爾抱怨數(shù)據(jù)中心芯片庫存積壓,分析師陸行之表示:“庫存難消耗有兩種原因,一是產(chǎn)能利用率維持高檔不墜、超過穩(wěn)定需求,二是需求下降速度快過產(chǎn)能利用率下降速度。”他認(rèn)為,英特爾在數(shù)據(jù)中心早已喪失話語權(quán)。依據(jù)預(yù)算的排擠效應(yīng),每買一臺(tái)AI服務(wù)器,就少買幾臺(tái)通用服務(wù)器,即使功用不盡相同,但這趨勢(shì)應(yīng)該會(huì)持續(xù)數(shù)個(gè)季度,甚至數(shù)年。
一臺(tái)AI服務(wù)器價(jià)格比通用服務(wù)器貴20倍以上,也因此客戶無法大幅加碼服務(wù)器采購預(yù)算,只能少買數(shù)臺(tái)通用服務(wù)器。如果一臺(tái)AI服務(wù)器使用兩顆英特爾的CPU,假設(shè)少買三臺(tái),那就少了6顆比較便宜的CPU需求,也就是為什么英特爾的CPU庫存被積壓。
實(shí)際上,不止陸行之認(rèn)為英特爾在數(shù)據(jù)中心早已喪失話語權(quán)。Global X分析師Tejas Dessai也認(rèn)為,英特爾等對(duì)于AI著墨不深的傳統(tǒng)芯片企業(yè),恐面臨市占率下滑窘境。也有業(yè)內(nèi)人士表示,生成式AI改變了數(shù)據(jù)中心平臺(tái)的戰(zhàn)局,英特爾、AMD正面臨前所未有的壓力。
02
CPU開始淪為配角
今年的市場(chǎng)中,通用服務(wù)器和AI服務(wù)器需求出現(xiàn)了兩極分化。
AI服務(wù)器和通用服務(wù)器的差異是什么?實(shí)際上,比起通用服務(wù)器以CPU為主要算力,AI服務(wù)器則是以GPU為主要架構(gòu),通過異質(zhì)運(yùn)算架構(gòu)提高運(yùn)算能力。目前依據(jù)應(yīng)用的類型,AI服務(wù)器可以分為訓(xùn)練和推理兩種。
從前電腦、服務(wù)器最重要的零組件是CPU,但隨著需要大量運(yùn)算能力的AI應(yīng)用出現(xiàn)后,CPU開始淪為配角,GPU的時(shí)代開啟了。
從目前AI服務(wù)器的市場(chǎng)來看,一張主板需要1~8個(gè)GPU、1~2個(gè)CPU,以及1個(gè)Arm Grace CPU,其中英偉達(dá)的GPU市場(chǎng)占有率超過8成,并以運(yùn)算效能達(dá)5 PetaFLOPS的DGX A100和H100為AI服務(wù)器運(yùn)算主力。
即使英偉達(dá)的GPU價(jià)格高昂,但是效率是遠(yuǎn)高于其他產(chǎn)品的。一起來算一筆賬,假設(shè)建置數(shù)據(jù)中心預(yù)算為1000萬美元,可以選擇建置1座搭載960顆CPU、電力消耗達(dá)11GW的數(shù)據(jù)中心,可提供1倍的大型語言模型LLM處理性能;但是選擇建置1座有48顆GPU、功耗僅需3.2GW的數(shù)據(jù)中心,且LLM資料處理量是CPU的44倍。
從綜合成本收益來看,還是占優(yōu)。更何況英偉達(dá)GPU在人工智能的推理和計(jì)算方面獨(dú)具優(yōu)勢(shì)。因此一些財(cái)務(wù)實(shí)力不雄厚甚至負(fù)債累累的初創(chuàng)企業(yè)也在搶購英偉達(dá)芯片。這也就是為什么黃仁勛之前表示:買的越多,省的越多(The more you buy,the more you save.)。
在15年前,黃仁勛就表示,CUDA運(yùn)算效果較CPU高出10~100倍。GPU應(yīng)用能力早已不亞于CPU,甚至更勝一籌,自家GPU持續(xù)擴(kuò)大生態(tài)系統(tǒng)(ecosystem),全新視覺運(yùn)算世代即將來臨。今年,黃仁勛更是直接說到:“盡管CPU過去幾年運(yùn)算速度不斷提升,但進(jìn)入AI時(shí)代后,以CPU為運(yùn)算基礎(chǔ)的時(shí)代已經(jīng)結(jié)束,現(xiàn)在大型語言模型(LLM)需要更新的解決方案。”
業(yè)界分析師估計(jì),AI芯片市場(chǎng)有超過8成掌握在英偉達(dá)手里。在一篇名為《Nvidia H100 GPU:供需》文章中,深度剖析了當(dāng)前科技公司們對(duì)GPU的使用情況和需求。文章推測(cè),小型和大型云提供商的大規(guī)模H100集群容量即將耗盡,H100的需求趨勢(shì)至少會(huì)持續(xù)到2024年底。不過,目前英偉達(dá)GPU的產(chǎn)能受到供應(yīng)鏈的限制,給英特爾和AMD反超的機(jī)會(huì)。
03
AI趨勢(shì)下,英特爾、AMD能分到一杯羹嗎?
英特爾不會(huì)放過AI發(fā)展的浪潮。今年英特爾在加州圣何塞舉辦Innovation 2023活動(dòng)中,AI是貫穿始終的主旋律。
演講開篇,英特爾執(zhí)行長帕特·基辛格便表示,AI正在催生全球增長的新時(shí)代,在新時(shí)代當(dāng)中,算力便起到了重要的作用,開發(fā)者正迎來巨大的商業(yè)和社會(huì)機(jī)會(huì)——算力離不開芯片,如今芯片形成了規(guī)模達(dá)5740億美元的行業(yè),驅(qū)動(dòng)著全球背后約8萬億美元的技術(shù)經(jīng)濟(jì)。
數(shù)據(jù)中心方面,英特爾將數(shù)據(jù)中心芯片分為兩類,包括著重效能但耗能更高的Granite Rapids芯片,以及聚焦能源效率的Sierra Forest芯片。目前英特爾新款數(shù)據(jù)中心芯片“Sierra Forest”已經(jīng)預(yù)定明年上市,每瓦性能將比目前的數(shù)據(jù)中心芯片提高240%。這是英特爾首次披露這類數(shù)據(jù),對(duì)性能的提前披露,也能看出英特爾頗為著急。
看一下Granite Rapids和Sierra Forest這兩款數(shù)據(jù)中心芯片的具體細(xì)節(jié)。Sierra Forest,它是英特爾首款用于數(shù)據(jù)中心的E核Xeon可擴(kuò)展芯片,還是基于EUV的Intel 3工藝的主導(dǎo)產(chǎn)品。Granite Rapids可將AI工作負(fù)載性能提升2-3倍,實(shí)現(xiàn)2.8倍的更好內(nèi)存帶寬,內(nèi)存模組MCR DIMM帶寬可提高30-40%。
英特爾預(yù)估,在AI戰(zhàn)場(chǎng),還需要幾年時(shí)間,應(yīng)該就可以追上NVIDIA在高端AI相關(guān)的進(jìn)展,除此之外,英特爾在HPC是具有高度優(yōu)勢(shì),HPC與AI未來是會(huì)匯聚,英特爾除了AI持續(xù)進(jìn)展,HPC更具有優(yōu)勢(shì)。
AMD也在發(fā)力。AMD也跟英特爾一樣面臨產(chǎn)品推出時(shí)機(jī)落后的問題,旗艦AI芯片MI300目前僅少量送樣,要到明年才會(huì)上市。AMD數(shù)據(jù)中心硬件部門主管諾羅德(Forrest Norrod)表示,ChatGPT引爆的AI熱潮是AMD始料未及的。
目前,AMD已經(jīng)將人工智能作為分配資源和投資的首要領(lǐng)域。AMD正在增加AI相關(guān)的研發(fā)支出,并已經(jīng)制定AI戰(zhàn)略——包括AI專用芯片和軟件的開發(fā)。
對(duì)標(biāo)英偉達(dá)AI芯片H100的大模型專用芯片,AMD的MI300X號(hào)稱HBM密度高達(dá)英偉達(dá)H100的2.4倍,HBM帶寬高達(dá)H100的1.6倍,單個(gè)芯片可運(yùn)行多達(dá)800億參數(shù)的模型,可以運(yùn)行比H100更大的模型。
也有市場(chǎng)機(jī)構(gòu)看好AMD,Northland資本市場(chǎng)分析師理查(Gus Richard)預(yù)期,AMD未來可望在AI芯片市場(chǎng)拿下20%市占率。他認(rèn)為除了AMD芯片表現(xiàn)不凡之外,AMD與大型數(shù)據(jù)中心的合作關(guān)系也有利AI芯片銷售。
值得注意的是,從晶圓代工的角度來看,數(shù)據(jù)中心芯片對(duì)高級(jí)節(jié)點(diǎn)的需求不斷增加。AMD在最近5年中崛起,并且在PC、服務(wù)器領(lǐng)域能夠威脅英特爾,其2018年宣布擁抱臺(tái)積電7nm是個(gè)關(guān)鍵決定。而英偉達(dá)也一直和臺(tái)積電關(guān)系緊密,盡管部分產(chǎn)品因分散風(fēng)險(xiǎn)、價(jià)格考量而轉(zhuǎn)由三星代工,如先前的RTX 30系列,但面臨三星制程技術(shù)落后下,最終RTX 40系列也回歸臺(tái)積電。
不管怎么說,在英特爾和AMD最新的數(shù)據(jù)中心芯片明年大量出貨之前,英偉達(dá)的高端GPU沒有抗打的對(duì)手。