下一代AI需要怎樣的芯片?微軟和谷歌斗法!

微軟和谷歌正在通過搜索引擎將人工智能帶給人們,從而推動了一場重大的計算變革,而衡量成功的標準之一可能取決于支持應用程序的硬件和數據中心基礎設施。

本文來自微信公眾號,內容由半導體行業(yè)觀察(ID:icbank)編譯自hpcwire,謝謝。

微軟和谷歌正在通過搜索引擎將人工智能帶給人們,從而推動了一場重大的計算變革,而衡量成功的標準之一可能取決于支持應用程序的硬件和數據中心基礎設施。

上周,微軟和谷歌宣布推出下一代人工智能搜索引擎,可以推理和預測,并為用戶問題提供更全面的答案。搜索引擎將能夠為復雜的查詢生成完整的答案,就像ChatGPT提供詳細答案或撰寫論文的方式一樣。

微軟正在將AI置于Bing中以響應文本查詢,Google也計劃將AI置于其文本、圖像和視頻搜索工具中。這些公告是在上周連續(xù)幾天發(fā)布的。

兩家公司承認,如果沒有強大的硬件基礎設施,人工智能就不可能進入搜索引擎。兩家公司沒有分享驅動人工智能計算的實際硬件的細節(jié)。

多年來,微軟和谷歌一直在培育專為黃金時段公告設計的人工智能硬件,例如上周的人工智能搜索引擎。

這些公司擁有截然不同的人工智能計算基礎設施,響應速度和結果準確性將成為對搜索引擎生存能力的嚴峻考驗。

谷歌的Bard在其云服務中由其TPU(張量處理單元)芯片提供支持,熟悉該公司計劃的消息人士證實了這一點。微軟表示,其在Azure中的人工智能超級計算機——可能在GPU上運行——可以以毫秒級或搜索延遲的速度提供結果。

谷歌的TPU與AI市場領導者Nvidia之間的AI計算展開了一場非常公開的戰(zhàn)斗,Nvidia的GPU在市場上占據主導地位。

“團隊致力于在全球范圍內為機器和數據中心提供動力和建設。我們仔細地編排和配置了一組復雜的分布式資源。我們構建了新的平臺部件,旨在以前所未有的方式幫助負載平衡、優(yōu)化性能和擴展,”微軟Bing產品負責人Dena Saunders在發(fā)布會上說。

微軟正在使用更高級版本的OpenAI的ChatGPT。在微軟的活動中,OpenAI首席執(zhí)行官Sam Altman估計每天有100億次搜索查詢。

微軟通過實現讓Bing擁有AI能力的道路確保其AI超級計算機具有計算能力,該公司聲稱它是世界上最快的五臺超級計算機之一,但該計算機未列入Top500排名。

“我們參考了AI超級計算機,但這項工作花費了數年時間,并且需要大量投資來構建我們可以在堆棧的每一層中引入的規(guī)模類型、速度類型和成本類型。微軟執(zhí)行副總裁兼首席財務官Amy Hood上周在與投資者的電話會議上表示,我認為……我們的運營規(guī)模非常不同。

Hood說,隨著使用規(guī)模和優(yōu)化的實施,超級計算機層的AI計算成本將隨著時間的推移而繼續(xù)下降。

“當然,每次搜索交易的成本往往會隨著規(guī)模的擴大而下降,我認為我們從一個非常強大的平臺開始,以便能夠做到這一點,”Hood說。

隨著更多GPU的實施,計算成本通常會上升,冷卻成本和其他支持基礎設施也會增加賬單。但公司通常將收入與計算成本掛鉤。

微軟的AI超級計算機是與OpenAI合作建造的,它擁有285,000個CPU內核和10,000個GPU。Nvidia在11月簽署了一項協議,將其數萬個A100和H100 GPU放入Azure基礎設施中。

根據Statcounter的數據,微軟的Bing搜索份額并不接近谷歌搜索,谷歌搜索在1月份擁有93%的市場份額。

人工智能從根本上說是一種基于推理和預測能力的不同計算方式,而傳統計算則圍繞邏輯計算展開。AI是在可以執(zhí)行矩陣乘法的硬件上完成的,而傳統計算圍繞著CPU展開,CPU擅長數據的串行處理。

谷歌正在采取謹慎的態(tài)度,并將其Bard對話式AI作為其LaMDA大型語言模型的輕量級現代版本發(fā)布。谷歌的LaMDA是與OpenAI的GPT-3競爭的本土版本,后者是ChatGPT對話式人工智能的基礎。

Technalysis Research首席分析師Bob O'Donnell表示,處理AI搜索的基礎設施建設仍在進行中,微軟和谷歌需要解決很多問題。

微軟意識到人工智能計算正在迅速發(fā)展,并且愿意測試和使用新的人工智能硬件,O'Donnell說,他在上周的Bing AI發(fā)布會上與微軟的基礎設施團隊進行了交談。

“他們還明確表示,‘我們正在嘗試一切,因為它一直在變化。甚至我們現在正在做的事情也會隨著時間的推移而改變——未來會有不同,'”O'Donnell說。

O'Donnell說,對于Microsoft而言,擁有一個更靈活的計算平臺“比在一項給定任務上一定要快5%”更為重要。

“他們承認,‘看,我們將在接下來的30天內學到很多東西,因為人們開始使用它,我們開始看到負載的真實情況。’這是一種動態(tài)的、動態(tài)的東西,”O'Donnell說。

例如,Microsoft可能會了解人們使用搜索請求訪問服務器的高峰時間。O'Donnell說,在低使用率期間,微軟可以從輸出結果的推理部分切換到需要更多GPU計算的訓練部分。

谷歌于2016年推出的TPU一直是該公司人工智能戰(zhàn)略的關鍵組成部分。眾所周知,TPU為AlphaGo提供了動力,該系統在2016年擊敗了圍棋冠軍李世石。該公司的LaMDA LLM是為在TPU上運行而開發(fā)的。谷歌的姊妹組織DeepMind也在使用TPU進行人工智能研究。

SemiAnalysis創(chuàng)始人Dylan Patel在一份簡報中表示,谷歌的芯片“使用內部TPUv4 pod與Microsoft/OpenAI使用基于Nvidia的HGX A100s相比,在基礎設施方面具有顯著優(yōu)勢”。

隨著時間的推移,隨著硬件規(guī)模和模型針對硬件的優(yōu)化,成本將會降低,Patel寫道。

Facebook現在正在建設具有更多AI計算能力的數據中心。Facebook集群將擁有數千個加速器,其中包括GPU,并將在8至64兆瓦的功率范圍內運行。人工智能技術被用來刪除令人反感的內容,計算集群將驅動公司的元宇宙未來。該公司還在建造一臺配備16,000個GPU的AI研究超級計算機。

Mercury Research首席分析師迪恩·麥卡倫(Dean McCarron)表示,一般來說,現在正在為目標工作負載構建數據中心,這些工作負載越來越多地圍繞人工智能應用,并且具有更多GPU和CPU內容。

云提供商經過漫長的評估周期來挑選最好的CPU、GPU和其他組件??倱碛谐杀臼橇硪粋€考慮因素。

“這里的另一個問題是它有多靈活?因為一些購買者可能不想對特定的工作負載投入或做出太大的承諾,因為他們不知道將來是否會出現這種情況,”McCarron說。

優(yōu)先支持AI工作負載的數據中心將更多地采用Intel、Nvidia和AMD的GPU和CPU。有些人可能會為AI工作負載選擇備用加速器,但它們可以與GPU和CPU共存。

“你總是需要更快的GPU。十年后,在數據中心,會有CPU嗎?是的。會有GPU嗎?是的,也是,”麥卡倫說。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論