這屆618巨頭爭當“全網(wǎng)最低”大模型 免費背后有何算盤?

孫妍
字節(jié)跳動打前陣,BAT前后腳跟進,主力模型降價97%,百萬tokens低至1元,大模型卷至“厘時代”,免費,全面免費,永久免費……堪稱炸場級別的降價力度已經(jīng)許久未見,像是重演“百團大戰(zhàn)”“O2O混戰(zhàn)”“網(wǎng)約車補貼大戰(zhàn)”“云項目1元中標”似的,點燃了行業(yè)的戰(zhàn)火。

640 (1).png

本文來自微信公眾號“IT時報”,作者/孫妍。

這屆618的價格戰(zhàn)是大模型打響的。

字節(jié)跳動打前陣,BAT前后腳跟進,主力模型降價97%,百萬tokens低至1元,大模型卷至“厘時代”,免費,全面免費,永久免費……堪稱炸場級別的降價力度已經(jīng)許久未見,像是重演“百團大戰(zhàn)”“O2O混戰(zhàn)”“網(wǎng)約車補貼大戰(zhàn)”“云項目1元中標”似的,點燃了行業(yè)的戰(zhàn)火。

8家大模型集體降價

字節(jié)跳動和BAT集體入局大模型價格戰(zhàn)。據(jù)《IT時報》不完全統(tǒng)計,5月以來,已有8家國內(nèi)外大模型宣布大降價,包括幻方量化、智譜、GPT-4o、字節(jié)豆包、阿里通義千問、百度文心一言、騰訊混元和科大訊飛星火等。

640 (1).png

5月15日,字節(jié)跳動挑起大模型價格戰(zhàn),豆包通用模型pro-32k版輸入價格降至0.0008元/千tokens,豆包通用模型pro-128k版輸入價格降至0.005元/千tokens。這意味著,1元就能買到豆包主力模型的125萬tokens,大約是200萬個漢字,相當于3本《三國演義》。

大模型通常以“元/千tokens”為計費單元,字節(jié)豆包將以分為單位的使用成本,直接打到了以厘為單位,真正挑起了價格戰(zhàn)。

阿里和百度在5月21日前后腳跟進,阿里通義千問GPT-4級主力模型Qwen-Long的輸入價格降至0.0005元/千tokens,直降97%,降價后約為GPT-4價格的1/400,擊穿全球底價。這意味著,1元就能買到200萬tokens,相當于5本《新華字典》。百度文心一言則直接宣布兩大主力模型全面免費且立即生效,分別為今年3月推出的輕量級大模型ERNIE Speed和ERNIE Lite,支持8k和128k上下文長度。

5月22日,騰訊混元大模型全面降價,主力模型之一混元-lite模型價格從0.008元/千tokens調(diào)整為全面免費,API輸入輸出總長度計劃從目前的4k升級為256k。混元-standard、具備處理超38萬字符超長文本能力的混元-standard-256k以及最高配置萬億參數(shù)模型混元-pro三款大模型的API輸入輸出價格全面降低,最大降價幅度為87.5%。

同一天,科大訊飛推出業(yè)界首個“永久免費”的大模型——星火大模型lite,頂配版訊飛星火Max API價格則低至0.21元/萬tokens,相比較而言,百度文心一言ERNIE4.0和阿里通義千問Qwen-Max的定價為1.2元/萬tokens,訊飛星火頂配版只為百度、阿里的五分之一。

真正讓國內(nèi)大模型神經(jīng)緊張的是,OpenAI從2023年年初至今,已經(jīng)進行了4次降價,5月13日發(fā)布的GPT-4o不僅實現(xiàn)了性能躍升,價格也下降了50%。

巨頭燒錢換數(shù)據(jù)

“當前大模型的定價已經(jīng)沒辦法覆蓋成本,但大模型廠商為何還要降價?主要目的是為了收集數(shù)據(jù)。”在主攻AI Agent的瀾碼科技CEO周健看來,GPT-4o的策略是對公眾免費,對開發(fā)者收費降低一半,讓公眾多用,從而收集多輪對話等交互數(shù)據(jù),這比靜態(tài)數(shù)據(jù)更能快速提高模型能力,而國產(chǎn)大模型也同樣處于“燒錢換數(shù)據(jù)”的階段。

以往,LLM類的大模型沒有時間概念,但GPT-4o已經(jīng)解決短時記憶問題,能在對話中感知情緒、跟隨指令或被人打斷,可以用不同情緒的語音講故事,不過長時記憶能力和社會智能還是不夠。

周健打了一個比方,即使GPT-4o像愛因斯坦一樣聰明,它也不能勝任一家上市公司的CFO,因為這個角色需要強大的長時記憶,根據(jù)不同溝通總結(jié)和分析整個公司的組織結(jié)構(gòu)、權(quán)力結(jié)構(gòu)等,所以它現(xiàn)階段還是一個“缸中之腦”。

640 (1).png

圖源:unsplash

除了對公眾免費以外,OpenAI還在用硬件來收集線下銷售、獵頭等與客戶交流的數(shù)據(jù)。發(fā)布GPT-4o后,OpenAI與美國知名論壇、美股散戶大本營Reddit合作,收集社區(qū)內(nèi)容來訓(xùn)練大模型。所以,收集這些真實動態(tài)數(shù)據(jù)的目的,是為了讓大模型變得更像人,可以多輪對話、長時記憶、熟知社會交往邏輯。

在上海人工智能研究院高級研發(fā)經(jīng)理徐弘毅看來,大模型打下市場的關(guān)鍵也是數(shù)據(jù)。當前,大模型的競爭已從算力過渡到優(yōu)質(zhì)數(shù)據(jù),優(yōu)質(zhì)的中文數(shù)據(jù)十分稀缺,而動態(tài)交互數(shù)據(jù)更顯重要。

中文教科書只有英文的十分之一,中文的靜態(tài)知識數(shù)據(jù)閉環(huán)天然弱于英文,所以只能從動態(tài)數(shù)據(jù)上實現(xiàn)量的突破,只有讓真實的人來用,才能收集動態(tài)數(shù)據(jù)。另外,全球70%的數(shù)據(jù)僅停留在免費公開數(shù)據(jù)集的層面,要想讓大模型掌握專業(yè)知識,只能不斷吸引各行各業(yè)的開發(fā)者注入垂直領(lǐng)域的數(shù)據(jù)集。

低價,無疑是最好的吸引方式。當然,前提是保證相同的質(zhì)量甚至更快的速度。從去年的GPT-4到今年的GPT-4o,第一個token響應(yīng)速度快了6倍,但調(diào)取價格便宜了12倍。國外廠商以速度博眼球,而國內(nèi)廠商以價格博市場。不過,也有業(yè)內(nèi)人士和媒體質(zhì)疑,大模型廠商拋開并發(fā)量談價格“并不科學(xué)”,如果不能支持高并發(fā)量,就無法保證輸出速度和質(zhì)量。

“大模型集體降價不僅僅是市場策略,更是拐點到來的信號。”曾負責國內(nèi)首個基于時空數(shù)據(jù)信用債風(fēng)險模型的北京市特聘專家楊曉靜認為,大模型集體降價的原因有三:首先是基于統(tǒng)籌補貼等政策,云、算力芯片等成本降低帶來了技術(shù)紅利;其次是大模型廠商對規(guī)模增長的信心,2024年初,每天國內(nèi)所有大模型的API調(diào)用量不超過1億次,但預(yù)計今年底將有100倍增長;最后是吸引開發(fā)者,從而快速向千行百業(yè)覆蓋,而目前國內(nèi)AIGC的用戶滲透率僅為6%左右。

“字節(jié)想通過豆包大模型推火山引擎和云服務(wù),實際上,視頻等內(nèi)容才是掘金之處。”楊曉靜也認為,云、算力、大模型、內(nèi)容、數(shù)據(jù)是一條鏈條,打通后就能形成一個生態(tài)閉環(huán),這也是巨頭燒錢換數(shù)據(jù)的內(nèi)在邏輯。

價格戰(zhàn)或向C端傳導(dǎo)

“百模大戰(zhàn)”真正進入實戰(zhàn)階段,據(jù)《IT時報》記者觀察,此次降價的主體是文本大模型,主要面向開發(fā)者和企業(yè),還未傳導(dǎo)至C端用戶層面。下一階段,國內(nèi)大模型可能會迎來C端用戶層面和多模態(tài)大模型的降價。讓C端用戶用得起甚至免費用,從而讓大模型變得越來越好用。

在國外,OpenAI以性能優(yōu)勢幾乎形成了壟斷。OpenAI最新推出的多模態(tài)大模型GPT-4o目前僅開放了文本和圖像功能,但未來將向C端用戶全部免費開放。并支持語音和視頻的輸入輸出。

640 (1).png

GPT-4o演示

當前,若要在ChatGPT上體驗Plus版本,仍要升級到19.99美元/月的會員。據(jù)應(yīng)用智能公司Appfigures統(tǒng)計,ChatGPT的App凈收入在GPT-4o發(fā)布當天躍升22%,5月21日的凈收入達到90萬美元,接近該應(yīng)用日均收入的兩倍。

“國內(nèi)大模型競爭越發(fā)激烈,在沒有決出絕對勝出者之前,降價趨勢不會停止,甚至是指數(shù)級下降。”周健認為。

楊曉靜也認為,海量用戶和龐大的消費者市場還將加速成本下降。

價格戰(zhàn)的背后,是中國大模型想要抓住數(shù)據(jù)和場景的紅利,縮短甚至超越美國的大模型發(fā)展速度。數(shù)據(jù)為核、場景牽引是中國在移動互聯(lián)網(wǎng)、5G彎道超車的“制勝法寶”,那在大模型時代,這條反超路徑是否依然可行?

2024年被認為是大模型商業(yè)化落地的元年。IDC預(yù)測,2026年中國AI大模型市場規(guī)模將達到211億美元,人工智能將進入大規(guī)模落地應(yīng)用關(guān)鍵期。據(jù)徐弘毅的觀察,國內(nèi)大模型更傾向于深入應(yīng)用場景這條路徑,靠業(yè)務(wù)打下基礎(chǔ)。

中美的大模型發(fā)展差距一直存在爭議,有人說差距是一年半,也有人說是半年。近期,斯坦福大學(xué)發(fā)布的《2024人工智能指數(shù)報告》顯示,2023年發(fā)布的全球149個知名大模型中,美國占61款,中國占15款,據(jù)世界第二,追趕速度較快。而中國的人工智能專利數(shù)量占60%,領(lǐng)先其他國家。

想要縮短中美大模型發(fā)展差距,中國大模型還得要靠應(yīng)用場景取勝。

降價,會直接調(diào)動企業(yè)使用大模型的積極性。根據(jù)以往開發(fā)信用債風(fēng)險模型和智能投顧的經(jīng)驗,楊曉靜做了一個測算,2005年至2022年18年間,A股市場中累積了82.5萬份券商公司類研報,若每份以1萬字計算,整體約85億字,相當于3.4億個tokens。做智能投研大模型的開發(fā)者,如果原先通用大模型的價格來調(diào)取API,一次需要花費3.4萬元,現(xiàn)在只需要花費1700元。

據(jù)楊曉靜判斷,在金融領(lǐng)域,智能客服這個剛需領(lǐng)域?qū)⒆羁炜吹紸I的注入和降價的影響,調(diào)用成本降低后,服務(wù)的用戶規(guī)模也將快速提升。

此外,中國是全球最大的工業(yè)機器人安裝國,安裝量占全球50%,中國AI大模型企業(yè)應(yīng)該抓住工業(yè)化升級的時機。“AI服務(wù)要變得像水電一樣易用易得,像5G一樣泛在化,才能像5G一樣彎道超車,實現(xiàn)全球引領(lǐng)。”楊曉靜說道。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論