開源大模型正在“殺死”閉源?

郝鑫
GPU計算的開源生態(tài)越來越繁榮后,也為其帶來了巨大的市場空間,Nvidia DGX企業(yè)級的深度學習訓練平臺概念應運而生,為英偉達的顯卡和平臺銷售創(chuàng)造了千億級市場。

1.png

圖片來源@視覺中國

本文來自鈦媒體,文|光錐智能,作者|郝鑫,編輯|劉雨琦。

“OpenAI不足為懼,開源會慢慢趕上來。”

彼時Hugging Face創(chuàng)始人Clem Delangue的一句預言,正在迅速成為現(xiàn)實。

ChatGPT橫空出世7個多月后,7月19日,Llama 2宣布開源,并且可直接商用。

如今回看,這一天也成為了大模型發(fā)展的分水嶺。在此之前,全世界開源的大模型不計其數(shù),可只是停留在開發(fā)研究層面。“可商業(yè)”短短三個字,猶如一顆重磅炸彈引爆了大模型創(chuàng)業(yè)圈,引得傅盛連連感嘆,“有的人哭暈在廁所,而有的人在夢中也能笑醒”。

AI大模型圈一夜之間變了天,同時也宣告著大模型加速商業(yè)化時代的到來。

自Llama 2后,開源逐漸成為主流趨勢。以Llama架構(gòu)為首,先掀起了一波以其為核心的開源,如Llama 2低成本訓練版、Llama 2最強版、微調(diào)版等等。截至發(fā)稿前,以“LLama 2”為關(guān)鍵詞在國外最大的AI開源社區(qū)Hugging Face檢索模型,有5341條結(jié)果;在全世界最大的開源項目托管平臺Github上,也有1500個詞條。

1.png

(圖源:Hugging Face官網(wǎng))

1.png

(圖源:Github官網(wǎng))

之后,創(chuàng)業(yè)者們的目光從解構(gòu)、增強Llama 2轉(zhuǎn)向了構(gòu)建行業(yè)專有大模型,于是又掀起了一波Llama 2+司法、Llama 2+醫(yī)療等一系列的行業(yè)開源大模型。據(jù)不完全統(tǒng)計,Llama 2開源后,國內(nèi)就涌現(xiàn)出了十幾個開源行業(yè)大模型。

國內(nèi)頭部廠商和創(chuàng)業(yè)公司紛紛加入開源浪潮中,阿里QWEN-7B開源一個多月下載量破100萬,9月25日升級了QWEN-14B;百川智能開源的Baichuan-7B、13B兩款開源大模型下載量目前已經(jīng)突破500萬,200多家企業(yè)申請部署開源大模型。

與此形成強烈對比的是,短時間內(nèi),Llama 2對一些閉源的大模型廠商造成了致命性的打擊。閉源大模型多采用調(diào)取API的方式使用,數(shù)據(jù)需要先上傳至模型廠商,按照調(diào)用次數(shù)收取費用;而開源則可以在本地部署,且完全免費,可商用后產(chǎn)生的利潤也可以收歸己有。

行業(yè)內(nèi)人士告訴光錐智能:“在這種情況下,基于成本的考慮,已經(jīng)開始有許多企業(yè)選擇放棄支付上千萬元的費用,轉(zhuǎn)而部署和微調(diào)Llama 2”。

以上種種,共同揭開了大模型開源閉源之爭,發(fā)展重心的轉(zhuǎn)移也讓人疑惑:開源大模型是否正在“殺死”閉源?

大模型開源,開的是什么?

光錐智能梳理后發(fā)現(xiàn),目前,大模型廠商和創(chuàng)業(yè)公司在開源和閉源的選擇上,一共有三條路徑:

一是完全閉源,這類代表公司國外有OpenAI的GPT-3.5、GPT-4,國內(nèi)有百度的文心大模型;

二是先閉源再開源,這類代表公司有阿里云的通義千問,智譜AI開源GLM系列模型;

三是先開源再閉源,這類代表公司有百川智能的Baichuan-7B、Baichuan-13B。

現(xiàn)在中國市場上能夠主動開源大模型,且提供商業(yè)許可的企業(yè)數(shù)量還比較有限,主要公司包括了以開源為切入的百川智能、大模型廠商代表阿里、大模型初創(chuàng)公司代表智譜AI以及走精調(diào)Llama 2路線的虎博科技。

1.png

這從側(cè)面也說明了一個問題,大模型開源并不是沒有門檻,相反開源對一家企業(yè)的基礎(chǔ)技術(shù)能力要求十分高,比如智譜AI的GLM-130大模型是去年亞洲唯一入選斯坦福大學評測榜的大模型;阿里通義千問大模型在IDC的“AI大模型技術(shù)能力評估測試”中獲得了6項滿分。

如果再進一步將以上的公司分類,可以歸為兩類,一類是走自研大模型開源路線,一類是走Llama 2路線。

這兩條路線在國際上也十分典型,譬如走自研模型開源路線的Stability AI,已經(jīng)陸續(xù)開源了Stable DiffusionV1、StableLM、Stable Diffusion XL(SDXL)1.0等模型,憑一己之力撐起了文生圖開源領(lǐng)域;另一類如中東土豪研究院就死盯住Llama 2,在其基礎(chǔ)上繼續(xù)做大參數(shù)、做強性能,Llama 2開源50天后,地表最強開源模型Falcon 180B橫空出世,霸榜Hugging Face。

不過,這兩條路線也不是完全涇渭分明,Llama 2的開源也進一步促進了許多自研開源大模型的更新升級。8月Stability AI迅速推出類ChatGPT產(chǎn)品——Stable Chat,背后的大語言模型Stable Beluga就是其在兩代Llama的基礎(chǔ)上精調(diào)出來。更開放,更快迭代發(fā)展,這或許也是開源的意義。

除了逆天的Falcon,目前開源模型的參數(shù)基本都控制在7B-13B左右。大模型廠商告訴光錐智能,“目前7B-13B億參數(shù)量是一個較為合理的開源規(guī)模”。這是基于多重因素所得出的參數(shù)量規(guī)模,如計算資源限制、內(nèi)存限制、開源成本考量等。

阿里云CTO周靖人基于云廠商的角度考慮道:“我們希望企業(yè)和開發(fā)者,在不同的場景可以根據(jù)自己的需求選擇不一樣規(guī)模的模型,來真正地應用在自己的開發(fā)環(huán)境。我們提供更多可能性。”

談起為何開源大模型,周靖人強調(diào)了安全性,“我們不單單只是開源大模型,更重要的是要能夠呈現(xiàn)出各項指標的表現(xiàn)效果,基于此,才能夠讓大家去評估其中的使用風險,更加有效地進行模型應用。”

“重要的是,隨著參數(shù)量的增加,模型效果提升會逐漸收斂。當模型達到一定規(guī)模后,繼續(xù)增加參數(shù)對效果提升的邊際效益只會下降,70-130億參數(shù)量一般已經(jīng)接近收斂狀態(tài)了。”上述大模型廠商道。

光錐智能發(fā)現(xiàn),除了阿里云在視覺語言模型的細分領(lǐng)域發(fā)布了開源大模型外,其余公司皆提供的是通用能力的大模型。這或許與大模型開源仍處于非常早期階段有關(guān)系,但考慮到開源大模型也要落地到場景中,太過于同質(zhì)化的通用大模型對企業(yè)來說也容易淪為“雞肋”。

如何避免開源大模型重蹈覆轍,體現(xiàn)出開源的價值,回顧Meta接連祭出的“大招”,一條開源的路徑似乎逐漸顯現(xiàn)——構(gòu)建開源大模型生態(tài)。

2月份,Meta憑借開源的Llama大模型回到生成式AI核心陣列;

5月9日,開源了新的AI模型ImageBind,連接文本、圖像/視頻、音頻、3D測量(深度)、溫度數(shù)據(jù)(熱)和運動數(shù)據(jù)六種模態(tài);

5個月后,Llama 2開源可商業(yè),含70億、130億和700億三種參數(shù)規(guī)模,其中700億參數(shù)模型能力已接近GPT-3.5;

8月25日,Meta推出一款幫助開發(fā)人員自動生成代碼的開源模型——Code Llama,該代碼生成模型基于其開源大語言模型Llama 2;

8月25日,發(fā)布全新AI模型SeamlessM4T,與一般AI翻譯只能從文本到文本不同,這款翻譯器還能夠“從語音到文本”或者反過來“從文本到語音”地直接完成翻譯;

9月1日,允許開源視覺模型DINOv2商業(yè)化,同時推出視覺評估模型FACET。

可以看到,Meta開源的思路是在各個AI領(lǐng)域遍地開花,通過發(fā)布該領(lǐng)域最先進的AI開源模型,吸引更多開發(fā)者的關(guān)注和使用,壯大整個AI開源生態(tài)后來反哺業(yè)務、鞏固行業(yè)地位,這就如同當年的英偉達推動GPU計算的開源策略。

當年英偉達推動GPU計算的開源化,不僅吸引了大量研究人員在Caffe、TensorFlow等框架上進行創(chuàng)新,也為自身GPU產(chǎn)品積累了大量優(yōu)化經(jīng)驗,這些經(jīng)驗后來也幫助英偉達設計出了更適合深度學習的新型GPU架構(gòu)。

另一方面,GPU計算的開源生態(tài)越來越繁榮后,也為其帶來了巨大的市場空間,Nvidia DGX企業(yè)級的深度學習訓練平臺概念應運而生,為英偉達的顯卡和平臺銷售創(chuàng)造了千億級市場。

國內(nèi)阿里云也在通過建設完善生態(tài)的方式,試圖幫助開發(fā)者更好的用好大模型,據(jù)周靖人介紹,目前阿里云不僅有自研開源大模型,也接入了超過100個開源模型,同時打造了開源社區(qū)魔搭,更好地服務開發(fā)者和企業(yè)用戶,用好、調(diào)好大模型。

開源閉源不矛盾,是手段而非目的

據(jù)外媒爆料,Meta正在加緊研發(fā)全新的開源大模型,支持免費商用,能力對標GPT-4,參數(shù)量比Llama 2還要大上數(shù)倍,計劃在2024年初開始訓練。

國外大模型格局看似是OpenAI“一超多強”,實則是眾多公司環(huán)伺,可以預見,開源大模型對閉源的圍剿,越來越步步緊逼。

1.png

國外一份研究報告稱,大模型前期的發(fā)展創(chuàng)新由OpenAI、微軟、谷歌等大公司閉源模型主導,但越到后期開源模型和社區(qū)的貢獻值就越大。

光錐智能也了解到,在國內(nèi)開源大模型也成為了企業(yè)的“新賣點”,有企業(yè)甚至通過對外宣稱已使用了“史上最強大模型Falcon 180B”,來展現(xiàn)其底層模型技術(shù)能力的強大,頂著“史上最強”的稱號,又收割了“一波韭菜”。

現(xiàn)階段,開源大模型已經(jīng)證明了幾點重要的事實。

首先,在非常大的數(shù)據(jù)集上進行訓練,擁有幾十億個參數(shù)的大模型在性能上就可以與超大規(guī)模大模型相媲美;其次,只需要極少的預算、適量的數(shù)據(jù)以及低階適應(Low-rank adaptation,LoRA)等技術(shù)就可以把小參數(shù)的大模型調(diào)到一個滿意的效果,且將訓練成本降低了上千倍。開源大模型為現(xiàn)在的企業(yè)提供了閉源的替代方案,低成本成為最吸引他們的地方;最后,我們也看到開源大模型的發(fā)展速度也遠快于封閉生態(tài)系統(tǒng)。

開源固然“迷人”,但更為關(guān)鍵的是,既不能為了開源而開源,也不能為了閉源而閉源。開源與閉源只是形式上的區(qū)別,并不矛盾,開源本身不是目的,而是手段。

以開源切入大模型賽道的百川智能,在發(fā)布完Baichuan-7B、Baichuan-13B開源大模型后,王小川拿出了Baichuan-53B閉源大模型。在問到為什么沒有繼續(xù)開源時,王小川回答稱:“模型變大之后沒有走開源的這樣一種方式,因為大家部署起來成本也會非常的高,就使用閉源模式讓大家在網(wǎng)上調(diào)用API”。

由此可見,是否開源或閉源并非完全沒有參考,能夠閉源一定是其能夠提供價值。在當前,這個價值的集中體現(xiàn)可能是替用戶完成高性能的大模型訓練、推理和部署,通過調(diào)用API的方式來幫助降低門檻,這也是OpenAI閉源的思路,但因為其自身技術(shù)的絕對領(lǐng)先優(yōu)勢,使得其價值也非常得大。

如果回顧紅帽子公司的開源,也能探尋到同樣的邏輯。過去十多年間,紅帽從銷售企業(yè)Linux操作系統(tǒng),擴展到現(xiàn)在的存儲、中間件、虛擬化、云計算領(lǐng)域,靠的就是“篩選價值”的邏輯。在最上游的開源社區(qū),參與開源技術(shù)貢獻,做大做強生態(tài);提取開源社區(qū)中的上游技術(shù)產(chǎn)品,沉淀到自己小開源社區(qū);再將其認為最有價值的技術(shù)檢驗、測試、打包,形成新的產(chǎn)品組合,完成閉源出售給客戶。

騰訊云數(shù)據(jù)庫負責人王義成也曾對光錐智能表示:“開源的本質(zhì)也是商業(yè)化,要從宏觀層面看是否能滿足一家公司的長期商業(yè)利益。開源的本質(zhì)還是擴大生態(tài),擴大你的影響力。開源還是要找清楚自己的定位,目標客戶群。開源能否幫助產(chǎn)品突破,幫助公司完成阻擊,還需要具體問題具體分析。”

結(jié)尾

事實上,開源還是閉源,二者并不是完全對立的關(guān)系,只是在技術(shù)發(fā)展的早期,路徑選擇的不同。

這也并不是科技領(lǐng)域第一次面對這樣的分叉路,參考數(shù)據(jù)庫發(fā)展的路徑,早期需要培育土壤,培植生態(tài),以MySQL為主的開源數(shù)據(jù)庫獲得了爆發(fā)式的用戶增長,但走過第一階段后,更多企業(yè)用戶發(fā)現(xiàn)開源數(shù)據(jù)庫在面對業(yè)務時的短板,畢竟術(shù)業(yè)有專攻,誰也沒辦法一招打天下。

為此,數(shù)據(jù)庫廠商開始根據(jù)不同的企業(yè)需求針對性的研發(fā)閉源數(shù)據(jù)庫,如在分布式數(shù)據(jù)庫、流數(shù)據(jù)庫等細分類別進行長足的創(chuàng)新。

周靖人也認為:“未來,一定不是one size fits all”,不同的場景適配不同的參數(shù),不同的形式,屆時大模型將走過野蠻生長階段,來到精耕細作。

這也足以說明,開源還是閉源,或許只是階段和位置的不同,但可以肯定的是,大模型時代,已經(jīng)加速進入下一賽段。

THEEND

最新評論(評論僅代表用戶觀點)

更多
暫無評論