現(xiàn)在,谷歌研究人員稱,其開發(fā)出一個新的語言模型,已成為迄今為止最大規(guī)模的人工智能語言模型。
開發(fā)人工智能的語言模型,一直是人工智能的重要細(xì)分領(lǐng)域。人工智能語言模型應(yīng)用包括搜索引擎、文字生成、個性化的對話工具以及軟件生成等。
2020年5月,OpenAI的一組研究人員發(fā)布了具有里程碑意義的AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,GPT-3截至2020年都是最龐大的公開發(fā)布的語言模型。
此外,OpenAI的GPT-3一反之前死守基礎(chǔ)研究的思路,將GPT-3做成了一個服務(wù),提供可以調(diào)用的OpenAI API,并且向開放了少量體驗(yàn)資格,使得拿到體驗(yàn)資格的業(yè)界人士或?qū)W者等,開發(fā)出了一眾驚人的演示。
包括答題、翻譯、寫文章,甚至是數(shù)學(xué)計算和編寫代碼。而由GPT-3所寫的文章幾乎達(dá)到了以假亂真的地步,在OpenAI的測試中,人類評估人員也很難判斷出這篇新聞的真假,檢測準(zhǔn)確率僅為12%。
但現(xiàn)在,谷歌研究人員開發(fā)出一個新的語言模型,它包含了超過1.6萬億個參數(shù),遠(yuǎn)超Open AI開發(fā)的GTP-3的規(guī)模(1750億個參數(shù)),成為迄今為止最大規(guī)模的人工智能語言模型,比之前谷歌開發(fā)過最大的語言模型T5-XXL的效率提高了4倍。
該語言模型使用Switch Transformer方法進(jìn)行大規(guī)模訓(xùn)練,這是一種“稀疏激活”技術(shù),它只使用模型權(quán)重的子集或在模型中轉(zhuǎn)換輸入數(shù)據(jù)的參數(shù),以有效降低計算密集度。
盡管在部分實(shí)驗(yàn)中,該模型相比規(guī)模更小的模型得到了較低分?jǐn)?shù)。但在相同的計算資源下,預(yù)訓(xùn)練速度提高了7倍。這些改進(jìn)擴(kuò)展到多語言設(shè)置中,我們在所有101種語言中測量mT5基本版本的增益。最后,我們通過在“巨大的干凈的爬蟲語料庫”上預(yù)先訓(xùn)練多達(dá)萬億個參數(shù)的模型,提高了語言模型的當(dāng)前規(guī)模,并實(shí)現(xiàn)了比T5-XXL模型4倍的加速。
研究人員認(rèn)為,稀疏性可以在未來賦予該模型在一系列不同媒體下多模態(tài)的優(yōu)勢。這也為人工智能語言模型的深入研究提供了更多方向的參考。