牛津大學(xué)一項(xiàng)數(shù)據(jù),讓所有人都感到震驚!也給狂熱的中國(guó)大模型澆了一盆冷水! 牛津大學(xué)發(fā)現(xiàn),用戶所使用的語(yǔ)言與大模型訓(xùn)練成本有密切聯(lián)系,比如簡(jiǎn)體中文的訓(xùn)練費(fèi)用大約是英語(yǔ)的兩倍。因?yàn)橛?xùn)練成本更低,英文大模型生態(tài)才得以冠絕全球.像ChatGPT如此“聰明”就在于語(yǔ)料更大,僅GPT-3便擁有1750億的參數(shù)量。 扎心的是,由于訓(xùn)練成本更大,中文世界嚴(yán)重缺少好的開(kāi)源大模型。一些中小企業(yè)、開(kāi)發(fā)者空有創(chuàng)新想法,卻沒(méi)有創(chuàng)新的平臺(tái)! 幸好,本土大廠正在把風(fēng)向變好。阿里云已經(jīng)開(kāi)源了通義千問(wèn)140億參數(shù)大模型,免費(fèi)、可使用。該模型在MMLU、C-Eval等12個(gè)權(quán)威測(cè)評(píng)集上均獲得最佳成績(jī),全方位超越Llama-2-13B等同尺寸模型,整體訓(xùn)練數(shù)據(jù)超過(guò) 3 萬(wàn)億 Token(詞元),具備更強(qiáng)的推理、認(rèn)知、規(guī)劃和記憶能力。此前,阿里云還開(kāi)源了通義千問(wèn)70億參數(shù)模型,一個(gè)多月下載量就破了100萬(wàn)。 中美大模型不只是表面的技術(shù)之爭(zhēng),生態(tài)之爭(zhēng)才是勝負(fù)手。中文大模型的用戶多了,生態(tài)自然也就繁榮了,阿里云開(kāi)源無(wú)異于降低了中文大模型的門檻,值得肯定! |
|