全稱為“Large Language Model Meta AI”,即Meta大型語言模型,分四個規(guī)格:7B、13B、33B和65B;B代表billion,指的是十億,最大的模型參數(shù)是650億。論文和源碼,大家執(zhí)行搜索。 給一下PC電腦上下載下載大模型的百度網(wǎng)盤地址: https://pan.baidu.com/s/19g792GUMtELGBMCfu0d2OQ?pwd=x2ck linux機器上下載大模型的方法: 1,安裝pyllama:pip install pyllama -U 2,下載模型:python -m llama.download --model_size 7B 當然可以是13B,33B,65B 個人電腦上(當然電腦配置有要求)跑起大模型推理的方法: Running LLaMA 7B and 13B on a 64GB M2 MacBook Pro with llama.cpp說明:https://til./llms/llama-7b-m2 代碼git路徑:https://github.com/ggerganov/llama.cpp 由于lldma已經(jīng)開源了,在上面做finetune也不是難點,Vicuna 和 Alpaca 是兩個代表,我們自己也在嘗試使用lldma針對一些垂直行業(yè)做一些訓(xùn)練。 LLDMA模型其實并不好,但是他的意義在于開源,類似于10年前移動互聯(lián)網(wǎng)時代來臨的時候,蘋果 IOS系統(tǒng)走的是封閉,Android系統(tǒng)走的是開放。下一個10年人工智能時代的大幕已經(jīng)拉開,OpenAI 從代碼和模型開源 到現(xiàn)在連論文都不公開了,徹底走上了Close的道路,相應(yīng)在構(gòu)建上生態(tài)很激進;Meta開源 lldma的意義就在開源,相信開發(fā)者的力量。不確定的是LLDMA能否扮演起Android的角色。我目前還是有點懷疑的,或者基于lldma或類似的開源大模型孵化出AI2.0時代的Android。 |
|