因客戶要求,做一個完全離線的智能體。并且可以調(diào)用API任意修改界面。 先上本文的重點,也是等了好久,終于出來一個帶web界面的基于Ollama的框架。 地址為: https://github.com/jacoblee93/fully-local-pdf-chatbot 這是親測效果: 速度還能接受。 1. 介紹: 它是一款基于Next.js React tailwind的應(yīng)用程序。可以通過上傳PDF文檔,僅回答文檔中的相關(guān)內(nèi)容??梢酝耆x線。
為了在某些機器上獲得更快速度,可以在app/worker.ts切換到'Xenova/all-MiniLM-L6-v2'。 2. 安裝步驟:
3. 更換模型: 這里選擇的是mistral,大概4G左右,當然根據(jù)需要,可以下載Ollama上的其它模型。像llama2-chinese,對中文支持的比較好。 4. 對設(shè)備的要求: 如果下載7b模型,至少需要8G內(nèi)存 如果下載13b模型,至少需要16G的內(nèi)容 然后針對本地部署大模型,專門做了一些調(diào)研,大概有兩種選擇。
這是它的收費方式。 2. 自己部署ChatGLM 這里簡單做個對比,自己部署ChatGLM 對設(shè)備的要求極高。 https://github.com/THUDM/ChatGLM3 要不有一個好的CPU,要不有一塊好的顯卡,顯卡盡量13G ,內(nèi)存基本要32GB 。 3. Ollama
包含了常用的各大模型: 總結(jié): 這樣對本地部署的幾個常見大模型就有了大概了解,然后數(shù)字人這塊也就完善了本地部署大模型的功能,由于Ollama封裝成一個安裝文件包,這種方式非常方便,最早見過google的一個女程序就是把大模型打包為一個安裝包,不知道圖片、視頻相關(guān)的大模型有沒有類似的。解決了文字部分,接下來就是發(fā)展多模態(tài)的應(yīng)用了。 |
|