01、本地大模型越來越簡單經(jīng)過了一年多時間的迭代,大模型種類繁多,使用也越來越簡單了。 在本地跑大模型,個人認(rèn)為目前最好的軟件肯定是Ollama無疑了, 不管你是在PC上跑大模型,在Mac上跑大模型,還有在樹莓派上跑大模型, 我們都可以用Ollama去跑各種大大小小的模型,而且它的擴展性非常強。 02、Ollama本地運行大模型現(xiàn)在安裝Ollama超級簡單的,只需要進入Ollama官網(wǎng)下載安裝包,然后安裝即可。 以下是我個人安裝為例(macOS系統(tǒng)):
直接點擊Next:
如果自己不確定模型名稱可以去官網(wǎng)查看模型 每款大模型都有不同版本,根據(jù)自己的機器來選擇,根據(jù)官網(wǎng)的文檔也說明了,一般7B的模型至少需要8G的內(nèi)存,13B的模型至少需要16G內(nèi)存,70B的模型至少需要64G內(nèi)存。 03、使用Web UI界面連接Ollamaollama沒有界面化的頁面使用,它是在終端里交互的,所有我們要使用圖形化的界面里去操作,這是我們可以使用Open WebUI。 Open WebUI是一個開源的Web UI界面,github地址:https://github.com/open-webui/open-webui
使用Docker方式運行Open WebUI,直接一條命令解決下載和運行:
命令解釋:
啟動日志:
第一次使用時需要進行注冊,這個數(shù)據(jù)都是本地存儲。
04、本地化知識庫1、open-webui界面文檔設(shè)置 2、加載網(wǎng)頁或者文檔 在對話窗口通過 如果對知識庫有更高的需求,可以使用AnythingLLM這個軟件,github地址:https://github.com/Mintplex-Labs/anything-llm 一鍵三連:點贊、分享、在看 |
|