小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

247.2k star! 超強大的私有化ChatGPT,支持圖像識別/文生圖/語音輸入/文本朗讀,個人電腦可運行!

 蒙rrpigqpq6iim 2024-03-09 發(fā)布于貴州

今天作者帶大家實現(xiàn)一個普通配置電腦即可運行的私有化ChatGPT,支持以下功能:

1.界面體驗與ChatGPT官方幾乎一樣。

2.支持多種開源模型,可以聊天、寫代碼、識別圖片內(nèi)容等。

3.支持文生圖。

4.支持麥克風語音輸入聊天。

5.支持自動朗讀回答結(jié)果。

6.支持聯(lián)網(wǎng)使用openai。

前5個功能拔掉網(wǎng)線也能正常使用。先看一下作者本地(16G內(nèi)存無GPU)斷網(wǎng)運行的聊天與圖片識別效果:
圖片
文生圖效果:
圖片
用到的開源項目(文末獲取github地址):

1.界面:open webui,8.1k star,界面漂亮,功能豐富,我們本次主要用它將其他各開源項目組合起來。

2.大模型:ollama,44.8k star,支持使用CPU運行多種開源大模型,部署超級簡單。

3.文生圖:stable diffusion,124k star,最強開源文生圖項目。

4.語音輸入:openai開源的whisper, 57.1k star,CPU可用,效果可與收費產(chǎn)品比肩。

5.文本朗讀:windows系統(tǒng)提供的接口,離線免費使用,后面有介紹。

6.接入openai:GPT_API_free, 13.3k star,免費的openai API key。

下面只有前兩步為必須執(zhí)行的,后面步驟根據(jù)自己需求決定是否執(zhí)行。

1.部署大模型

參考上篇文章43.7k star! 輕松在本地運行Llama2、Gemma等多種大模型,無需GPU!完成第一步操作即可,ollama支持多種優(yōu)秀開源大模型,可根據(jù)需求多下載幾種,按需使用,官方支持的模型:https:///library

2.部署界面

open webui不僅是一個聊天界面,還是一個ollama的客戶端,還有很多其他功能,感興趣可以去github看官方文檔。使用docker一鍵部署:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

圖片

安裝完成之后,瀏覽器輸入http://localhost:3000,選擇模型就可以開始聊天了。可以到設(shè)置界面的General中設(shè)置各種模型參數(shù),到這一步已經(jīng)實現(xiàn)一個基本的私有化ChatGPT了。

圖片

3.圖片識別

先使用ollama下載llava模型,聊天時選擇llava,發(fā)送圖片即可。以下是作者測試的圖片識別效果,連后面有多排座位,有些座位是空的都能準確識別出來!

圖片

4.語音輸入

如果想使用語音輸入功能,可以參考這篇文章部署whisper:54.3k star! 用openai開源的whisper部署自己的語音識別系統(tǒng)。部署好之后,將STT引擎改為whisper(Local),在聊天輸入框就可以點擊麥克風圖標輸入語音了。

圖片

5.文生圖

先本地部署stable diffusion(以下簡稱sd):AI繪畫教程之stable diffusion【2.Windows系統(tǒng)本地部署】

說明:sd需要GPU,但我看sd官方文檔好像支持CPU,作者未驗證。

圖片

接下來坑比較多,作者已解決,照做即可。

5.1 open-webui要調(diào)用sd的接口,因此sd要提供api,修改sd根目錄中的webui.bat,增加以下代碼
set COMMANDLINE_ARGS=--api

如圖所示:

圖片
5.2 open-webui要調(diào)用sd的/sdapi/v1/options接口,但是這個接口報錯,解決方案:sd根目錄新建文件user.css,文件內(nèi)容如下:
[id^='setting_'] > div[style*='position: absolute'] {        display: none !important;}
圖片

5.3 雙擊webui.bat啟動sd,進入open-webui的設(shè)置頁面,按下圖設(shè)置,注意:因為open-webui是在docker部署的,sd是在宿主機部署,open-webui調(diào)用sd接口相當于docker內(nèi)部調(diào)用宿主機服務(wù),所以在瀏覽器雖然用127.0.0.1:7860能訪問sd,但是這里填寫127.0.0.1是無法請求的,按圖示內(nèi)容填寫,如果您的部署方式和作者不一樣,請根據(jù)情況填寫。

圖片

5.4 生成圖片的按鈕只在大模型回復的內(nèi)容下面才會出現(xiàn),并且會把回復的內(nèi)容當成sd的prompt,因此想生成圖片需要先選擇一個模型,讓模型把你想使用的promt回復給你,然后點擊生成圖片按鈕,就可以生成了。

圖片

6.使用openai接口

感覺本地模型運行慢,有時候想用在線的OpenAI接口?沒問題!可以參照這篇獲取免費的API Key:13k star! 獲取免費ChatGPT API Key的開源項目,親測可用!然后按照下圖配置。

圖片

配置后,模型選擇列表中就會自動多出來幾個openai模型,選擇即可使用。

7.文本朗讀功能

按下圖設(shè)置即可開啟朗讀功能,聊天時收到完整響應后會自動朗讀。

圖片

關(guān)于文本朗讀的實現(xiàn)原理,前幾天寫了一篇免費使用TTS的文章:2.8k star! 用開源免費的edge-tts平替科大訊飛的語音合成服務(wù),作者以為這個也應該是調(diào)用了某個在線的TTS服務(wù),但是在console中看不到任何關(guān)于TTS的請求,后來查看源碼才發(fā)現(xiàn)是用HTML5的Speech Synthesis API實現(xiàn)的,這個API可以調(diào)用Windows系統(tǒng)的TTS。以下是代碼,可直接在瀏覽器的console中運行測試。

// 獲取支持的聲音列表speechSynthesis.getVoices()// 合成并播放語音const speak = new SpeechSynthesisUtterance('要播放的文字');// 選擇用哪個聲音speak.voice = speechSynthesis.getVoices()[0];// 執(zhí)行這句就可以聽到聲音了speechSynthesis.speak(speak);

以下是測試截圖:

圖片

利用這個API可以實現(xiàn)免費、離線的TTS功能。

8.各項目地址
ollama:https://github.com/ollama/ollama
open-webui:https://github.com/open-webui/open-webui
stable-diffusion:https://github.com/AUTOMATIC1111/stable-diffusion-webui
whisper:https://github.com/openai/whisper
GPT_API_free:https://github.com/chatanywhere/GPT_API_free

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多