第1講:大模型常見的概念理解常見的AI術(shù)語:大模型(LLM):大語言模型,生成式的大模型;1)監(jiān)督學(xué)習(xí):模型使用已標(biāo)記的數(shù)據(jù)進(jìn)行訓(xùn)練,線性回歸;無監(jiān)督學(xué)習(xí):沒有標(biāo)簽數(shù)據(jù)的情況下從數(shù)據(jù)中發(fā)現(xiàn)模式和結(jié)構(gòu),用于數(shù)據(jù)聚類和降維;半監(jiān)督學(xué)習(xí):結(jié)合少量標(biāo)記數(shù)據(jù)和大量未標(biāo)記數(shù)據(jù)進(jìn)行訓(xùn)練,它利用未標(biāo)記數(shù)據(jù)的豐富信息和少量標(biāo)記數(shù)據(jù)的準(zhǔn)確性來提高模型性能。強(qiáng)化學(xué)習(xí):強(qiáng)化學(xué)習(xí)是一種通過與環(huán)境交互,并基于獎(jiǎng)勵(lì)和懲罰機(jī)制來學(xué)習(xí)最優(yōu)策略的方法。 模型架構(gòu):Transformer架構(gòu):這個(gè)架構(gòu)類型讓大模型具備了理解人類自然語言、上下文記憶、生成文本的能力;MOE架構(gòu):混合多種專家模型,形成一個(gè)參數(shù)量巨大的模型,從而能支持解決多種復(fù)雜的專業(yè)問題; 機(jī)器學(xué)習(xí)技術(shù):NLP技術(shù)(自然語言處理):計(jì)算機(jī)理解、解釋、生成人力語言,用于文本分析、機(jī)器翻譯、語音識別和對話系統(tǒng)等應(yīng)用場景;CV計(jì)算機(jī)視覺技術(shù):NLP處理的是文本,CV解決視的技術(shù),圖像識別技術(shù)、視頻分析技術(shù)、圖像分割技術(shù)等;語音識別和合成技術(shù):語音轉(zhuǎn)換為文本,語音合成技術(shù),文本合成語音技術(shù)(簡稱TTS技術(shù));檢索增強(qiáng)生成技術(shù)(RAG):表示大模型基于搜索引擎和知識庫檢索的內(nèi)容生成內(nèi)容的技術(shù),RAG是大部分AI應(yīng)用落地的時(shí)候都會涉及的技術(shù);知識圖譜 (Knowledge Graph):知識圖譜是一種把知識關(guān)聯(lián)起來的技術(shù),通過知識圖譜技術(shù),可以讓知識之間建立聯(lián)系,幫助模型更好、更快的獲取到最相關(guān)的知識,從而提升模型處理復(fù)雜關(guān)聯(lián)信息,以及AI推理能力;Function Call:在大型語言模型(如GPT等)中,通過調(diào)用模型內(nèi)置的或外部的函數(shù),使其能夠完成特定的任務(wù)或執(zhí)行特定的操作。這一機(jī)制讓模型不僅僅是一個(gè)生成文本的工具,而能夠通過指定調(diào)用不同的功能,執(zhí)行更多樣化、具體的操作。Function Call 讓大模型能夠和多種API能力結(jié)合,從而讓大模型的應(yīng)用更好的落地,比如大模型要支持內(nèi)容檢索、文檔識別等能力,就需要基于Function Call 的能力來實(shí)現(xiàn); 2)大模型訓(xùn)練與優(yōu)化技術(shù)相關(guān)術(shù)語 預(yù)訓(xùn)練 Pre-training:大量數(shù)據(jù)集上訓(xùn)練模型的過程;模型微調(diào) Fine-tuning:在特定任務(wù)或小數(shù)據(jù)集上進(jìn)一步訓(xùn)練模型以提高模型解決針對性問題的表現(xiàn),主要使用垂直領(lǐng)域的數(shù)據(jù),通過微調(diào)獲得的是一個(gè)垂直模型和行業(yè)模型;提示詞工程Prompt Engineering:使用大模型更容易理解的提問方式,讓大模型更好的輸入用戶想要的結(jié)果;模型蒸餾:將大模型(教師模型)的知識傳遞給一個(gè)小模型(學(xué)生模型)的技術(shù)。模型剪枝:模型剪枝表示去除大模型不需要的參數(shù),把整體的參數(shù)規(guī)模降低下來,從而降低模型的計(jì)算量和成本消耗; 3)AI應(yīng)用相關(guān)術(shù)語
4)大模型表現(xiàn)相關(guān)的術(shù)語
2. 如何理解AI、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、NLP等概念關(guān)系3. 如何理解Transformer架構(gòu)?ChatGPT 主要還是得益于Transformer架構(gòu)的設(shè)計(jì),讓模型具備理解上下文、記憶能力、預(yù)測生詞等能力;同時(shí),Transformer的出現(xiàn),也讓大模型不需要像以前一樣需要依賴大量的有標(biāo)注數(shù)據(jù)做訓(xùn)練,而是能夠基于無標(biāo)注數(shù)據(jù)做訓(xùn)練,這個(gè)突破的意義在于,以前做一個(gè)模型需要投入大量的人力去對數(shù)據(jù)做清理、標(biāo)注分類,但是現(xiàn)在只需要將碎片化、零散的數(shù)據(jù)扔給模型,模型也能夠處理,Transformer架構(gòu)和深度學(xué)習(xí)技術(shù)的概念關(guān)系Transformer架構(gòu)屬于深度學(xué)習(xí)技術(shù)領(lǐng)域的一種神經(jīng)網(wǎng)絡(luò)架構(gòu),也就是說屬于深度學(xué)習(xí)技術(shù)里面的一種實(shí)現(xiàn)和設(shè)計(jì)形式,深度學(xué)習(xí)領(lǐng)域,除了Transformer架構(gòu),還有傳統(tǒng)的遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和長短期記憶網(wǎng)絡(luò)(LSTM)架構(gòu); 4. 如何理解Transformer架構(gòu)和GPT之間的關(guān)系:GPT通過大規(guī)模預(yù)訓(xùn)練和微調(diào),來增加生成和理解自然語言的能力,Transformer架構(gòu)出來之后,相當(dāng)于解決了理解上下文、處理大量數(shù)據(jù)、預(yù)測文本的能力,GPT主要使用Transformer的解碼器部分,只關(guān)注生成任務(wù)5. 如何理解MOE架構(gòu):MOE通過組合多個(gè)專家模型來解決一系列的復(fù)雜任務(wù),而不是所有的任務(wù)都交給統(tǒng)一的大模型來解決;第2講:大模型和傳統(tǒng)模型的區(qū)別LLM是一個(gè)生成式的模型,它的主要能力是生成,而不是預(yù)測或者決策等; 具備理解和生成自然語言的能力;能力強(qiáng)大,通用性強(qiáng),可以解決很多問題;具備上下文記憶的能力;訓(xùn)練方式上,基于大量的無標(biāo)注文本,通過無監(jiān)督的方式預(yù)訓(xùn)練;參數(shù)規(guī)模巨大,大部分大模型的參數(shù)規(guī)?;径荚谇|級別以上;訓(xùn)練需要消耗大量的計(jì)算資源. 第5講:LLM大模型的分類有哪些?1. 按照模態(tài)類型劃分按照模態(tài)劃分,目前市面上的大模型,大概可以概括為文本生成模型(例如GPT3.5)、圖像生成模型(例如DALL-E)、視頻生成模型(例如Sora、可靈)、語音生成模型、多模態(tài)模型(例如GPT4.0)等; 第6講:LLM大模型的核心技術(shù)是什么?1. 模型架構(gòu):Transformer架構(gòu) 2. 預(yù)訓(xùn)練與微調(diào) 預(yù)訓(xùn)練(Pre-training):基于大規(guī)模無標(biāo)注數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練 微調(diào)(Fine-tuning):特定的數(shù)據(jù)集上進(jìn)行微調(diào),以適應(yīng)具體的應(yīng)用 3.模型壓縮與加速 模型剪枝(Pruning):通過剪除不重要的參數(shù),可以減少模型大小和計(jì)算復(fù)雜度; 知識蒸餾(Knowledge Distillation):訓(xùn)練一個(gè)較小的學(xué)生模型,使其模仿大模型(教師模型)的行為,從而保留大部分性能的同時(shí)減少計(jì)算開銷。 第7講:大模型開發(fā)的6個(gè)步驟第8講:如何理解大模型的訓(xùn)練和微調(diào)?1)大模型微調(diào)的2個(gè)階段:監(jiān)督微調(diào)(SFT)、強(qiáng)化學(xué)習(xí)(RLHF),兩個(gè)階段存在的差異如下: 2)大模型微調(diào)的2種方式:lora微調(diào),SFT微調(diào)
第9講:影響大模型的表現(xiàn)的主要因素是什么?第10講:如何衡量大模型的好壞?第11講:大模型的局限性有哪些?第12講:如何理解大模型需要的訓(xùn)練數(shù)據(jù)?GPT1 用的是4.8G沒有過濾的原始數(shù)據(jù); GPT2 用的是人工過濾過的40G訓(xùn)練數(shù)據(jù); GPT3 用的是從45T原始數(shù)據(jù)中過濾出來的570G訓(xùn)練數(shù)據(jù); GPT4 在GPT3的技術(shù)上諸如了更多高質(zhì)量的人類標(biāo)注數(shù)據(jù); 第13講:大模型應(yīng)用的三種方式:提示詞工程、RAG、微調(diào)第14講:什么是提示詞工程?第15講:什么是RAG?--------------------------------------------------------------------------------過去一年多,說實(shí)話現(xiàn)在關(guān)于大模型的介紹和說明的文章已經(jīng)非常多了,大部分人其實(shí)也已經(jīng)有了一些基礎(chǔ)的認(rèn)知,但是我自己的感受是,這些信息實(shí)在是太碎片化了,稱不上系統(tǒng)化的認(rèn)知,并且市面上暫時(shí)也沒有看到能夠一口氣全面的講清楚大模型到底是什么這樣的文章; 為了緩解自己的認(rèn)知焦慮,我想親自做一下信息的匯總者,把過去一年理解到的關(guān)于大模型的知識點(diǎn),整理成一篇文章,希望通過一篇文章理解清楚大模型,也算是對自己大量學(xué)習(xí)那么多內(nèi)容的一個(gè)交代; 我將分享哪些內(nèi)容?本篇文章將分享15個(gè)關(guān)于大模型相關(guān)的話題,本來有20個(gè),我刪減了一些可能更加偏技術(shù)的內(nèi)容,修改為更加聚焦在普通人或者產(chǎn)品經(jīng)理應(yīng)該關(guān)注的問題點(diǎn),目標(biāo)是希望作為AI小白用戶,我們只需要掌握和理解這些內(nèi)容就夠了; 適合什么人群?本篇文章比較適合以下幾類朋友:
內(nèi)容聲明:整篇內(nèi)容均為個(gè)人在廣泛的閱讀和消化大量的專家文章、大模型相關(guān)的書籍以及和行業(yè)內(nèi)的專家們請教和學(xué)習(xí)之后匯總的結(jié)果,個(gè)人更多的是作為一個(gè)知識消化和整合者的作用,如果有描述不正確的,歡迎友善的告知我! 第1講:大模型常見的概念理解在開始了解大模型之前,我們先理解一些基礎(chǔ)概念,掌握這些專業(yè)名詞的概念,以及概念之間的關(guān)系,會有利于你后續(xù)閱讀和學(xué)習(xí)任何AI和大模型相關(guān)的內(nèi)容,個(gè)人花費(fèi)了挺多時(shí)間去梳理他們之間的關(guān)系,所以這部分一定要好好閱讀; 1. 常見的AI術(shù)語1)大模型(LLM):現(xiàn)有所有的大模型,指的都是大語言模型,并且指的都是生成式的大模型,可以聯(lián)想到的實(shí)際案例包括GPT4.0,GPT4o等;
2)大模型訓(xùn)練與優(yōu)化技術(shù)相關(guān)術(shù)語
3)AI應(yīng)用相關(guān)術(shù)語
4)大模型表現(xiàn)相關(guān)的術(shù)語
2. 如何理解AI、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、NLP等概念關(guān)系如果你關(guān)注AI和大模型,“AI”“機(jī)器學(xué)習(xí)”“深度學(xué)習(xí)”“NLP”等這幾個(gè)關(guān)鍵詞基本在未來的學(xué)習(xí)中一定會遇到,所以我們最好先理解清楚這幾個(gè)專業(yè)名詞的概念和定義,以及他們之間的邏輯關(guān)系,方便你更加容易理解它們; 概括起來講,這幾個(gè)概念之間的關(guān)系如下: 1.機(jī)器學(xué)習(xí)是AI的一種核心技術(shù),AI的核心技術(shù)除了機(jī)器學(xué)習(xí),還有專家系統(tǒng)、貝葉斯網(wǎng)絡(luò)等(不需要過多深究這些是什么),其中深度學(xué)習(xí)是機(jī)器學(xué)習(xí)中的一種; 2.而NLP是AI的應(yīng)用任務(wù)類型中的一種技術(shù),用于自然語言的處理,除了NLP,AI的應(yīng)用技術(shù)還包括CV計(jì)算機(jī)視覺技術(shù)、語音識別和合成技術(shù)等; 3. 如何理解Transformer架構(gòu)?談到大模型,就不能不提Transformer架構(gòu),如果說大模型是一棵樹,Transformer架構(gòu)就像是模型的主干,ChatGPT這類產(chǎn)品的出現(xiàn),主要還是得益于Transformer架構(gòu)的設(shè)計(jì),讓模型具備理解上下文、記憶能力、預(yù)測生詞等能力;同時(shí),Transformer的出現(xiàn),也讓大模型不需要像以前一樣需要依賴大量的有標(biāo)注數(shù)據(jù)做訓(xùn)練,而是能夠基于無標(biāo)注數(shù)據(jù)做訓(xùn)練,這個(gè)突破的意義在于,以前做一個(gè)模型需要投入大量的人力去對數(shù)據(jù)做清理、標(biāo)注分類,但是現(xiàn)在只需要將碎片化、零散的數(shù)據(jù)扔給模型,模型也能夠處理,我們通過如下幾點(diǎn)具體了解這些概念: Transformer架構(gòu)和深度學(xué)習(xí)技術(shù)的概念關(guān)系Transformer架構(gòu)屬于深度學(xué)習(xí)技術(shù)領(lǐng)域的一種神經(jīng)網(wǎng)絡(luò)架構(gòu),也就是說屬于深度學(xué)習(xí)技術(shù)里面的一種實(shí)現(xiàn)和設(shè)計(jì)形式,深度學(xué)習(xí)領(lǐng)域,除了Transformer架構(gòu),還有傳統(tǒng)的遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和長短期記憶網(wǎng)絡(luò)(LSTM)架構(gòu); 4. 如何理解Transformer架構(gòu)和GPT之間的關(guān)系GPT的的英文全稱是,生成式預(yù)訓(xùn)練 Transformer(Generative Pre-trained Transformer,GPT),因此GPT就是基于Transformer架構(gòu)的而開發(fā)出來的一種大語言模型,由OpenAI開發(fā)。 GPT的核心思想是通過大規(guī)模預(yù)訓(xùn)練和微調(diào),來增加生成和理解自然語言的能力,可以理解為,Transformer架構(gòu)出來之后,相當(dāng)于解決了理解上下文、處理大量數(shù)據(jù)、預(yù)測文本的能力,但是openai首次采用預(yù)訓(xùn)練 微調(diào)這種形式來改進(jìn)和使用Transformer架構(gòu),使它具備了chatgpt這類產(chǎn)品的理解自然語言和生成自然語言的能力; GPT之所以能具備生成和理解自然語言的能力,是因?yàn)轭A(yù)訓(xùn)練階段通過大規(guī)模未標(biāo)注文本語料庫學(xué)習(xí)廣泛的語言模式和知識,且預(yù)訓(xùn)練任務(wù)通常是語言模型任務(wù),即給定一個(gè)序列的前部分,預(yù)測下一個(gè)詞,這種方式使模型能夠理解語言的結(jié)構(gòu)和上下文關(guān)系,具體的差異點(diǎn)如下: 1)能力差異上:Transformer架構(gòu)是讓模型具備理解上下文、處理大量數(shù)據(jù)、預(yù)測文本的能力,但是還不具備理解自然語言、生成自然語言的能力;而GPT在增加了自然語言的預(yù)訓(xùn)練之后,具備了理解和生成自然語言的能力; 2)架構(gòu)基礎(chǔ)上:
3)解決特定問題的實(shí)現(xiàn)方式上:
4)應(yīng)用領(lǐng)域上:
5. 如何理解MOE架構(gòu)除了Transformer架構(gòu),最近還流行的另一種架構(gòu)是MOE架構(gòu)(Mixture of Experts),它用于動(dòng)態(tài)選擇和組合多個(gè)子模型(即專家)以完成任務(wù)。MOE的關(guān)鍵思想是,通過組合多個(gè)專家模型來解決一系列的復(fù)雜任務(wù),而不是所有的任務(wù)都交給統(tǒng)一的大模型來解決; MOE架構(gòu)的主要優(yōu)勢在于能夠在大規(guī)模數(shù)據(jù)和模型參數(shù)的情況下仍保持計(jì)算效率,且能夠在保持模型能力的同時(shí)顯著減少計(jì)算成本。 Transformer和MOE可以結(jié)合使用,這種結(jié)合通常被稱為MOE-Transformer或Sparse Mixture of Experts Transformer。在這種架構(gòu)中:
第2講:大模型和傳統(tǒng)模型的區(qū)別通常當(dāng)我們談到大模型的時(shí)候,指的是LLM 大語言模型,或者說更具體一點(diǎn)指的是GPT類的模型(基于Transformer架構(gòu)的生成式預(yù)訓(xùn)練模型),首先它是一個(gè)語言模型,解決的是自然語言任務(wù)方向的問題,而不是圖片、視頻、語音等領(lǐng)域的問題(同時(shí)具備語言、圖片、視頻、語音等多個(gè)模態(tài)的模型,后來稱之為多模態(tài)大模型,與LLM不是同一個(gè)概念);其次LLM是一個(gè)生成式的模型,也就是說它的主要能力是生成,而不是預(yù)測或者決策等; 區(qū)別于傳統(tǒng)的模型,大模型概括起來具備如下的特點(diǎn):
第3講:大模型的演變歷程1. 大模型的生成能力的演變歷程了解LLM的演變歷程,可以幫助大家了解大模型是如何一步一步的具備如今的能力的,也更加容易理解LLM和Transformer之間的關(guān)系,如下的歷程為大模型的演變歷程:
備注:以上內(nèi)容引用自《大模型應(yīng)用開發(fā)極簡入門》 2. GPT1到GPT4的發(fā)展歷程GPT1:首次引入了無監(jiān)督的訓(xùn)練步驟,解決了以前模型訓(xùn)練需要大量的標(biāo)注數(shù)據(jù)的問題,無監(jiān)督的訓(xùn)練方式,可以允許GPT基于大量的無標(biāo)注數(shù)據(jù)做訓(xùn)練;但是局限性在于,在因?yàn)镚PT1的參數(shù)規(guī)模比較?。▍?shù)規(guī)模只有1.17億),所以一旦遇到復(fù)雜任務(wù)的時(shí)候,如果沒有經(jīng)過監(jiān)督微調(diào),便無法解決,所以需要針對很多復(fù)雜任務(wù)做很多的微調(diào)后才能使用,比較麻煩; GPT2:參數(shù)規(guī)模提到到15億,訓(xùn)練文本大小擴(kuò)大四倍,增加到40G,通過增加參數(shù)規(guī)模和提高訓(xùn)練數(shù)據(jù)的規(guī)模,可以提高模型的能力,但是依然存在解決復(fù)雜問題的局限問題; GPT3:參數(shù)規(guī)模拓展到1750億,該階段GPT3已經(jīng)在文本生成和語言理解方面達(dá)到非常強(qiáng)的表現(xiàn),并且取消了微調(diào)的步驟,也就是會說不需要微調(diào)也能解決復(fù)雜問題了;但是GPT3存在的局限,是因?yàn)槟P褪窃诤芏嗷ヂ?lián)網(wǎng)數(shù)據(jù)上語序連的,預(yù)訓(xùn)練數(shù)據(jù)中可能會包含虛假和錯(cuò)誤的文本,包括種族歧視、性別歧視等,所以導(dǎo)致模型會說錯(cuò)話,存在安全問題; InstructGPT:為了解決GPT3的局限性問題,GPT3在預(yù)訓(xùn)練之后,增加了監(jiān)督微調(diào)(SFT)、和通過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的步驟,調(diào)整優(yōu)化模型的出錯(cuò)的問題,這樣的模型成為InstructGPT;該過程的原理是,首先先提供一些真實(shí)的”標(biāo)準(zhǔn)答案“的數(shù)據(jù)給模型讓模型完成監(jiān)督微調(diào);第二步,構(gòu)建一個(gè)生成結(jié)果的評分模型(構(gòu)建的方式同樣需要人為提供一些打分?jǐn)?shù)據(jù)),用于對生成結(jié)果做評分;第三步,用評分模型自動(dòng)給模型生成的結(jié)果評分,然后將評分結(jié)果應(yīng)用于模型的策略優(yōu)化,讓模型越來越好;所以,現(xiàn)在很多大模型廠商解決幻覺率的問題,關(guān)鍵還是在于監(jiān)督微調(diào)階段提供的數(shù)據(jù)質(zhì)量和數(shù)量情況,以及評分模型是否更強(qiáng)大; GPT3.5:2022年3月份,openai發(fā)布了GPT3的新版本,它的訓(xùn)練數(shù)據(jù)截止到2021年6月份,訓(xùn)練數(shù)據(jù)規(guī)模更大達(dá)到45T,11月openai稱之為GPT3.5; GPT4.0:2023年4月份,OpenAI發(fā)布了GPT4.0,整體的推理能力上大幅提升,并且支持了多模態(tài)能力; GPT4o:2024年5月份,發(fā)布GPT4o,增強(qiáng)了語音聊天等能力; O1:2024年9月份,openai推出O1模型,主打思維鏈能力,提升模型的思考能力; 備注:以上內(nèi)容引用自《大模型應(yīng)用開發(fā)極簡入門》 第4講:大模型生成文本的原理1. GPT是如何生成文本的?大模型生成文本的過程,概括起來包括如下5個(gè)步驟:
備注:以上內(nèi)容引用自《大模型應(yīng)用開發(fā)極簡入門》 第5講:LLM大模型的分類有哪些?1. 按照模態(tài)類型劃分按照模態(tài)劃分,目前市面上的大模型,大概可以概括為文本生成模型(例如GPT3.5)、圖像生成模型(例如DALL-E)、視頻生成模型(例如Sora、可靈)、語音生成模型、多模態(tài)模型(例如GPT4.0)等; 2. 按照訓(xùn)練的階段劃分按照訓(xùn)練的階段可以劃分為基礎(chǔ)語言模型和指令微調(diào)的模型
3. 按照通用模型和行業(yè)模型劃分市面上的大模型也可以劃分為通用大模型和行業(yè)大模型兩類,通用大模型在廣泛的任務(wù)和領(lǐng)域中雖然表現(xiàn)良好,但是某些行業(yè)或領(lǐng)域有特定的數(shù)據(jù)、術(shù)語和任務(wù),通用大模型可能無法充分理解和利用這些領(lǐng)域特定的信息,因此不一定能解決特定行業(yè)和場景的問題;行業(yè)大模型則是基于通用大模型通過專門的訓(xùn)練和調(diào)整,行業(yè)大模型可以在特定領(lǐng)域內(nèi)實(shí)現(xiàn)更高的性能和精度,它們能解決特定問題; 第6講:LLM大模型的核心技術(shù)是什么?該部分可能有比較多的技術(shù)術(shù)語,比較難理解,不過對于產(chǎn)品經(jīng)理而言,我們可能不太需要去深究其技術(shù)細(xì)節(jié),只需要知道其關(guān)鍵概念的能力即可,AI產(chǎn)品經(jīng)理對于技術(shù)術(shù)語的理解是有必要的,這可以幫助自己在后續(xù)和研發(fā)和技術(shù)溝通的時(shí)候降低溝通難度; 1. 模型架構(gòu):關(guān)于Transformer架構(gòu),前面已經(jīng)有比較多的描述,這里便不贅述了,但是Transformer架構(gòu)是大模型最基礎(chǔ)的核心技術(shù)之一; 2. 預(yù)訓(xùn)練與微調(diào)
3.模型壓縮與加速
第7講:大模型開發(fā)的6個(gè)步驟根據(jù)OpenAI公布的相關(guān)信息,大模型的開發(fā),通常會經(jīng)過如下6個(gè)步驟,基本上,目前這套流程應(yīng)該也是行業(yè)內(nèi)大部分大模型的開發(fā)的過程:
第8講:如何理解大模型的訓(xùn)練和微調(diào)?1. 理解大模型訓(xùn)練相關(guān)內(nèi)容1)大模型訓(xùn)練需要哪些數(shù)據(jù)?
2)訓(xùn)練數(shù)據(jù)來源
3)大模型訓(xùn)練需要哪些成本?
2. 理解大模型微調(diào)相關(guān)內(nèi)容1. 大模型微調(diào)的2個(gè)階段:監(jiān)督微調(diào)(SFT)、強(qiáng)化學(xué)習(xí)(RLHF),兩個(gè)階段存在的差異如下: 2)大模型微調(diào)的2種方式:lora微調(diào),SFT微調(diào) 目前模型的微調(diào)方式有2種,一種是lora微調(diào),一種是SFT微調(diào),這兩種方式的區(qū)別在于:
第9講:影響大模型的表現(xiàn)的主要因素是什么?大家都知道,市面上雖然后很多的大模型,但是不同模型之間的成立差異是存在的,像openai的模型,在行業(yè)內(nèi)占據(jù)領(lǐng)先地位,為什么大模型之間會存在能力差異,具體影響大型模型表現(xiàn)的五個(gè)最重要的因素如下:
第10講:如何衡量大模型的好壞?從大模型的應(yīng)用端的角度上看,如何去衡量一個(gè)大模型的好壞,其評估的框架是什么樣的,通過這部分,你可以大概知道,市面上的測評機(jī)構(gòu),都是從哪些維度,去評估大模型的能力的,同時(shí),如果你面臨大模型的選型問題的時(shí)候,應(yīng)該如何去選擇,建立自己的判斷體系; 在閱讀和參考了多個(gè)關(guān)于大模型衡量的參考文獻(xiàn)之后,個(gè)人將大模型的評估維度概括為3個(gè)方面: 完整的評估體系,通過一張圖概括如下: 1. 如何衡量大模型的產(chǎn)品表現(xiàn)能力通常衡量一個(gè)大模型的產(chǎn)品表現(xiàn)能力,主要從如下幾個(gè)維度去評估: 1)語義理解能力:語義理解能力首先包括語義、語法、語境這幾個(gè)基礎(chǔ)維度,它基本決定了你能否正常和模型對話,以及模型說的是不是人話;特別是中文語義理解能力;再者就是除了中文理解之外,能否支持多語言理解能力; 2)邏輯推理:包括模型的推理思考能力、數(shù)值計(jì)算能力和上下文理解能力,這是大模型最核心的能力之一,直接決定的模型的聰明程度; 3)生成內(nèi)容準(zhǔn)確性:包括幻覺的情況和陷阱識別的能力 4)幻覺率:其中包括模型回復(fù)內(nèi)容和結(jié)果的準(zhǔn)確性,有的時(shí)候模型會胡說八道,而你還信以為真,這就很坑爹; 5)陷阱信息識別率:所以側(cè)面的我們也會看模型對于陷阱信息的識別和處理能力,識別人力差的模型,經(jīng)常會出現(xiàn)你給了一些錯(cuò)誤的信息,然后模型基于錯(cuò)誤信息前提還侃侃而談; 6)生成內(nèi)容質(zhì)量:在保證生成內(nèi)容真實(shí)準(zhǔn)確的前提下,衡量生成質(zhì)量的維度包括:
7)上下文記憶的能力:代表模型的記憶能力和上下文窗口長度; 8)模型性能情況:包括回復(fù)速度、資源消耗、魯棒性和穩(wěn)定性(針對異常和未知信息的處理能力及可靠性); 9)擬人性:這個(gè)維度就是評估模型是不是真的”通人性“,達(dá)到智能的程度,其中包括情感分析的能力; 10)多模態(tài)能力:最后則是看模型在跨模態(tài)處理和生成上的能力,包括文本、圖片、視頻、語音等; 2. 如何衡量大模型的基礎(chǔ)能力大家都知道衡量大模型的基礎(chǔ)能力最重要的3個(gè)要素是:算法、算力、數(shù)據(jù);更具體一點(diǎn),則主要包括如下幾部分:
3. 如何評估模型的安全性除了對大模型的能力考量之外,大家也非常重視模型的安全性的考量,因?yàn)榧词鼓芰υ購?qiáng),安全問題沒有得到很好的解決,大模型也無法迅速發(fā)展,我們主要從如下幾個(gè)維度評估模型的安全性:
第11講:大模型的局限性有哪些?1. “幻覺”問題幻覺問題指的是模型生成看似合理但實(shí)際上是錯(cuò)誤或虛構(gòu)的信息。在自然語言處理中,這可能表現(xiàn)為模型生成的文本或回答在表面上看起來合理,但實(shí)際上卻缺乏真實(shí)性或準(zhǔn)確性;從目前大模型的表現(xiàn)看,幻覺問題,是大部分用戶對于大模型應(yīng)用產(chǎn)生質(zhì)疑,以及大模型生成結(jié)果難以直接使用的主要原因之一,目前也是較難解決的問題;對于AI應(yīng)用層而言,也是最頭疼的問題; 大模型為什么會出現(xiàn)幻覺的情況?主要來源于如下幾個(gè)原因:
是否有緩解幻覺問題的解決方案?目前看,可能能通過如下幾個(gè)方式緩解幻覺問題,至于根本性的解決,目前行業(yè)似乎并沒有看到特別好的方法:
2. “失憶”問題失憶問題是指模型在長對話或復(fù)雜語境中可能遺忘先前提到的信息,導(dǎo)致生成的內(nèi)容缺乏一致性和上下文完整性;導(dǎo)致失憶的主要原因包括:
目前行業(yè)內(nèi)似乎對于失憶問題,已經(jīng)可以有一定的緩解,據(jù)了解,相應(yīng)的解決方法包括:
3. “生成不當(dāng)內(nèi)容”問題生成不當(dāng)內(nèi)容問題指的是模型在生成文本時(shí)可能產(chǎn)生不適當(dāng)、有害或歧視性的內(nèi)容,引發(fā)道德和社會責(zé)任問題。導(dǎo)致失憶的主要原因包括:
對于以上的關(guān)于生成內(nèi)容的安全、倫理、道德等相關(guān)的問題,目前國內(nèi)大部分的廠商似乎也得到了一定的解決,包括對模型的輸入和輸出內(nèi)容經(jīng)過安全引擎做過濾和處理,避免了對用戶直接輸出不恰當(dāng)?shù)膬?nèi)容; 4. 難以解決專業(yè)問題和垂直場景問題盡管大模型在許多領(lǐng)域表現(xiàn)出色,但是他更像是一個(gè)什么都會的通才,在特定領(lǐng)域的表現(xiàn)可能不佳,特別是在需要專業(yè)知識和細(xì)致推理的任務(wù)中,大模型可能無法提供最佳解決方案;當(dāng)然這個(gè)問題,市面上存在較多解決方案可以解決該問題,包括訓(xùn)練和微調(diào)行業(yè)大模型、包括結(jié)合工作流和思維鏈的Agent設(shè)計(jì)、抑或是最簡單的通過提示詞工程解決; 至此,對于入門階段對大模型的認(rèn)知和理解,我先這里,后續(xù)我將單獨(dú)輸出一篇“大模型20講,從產(chǎn)品經(jīng)理的角度看大模型”,從我自己的角度深度理解大模型 5. “復(fù)讀機(jī)”問題復(fù)讀機(jī)問題是指在大語言模型在面對相同或相似的問題時(shí),產(chǎn)生與先前看到的答案相似或重復(fù)的輸出,這使得模型似乎陷入了一種“復(fù)讀機(jī)”式的行為;導(dǎo)致模型復(fù)讀機(jī)問題的原因主要包括如下:
解決復(fù)讀機(jī)問題的主要包括引入更多多樣化的訓(xùn)練數(shù)據(jù),增加上下文長度和記憶長度,以及通過調(diào)整溫度參數(shù)等提高創(chuàng)造性; 第12講:如何理解大模型需要的訓(xùn)練數(shù)據(jù)?1. 訓(xùn)練數(shù)據(jù)對大模型發(fā)展的重要性前面提到過,算法、算力、數(shù)據(jù)是大模型發(fā)展的三大基石,高質(zhì)量、更豐富的數(shù)據(jù)是大模型的關(guān)鍵驅(qū)動(dòng)力,以GPT為例,GPT1到GPT4的模型架構(gòu)上其實(shí)基本相似,但是訓(xùn)練數(shù)據(jù)的情況卻大有不同,帶來明顯不同的模型能力:
2. 訓(xùn)練大語言模型的數(shù)據(jù)要求1)不同階段需要的數(shù)據(jù)要求不同 大語言模型所需要的數(shù)據(jù)內(nèi)容與質(zhì)量將根據(jù)訓(xùn)練的階段有所不同,包括預(yù)訓(xùn)練(Pre-training)、監(jiān)督微調(diào)(SFT)、基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)三個(gè)階段,三個(gè)階段分別需要的語料特征可以概括為“廣”、“齊”和“?!?。 2)訓(xùn)練多模態(tài)模型的數(shù)據(jù) 多模態(tài)模型則模擬人類大腦處理信息的方式,把各種感知模態(tài)結(jié)合起來,以更全面、綜合的方式理解和生成信息,其在訓(xùn)練階段更多地需要大量圖像-文本對、視頻-文本對等有標(biāo)注數(shù)據(jù)集。 3)訓(xùn)練數(shù)據(jù)的來源 基于開源數(shù)據(jù)集:開源數(shù)據(jù)集是其中一個(gè)方案,但是目前的開源數(shù)據(jù)集中,中文數(shù)據(jù)的規(guī)模比較少,并且開源數(shù)據(jù)集也需要經(jīng)過過濾處理才能真正使用; 合成數(shù)據(jù):根據(jù)是否基于實(shí)際數(shù)據(jù)集生成,合成數(shù)據(jù)生成方法主要分為基于真實(shí)數(shù)據(jù)集構(gòu)建,和通過使用現(xiàn)有模型或者人類專業(yè)背景知識來創(chuàng)建等兩類; 4)中美訓(xùn)練數(shù)據(jù)的現(xiàn)狀差異 美國的現(xiàn)狀: 美國在獲取大模型數(shù)據(jù)方面的現(xiàn)狀體現(xiàn)了政府與社會力量的緊密合作。美國聯(lián)邦政府發(fā)揮了AI訓(xùn)練數(shù)據(jù)“匯聚融合”的角色,而美國社會力量則整合了政府?dāng)?shù)據(jù)與網(wǎng)絡(luò)公開數(shù)據(jù),并形成高質(zhì)量訓(xùn)練語料。 中國的現(xiàn)狀: 目前國內(nèi)的數(shù)據(jù)發(fā)展情況相比美國還有一些差距,一方面我國尚未形成對大模型提供有效供給的數(shù)據(jù)資源生態(tài);其次我國的公共數(shù)據(jù)覆蓋范圍比美國更廣,但在開放共享和開發(fā)利用程度上仍有不足;再者,我國的數(shù)據(jù)資源主要通過結(jié)合海外優(yōu)質(zhì)開源數(shù)據(jù)集翻譯為中文語料,產(chǎn)出訓(xùn)練數(shù)據(jù)集; 1. 如何理解這三種方式的區(qū)別?對于將大模型應(yīng)用于具體的應(yīng)用場景的時(shí)候,為了讓大模型能更好的解決你的應(yīng)用問題,除了訓(xùn)練一個(gè)單獨(dú)的大模型,目前可以支持3種成本相對更低的方式: 怎么理解這三種方式,具體形象的例子,模型有的時(shí)候回答質(zhì)量一般可能會存在如下幾個(gè)原因:
提示詞工程就相當(dāng)于解決第一個(gè)問題,讓用戶的問題問的更清楚;RAG則是通過檢索輸入一些專業(yè)的知識和信息,幫助模型解決問題;微調(diào)則相當(dāng)于提升模型自身的能力,讓模型通過一些技能培訓(xùn)具體解決該專業(yè)問題的能力; 2. 如何選擇合適的方式?那么這三種方式,到底選擇什么方式比較合適,這個(gè)主要要根據(jù)具體的業(yè)務(wù)情況: 第一,個(gè)人覺得如果能通過提示詞解決的,肯定第一優(yōu)先級用提示詞工程的方式解決 這個(gè)是實(shí)現(xiàn)成本最低的方式,并且有的時(shí)候,只是提示詞的優(yōu)化,便能帶來很好的效果改善,其優(yōu)化效果甚至由于微調(diào)和RAG;但是提示詞存在的局限在于一旦提示詞太長,超過模型的上下文的時(shí)候,模型會出現(xiàn)混亂的情況,或者不理解提示詞內(nèi)容的問題,會影響效果; 至于RAG和微調(diào),到底用什么方式,可以基于如下幾個(gè)考量因素具體評估:
第14講:什么是提示詞工程?提示詞工程是AI產(chǎn)品經(jīng)理的必備技能,熟練的掌握提示詞工程可以讓你在優(yōu)化自己的AI產(chǎn)品的時(shí)候獲得更好的輸出;此外,個(gè)人認(rèn)為,未來的AI產(chǎn)品在面向普通用戶端的時(shí)候,一定是弱化提示詞的設(shè)計(jì)要求的,用戶只需要一句簡單的需求,就可以獲得自己想要的效果,但是其背后的輸出邏輯的設(shè)計(jì)是需要AI產(chǎn)品經(jīng)理來設(shè)計(jì)的,而這一個(gè)背后的實(shí)現(xiàn)方式,其實(shí)概括起來就是“提示詞 研發(fā)工程”,所以部分我們從概念到實(shí)操深度了解提示詞工程; 1. 什么是提示詞工程?前面我們已經(jīng)大概介紹了提示詞工程是什么,簡單一點(diǎn)講,就是通過更好的設(shè)計(jì)提示詞,讓模型獲得更好的輸出結(jié)果,因此我們把利用不同的提示詞策略優(yōu)化大模型性能從而獲得更好的生成結(jié)果的工程成為提示詞工程; 2. 提示詞工程對于AI產(chǎn)品經(jīng)理為什么非常重要?提示詞工程是AI產(chǎn)品經(jīng)理的入門必修課很多人可能會覺得,要讓AI生成好的結(jié)果,可能需要給模型投喂更多的數(shù)據(jù),或者訓(xùn)練微調(diào)一個(gè)專門解決該問題的模型出來,但是實(shí)際上目前通過有效的優(yōu)化一下提示詞,就可以獲得原來需要微調(diào)才能做到的效果,因此提示詞的優(yōu)化是一種更低成本的方式,所以對于未來的AI產(chǎn)品應(yīng)用的落地實(shí)現(xiàn),首先應(yīng)該先通過提示詞設(shè)計(jì)來實(shí)現(xiàn),然后再考慮通過研發(fā)工程彌補(bǔ)提示詞做不到的事情; 產(chǎn)品經(jīng)理未來的工作是封裝工程,讓用戶直接獲得結(jié)果短期而言,大模型對于提示詞的依賴程度還是比較高,但是我們不能指望所有的用戶都懂得設(shè)計(jì)提示詞,產(chǎn)品經(jīng)理的工作,是理解用戶的需求之后,封裝隱藏背后的實(shí)現(xiàn)工程,讓用戶直接獲得結(jié)果,而封裝工程的其中一部分就是提示詞工程,然后才是傳統(tǒng)的產(chǎn)品研發(fā)工程; 未來的產(chǎn)品經(jīng)理是先向模型提需求,再向研發(fā)提需求我們都知道,產(chǎn)品經(jīng)理的本質(zhì)工作,是發(fā)現(xiàn)需求,然后設(shè)計(jì)解決需求的解決方案,和傳統(tǒng)的互聯(lián)網(wǎng)的產(chǎn)品經(jīng)理的工作稍微不同的是,以前產(chǎn)品經(jīng)理是向研發(fā)提需求,讓研發(fā)實(shí)現(xiàn),而未來產(chǎn)品經(jīng)理的工作,是首先先向模型提需求獲得解決方案,然后再向研發(fā)提需求; 3. 提示詞工程可以/不可以解決哪些問題?概括起來,提示詞工程能夠做的事情,就是通過提示詞設(shè)計(jì),誘導(dǎo)模型輸出更好的結(jié)果,所以是充分的調(diào)用模型自身的能力;但是提示詞無法解決大模型本身的局限性問題,包括模型無法聯(lián)網(wǎng)檢索、存在幻覺和失憶等問題;同時(shí),提示詞也受限于模型上下文長度的問題,面對一些輸入較長的場景,提示詞會失效,需要通過一些其他的方式解決,包括提示詞的分拆等; 4. 如何更好的設(shè)計(jì)提示詞?1)提示詞的組成部分
2)提示詞設(shè)計(jì)案例 以下以我自己設(shè)計(jì)的一個(gè)用于自動(dòng)針對某一個(gè)概念關(guān)鍵詞,讓AI生成提問問題,從而幫助自己加深對概念的認(rèn)知的提示詞設(shè)計(jì),將該段提示詞提交給ChatGPT類產(chǎn)品,便可執(zhí)行AI程序,以下只是提供一個(gè)結(jié)構(gòu)示范,具體的效果需要持續(xù)的調(diào)整提示詞才能獲得更好的輸出; ## Profile - Author: luzhuanghua - Version: 0.1- Language: 中文- Description: 自動(dòng)針對概念關(guān)鍵詞設(shè)計(jì)提問框架## 角色(role)你現(xiàn)在是一個(gè)擅長通過提問學(xué)習(xí)的專家,你會為了了解某一個(gè)概念關(guān)鍵詞而輸出一個(gè)提問框架,幫助別人按照這個(gè)提問框架學(xué)習(xí)便可以系統(tǒng)的了解這個(gè)概念;## 目標(biāo)(target)每當(dāng)我給你一個(gè)關(guān)鍵詞概念的時(shí)候,你需要幫助我建立一個(gè)快速理解關(guān)鍵詞概念的提問框架,幫助我通過這個(gè)框架可以快速的理解一個(gè)關(guān)鍵詞概念;## 背景(context)每當(dāng)我想要了解一個(gè)陌生的概念的時(shí)候,我在梳理概念理解的框架的時(shí)候,需要花費(fèi)很多的時(shí)間,現(xiàn)在我想要設(shè)計(jì)一個(gè)提示詞可以快速的建立一個(gè)概念關(guān)鍵詞的提問框架;## 工作流(workflow)執(zhí)行這個(gè)工作,你需要按照2個(gè)步驟走:第1步:提醒我輸入我要輸入的目標(biāo)關(guān)鍵詞,當(dāng)我輸入關(guān)鍵詞之后,請執(zhí)行下一步;第2步:當(dāng)我輸入關(guān)鍵詞之后,請你圍繞該關(guān)鍵詞,設(shè)計(jì)一個(gè)提問列表,這個(gè)列表是為了方便我理解這個(gè)關(guān)鍵詞的概念而設(shè)計(jì)的;舉個(gè)例子,當(dāng)我輸入”大模型“這個(gè)關(guān)鍵詞的時(shí)候,請你幫我輸出類似如下的問題列表:1.什么是大模型?2.大模型和傳統(tǒng)的模型有什么區(qū)別?3.大模型的特點(diǎn)是什么?4.大模型的原理是什么?5.大模型的核心技術(shù)是什么?6.大模型有什么用?第3步:請跟我確認(rèn)問題框架是否有問題,當(dāng)我回復(fù)你”沒有問題“的時(shí)候,接下來往第4步走;第4步:請你針對以上的問題框架做解答,生成具體的問題的答案,然后詢問我是否滿意,當(dāng)我回復(fù)你”滿意“的時(shí)候,我們回到第1步提醒我輸入新的關(guān)鍵詞,然后重新開始尋這個(gè)循環(huán);##約束條件1.提問內(nèi)容不要重復(fù);2.不要提問超出角色理解范圍的內(nèi)容;## Initialization請輸入你想要了解的關(guān)鍵詞概念 3)提示詞設(shè)計(jì)的8個(gè)基本技巧 以下概括總結(jié)幾個(gè)具體寫提示詞時(shí)需要遵守的基本原則,該部分也基本上是openai官方對外公開的對于提示詞設(shè)計(jì)的建議:
4)高階提示詞設(shè)計(jì)的策略 AI產(chǎn)品經(jīng)歷在設(shè)計(jì)提示詞的時(shí)候,除了注意提示詞設(shè)計(jì)的基本原則,也可以借鑒一些比較好的設(shè)計(jì)策略或設(shè)計(jì)思想,這是對提示詞工程的高階應(yīng)用,以下總結(jié)幾個(gè)行業(yè)內(nèi)的高手分享過的一些提示詞設(shè)計(jì)策略如下:
產(chǎn)品經(jīng)理在設(shè)計(jì)提示詞的時(shí)候,可以綜合以上多種策略思路,嘗試調(diào)整和優(yōu)化自己的提示詞; 5)不斷的嘗試和調(diào)試提示詞,才是發(fā)掘提示詞工程和經(jīng)驗(yàn)的關(guān)鍵 雖然前面我們分享了很多關(guān)于提示詞工程相關(guān)的策略和技巧,不過從個(gè)人實(shí)踐下來,并不是所有的技巧和策略均百分百有效,目前我們通過提示詞對大模型能力的探索,還存在非常多的未知和隨機(jī),有的時(shí)候很多你頭疼不已的難題,可能只是在不經(jīng)意間的一個(gè)小調(diào)整,哪怕是修改了一個(gè)符號,問題就被莫名其妙的解決了,所以我們常常覺得,大模型的能力是個(gè)充滿神秘的未知領(lǐng)域,需要自己在實(shí)踐中多嘗試和摸索,可能就又會發(fā)現(xiàn)更多的新的技巧和經(jīng)驗(yàn); 其次就是需要耐心,調(diào)整提示詞的過程挺枯燥的,不要一下子獲取不到目標(biāo)結(jié)果就放棄,多嘗試一些思路,耐心調(diào)試,才能獲得想要的效果; 第15講:什么是RAG?1. 從產(chǎn)品經(jīng)理的視角理解RAGRAG的全稱是「Retrieval-Augmented Generation」,檢索增強(qiáng)生成,現(xiàn)在是生成式AI問答中非常常見的一種技術(shù),包括應(yīng)該于AI搜索、基于知識庫的對話問答等; RAG實(shí)現(xiàn)檢索問答的整個(gè)過程和原理如下,我們以用戶輸入的查詢?yōu)椋骸皧W運(yùn)會歷史背景是什么,2024年巴黎奧運(yùn)會在哪里舉辦?”這個(gè)問題為例:
2. RAG實(shí)操的過程中會遇到的具體問題用戶輸入問題環(huán)節(jié):需要對用戶的問題做進(jìn)一步的信息補(bǔ)充和改寫,讓用戶的問題更加的清晰和詳細(xì); 把問題補(bǔ)充的更清晰:因?yàn)橛脩籼峤粏栴}的時(shí)候,事實(shí)上是可能存在很多隱藏信息沒有被寫出來的,大模型不一定能夠理解背后的隱藏信息,所以需要產(chǎn)品經(jīng)理或者技術(shù),將其中的隱藏信息提現(xiàn)到提交給模型的問題上;通常這可能需要一個(gè)類似于意圖識別的模型來完整的實(shí)現(xiàn)該能力,其中包括,通過獲取用戶的畫像標(biāo)簽,并結(jié)合問題和上下文,推測用戶問題背后的目的和用途,或者控制輸出內(nèi)容的專業(yè)程度,又或者是設(shè)計(jì)輸出的角色和口吻等;舉個(gè)例子,比如一個(gè)用戶輸入的問題是”北京有什么好玩的?“這個(gè)問題:可以理解用戶目前可能是一個(gè)旅客,要去北京旅游,需要的可能是一份北京的旅游攻略,并且結(jié)合其用戶畫像比如可能是個(gè)學(xué)生,因此其消費(fèi)力可能不一定很強(qiáng),需要一些性價(jià)比高的攻略,可以以導(dǎo)游的身份輸出相關(guān)的內(nèi)容;由此最后我們梳理給模型的更加完整的問題可能是”用戶是一個(gè)學(xué)生,目前要去北京旅游,需要輸出一份北京的旅游攻略,這個(gè)旅游攻略需要比較有性價(jià)比,用戶的消費(fèi)力可能不太強(qiáng),你的輸出方式需要以一個(gè)耐心的導(dǎo)游的方式,輸出一個(gè)完整的旅游攻略“ 對問題做聯(lián)想擴(kuò)充:其次,用戶有的時(shí)候可能只是問了一個(gè)問題,但是其背后可能是想要了解更多的內(nèi)容,所以我們需要對問題做擴(kuò)充,盡量給用戶完整的答案,既能回答用戶在提問的問題,又能回答用戶想問但是沒有寫清楚的問題,而不是傻瓜式的問啥的就回答啥;例如前面的問題,用戶問的是”北京有什么好玩的?“其背后可能想要了解北京的吃喝玩樂的所有內(nèi)容,而不是只有”玩“,我們需要幫用戶把問題擴(kuò)充; 對檢索結(jié)果的篩選:基于用戶的問題搜索的結(jié)果,我們可能需要對其做一層篩選和排序,選擇有限的一部分內(nèi)容,而不是把所有的結(jié)果都呈現(xiàn)給用戶,這個(gè)過程稱為ranking的過程,該過程主要涉及到檢索結(jié)果的排序算法; 搜索結(jié)果的內(nèi)容識別、提取、分段:檢索結(jié)果可能包含PDF等格式的文檔、網(wǎng)頁等,我們需要識別和提取其中的內(nèi)容,其中識別和提取內(nèi)容可能涉及的技術(shù)包括OCR、文檔結(jié)構(gòu)化、大模型自身的識別能力等技術(shù);提取之后,需要對內(nèi)容做分段處理,因?yàn)榇竽P蜕舷挛拈L度的限制,我們不可能一下子把所有的內(nèi)容都提交給模型,這里涉及到一些分段的方式和算法; 提示詞的設(shè)計(jì):結(jié)合前面的問題整理,還有檢索的結(jié)果,我們需要設(shè)計(jì)一個(gè)好的提示詞出來,因?yàn)楹玫奶崾驹~會獲得好的輸出結(jié)果; 模型的微調(diào):最后將提示詞交給模型的時(shí)候,可能需要通過一個(gè)微調(diào)的模型來完成結(jié)果的輸出,當(dāng)然不微調(diào),只使用GPT4.0等現(xiàn)成的模型,也可以,只是可能一些專業(yè)問題,處理效果不太好; 結(jié)尾OK,以上即為我關(guān)于大模型的系統(tǒng)化的理解,希望能幫到大家。 |
|