開源大模型火爆,已有大小羊駝LLaMA、Vicuna等很多可選。 但這些羊駝們玩起來經(jīng)常沒有ChatGPT效果好,比如總說自己只是一個語言模型、沒有感情blabla,拒絕和用戶交朋友。 歸根結(jié)底,是這些模型沒有ChatGPT那么對齊(Alignment),也就是沒那么符合人類用語習(xí)慣和價值觀。 為此,港科大LMFlow團隊提出全新對齊算法RAFT,輕松把伯克利Vicuna-7b模型定制成心理陪伴機器人,從此AI會盡力做你的朋友。 相較于OpenAI所用RLHF對齊算法的高門檻,RAFT(Reward rAnked Fine-Tuning)易于實現(xiàn),在訓(xùn)練過程中具有較高的穩(wěn)定性,并能取得更好的對齊效果。 并且任意生成模型都可以用此算法高效對齊,NLP/CV通用。 用在Stable Diffusion上,還能對齊生成圖片和提示詞,讓模型生成更加符合提示詞描述的圖片。 另外,團隊特別提示RAFT的對齊訓(xùn)練過程中生成與訓(xùn)練過程完全解耦。 這樣就可以在生成過程中利用一些魔法提示詞 (magic prompts),讓最終對齊的模型不需要魔法提示詞也能得到好的效果。從而大大減少了提示詞編寫的難度! 可以說,RAFT為AIGC社區(qū)的研究者和工作者提供了一種新的可選的AI對齊策略。 RAFT模型對齊OpenAI在ChatGPT前身Instruct論文中介紹了基于人類反饋的強化學(xué)習(xí)(RLHF)算法。 首先利用人類標(biāo)注數(shù)據(jù)訓(xùn)練一個打分器 (reward model),然后通過強化學(xué)習(xí)算法(如PPO)來調(diào)節(jié)模型的行為,使得模型可以學(xué)習(xí)人類的反饋。 但PPO等強化學(xué)習(xí)算法高度依賴反向梯度計算,導(dǎo)致訓(xùn)練代價較高,并且由于強化學(xué)習(xí)通常具有較多的超參數(shù), 導(dǎo)致其訓(xùn)練過程具有較高的不穩(wěn)定性。 相比之下,RAFT算法通過使用獎勵模型對大規(guī)模生成模型的生成樣本進行排序,篩選得到符合用戶偏好和價值的樣本,并基于這些樣本微調(diào)一個對人類更友好的AI模型。 具體而言,RAFT分為三個核心步驟: (1)數(shù)據(jù)收集:數(shù)據(jù)收集可以利用正在訓(xùn)練的生成模型作為生成器,也可以利用預(yù)訓(xùn)練模型(例如LLaMA、ChatGPT,甚至人類)和訓(xùn)練模型的混合模型作為生成器,有利于提升數(shù)據(jù)生成的多樣性和質(zhì)量。 (2)數(shù)據(jù)排序:一般在RLHF中我們都擁有一個與目標(biāo)需求對齊的分類器或者回歸器,從而篩選出最符合人類需求的樣本。 (3)模型微調(diào):利用最符合人類需求的樣本來實現(xiàn)模型的微調(diào),使得訓(xùn)練之后的模型能夠與人類需求相匹配。 在RAFT算法中,模型利用了更多次采樣 (當(dāng)下采樣后用以精調(diào)的樣本一定時),和更少次梯度計算(因為大部分低質(zhì)量數(shù)據(jù)被reward函數(shù)篩選掉了),讓模型更加穩(wěn)定和魯棒。 同時,在某些情況下, 由于有監(jiān)督微調(diào)本身對于超參數(shù)敏感性更低, 有更穩(wěn)健的收斂性, 在相同reward情況下,RAFT可以擁有更好的困惑度 (perplexity, 對應(yīng)其生成多樣性和流暢性更好)。 完整算法如下所示: 定制垂直領(lǐng)域GPT作者在多個任務(wù)上進行了實驗,首先是正向影評補全。 作者實驗發(fā)現(xiàn),給出一個電影評論的起始句,RAFT微調(diào)后的大模型可以輕松補齊電影評論,而且更加積極和流暢。 如下圖所示,LLaMA未經(jīng)調(diào)整的影評會以隨機概率輸出正面和負面的評論,RAFT和PPO都能夠?qū)⒃u論的態(tài)度傾向正面。 在基于Vicuna制作的一個心理陪伴機器人演示中,作者模擬了一個因為考試失利而心情低落的人和機器人在聊天。 可以看到在使用RAFT進行對齊之前,模型說自己沒有情感和感情,拒絕和人類交友。 但是在RAFT對齊之后,模型的共情能力明顯增強,不斷地在安慰人類說,“雖然我是一個AI,但是我會盡力做你的朋友”。 增強Stable Diffusion除了在語言模型上的對齊能力以外,作者還在擴散模型上驗證了文生圖的對齊能力,這是之前PPO算法無法做到的事情。 原始Stable Diffusion在256x256分辨率生成中效果不佳 ,但經(jīng)過RAFT微調(diào)之后不僅產(chǎn)生不錯的效果,所需要的時間也僅為原版的20%。 對計算資源不足的AIGC愛好者來說無疑是一個福音。 除了提升256分辨率圖片的生成能力以外,RAFT還能夠?qū)R生成圖片和提示詞,讓模型生成更加符合提示詞描述的圖片。 如下圖所示,給出提示詞“莫奈風(fēng)格的貓”,原始的stable diffusion生成的圖片里,大多數(shù)沒有貓,而是生成了“莫奈風(fēng)格”的其他作品,這是由于“莫奈作品”中鮮有貓的身影,而stable diffusion沒有完全理解文本的含義。 而經(jīng)過RAFT微調(diào)后,stable diffusion認識到“貓”的概念,所以每張圖片里都會有貓的身影。 RAFT來自香港科技大學(xué)統(tǒng)計和機器學(xué)習(xí)實驗室團隊,也是開源LMFlow模型微調(diào)框架的一次重大升級。 LMFlow包括完整的訓(xùn)練流程、模型權(quán)重和測試工具。您可以使用它來構(gòu)建各種類型的語言模型,包括對話模型、問答模型和文本生成模型等。 自框架發(fā)布兩周以來,LMFlow團隊仍在進行著密集的迭代,并在4月9號正式上線了RAFT算法,補齊了AI對齊的訓(xùn)練流程。 LMFlow框架的逐步完善,將更加便利于科研人員和開發(fā)者在有限算力下微調(diào)和部署大模型。 論文:https:///abs/2304.06767 GitHub:https://github.com/OptimalScale/LMFlow 文檔:https://optimalscale./LMFlow/examples/raft.html |
|
來自: 黃爸爸好 > 《微調(diào)》