【新智元導讀】如何才能讓大規(guī)模語言模型輸出自己想要的結(jié)果?現(xiàn)在,一本超全超詳提示工程指南來了,GitHub已標星4.7k。提示工程,可以說是玩轉(zhuǎn)ChatGPT、DALL·E 2等等這類AI模型的「必修課」。但這個「提示」(prompt)具體要怎么寫,多少都有些玄學在里面……就在前不久,一位來自斯坦福大學的華人本科生Kevin Liu,就通過prompt injection的方法,讓微軟ChatGPT搜索的全部prompt泄露。此后,更是掀起了一股調(diào)戲ChatGPT的熱潮。而今天新發(fā)布在GitHub上的一個項目,整理了提示工程的指南、論文、講座和資源,堪稱史上最全prompt資料包。項目地址:https://github.com/dair-ai/Prompt-Engineering-Guide憑借著一天近1k星的增長,這篇「提示工程指南」同時登上了GitHub Trending,和Hacker News熱榜。
語言模型的輸出需要通過輸入的提示實現(xiàn),但結(jié)果的質(zhì)量取決于你為它提供多少信息。隨著我們介紹越來越多的例子和提示工程的應用,你會注意到,一個提示通常會由幾種不同的元素構(gòu)成:究竟該怎樣玩轉(zhuǎn)提示工程呢?GitHub上的這份指南,會提供很大的幫助。這份指南包括演講、提示介紹、論文、工具和庫、數(shù)據(jù)集、博客和教程等讀物,總共6個部分。50頁PPT,一小時超詳細講座在「講座」這部分,包含了長達一小時的視頻,代碼示例,以及一份配合講座的50頁PPT。其中,視頻包含4個部分,分別是提示工程簡介、提供工程的技術(shù)、工具和應用程序、未來方向。視頻和PPT都對prompt的定義做了詳細介紹:prompts是指為了實現(xiàn)特定任務,傳遞給語言模型的指令和上下文。而提示工程是創(chuàng)建一組提示或問題的過程,用于引導用戶獲得自己期望的結(jié)果。因為它對研究、發(fā)現(xiàn)很重要,能夠用來幫助測試大語言模型的各種極限,還能在大語言模型上的基礎上開發(fā)各種創(chuàng)新型的應用。因為它對研究、發(fā)現(xiàn)很重要,能夠用來幫助測試大語言模型的各種極限,還能在大語言模型上的基礎上開發(fā)各種創(chuàng)新型的應用。提示指南團隊開發(fā)的提示工程指南,主要由5部分構(gòu)成:基礎提示 進階提示 few-shot提示 思想鏈(CoT)提示 zero-shot CoT 自洽性 生成知識提示
對抗性提示 其他 程序輔助的語言模型 ReAct 多模態(tài)CoT提示
論文合集團隊每天都會更新有關(guān)提示工程的最新論文,并且每周都會將這些論文的摘要納入上述指南中。比如,LeCun今年2月的新作「Augmented Language Models: a Survey 」就被收錄了進來。工具資料包數(shù)據(jù)集博客、指南、教程和其他這部分主要是來自大佬們的經(jīng)驗總結(jié)。主導這個項目的Elvis Saravia,是DAIR.AI的聯(lián)合創(chuàng)始人。 他在臺灣清華大學取得了信息系統(tǒng)與應用的碩士和博士學位。在此之前,他在Meta AI擔任了2年技術(shù)產(chǎn)品營銷經(jīng)理,并曾是NeurIPS研討會和NAACL 2019的程序委員會的成員。從Linkedin上的經(jīng)歷來看,這位朋友似乎也曾負責過LeCun一直心心念的Galactica。https://github.com/dair-ai/Prompt-Engineering-Guide
|