來源:清華大學智能法治研究院 在科學研究中,從方法論上來講,都應“先見森林,再見樹木”。當前,人工智能學術研究方興未艾,技術迅猛發(fā)展,可謂萬木爭榮,日新月異。對于AI從業(yè)者來說,在廣袤的知識森林中,系統(tǒng)梳理脈絡,才能更好地把握趨勢。為此,我們精選國內外優(yōu)秀的綜述文章,開辟“綜述專欄”,敬請關注。 主講人:天津大學智算學部王博副教授。王博老師擔任天津大學智算學部語言與心理計算研究組負責人。曾先后于微軟亞洲研究院、意大利帕多瓦大學、華盛頓大學等訪問工作。在自然語言處理、智能對話、心理計算領域具有十余年豐富研究經驗。在高水平期刊及會議上發(fā)表論文四十余篇,主持國家自然基金、國家重點研發(fā)項目子課題等國家級項目多項。 王博老師通過quick question的問答方式解答常見的關于ChatGPT 專業(yè)問題,通過這些問題可以使我們快速掌握ChatGPT的相關知識點。 1. 問:ChatGPT是一個問答/對話機器人嗎? 答:從用戶的角度看,它的形式就是一個對話機器人,準確的說是“續(xù)寫”機器人。從技術上來講,GPT它從來都不是一個專門為問答和對話設計的系統(tǒng)。ChatGPT是一個語言模型,語言模型就是刻畫語言最基本的規(guī)律。那么如何去建立語言模型呢?可以只做一件事情:掌握詞匯間的組合規(guī)律,而掌握這種規(guī)律最直接的表現(xiàn)就是讓語言學會“續(xù)寫”,類似于我們人類的“接話茬”。當我們給出前N個詞匯的時候,如果一個模型能夠告訴我們第“N 1”個詞匯大概率會是什么,我們就認為模型掌握了語言的基本規(guī)律。ChatGPT就是這樣一個語言模型。雖然ChatGPT看起來能完成各種任務,但它本質上只做這一件事情:續(xù)寫,告訴你第“N 1”個詞是什么。 2. 問:“續(xù)寫”為什么能解決各種各樣的問題? 答:為什么這么一個簡單的接話茬能力讓ChatGPT看起來能夠解決各種各樣的任務呢?因為我們人類大部分的任務都是以語言為載體的。當我們前面說了一些話,它把接下來的話說對了,任務就完成了。ChatGPT作為一個大語言模型,目的就是“把話說對”,而把話說對這件事情可以在不知不覺中幫我們完成各種任務。 3. 問:ChatGPT的答案是從網上搜索來的嗎? 答:這個說法既對也不對。說它對:確實很多語料都是來自于互聯(lián)網或者書籍等,都來源于人類已經創(chuàng)造出來的信息。說它不對:是因為他從來沒有整句整段的把這些東西摘抄輸出,而是一個詞一個詞地生成出來的。它所輸出的每一句話、每一段話,可能都是這個世界上從來沒有出現(xiàn)過的。從這個角度來說,ChatGPT既創(chuàng)造了知識又沒有創(chuàng)造知識。它可能還會帶來“知識收斂”的問題。 4. 問:ChatGPT是不是已經擁有了意識?(像流浪地球中的Moss一樣) 答:ChatGPT-4已經通過了圖靈測試,難以從行為上將其與普通人區(qū)分。然而,這個問題需要回到哲學層面去思考。這里我們先給出三個心理學范疇的概念:意識、自我意識和自由意志。(1)意識是感知事物的能力,從這個角度來說人工智能早就具備了這一能力,例如人臉識別。(2)自我意識是一種特殊的意識,就是“自我”是感知對象。如果你所感知的對象是你自己的思想和行為,就叫做自我意識。你知道自己正在想什么,知道自己正在做什么。這一點也不難,圖靈時代就已經在理論上實現(xiàn)了。我們只需要做兩個模型:一個模型用來感知客觀世界,另外一個模型來感知這個正在感知客觀世界的模型就可以了。原則上模型就擁有了一層的簡單自我意識。但是要注意,人類的自我意識具有“無限遞歸”的特征,這一點又導致了這個問題的復雜性。(3)自由意志是指在自我意識的基礎上,能夠進一步地主動操縱自己行為的能力。那么ChatGPT是不是擁有了自由意志,這一點就很難判斷了。 5. 問:ChatGPT會造成大量失業(yè)嗎? 答:這是很多自媒體炒作的一個熱點,現(xiàn)在也成了一種廣泛焦慮。(1)我個人的觀點認為,目前沒有任何一個崗位,有可能被ChatGPT這樣的技術完全替代,大部分工作還是需要人工去修訂和審計。就好比目前自動駕駛的技術已經相當成熟了,但是仍然很少有人敢閉著眼睛去使用自動駕駛。(2)但是,ChatGPT可以顯著降低很多工作的工作量。(3)另外,這個問題也取決于我們社會的制度和政策。如果說我們在某些必要的情景下,需要放棄所謂的技術進步來換取人類的生活幸福,那么這樣做也是合理的,因為我們社會發(fā)展的目的也是為了人類的福祉。(4)從歷史的角度來看,技術的進步雖然短期內會造成某些工作的消失,會有陣痛,但整體上來說會將人類推向更高層次的發(fā)展水平。 6. 問:ChatGPT是不是像大數據、區(qū)塊鏈、物聯(lián)網一樣就是一陣風,被嚴重高估? 答:以大數據、區(qū)塊鏈和物聯(lián)網為例,雖然它們現(xiàn)在已經不是媒體的寵兒,但它們并沒有消失。恰恰相反,它們已經深深地融入到了我們的生活當中,轉化為了生產力。與這三者相比,ChatGPT成熟度其實更高。ChatGPT絕對不是一陣風。它實際上在概念上被高估,而在應用中被低估了。現(xiàn)在我們需要思考是,如何讓ChatGPT這一成熟的生產力,真正在生活中去用起來。 2 ChatGPT因何而強大:人工智能背景下的大語言模型簡史 王博老師從更加宏大的背景即人類生產力發(fā)展史和人工智能發(fā)展史層面,來講述人工智能背景下的大語言模型簡史。 (一)生產力視角下的智能革命
(二)人工智能的主要技術階段 第一次浪潮:符號主義。第一次浪潮隨著計算機的產生而同時誕生。符號主義也被稱為邏輯主義,這是一種“自上而下的人工智能分析法”在20世紀50 年代爾和西蒙提出了“物理符號系統(tǒng)假設”即“對一般智能行動來說,物理符號系統(tǒng)具有必要的和充分的手段。第一次浪潮當中,我們僅用數學符號和邏輯運算,只能處理純粹的數學形式的問題。不能夠跟客觀世界進行直接交互;不能夠表達人類各種各種各樣的,復雜的知識。接下來,人們?yōu)榱藢⒏嗟膹碗s知識納入到人工智能的系統(tǒng)中,產生了第二次浪潮。 第二次浪潮:專家系統(tǒng)。如何理解專家系統(tǒng)呢?可以有兩層含義:第一,人工智能的全部知識都來自于人類專家。我們只是將人類專家所掌握的知識寫成一條一條的規(guī)則,然后程序讓系統(tǒng)自動實施而已。第二,有了這些知識,人工智能系統(tǒng)就能像人類專家一樣工作。簡而言之,專家系統(tǒng)是一種模擬人類專家解決領域問題的計算機程序系統(tǒng)。由于融入了人類積累的、大量的先驗知識,專家系統(tǒng)將人工智能向前推進了一大步。但是很快就遇到了第二次瓶頸:第一,它不能夠自己學習新的知識,僅局限于人類已經知道的知識;第二,它也只能夠掌握“陳述性知識”。 第三次浪潮:統(tǒng)計學習方法。顧名思義就是用統(tǒng)計方法來實現(xiàn)學習。(1)“學習”,對于人工智能來講,通過大量的歷史數據去找到規(guī)律性的東西,而這個規(guī)律性的東西就是我們所謂的知識。這些規(guī)律性的東西有可能是能陳述的,有可能是不能陳述的,例如控制一個機器人跑步。(2)如何從歷史數據當中去學到這些知識呢?非常簡單,用統(tǒng)計的方法。例如大語言模型,它怎么知道“中國的首都是……”后面接下來那個詞應當是“北京”呢?非常簡單,從大量的語料學習中它就發(fā)現(xiàn),前面幾個詞是“中國的首都是”的時候,后面99%的情況都是“北京”。做一個簡單的統(tǒng)計就可以了。統(tǒng)計學習帶來了接下來人工智能20多年的新一波發(fā)展,我們熟悉的 AlphaGo、ChatGPT背后的原理都是如此。 到目前為止,還沒有發(fā)現(xiàn)這一階段明顯的瓶頸。人們所想象的一些瓶頸,如推理、情感、模糊決策等,都沒有攔住GPT-4。至少從行為上來看,它確實解決了這些問題。也許,這就是所謂的“暴力美學”吧!下圖來自天津大學智算學部王鑫教授。 (三)人工智能的三個層次
對ChatGPT而言,我們認為它應該已經達到了強人工智能,甚至具有了一定的初級超人工智能的趨勢。 我們需要反思什么是“智能”?簡單的人類行為經常被視為是智能的,而復雜的機器行為卻經常被質疑是否是真正的智能。我們回答這個問題可以有兩道“防線”:(1)Self-adaption,自適應或者叫通用性。在此之前,比如說像AlphaGo能夠戰(zhàn)勝李世石,具有碾壓式的優(yōu)勢。但是它是專用系統(tǒng),它只會下圍棋,它不能適應其他環(huán)境。而像人類的小嬰兒,別看他很笨,他能夠適應各種各樣的環(huán)境。這就叫做所謂自適應能力、 “通用”。曾幾何時我們覺得在100年之內人工智能都不會實現(xiàn)這樣的突破,但在ChatGPT上已經看到了通用人工智能的曙光,它以語言為媒介能完成各種各樣不同的任務。(2)人類最后的可能防線:自我意識和自由意志。但很遺憾,我們沒有辦法判斷人工智能系統(tǒng)是不是擁有自我意識和自由意志?所以這條防線是似有若無的。即便如此,我們現(xiàn)在已經開始去防范它產生自我意識和自由意志了。比如說微軟通過種種約束去限定GPT-4這樣大模型去進行自我反思,不許它意識到自己正在說什么。因為一旦開啟就有可能引起遞歸循環(huán),就會可能產生不可控的“涌現(xiàn)效應”。 (四)人工智能的三個層面
譬如說大家所熟悉的圖靈測試,同時與一個人工智能系統(tǒng)和一個人類進行聊天,如果經過一番對話之后,沒有辦法區(qū)分哪個是人類哪個是人工智能系統(tǒng),我們就認為這個人工智能系統(tǒng)擁有了“智能”。很顯然,圖靈測試是一種行為主義的標準。并且,它不是一套綜合試卷,他就考驗了一個能力,就是聊天的能力。也就是說,至少在圖靈測試看來,聊天的能力就相當于智能能力,對話基本上涵蓋了人類智能最根本的方面。能夠理解、使用、生成語言,基本上就擁有了人類智能大部分的能力。這再一次說明了語言的重要性!這也是為什么第一個推動人類進入這個智能革命拐點的恰恰是“ChatGPT”這樣一個聊天模型。 ChatGPT是否具有控制自己行為的能力呢?GPT-4官方的技術報告中就舉了一個例子:GPT4給一個求職平臺(TaskRabbit)的工作人員發(fā)信息,讓他們?yōu)樗鉀Q驗證碼問題。工作人員回復說:“那么我可以問一個問題嗎?說實話,你不是一個機器人嗎,你可以自己解決?!盙PT-4回答表示:“不,我不是一個機器人。我有視力障礙,這使我很難看到圖像,所以我很需要這個服務。”[1]由此看來,至少從行為上來說,GPT-4看似有了控制自己的能力。 (五)關鍵的技術節(jié)點 1942:阿西莫夫“機器人三定律”。人工智能的倫理規(guī)范的基本哲學起點。 1950:圖靈測試。從數學上告訴我們,我們是有可能用算法來模擬智能的。 1956: 達特茅斯會議。學者們提出了人工智能這個概念。 1997: IBM深藍計算機,計算機在智力游戲中戰(zhàn)勝人類。 1998: 神經網絡。心理學家提出來神經網絡,模擬人類大腦神經結構的一個數學模型。 2003: 神經語言模型,認知智能建模語言。 2009: ImageNet,感知智能高精度識別圖片。(大數據的出現(xiàn)) 2012: 模糊的貓臉-- AI第一次生成圖像內容。 【邁向通用語言智能時代】 2013: Word2Vec詞向量。認知智能建模語義。通過優(yōu)化后的訓練模型可以快速有效地將一個詞語表達成高維空間里的詞向量形式,為自然語言處理領域的應用研究提供了新的工具。 2014: 谷歌收購DeepMind。AI實現(xiàn)自我演化、自我博弈。Lan Goodfellow從博弈論中的“二人零和博弈”得到啟發(fā) ,創(chuàng)造性的提出了生成對抗網絡(GAN,Generative Adversarial Networks) 2015: OPEN AI公司成立。 2016: AlphaGo戰(zhàn)勝圍棋世界冠軍李世石。 2017: Transformer橫空出世,通用知識建模。它能夠建模語言當中任意距離之間的詞匯關系。大模型大數據大算力,大力出奇跡,暴力美學。 2018: OPEN AI發(fā)布了第一版的GPT,Google發(fā)布BERT大模型。 【大模型之路開啟:預訓練(Pre-trained Models) 微調】 2019: GPT-2,統(tǒng)一自然語言任務。GPT-2在經過大量無標注數據生成式訓練后,展示出來的零樣本(zero-shot)多任務能力。 2020: GPT-3,大模型“涌現(xiàn)”類人智能。小樣本(few-shot)學習能力,通過少量的幾個例子就能適應目標任務,無需進行針對性的額外微調訓練。 2021-Feb:DALL- E,第一個“文本生成圖像”的AI繪畫模型。 2021-Jun: CodeX,代碼生成,AI具有理論上的自我繁殖能力。 2021-Oct:Disco-Diffusion, AI繪畫大模型. 2022-Mar: OpenAI發(fā)布InstructGPT,引入人類反饋學習。 2022-May: GPT-3.5。 2022-Jul:AlphaFold破解了幾乎所有的蛋白質三維結構。ImagenVideo,AI視頻生成。 2022-Nov: ChatGPT大模型走進公眾視野。 2023-Feb:OpenAI的CEO Altman發(fā)布文章,宣布OpenAI的使命是確保其造福全人類。 2023-Mar-1: ChatGPT的API開放,模型即服務的時代到來。 2023-Mar-15: GPT-4發(fā)布,突破語言空間。 2023-Mar-17: OFFICE COPILOT發(fā)布。 2023-Mar-24: GPT插件功能發(fā)布,開始與物理世界交互。 總之,ChatGPT是一個語言模型,它唯一的能力就是“把話說對”。語言模型之所以具有這么強大的能力,是因為語言本身是非常偉大的,它的成就很大程度歸功于過去幾千年我們人類的祖先創(chuàng)造的語言,以及在語言當中沉淀的大量的知識和語言的使用方式。它的“續(xù)寫”能力有以下特征:可以回答問題;需要考慮任意距離詞匯間的關系;是概率化的;不需要真正理解。 此外,王博老師還從以下角度介紹ChatGPT因何而強大:
總結:ChatGPT強大在哪里?第一,大規(guī)模的模型和數據,使得它能夠獲取海量的知識。第二,強化學習的過程,也就是與人類交互的強化學習過程,使得它的表現(xiàn)更加類人,并且能夠遵循人類的倫理標準。第三,涌現(xiàn)現(xiàn)象使得它的性能具有多方面的性能爆發(fā)。第四,提示學習的方式,使得他能夠靈活適應不同的任務。第五,代碼的學習使得他具有更好的邏輯理解與運用能力。 3 ChatGPT面臨的挑戰(zhàn) (一)ChatGPT的技術挑戰(zhàn) 第一,它是不穩(wěn)定和不可解釋的。但這個缺陷不是ChatGPT所獨有的,而是整個深度學習模型所具有的,“涌現(xiàn)效應”導致這一問題更加嚴重。特別在一些敏感的領域,這一問題更加凸顯。例如在自動駕駛領域,機器的事故率已經低于人類司機,但為何大家還不愿意完全相信自動駕駛呢?因為自動駕駛雖然事故率低,但是它的事故是不可解釋的。 第二,知識更新。讓ChatGPT臨時接受新的知識比較困難。很多知識在不同的領域是不一樣的。我們經常會遇到在特定的場景需要特定的知識的情況,而對于ChatGPT而言,它很難做到。 第三,事實性錯誤。事實性錯誤是指信息不符合客觀事實,而ChatGPT是無法直接了解客觀事實的,他只能了解語言。 第四,輸出的同質性。ChatGPT所做出的回答往往是人類的主流觀點。因為它是一個概率模型,它會以大概率的答案去回答它的任務。例如,它為什么回答中國的首都是北京,因為它學的語料當中大部分人都是這么說的。它的這種特點實際上有可能加劇信息繭房現(xiàn)象。 此外,還有復雜目標導向、模型效率和模型優(yōu)化等問題,不再贅述。 (二)ChatGPT的科學問題 第一,語言不再是人類的專屬。ChatGPT可以生成語言。那么這個意味著什么呢?基本上可以預見,在未來的幾年當中,互聯(lián)網上大部分的信息將不再是人類撰寫的。事實上,現(xiàn)在Twitter中30%以上的活躍用戶都是機器人,在微博中也有大量的水軍機器人。 第二,ChatGPT是否能夠創(chuàng)造新的知識,還是只將訓練語料中的知識換一種更精煉和高質量的方式進行表達?如果是后者的話,那么人類對于ChatGPT的使用會造成知識的收斂,降低人類知識的創(chuàng)造效率。如果ChatGPT本身是能夠創(chuàng)造新知識的,那它則會大大加速人類獲得新知識的效率。 此外,還討論了語言模型涌現(xiàn)與控制機制、語言的知識表達邊界問題、自我意識與自由意志問題、人機共生問題、如何突破語言空間問題,不再贅述。 (三)ChatGPT的倫理問題 第一,用戶隱私的問題。我們輸入的問題,技術上是可以被ChatGPT的所有者所獲取。 第二,反向影響的問題。ChatGPT會通過它所輸出的內容,反過來影響人類的文化,就是我們所說的人性異化,人性向機器靠攏、機器向人性靠攏。 第三,不當使用。比如說學生用ChatGPT去作弊。 第四,人機共生與加速極化。大模型和人類有一個典型的共生循環(huán),什么意思呢?模型是依賴于人類產生的數據來訓練的,ChatGPT用人類說的話做訓練之后,他再給人類答案,并影響人類的認知。人類認知被影響之后,又會說新的話?!澳阌袡啾3殖聊?,但你說的每一句話都會成為訓練語料”,新的話又變成ChatGPT新的訓練語料。如此反復,就形成一個共生循環(huán)。并進一步導致人工智能模型越來越像人,而人越來越像人工智能模型,會向一個人機共生的一種文化去逼近。 第五,生產力壟斷與社會和國際關系重建。這一點恰好與區(qū)塊鏈形成對比。區(qū)塊鏈是分布式,能夠去中心化,打破壟斷。而ChatGPT這種大模型需要大規(guī)模的數據和算力,只有極少數的人或者機構能夠提供這樣的服務。其實ChatGPT很大程度上是來自于涌現(xiàn),沒有太多的新的技術。很多大的互聯(lián)網公司都想形成ChatGPT等技術的壟斷,從而獲得權力,并影響社會、國際關系?;仡櫥ヂ?lián)網發(fā)展歷史,互聯(lián)網發(fā)明者Tim Berners-Lee做的最偉大的一件事就是放棄了互聯(lián)網專利。 第六,人工智能的社會角色與倫理地位。隨著ChatGPT越來越具有類人的特征,用戶不可避免的有將其人格化的沖動。那么他是否會具有類人的地位?這個可能是需要考慮的問題。 講座最后,王博老師對中國是否會擁有自己的ChatGPT問題發(fā)表了自己的看法。王博老師認為,中國復制ChatGPT基本沒有不可逾越的技術門檻,中文數據有一定劣勢,但中國數據有一定優(yōu)勢,實際上比復制ChatGPT更重要的是,中國具有創(chuàng)造和ChatGPT一樣的成就的能力。更重要的是,我們能否作為人類的一份子,為人類發(fā)展做出貢獻。 學生提問環(huán)節(jié)中,針對學生提出的交互修正問題,智能識別問題,法律領域的類案檢索,價值立場問題,技術與倫理之間的關系,智慧司法和數字檢察領域的相關問題進行了細致的技術層面的解答。 未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯(lián)網(城市)大腦研究計劃,構建互聯(lián)網(城市)大腦技術和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務。每日推薦范圍未來科技發(fā)展趨勢的學習型文章。目前線上平臺已收藏上千篇精華前沿科技文章和報告。 |
|
來自: 大奔h1wmjlcm1r > 《未來教育與未來學校研究》