以我對AI領(lǐng)域的淺薄了解,我認為AI是這個世紀的基礎(chǔ)科學(xué),進而作為一種科學(xué)基礎(chǔ)。AI的一個非常革命性的影響,除了各種各樣的實際應(yīng)用之外,還在于更新了我們對于“思維”“認知”“知覺”等經(jīng)典的心理學(xué)概念的認知。也就是說,AI從底層重新定義了思考,而且已經(jīng)有充分的事實證明,這種“重定義”是可行和有效的,它的意義甚至已經(jīng)超越了過去100多年來所有心理學(xué)家在這個領(lǐng)域所做的努力。 現(xiàn)在流行的AI應(yīng)用都屬于“人工神經(jīng)網(wǎng)絡(luò)”或者說“機器學(xué)習(xí)”這個技術(shù)路線。而人工神經(jīng)網(wǎng)絡(luò)從數(shù)學(xué)上來看,它就是一種計算。人工神經(jīng)網(wǎng)絡(luò)所用到的計算主要涉及微積分、線性代數(shù)和概率統(tǒng)計這三個比較基礎(chǔ)的數(shù)學(xué)領(lǐng)域,也就是說,一個理工科的大學(xué)生必然會學(xué)到的科目。人工神經(jīng)網(wǎng)絡(luò)的計算所用到的數(shù)學(xué)知識或許并不算特別“高端”或者“復(fù)雜”,但是所需要的計算量卻非常大。所以芯片在AI中的影響是決定性的。但是一個心理學(xué)家可能會問,我們既然已經(jīng)看到AI的“學(xué)習(xí)”和“思考”只是一種計算,或者說,“暴力”計算,而我們作為萬物之靈的人的“學(xué)習(xí)”和“思考”是不是與此不同呢?人的“學(xué)習(xí)”和“思考”難道可以還原成微積分、線性代數(shù)中的某種操作嗎?實際上,其實也并沒有什么不同(當然在細節(jié)上會有很多不同)。在日常生活中,我們經(jīng)常會說:“讓我想一想?!?/span>但是,我們在使用“想”這個動詞的時候,并不知道“想”從最根本的意義上意味著什么。也就是說,當我們在“想”的時候,我們的大腦里發(fā)生了什么呢,我們其實并不知道。更不用說,我們感到某個“靈感”出現(xiàn)的時候,我們更加不知道它是怎么來的(即經(jīng)歷了什么樣的過程,靈感被“制作”了出來?)。 甚至在體育運動中,人也無時無刻不在“想”,但我們都沒有察覺。在籃球場上,隊友把球扔向了你,你穩(wěn)穩(wěn)地接住了,而你之所以能接住,是因為你的大腦(在眼睛的幫助下)準確且精確地“計算”出了籃球最可能的落點和時間點。我們的大腦之所以能實現(xiàn)這些“想”,除了歸功于“計算”之外,我們還能如何去解釋呢? 所以,從這個意義上講,思考即計算,計算即思考,不論對于人腦還是電腦來說都是如此。這種看法實質(zhì)上就終結(jié)了某些長期以來困擾著人們的“辯題”。如,“AI會思考嗎?”顯然,AI的計算就是思考?;蛘撸叭耸抢硇缘膭游飭??”沒錯,大腦就是一臺強大的計算機。然后,我們來談?wù)?,怎么把人腦和電腦更好地“連接”在一起。 當我們使用各種“大模型”應(yīng)用時,不論我們向它們提出了何種問題(標準的說法是“prompt”,提示詞),實際上都是在給它們提出了一道“計算題”。只是這道計算題的“表層”,可能并不是數(shù)字。在我們的傳統(tǒng)經(jīng)驗中,“15 X 23 = ?” 才叫計算題,或者解一道方程才叫計算題。但是大模型的強大能力,允許我們用日常語言(不論是中文、英文或者其他)來造出一道計算題,甚至也可以用圖片或其他形式的信息形式來制造計算題。但不管這個“表層”是什么樣,對于大模型的內(nèi)部來說,它們也都是在做計算而已。 我們向AI問一個問題,或許是漫不經(jīng)心的,隨意的,很可能沒有考慮,對于AI來說,要“算”個死去活來才能回答你。而AI想節(jié)約資源的話,它必定會采用某些技巧來不動聲色地節(jié)約這些資源,于是它給你的回答往往并不能讓你滿意,或者僅僅是差強人意。而實際上,這個鍋主要在你身上,因為你沒有考慮到計算的資源和成本。 舉個例子,如果我問AI,“怎樣賺大錢?”你覺得AI能給我一個滿意的回答嗎?或者說,我能靠著這個回答來賺到大錢嗎? 顯然不能,因為這個問題并不是一個“定義良好”的問題,它太寬泛了。題目越寬泛,需要的計算量就越大,甚至大到?jīng)]有邊際。而AI不想耗費這么多資源,它就敷衍你。它會給你一個“不能算錯”但是“一點兒都不好”的回答。但是我們又不能讓AI回答一些特別簡單的問題(例如,“什么是貨幣?”),當問題太簡單了以后,AI只需要輕松做一些檢索工作就可以了,這樣的話,AI跟以前的搜索引擎又有什么區(qū)別呢?把AI當搜索引擎來用,當然也可以,但是這肯定沒有發(fā)揮AI真正且獨特的潛力。 所以這里我們得出一個初步的結(jié)論,我們最好不要問得太寬泛,也不要問得太簡單,而是要問一些真正能夠“激發(fā)”AI思考的問題。讓 AI 真的“思考”起來。 如果能做到這一點就真的很棒了,正因為我們?nèi)四X的“算力”不夠用,于是我們希望借用AI的算力,讓 AI 來跟我們一起“思考”。 那么,讓AI更好地“思考”的方法和讓人更好地“思考”的方法又是類似的。 你可以想象你面前有一個學(xué)生,你想一想,你向他提出什么樣的問題更能激發(fā)他的思考呢?當然,有許多種形式的問題都能達到這種效果。我們把從過去的教育學(xué)、心理學(xué)的實踐中使用過的行之有效的學(xué)習(xí)方法、思考方法用在 AI 上,是不是就能產(chǎn)生類似地激發(fā)AI思考的效果?答案顯然是肯定的。于是,接下來才是本文的主題,我想介紹向AI提問的三種行之有效的模式,而這些模式恰恰來自于人類的經(jīng)驗。從人類的經(jīng)驗來看,通過對比來學(xué)習(xí)是一種十分高效、強大且普適的學(xué)習(xí)方法。這個方法簡單說就是給你 A、B 兩個東西,這兩個東西比較相似,但是又有所不同,通過比較兩者,你認識到它們在哪里相同又在哪里不同,于是你就同時對這兩樣?xùn)|西有了深入地認識。在對比中,你很可能會有一些“發(fā)現(xiàn)”,這些發(fā)現(xiàn)是你在使用對比法之前很難作出的。因為對比使差異凸顯。這里我舉一個例子,我們都認識 love 這個單詞,但是我們對這個單詞的了解是否足夠深入和全面呢?這就難說了。于是,我們便可以向AI提問,讓它幫我們用對比的方法來分析這個單詞,這個過程一方面能充分激發(fā)AI的思考潛力,同時也能為我們提供足夠重要的幫助。這里我使用 deepseek 這個目前比較領(lǐng)先的國內(nèi)大模型產(chǎn)品。這里我分為了兩步,我的第一個問題是: deepseek一下子給了我10個近義詞,這已經(jīng)有點超出了我的預(yù)期,而這個問題是給下一個問題做鋪墊的,下一個問題是:這個對比是非常詳細的??赡艽蠖鄶?shù)英語老師來回答,也很難做到這么詳細、細致吧!顯然這個對比式的問題有效地激發(fā)了AI的“思考”?;蛟S對它來說,比較兩個單詞的計算量“剛剛好”,就好像是在“計算”這兩個單詞的“交集”和“并集”。這個問題并不是寬泛的、不著邊際的,又不是單調(diào)的,只是單純的知識檢索?;卮疬@個問題,既需要檢索和調(diào)用知識,同時又需要一些“分析”,一些“思考”,甚至一些“推斷”。而從AI給出的答案又確實加深了我們對 love 和 affection 這兩個單詞的認識,我們知道了 love 包含的感情更深,也往往包含著承諾在內(nèi),而 affection 則不是如此。因而 affection 用在寵物身上似乎就很合適——這里就涉及到單詞的使用場景,自然導(dǎo)向了用法層面。在用法上我們就比較清晰了:在什么場合用 love 更適合,而在什么場合用 affection 更合適。這就是對比式學(xué)習(xí)的效果,而 AI 恰好又善長對比,真是一拍即合。 從人類的經(jīng)驗來看,“遠距聯(lián)想”可以說是創(chuàng)造力的標配。一個善于遠距聯(lián)想的人,應(yīng)該說是創(chuàng)意滾滾,而很多重要的知識和發(fā)現(xiàn)也來自于遠距聯(lián)想。對于AI來說,遠距聯(lián)想也正是它們所擅長的。這種計算題也是計算量剛剛好,同樣也是把A和B連接起來,只是對比學(xué)習(xí)中,A和B是相近、相似的,而在遠距聯(lián)想中,A和B可能原本看來毫無聯(lián)系,或者說,之前沒有人做出過這樣的聯(lián)系。 當我們向AI進行遠距聯(lián)想式的提問,我們就會發(fā)現(xiàn) AI 真的不同于搜索引擎而遠超搜索引擎,因為遠距聯(lián)想的答案往往是無法在搜索引擎中搜出來的(因為很可能之前沒有人做出過類似的聯(lián)想,或者即便做過類似聯(lián)想但是也沒有公開發(fā)表在網(wǎng)上)。而要回答遠距聯(lián)想式的問題,就需要 AI 既能檢索和調(diào)用相關(guān)的知識,又能做出恰當合理的分析和推理,甚至還要充分調(diào)用“想象力”。從這個意義上說,這真是很好地激發(fā)了 AI 的思考能力。在這個問題里,“A=綠巨人”,“B=MBTI”,我把 A 和 B 放在一起,看看會發(fā)生什么。同時我們要注意,我們不需要向AI解釋“什么是綠巨人”和“什么是MBTI”,因為AI自己會查找相關(guān)的知識,因而我們就只需要問這樣一個簡短的問題就足夠了,下面是deepseek的回答: 使用這種方式能得到很多有趣而新鮮的知識,我又試驗了一個問題: 電影《沙丘》中對香料的采掘和交易涉及哪些經(jīng)濟學(xué)知識,是否存在不符合經(jīng)濟學(xué)常識的地方?在這個問題里,“A=《沙丘》”,“B=經(jīng)濟學(xué)”,把 A 和 B 放在一起,會是怎么樣的呢?這里 AI 給出的答案也是比較詳細的,而且一點也不“虛”,因為這里面提到了諸多專業(yè)的經(jīng)濟學(xué)概念,如“壟斷”“外部性”“公共物品”等。但我還稍微感覺不盡意,便又追問了一下: 哪些諾貝爾經(jīng)濟學(xué)獎得主的研究能幫助解釋這個問題?這個問題的回答比上一個問題更加詳細且“有料”。我分析是因為“諾貝爾經(jīng)濟學(xué)獎得主”比“經(jīng)濟學(xué)”更明確、更收斂,因而激發(fā)了AI更加深入的思考。現(xiàn)在對“長文本”的處理可說是各路大模型的一個主打功能。它確實有比較實用的應(yīng)用場景。比如,當你想快速了解一本書說什么的時候,你可以把這本書“扔”給AI,讓它幫你歸納一下。但是我們思考一下,對于AI來說,這是一種什么樣的“思考”呢?似乎這種思考比較單調(diào),屬于“捕捉要點”,或者叫劃重點。要知道,讓大模型去“讀”一本書,所需要的計算量是非常非常大的。實際上,它并不需要一字一句、仔仔細細地去讀,大模型有一個核心機制是“自注意力(self-attention)”機制,當然這里“注意力”是一個類比,不同于人類的注意力。大模型的“自注意力機制”是一種計算方法,它能判斷在一個文本中哪些字詞是更重要的,哪些是不太重要的。當面對一本書這樣長的文本時,大模型能快速識別出哪些是最重要的信息。它對長文本的處理一定是“跳躍”的,不然的話要算得“累死”。基于此我們便可以知道,誠然大模型可以幫我們?nèi)w納一本書,但是這種歸納一定是“粗糙”的,只適合“快速、簡單了解”。這種方式無法替代我們?nèi)プx一本書,它即便給出了解讀或者分析也往往是語焉不詳?shù)模惨欢ㄊ恰皽\表”的。但是,如果我們反過來想,我們不讓大模型去處理長文本,而是就讓它去處理短文本,去分析一百個字、兩百個字,它會告訴我們什么呢?這個時候,它愿意給我們的計算資源就顯得“游刃有余”了,面對短文本,它可以做出深入、細致的分析,而這些分析或許就能給我們切實有用的啟發(fā)。 下面我的實驗是摘取了作家李娟的一小截文字,摘自《記一忘二三》一書的《掃雪記》一文。我的提問如下:以“技術(shù)流”的方式,分析下面這篇文章中使用的寫作技巧:之前我早就提醒過我媽,阿勒泰市是山區(qū),比不得戈壁灘邊上的富蘊縣,冬天雪很大的。她嗤之:“老子活了這么大,什么樣的雪沒見過?”下第一場雪時,我媽真心地感慨:“別說,老子還真沒見過這么大的雪!”下第二場雪,我媽又感慨:“除了上次那場雪,老子從沒見過這么大的雪!”到了第三場雪,我媽繼續(xù):“這是老子這輩子見過的第三場最大的雪!”我讓AI分析的文本并不長,而它的分析的篇幅卻遠超了這個文本,這是因為,大模型“背靠”一個無比巨大的知識庫。這個知識庫超過任何一個自然的人類。通過這個知識庫,它來分析這段文字,就很有可能給出一些我們事先沒有想到的點。我們可以發(fā)現(xiàn)這種方式跟處理長文本正好是相反的,處理長文本時,可能我們給了AI十萬字,而AI返還給我們一千字。在處理長文本時,實際上信息“縮水”了,而處理短文本時,實際上信息“豐潤”了。不過,對于上面的回答,我還有些不滿意,于是我又追問了一下:
這個回答超出了我的預(yù)期,它不僅很耐心、很細致,甚至還在最后給出了寫作示例!
天哪,這是一個多么好的寫作老師啊!當然,它的水平肯定比余華或者莫言要差一些,但是已經(jīng)是 available 的足夠好的老師了吧! 而且,這只是一小段文本的分析。如果你采用這種方法,來讓AI分析十段、一百段或者更多文本,再加上你自己勤奮地思考和學(xué)習(xí),那么你的寫作水平會不會出現(xiàn)質(zhì)的飛躍呢?
———————————————————— 以上就是我今天的分享。這篇文章的前半部分是關(guān)于大模型使用的“道”,后半部分是大模型使用的“術(shù)”?!暗馈笔侵笇?dǎo)思想,可以舉一反三,三生萬物,而“術(shù)”是經(jīng)驗和實踐的產(chǎn)物,是直接可用的方法。
希望你也可以從AI中發(fā)現(xiàn)真正的寶藏。
|