小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

致敬剛離世的卡尼曼,一起研究大模型時(shí)代的《思考,快與慢》

 長(zhǎng)沙7喜 2024-04-03 發(fā)布于湖南

致敬丹尼爾·卡尼曼

圖片

丹尼爾·卡尼曼,這位杰出的心理學(xué)家和行為經(jīng)濟(jì)學(xué)家,于2024年3月27日去世,享年90歲??崧淌诘膶W(xué)術(shù)成就和對(duì)人類行為的深刻洞察,使他在經(jīng)濟(jì)學(xué)和心理學(xué)領(lǐng)域留下了不可磨滅的印記。他的去世是學(xué)術(shù)界的巨大損失,但他的理論和思想將繼續(xù)影響著未來(lái)的研究和實(shí)踐。

圖片

卡尼曼教授最著名的著作之一是《思考,快與慢》(Thinking, Fast and Slow),這本書深刻地闡述了人類思維的兩種系統(tǒng):系統(tǒng)1(快思考)和系統(tǒng)2(慢思考)。系統(tǒng)1是快速、直覺(jué)和自動(dòng)的思維方式,它依賴于啟發(fā)式和認(rèn)知偏差,而系統(tǒng)2則是緩慢、邏輯和需要努力的思維方式??崧ㄟ^(guò)這本書向我們展示了這兩種思維方式如何共同作用于我們的決策過(guò)程,以及如何導(dǎo)致我們做出有時(shí)非理性的選擇。

圖片

在《思考,快與慢》中,卡尼曼教授詳細(xì)討論了許多認(rèn)知偏差和決策陷阱,例如代表性啟發(fā)式、可得性啟發(fā)式、錨定效應(yīng)等。這些概念不僅在學(xué)術(shù)界引起了廣泛關(guān)注,也在商業(yè)、政策制定、教育等多個(gè)領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響??崧倪@些研究成果幫助人們認(rèn)識(shí)到,我們的決策并非總是基于理性和客觀分析,而是受到多種心理因素的影響。

卡尼曼教授的另一部重要著作《噪聲》(Noise)則進(jìn)一步探討了決策中的隨機(jī)性和不確定性。在這本書中,他分析了決策過(guò)程中的噪聲來(lái)源,并提出了如何減少噪聲對(duì)決策質(zhì)量影響的策略?!对肼暋放c《思考,快與慢》相輔相成,共同為我們提供了一個(gè)更全面的理解人類決策行為的框架。

卡尼曼教授的學(xué)術(shù)成就得到了廣泛的認(rèn)可和贊譽(yù)。他與弗農(nóng)·史密斯共同獲得了2002年的諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng),以表彰他們?cè)谛睦砗蛯?shí)驗(yàn)經(jīng)濟(jì)學(xué)研究方面的開(kāi)創(chuàng)性工作??崧那熬袄碚摚≒rospect Theory)是行為經(jīng)濟(jì)學(xué)的重要基石,它突破了傳統(tǒng)經(jīng)濟(jì)學(xué)中期望效用理論的限制,為我們理解人類決策行為提供了新的視角。

卡尼曼教授不僅是一位杰出的學(xué)者,也是一位暢銷書作家。他的作品不僅在學(xué)術(shù)界產(chǎn)生了深遠(yuǎn)影響,也為廣大公眾提供了寶貴的知識(shí)和啟示。他的著作通過(guò)通俗易懂的語(yǔ)言和生動(dòng)的案例,將復(fù)雜的理論和概念呈現(xiàn)給社會(huì)大眾,使更多的人能夠理解和應(yīng)用這些知識(shí)來(lái)改善自己的決策過(guò)程。

卡尼曼教授的去世讓我們失去了一位偉大的思想家和學(xué)者,但他的理論和著作將繼續(xù)啟發(fā)和指導(dǎo)未來(lái)的研究者和實(shí)踐者。他的貢獻(xiàn)不僅在于經(jīng)濟(jì)學(xué)和心理學(xué)領(lǐng)域,更在于他對(duì)人類行為的深刻理解和對(duì)社會(huì)科學(xué)研究方法的創(chuàng)新。卡尼曼教授的學(xué)術(shù)遺產(chǎn)將繼續(xù)影響著我們對(duì)人類思維和行為的理解,以及我們?cè)诟鱾€(gè)領(lǐng)域中做出更明智決策的能力。

AI領(lǐng)域的系統(tǒng)1和系統(tǒng)2

圖片

在人工智能領(lǐng)域,大語(yǔ)言模型(LLM)正迅速成為研究和應(yīng)用的熱點(diǎn)。它們的出現(xiàn)預(yù)示著一場(chǎng)技術(shù)革命,不僅改變了機(jī)器處理和理解人類語(yǔ)言的方式,還在模擬人類思維方面展現(xiàn)出驚人的能力。借用諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主丹尼爾·卡尼曼在其著作《思考,快與慢》中的概念,我們可以將LLM的功能和表現(xiàn)歸類為類似于人類的“系統(tǒng)1”(快速直覺(jué)思考)和“系統(tǒng)2”(緩慢深思熟慮的邏輯推理)兩種思考模式。

圖片

圖片

圖片

當(dāng)前大語(yǔ)言模型的系統(tǒng)1認(rèn)知特性

當(dāng)前大語(yǔ)言模型的認(rèn)知特性更新

快思考:直覺(jué)與本能反應(yīng)

大語(yǔ)言模型(LLM)在“快思考”方面的能力體現(xiàn)在它們對(duì)輸入的即時(shí)反應(yīng)上,這類似于人類的直覺(jué)和本能反應(yīng)。例如,人類看到某些刺激(如紅色)時(shí)會(huì)本能地感知到危險(xiǎn),而LLM在接收到某些輸入時(shí)也能快速生成響應(yīng)。這種處理方式類似于神經(jīng)網(wǎng)絡(luò)的基本工作原理——接收輸入,經(jīng)過(guò)一系列復(fù)雜的函數(shù)處理后,直接輸出結(jié)果。這種方法在速度和效率上具有顯著優(yōu)勢(shì),但它缺乏透明度,因?yàn)樵谳斎牒洼敵鲋g缺少可解釋的中間步驟,這是“快思考”的典型特征。

圖片

圖片

圖片

慢思考:邏輯推理與思維鏈條

圖片

圖片

與“快思考”的直覺(jué)反應(yīng)不同,“慢思考”要求深入且逐步的邏輯推理。就像看到一個(gè)高考數(shù)學(xué)題目,你不能立刻做出答案,除非你自己之前做過(guò)。目前可以看到除了人和極少數(shù)高等動(dòng)物,都只有快思考,沒(méi)有慢思考,也就是把問(wèn)題拆分成多個(gè)步驟,一步一步來(lái)思考。在人類中,慢思考通常涉及到一系列的思維過(guò)程,從理解問(wèn)題的各個(gè)方面到逐步推導(dǎo)出解決方案。LLM通過(guò)引入類似于人類“慢思考”的技術(shù),如鏈?zhǔn)酵评恚–hain of Thought, COT),開(kāi)始展現(xiàn)出在處理需要逐步邏輯推理的問(wèn)題上的能力。這種方法允許模型不僅僅是直接從輸入跳躍到輸出,而是通過(guò)一系列的中間步驟,模擬人類解決復(fù)雜問(wèn)題時(shí)的思考過(guò)程。這標(biāo)志著AI從僅依賴直覺(jué)式“快思考”向能夠執(zhí)行更復(fù)雜、逐步推理的“慢思考”轉(zhuǎn)變的本質(zhì)飛躍。

LLM如ChatGPT和GPT-4等,在處理快速問(wèn)答、文本生成和語(yǔ)言理解等任務(wù)時(shí)展現(xiàn)出的即時(shí)反應(yīng)和高效率,類似于人類的系統(tǒng)1思考模式。這種能力讓它們?cè)谌粘?duì)話、內(nèi)容創(chuàng)作和即時(shí)信息處理方面變得無(wú)比強(qiáng)大。然而,盡管在這些領(lǐng)域取得了巨大成功,LLM在面對(duì)需要復(fù)雜邏輯推理和深度分析的任務(wù)時(shí),仍然顯示出一定的局限性。

圖片

圖片

圖片

技術(shù)手段促進(jìn)系統(tǒng)2思考

隨著技術(shù)的不斷進(jìn)步,研究者們?cè)趪L試通過(guò)各種手段增強(qiáng)LLM的“系統(tǒng)2”思考能力。這包括引入鏈?zhǔn)酵评恚–hain of Thought, COT)和示例學(xué)習(xí)等技術(shù),這些方法能夠促使模型在處理問(wèn)題時(shí)展開(kāi)更為深入的思考,模擬人類在面對(duì)復(fù)雜問(wèn)題時(shí)的邏輯推理過(guò)程。此外,通過(guò)加入Agent機(jī)制,允許模型在一個(gè)更加動(dòng)態(tài)和交互性的環(huán)境中學(xué)習(xí)和適應(yīng),從而更好地實(shí)現(xiàn)類似于人類系統(tǒng)2的深度思考和解決方案的生成。

圖片

圖片

圖片

圖片

專家觀點(diǎn)與未來(lái)展望

盡管LLM的系統(tǒng)1和系統(tǒng)2思考模式的模擬仍在初級(jí)階段,但許多AI領(lǐng)域的專家對(duì)其發(fā)展前景持樂(lè)觀態(tài)度。他們認(rèn)為,隨著技術(shù)的進(jìn)步和對(duì)這些模型理解的深入,LLM將能夠更好地模擬人類的復(fù)雜思維過(guò)程,包括創(chuàng)造性思考、情感理解和倫理決策。這不僅將推動(dòng)AI在各個(gè)領(lǐng)域的應(yīng)用,還可能深刻影響我們對(duì)智能本質(zhì)的理解。

圖片

圖片

圖片

通過(guò)深入探索和理解LLM在模擬人類系統(tǒng)1和系統(tǒng)2思考模式方面的能力和局限,我們不僅能夠更好地利用這些模型解決現(xiàn)實(shí)世界的問(wèn)題,還能為未來(lái)AI技術(shù)的發(fā)展方向提供寶貴的指導(dǎo)。隨著研究的進(jìn)一步深入,我們期待LLM在未來(lái)能夠展現(xiàn)出更加復(fù)雜和精細(xì)的思考能力,真正成為人類智慧的延伸和補(bǔ)充。

原創(chuàng)不易,需要鼓勵(lì),如覺(jué)得本文有用,請(qǐng)點(diǎn)擊在看、打賞、轉(zhuǎn)發(fā),謝謝。后附AI精品文章系列。

關(guān)注自動(dòng)領(lǐng)取500+ChatGPT報(bào)告,有任何問(wèn)題,加作者dtalk2023,加入數(shù)字化 或者GPT社群。
圖片

提示詞系列:

萬(wàn)字長(zhǎng)文:人人都能學(xué)會(huì)的提示詞,揭秘18個(gè)prompt模版,8個(gè)秘訣,助你AIGC從入門到精通,從可用到好用
反割韭菜|如何5分鐘速成Prompt工程師,使用ChatGPT的Chat咒語(yǔ)心法,基本實(shí)現(xiàn)提效50%+
Prompt工程師可能是偽概念,不存在的,可能只是給業(yè)務(wù)架構(gòu)師穿個(gè)馬甲然后割韭菜
利用費(fèi)曼學(xué)習(xí)法提升提示詞(prompt)技巧
微調(diào)方法科普:指示微調(diào)(Prompt-tuning)(樓下還有l(wèi)ora,adapter tuning)
數(shù)字化轉(zhuǎn)型專家李家貴榮獲datawhale和訊飛星火聯(lián)合頒發(fā)的Prompt Engineer證書
Prompt優(yōu)化的本質(zhì)探討
Instruct Learning vs. Prompt Learning:探索人工智能學(xué)習(xí)的兩種方法
Langchain框架與Prompt Injection的深度解析
CoT Prompting思維鏈提示詞工程是個(gè)啥東東?
案例賦能系列:
ChatGPT與AIGC如何賦能通信行業(yè)
5000字長(zhǎng)文:ChatGPT和AIGC如何賦能保險(xiǎn)行業(yè)?5個(gè)方面,n個(gè)實(shí)戰(zhàn)案例,20+場(chǎng)景
8000字長(zhǎng)文:ChatGPT、AIGC如何賦能銀行業(yè),一文學(xué)透哪些是替代,怎么提效?
ChatGPT和AIGC如何賦能餐飲行業(yè)?
ChatGPT的10個(gè)真實(shí)使用案例,看人生百態(tài),嘆個(gè)人效率全面在卷
原創(chuàng)獨(dú)家:ChatGPT安全使用寶典
ChatGPT科普:簡(jiǎn)單2步,從員工到老板,無(wú)需代碼就可以開(kāi)發(fā)APP,直接步入AI時(shí)代,ChatGPT4最新功能GPTs從0速成
ChatGPT、AIGC和大模型的100+釋義字典
哈佛商學(xué)院最新:面對(duì)鋸齒形的ChatGPT,咱百姓使用的最佳姿勢(shì)是半人半馬,半機(jī)械人
思想表達(dá)二分法:ChatGPT對(duì)版權(quán)市場(chǎng)的沖擊與挑戰(zhàn)
chatGPT如何快速寫會(huì)議紀(jì)要,實(shí)測(cè)。
數(shù)字化轉(zhuǎn)型的香艷的微小說(shuō),你喜歡嗎?(AI微小說(shuō))
后GPT時(shí)代,純手工寫作的文章將成為奢侈品
長(zhǎng)文系列:
萬(wàn)字原創(chuàng)長(zhǎng)文:穿透名詞的迷霧,一文學(xué)透大模型、AIGC和ChatGPT上手實(shí)戰(zhàn)
萬(wàn)字長(zhǎng)文:一文讀懂人工智能+
7000字長(zhǎng)文:AIGC時(shí)代的數(shù)據(jù)戰(zhàn)略應(yīng)該是怎樣的?
萬(wàn)字長(zhǎng)文:一文讀懂ChatGPT漢高祖Sam Altman和外藩、權(quán)臣的權(quán)力格局揭秘(AI大漢帝國(guó)18大咖小傳)
000長(zhǎng)文原創(chuàng):一文讀懂Agent,大模型的下一站;萬(wàn)物皆Agent,更輕、更寬的下一個(gè)風(fēng)口
萬(wàn)字長(zhǎng)文:人人都能學(xué)會(huì)的提示詞,揭秘18個(gè)prompt模版,8個(gè)秘訣,助你AIGC從入門到精通,從可用到好用
8000字長(zhǎng)文:ChatGPT、AIGC如何賦能銀行業(yè),一文學(xué)透哪些是替代,怎么提效?
5000字長(zhǎng)文:ChatGPT和AIGC如何賦能保險(xiǎn)行業(yè)?5個(gè)方面,n個(gè)實(shí)戰(zhàn)案例,20+場(chǎng)景
7000字長(zhǎng)文:JSON0基礎(chǔ)入門,ChatGPT的JSON輸出,確保和APP的融合更加絲滑
6000字長(zhǎng)文:一文讀懂向量數(shù)據(jù)庫(kù)和Embedding, ChatGPT的外掛,Agent的記憶中樞
5000字長(zhǎng)文:ChatGPT和AIGC如何賦能保險(xiǎn)行業(yè)?5個(gè)方面,n個(gè)實(shí)戰(zhàn)案例,20+場(chǎng)景
8000字長(zhǎng)文:ChatGPT、AIGC如何賦能銀行業(yè),一文學(xué)透哪些是替代,怎么提效?
8000字長(zhǎng)文:大數(shù)據(jù)和人工智能,讓打工人和企業(yè)家都卷起來(lái),領(lǐng)先認(rèn)知企業(yè)數(shù)字化轉(zhuǎn)型的價(jià)值
4000字長(zhǎng)文:傳統(tǒng)時(shí)間管理依然重要,但如何效率提升10倍?AI時(shí)代需要有新的時(shí)間管理方法
萬(wàn)字長(zhǎng)文:ChatGPT前傳,數(shù)字掘金:數(shù)據(jù)中臺(tái)前沿實(shí)踐,架構(gòu),價(jià)值,輕量化,平民化,系統(tǒng)化

視頻系列(500集+):
ChatGPT、AIGC和大模型十日談(第十日)--大模型發(fā)展
ChatGPT、AIGC和大模型十日談(第九日)--生成式AI續(xù)
ChatGPT、AIGC和大模型十日談(第八日)--生成式AI
ChatGPT、AIGC和大模型十日談(第七日)--什么是模型監(jiān)控?
ChatGPT、AIGC和大模型十日談(第六日)--什么是MLOPS?
ChatGPT、AIGC和大模型十日談(第五日)
ChatGPT、AIGC和大模型十日談(第四日)
ChatGPT、AIGC和大模型十日談(第三日)
ChatGPT、AIGC和大模型十日談(第二日)
ChatGPT、AIGC和大模型十日談(第一日)
GPT、AIGC和大模型公開(kāi)課(1-10集)
GPT、AIGC和大模型公開(kāi)課(11-20集)
GPT、AIGC和大模型公開(kāi)課(21-30集)
GPT、AIGC和大模型公開(kāi)課(31-40集)
GPT、AIGC和大模型公開(kāi)課(51-57集)
ChatGPT、AIGC和大模型焦點(diǎn)問(wèn)題探討(1-10集)
ChatGPT、AIGC和大模型焦點(diǎn)問(wèn)題探討(11-13集)
ChatGPT、AIGC和大模型焦點(diǎn)問(wèn)題探討(21-30集)
ChatGPT、AIGC和大模型焦點(diǎn)問(wèn)題探討(31-40集)
數(shù)字人講ChatGPT(1-10集)
數(shù)字人講ChatGPT(11-20集)
ChatGPT、AIGC和大模型精講(21-30集)
ChatGPT、AIGC和大模型精講(11-20集)
ChatGPT、AIGC和大模型精講(1-10集)

技術(shù)及其他系列:
業(yè)務(wù)為王,場(chǎng)景為先,是ChatGPT數(shù)字化轉(zhuǎn)型的核心
為什么要學(xué)ChatGPT,你是要做拼多多還是阿里?15倍+人效差距。
不是專家用不好ChatGPT系列二:如何看待深圳提高社保繳納基數(shù)?
深度揭秘ChatGPT為什么缺席了董宇輝事件?因?yàn)槟闶紫鹊檬菍<遥缓蟛拍苡煤肅hatGPT。
ASR和ChatGPT如何融合?
Chatgpt 的embedding 成本太高了怎么辦?本地部署Embedding模型,
白盒交付:揭開(kāi)黑盒,掌控AI的未來(lái)
李家貴:ChatGPT和大模型的9宗罪
Direct Preference Optimization:構(gòu)建人工智能與人類意愿的橋梁(對(duì)齊新方法)
Prompt優(yōu)化的本質(zhì)探討
什么是檢索增強(qiáng)生成(Retrieval-Augmented Generation,簡(jiǎn)稱RAG)
挖掘深度:GPU在加密貨幣和ChatGPT中使用的相同與不同
Stack Overflow與ChatGPT:開(kāi)發(fā)者工具的未來(lái)展望
什么是大模型的函數(shù)調(diào)用 function calling
可能你不知道:網(wǎng)絡(luò)通信比神經(jīng)通信快250萬(wàn)倍。
艾隆·馬斯克揭示全新AI項(xiàng)目——xAI:挑戰(zhàn)OpenAI,尋求“理解宇宙”的超級(jí)智能
利用Ray和Weights & Biases優(yōu)化大型模型的預(yù)訓(xùn)練過(guò)程
開(kāi)源大模型熱門選擇:為什么是FLAN-T5及實(shí)力解析
ChatGPT時(shí)代,管理的重要性愈發(fā)突出,兼評(píng)理想CEO長(zhǎng)微博分享月銷量如何從4000臺(tái)提升到3萬(wàn)臺(tái)。
數(shù)據(jù)標(biāo)注在chatGPT開(kāi)發(fā)的重要性及其經(jīng)濟(jì)模式 - 以Scale AI公司為例
不要瞧不起挖礦的公司,這家融了2個(gè)億美金,分分鐘轉(zhuǎn)型AIGC底層基礎(chǔ)設(shè)施公司
為啥要壓縮大模型?
高考作文 chatGPT怎么寫?
什么是chatGPT大模型的同質(zhì)化?
ChatGPT前傳-數(shù)據(jù)中臺(tái)實(shí)戰(zhàn)
文心一言、gpt和midjourney那些事視頻合集
小愛(ài)、小度音箱擬從BERT向GPT轉(zhuǎn)變,大語(yǔ)言模型引領(lǐng)人工智能新變革
Weights & Biases這家AIGC重要的生態(tài)企業(yè),中文介紹很少,我就來(lái)專門介紹一下。
Attention is all you need的三位作者最近怎么樣了?
Open AI CEO Sam的成功法則前三條(附英文原文)。
科技奇談:中國(guó)女生創(chuàng)PIKA,稱霸美國(guó)AI圈;浙大校友父憑女貴,信雅達(dá)A股漲停
高端的食材只需要簡(jiǎn)單的烹飪,高端的商戰(zhàn)只需要簡(jiǎn)單的投票和任命,ChatGPT政變權(quán)斗三集全
吳軍說(shuō)chatGPT不是新革命也沒(méi)有新機(jī)會(huì),我有幾點(diǎn)不同看法。
當(dāng)anthrop pk chatGPT
chatGPT和文心一言出來(lái)后,需要小鎮(zhèn)出題家而不是小鎮(zhèn)做題家了(附100幅AI作圖)

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多