小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

Redis之父親自上手用大模型擼代碼:通曉古今的白癡隊(duì)友,將來(lái)可以取代99%程序員

 黃爸爸好 2024-01-05 發(fā)布于上海
圖片

Redis 創(chuàng)始人 antirez 寫(xiě)下了自己 2024 年的第一篇博文,他從一名普通程序員的角度談了談對(duì)大語(yǔ)言模型的感受,雖然他的成就并不普通。他在文章里犀利評(píng)價(jià) Google 引擎已經(jīng)成為垃圾的海洋,并客觀評(píng)價(jià)了現(xiàn)在的 AIGC 能力:愚蠢但通曉古今。

通過(guò)長(zhǎng)期使用,他認(rèn)為現(xiàn)階段的生成式 AI 只會(huì)讓已經(jīng)很強(qiáng)的程序員變得更強(qiáng)。目前大多數(shù)編程任務(wù)都是在重復(fù)工作,根本不需要大模型有太高的推理水平,大模型很適合那些“用完就扔”的程序。我們對(duì) antirez 的博文進(jìn)行了翻譯,并在不改變作者原意基礎(chǔ)上進(jìn)行了一些刪減。

自從 ChatGPT 橫空出世以來(lái),包括后面以本地方式運(yùn)行的各種大模型,生成式 AI 已然得到了廣泛應(yīng)用。我個(gè)人的目的一方面是想依靠大模型提高編碼能力,另外還希望把寶貴的精力從繁瑣且價(jià)值有限的工作中解放出來(lái)。相信很多朋友也像我一樣,花費(fèi)了無(wú)數(shù)時(shí)間搜索沒(méi)什么啟發(fā)性的技術(shù)文檔、被迫學(xué)習(xí)各種過(guò)于復(fù)雜的 API、編寫(xiě)過(guò)短時(shí)間內(nèi)就淪為垃圾的程序。工作不該是這樣的,開(kāi)發(fā)也不該是這樣的?,F(xiàn)如今,Google 引擎已經(jīng)成了垃圾的海洋,我們得費(fèi)盡心思才能在其中找到一點(diǎn)有用的內(nèi)容。

另外,我本人并不是編程新手。哪怕不借助任何外部資源,我也能夠編寫(xiě)代碼,甚至可以說(shuō)具備一定開(kāi)發(fā)水平。只是隨著時(shí)間推移,我開(kāi)始越來(lái)越多地用大模型協(xié)助編寫(xiě)高級(jí)代碼:Python 代碼最多,但在 C 語(yǔ)言中則應(yīng)用較少。

大語(yǔ)言模型最讓我印象深刻的一點(diǎn),就是我能準(zhǔn)確意識(shí)到何時(shí)可以使用、而哪些情況下盲目使用只會(huì)拖慢進(jìn)度。我還發(fā)現(xiàn),大模型其實(shí)很像維基百科和 YouTube 上的各種視頻課程:對(duì)于有意愿、有能力、更自律的使用者來(lái)說(shuō)效果拔群,但對(duì)本就業(yè)務(wù)能力不足的朋友來(lái)說(shuō)則邊際收益遞減。所以我很擔(dān)心,至少在現(xiàn)階段,生成式 AI 只會(huì)讓已經(jīng)很強(qiáng)的程序員變得更強(qiáng)。

下面讓我們一步步開(kāi)始討論。

大語(yǔ)言模型:
全知全能還是鸚鵡學(xué)舌?

機(jī)器學(xué)習(xí)新浪潮中最令人憂心的現(xiàn)象之一,就是 AI 專(zhuān)家對(duì)于大模型的認(rèn)知還相當(dāng)有限。我們雖然發(fā)明了神經(jīng)網(wǎng)絡(luò),但在實(shí)質(zhì)上發(fā)明的僅僅是一種自動(dòng)優(yōu)化神經(jīng)網(wǎng)絡(luò)參數(shù)的算法。硬件已經(jīng)能夠訓(xùn)練出越來(lái)越大的模型,并使用提取自待處理數(shù)據(jù)(先驗(yàn)素材)的統(tǒng)計(jì)知識(shí),再通過(guò)大量迭代試驗(yàn)排除錯(cuò)誤、逼近正確答案。必須承認(rèn),大模型確實(shí)要比以往其他架構(gòu)效果更好。但總體來(lái)講,神經(jīng)網(wǎng)絡(luò)本身仍然極不透明。

由于無(wú)法解釋大模型為何具備某些新興能力,預(yù)計(jì)科學(xué)家們的態(tài)度將更趨謹(jǐn)慎。但在另一個(gè)極端上,也有不少人都嚴(yán)重低估了大語(yǔ)言模型,認(rèn)為它們只不過(guò)是某種更先進(jìn)的馬爾可夫鏈,最多只能重現(xiàn)在訓(xùn)練集中見(jiàn)到過(guò)的有限變化。但大量事實(shí)證據(jù)表明,這種大模型只是在“鸚鵡學(xué)舌”的理論根本站不住腳。

也有不少熱心群眾覺(jué)得大語(yǔ)言模型獲得了某種實(shí)際上不存在的超自然力量。沒(méi)那么玄乎,大模型最多只能對(duì)自己在訓(xùn)練期間接觸過(guò)的數(shù)據(jù)表示空間進(jìn)行插值,而這并不是什么新鮮成果。而且哪怕單論插值,其能力也相當(dāng)有限(但足以超出人類(lèi)預(yù)期,甚至帶來(lái)驚喜)。如果能夠更進(jìn)一步,在接觸過(guò)的所有代碼圍成的空間當(dāng)中進(jìn)行連續(xù)插值,那么大模型哪怕無(wú)法創(chuàng)造出真正新奇的事物,也足以取代 99% 的程序員。

好在現(xiàn)實(shí)沒(méi)這么夸張,我們開(kāi)發(fā)者們?nèi)杂猩娴目臻g。大語(yǔ)言模型確實(shí)能編寫(xiě)出自己沒(méi)有原樣接觸到的程序形式,也表現(xiàn)出通過(guò)融合訓(xùn)練集內(nèi)不同出現(xiàn)頻率的思路來(lái)引導(dǎo)開(kāi)發(fā)方向的初步能力。只是這種能力目前還存在很大的局限性,而種種微妙的推理任務(wù)總會(huì)令大語(yǔ)言模型遭遇災(zāi)難性的失敗。但必須承認(rèn),大語(yǔ)言模型已經(jīng)代表著 AI 技術(shù)從誕生至今最偉大的成就,這一點(diǎn)應(yīng)該成為所有討論的前提。

既愚蠢,卻又通曉古今

此言不假:大語(yǔ)言模型最多只能進(jìn)行最基本的推理,這種推理還不夠準(zhǔn)確,很多時(shí)候充滿了事實(shí)層面的幻覺(jué)和捏造。但它們同樣擁有著淵博的知識(shí)。

以編程領(lǐng)域及其他能夠獲取高質(zhì)量數(shù)據(jù)的場(chǎng)景為例,大模型就像那種通曉古今的愚蠢學(xué)者。與這樣的合作伙伴進(jìn)行結(jié)對(duì)編程并不明智(當(dāng)然,在我看來(lái)哪怕是跟人做結(jié)對(duì)編程也不明智):它們往往會(huì)拋出荒謬的想法,而我們則需要在開(kāi)發(fā)中不斷努力強(qiáng)調(diào)自己的思路。

但反過(guò)來(lái),如果把這個(gè)博學(xué)的傻瓜當(dāng)成可支配的工具、由它提出問(wèn)題以作為我們激發(fā)靈感的素材,那么效果將完全不同。目前的大模型還無(wú)法引領(lǐng)人類(lèi)跨越知識(shí)的鴻溝,但如果我們想解決某個(gè)自己不太熟悉的問(wèn)題,它們往往可以幫助我們從一無(wú)所知快速前進(jìn)到具備完全自學(xué)能力的程度。

在編程領(lǐng)域,之前二、三十年間的程序員們可能對(duì)大模型的這種能力評(píng)價(jià)不高。畢竟那時(shí)候我們只需要掌握幾種編程語(yǔ)言、特定的經(jīng)典算法和那十來(lái)套基礎(chǔ)庫(kù),余下的就純粹是自我表達(dá)、發(fā)揮才智、運(yùn)用專(zhuān)業(yè)知識(shí)和設(shè)計(jì)技能的部分了。只要擁有這種能力,我們就是當(dāng)之無(wú)愧的專(zhuān)業(yè)程序員,具備了解決一切難題的潛質(zhì)。

但隨著時(shí)間推移,各種框架、編程語(yǔ)言和庫(kù)開(kāi)始輪番上陣,爆發(fā)式的增長(zhǎng)令開(kāi)發(fā)難度激增,也給程序員的日常工作帶來(lái)了既無(wú)必要、又不合理的諸多困擾。在這樣的現(xiàn)實(shí)和背景之下,大模型這樣一位通曉古今的白癡隊(duì)友就成了最寶貴的前進(jìn)指引。

舉個(gè)例子:我自己的機(jī)器學(xué)習(xí)實(shí)驗(yàn)在整整一年間都是靠 Keras 完成的。后來(lái)出于種種原因,我轉(zhuǎn)而使用 PyTorch。當(dāng)時(shí)我已經(jīng)學(xué)習(xí)了什么叫嵌入和殘差網(wǎng)絡(luò),但我實(shí)在不想逐字逐句去研究 PyTorch 文檔(當(dāng)初我在學(xué) Keras 時(shí)就是這么硬啃下來(lái)的,如果能有 ChatGPT 肯定可以幫我回避很多痛苦的回憶)。如今有了大語(yǔ)言模型,我可以非常輕松地編寫(xiě)出使用 Torch 的 Python 代碼,唯一的前提就是對(duì)想要組合的模型擁有清晰的思路、同時(shí)能夠提出正確的問(wèn)題。

用案例說(shuō)話

請(qǐng)注意,我這里說(shuō)的可不是那些簡(jiǎn)單的需求,比如“X 類(lèi)是怎么實(shí)現(xiàn) Y 的?”如果只是這類(lèi)場(chǎng)景,那大語(yǔ)言模型的作用其實(shí)相當(dāng)有限,甚至可以說(shuō)跟搜索引擎和技術(shù)論壇區(qū)別不大。相反,復(fù)雜模型能做到的要多得多,包括那些短短幾年前我們還無(wú)法想象的功能。

現(xiàn)在我可以告訴 GPT-4:“看看,這是我在 PyTorch 實(shí)現(xiàn)的神經(jīng)網(wǎng)絡(luò)模型。這些是我設(shè)置的批任務(wù)。我想調(diào)整張量大小,保證批函數(shù)與神經(jīng)網(wǎng)絡(luò)的輸入相兼容,同時(shí)想以這種特定方式來(lái)表示。你能告訴我需要怎樣的代碼進(jìn)行重寫(xiě)嗎?”提示完成之后,GPT-4 就會(huì)編寫(xiě)代碼,而我要做的就是在 Python CLI 中測(cè)試張量結(jié)果的維度是否滿足需求、數(shù)據(jù)布局是否正確。

再來(lái)看另一個(gè)例子。前段時(shí)間,我需要為某些基于 ESP32 的設(shè)備開(kāi)發(fā) BLE 客戶(hù)端。經(jīng)過(guò)一番研究,我發(fā)現(xiàn)多平臺(tái)藍(lán)牙編程綁定大多無(wú)法直接使用,而解決方案非常簡(jiǎn)單,使用 macOS 的本機(jī) API 在 Objective C 中編寫(xiě)代碼即可。這就要求我同時(shí)處理兩個(gè)問(wèn)題:學(xué)習(xí) Objective C 那繁瑣的 BLE API,適應(yīng)種種毫無(wú)意義的模式(我屬于那種極簡(jiǎn)主義者,而 Objective C 的 BLE API 絕對(duì)是“優(yōu)秀設(shè)計(jì)”的典型反例);同時(shí)學(xué)會(huì)如何用 Objective C 編程。我上次用它編程還是在十年之前,如今早就忘了事件循環(huán)、內(nèi)在管理等技術(shù)細(xì)節(jié)。

最終結(jié)果就是以下代碼,雖然不夠優(yōu)雅簡(jiǎn)潔,但至少能夠正常起效。在大模型的幫助下,我只用了很短時(shí)間就完成了開(kāi)發(fā),這在以往根本就無(wú)法想象:

https://github.com/antirez/freakwan/blob/main/osx-bte-cli/SerialBTE.m

這些代碼主要由 ChatGPT 生成,而我的工作就是把自己想做、但不太確定要怎么實(shí)現(xiàn)的要求粘貼進(jìn)去。如此一來(lái),大模型就能向我做出解釋?zhuān)▎?wèn)題的實(shí)質(zhì)是什么、應(yīng)當(dāng)如何解決。

的確,大模型并沒(méi)有實(shí)際編寫(xiě)多少代碼,但卻幫助我顯著加快了開(kāi)發(fā)速度。如果沒(méi)有 ChatGPT,我能不能把項(xiàng)目做下來(lái)?當(dāng)然也行,但最重要的并不是我要額外投入多少時(shí)間,而是我可能干脆就放棄了:畢竟這么麻煩的事情,已經(jīng)不值得我浪費(fèi)精力。

在我看來(lái),這才是真正決定性的因素。如果沒(méi)有大模型,我在衡量工作量和收益之后壓根不會(huì)編寫(xiě)這樣一個(gè)程序。大模型甚至還幫我完成了一項(xiàng)比程序本身更重要的調(diào)整:在項(xiàng)目中,我修改了 linenoise(我使用的行編輯庫(kù))以使其能在多路復(fù)用中生效。

即拋型程序

像前文提到的這類(lèi)案例還有很多,這里就不再過(guò)多重復(fù)了,畢竟類(lèi)似的故事基本都是一樣的套路和效果。在日常工作中,我還經(jīng)常面臨另一類(lèi)問(wèn)題,就是想要快速獲得某些可以驗(yàn)證的成果。在這種情況下,同樣可以使用大模型來(lái)提升探索效率。

對(duì)于此類(lèi)場(chǎng)景,我往往會(huì)讓大模型負(fù)責(zé)編寫(xiě)所有代碼。例如,當(dāng)我需要編寫(xiě)某些即拋型程序時(shí),比如下面這個(gè):

https://github.com/antirez/simple-language-model/blob/main/plot.py

我想要對(duì)小型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過(guò)程中的損失曲線進(jìn)行可視化,因此向 GPT-4 展示了 PyTorch 程序生成的 CSV 文件格式,然后提出如果我在命令行內(nèi)指定多個(gè) CSV 文件,希望能對(duì)不同實(shí)驗(yàn)所驗(yàn)證的損失曲線進(jìn)行比較。而以上鏈接就是 GPT-4 生成的結(jié)果,前后只用了短短 30 秒。

同樣的,我還需要一個(gè)程序來(lái)讀取 AirBnB CSV 報(bào)告,并按月份和年份對(duì)各處公寓進(jìn)行分組。之后,結(jié)合清潔費(fèi)用以及單次預(yù)訂的住宿天數(shù),由它來(lái)統(tǒng)計(jì)一年中不同月份的平均租金價(jià)格。這款程序?qū)ξ襾?lái)說(shuō)確實(shí)有用,但編寫(xiě)過(guò)程又極其無(wú)聊:因?yàn)槔锩娓緵](méi)什么新奇有趣的功能。于是乎,我選取了一部分 CSV 文件并粘貼進(jìn) GPT-4 當(dāng)中,之后描述了一下希望大模型解決的問(wèn)題。輸出的程序一次運(yùn)行成功。但我們自己得正確理解具體的數(shù)據(jù)分組方式,否則會(huì)感覺(jué)這些數(shù)據(jù)既分散又無(wú)序。

通過(guò)簡(jiǎn)單的推理,我認(rèn)為大模型絕對(duì)不是簡(jiǎn)單從接觸過(guò)的訓(xùn)練素材中照搬來(lái)的解決方案。沒(méi)錯(cuò),GPT-4 在訓(xùn)練期間肯定觀察到過(guò)類(lèi)似的程序,只是這些程序所對(duì)應(yīng)的具體分組要求跟我的提示有所不同,特別是要求分組成特定格式的 CSV 文件。所以在我看來(lái),大模型應(yīng)該能在一定程度上對(duì)訓(xùn)練集中不同程序描述的空間進(jìn)行插值。

讓我自己浪費(fèi)時(shí)間編寫(xiě)這類(lèi)簡(jiǎn)單程序?qū)嵲谑遣惶髦?。事?shí)證明大模型可以承接此類(lèi)任務(wù),幫助我將精力集中在真正重要的工作上,這無(wú)疑變相提高了我的代碼生產(chǎn)效率。

大模型搞不定的典型任務(wù):
系統(tǒng)編程

雖然我的大模型編程嘗試取得了不小的成功,但在使用 C 語(yǔ)言編寫(xiě)程序時(shí),我發(fā)現(xiàn)大模型更多只能作為便攜的文檔記錄助手。我本人是系統(tǒng)編程方面的專(zhuān)家,在這類(lèi)用例中,大模型由于缺乏復(fù)雜的推理能力而幾乎幫不上什么忙。相信各位朋友也有類(lèi)似的感受。

下面我們一起來(lái)看這段實(shí)驗(yàn)性的提示詞:

“為 bloom 過(guò)濾器生成一條優(yōu)雅、短小且有效的 C 語(yǔ)言實(shí)現(xiàn)。應(yīng)重點(diǎn)關(guān)注哈希函數(shù)處理,然后用高質(zhì)量 C 語(yǔ)言進(jìn)行編寫(xiě)。另須考慮,這條實(shí)現(xiàn)的大小應(yīng)可存儲(chǔ) 10 萬(wàn)個(gè)元素,誤報(bào)概率不得超過(guò) 5%。添加的元素是以 null 結(jié)尾的字符串?!?/p>

GPT-4 給出的答案說(shuō)不上好。Bloom 過(guò)濾器其實(shí)相當(dāng)普遍,涉及的數(shù)據(jù)結(jié)構(gòu)也不特殊。但很明顯,編寫(xiě)一個(gè)像樣的 bloom 過(guò)濾器需要更強(qiáng)大的抽象能力:例如找到一種有效方法對(duì)同一字符串進(jìn)行 N 次哈希處理,并確保各哈希值得到充分的去相關(guān)處理。如果換個(gè)思路,明確要求 GPT-4 修改哈希函數(shù),使其產(chǎn)生 N 個(gè)去相關(guān)輸出,那么它給出的解決方案就靠譜多了。如果它能自己發(fā)現(xiàn)這個(gè)思路,就會(huì)以不同的方式編寫(xiě) bloom 過(guò)濾器,使用單個(gè)哈希函數(shù)一次設(shè)置 K 個(gè) bits。

事實(shí)就是,GPT-4 能夠獨(dú)立編寫(xiě)出適當(dāng)也更加通用的哈希函數(shù),但在編寫(xiě) bloom 過(guò)濾器這類(lèi)更大的項(xiàng)目時(shí),它卻未能表現(xiàn)出良好的推理能力,而是給出了兩個(gè)不同但卻高度相似的哈希函數(shù)。

總而言之,當(dāng)前大語(yǔ)言模型的推理能力仍然孱弱,再加上關(guān)于這個(gè)問(wèn)題的資源可能比較稀少,甚至存在大量低質(zhì)量資源,于是導(dǎo)致其給出的結(jié)果不盡如人意。而且這絕不是孤立的案例,我還多次嘗試在算法或系統(tǒng)編程當(dāng)中使用大模型,結(jié)果也非常差。哪怕是下調(diào)對(duì)推理能力的預(yù)期,它也沒(méi)法重現(xiàn) Python 編程環(huán)境中的代碼生成水平。

但與此同時(shí),GPT-4 能夠反編譯它所輸出的函數(shù)(需要通過(guò)單獨(dú)的會(huì)話),也能準(zhǔn)確理解這樣做的意義,因此,大模型在系統(tǒng)編程場(chǎng)景下還是具有一定作用的,只是非常有限。

另一個(gè)有趣且令人期待的點(diǎn),是在上述情況下,較小模型和較大模型間的表現(xiàn)有著顯著差異。

雖然 Mixtral 是一套適合多種用途的優(yōu)秀模型,但考慮到大模型本就孱弱的推理能力,目前能夠總結(jié)出的規(guī)律明顯是體量越大、效果越好。另外,本地模型 deepseek-coder 設(shè)置為 4 bits 量化精度,因?yàn)楸镜卦O(shè)備的內(nèi)存不足以在更高的精度上運(yùn)行模型。哪怕如此,憑借 340 億參數(shù),它在同一問(wèn)題上的推理能力還是更強(qiáng)一些。

在嘗試中,我給出了關(guān)于問(wèn)題的解決線索,而模型則正確得出了答案、確定了引發(fā)問(wèn)題的真正根源,并最終給出了行之有效的替代方案。這類(lèi)應(yīng)用在任何文檔、書(shū)籍或者 Google 搜索中都沒(méi)有直接答案。

無(wú)論是從原始插值的角度、還是其他思路來(lái)看,模型都已經(jīng)掌握了某種形式的推理能力。也只有借助這份推理能力,AI 才能找到問(wèn)題的根源并發(fā)現(xiàn)潛在的解決方案。所以我覺(jué)得沒(méi)必要再爭(zhēng)論了,大語(yǔ)言模型對(duì)于程序員們確實(shí)具備積極的輔助意義。

但與此同時(shí),過(guò)去幾個(gè)月間的使用體驗(yàn)表明,在系統(tǒng)編程領(lǐng)域、特別是對(duì)于經(jīng)驗(yàn)豐富的程序員們,大模型幾乎無(wú)法給出任何可以拿來(lái)就用的解決方案。

我目前負(fù)責(zé)的 ggufflib 項(xiàng)目要求編寫(xiě)一個(gè)讀取和寫(xiě)入 GGUF 格式文件的庫(kù),也就是 llama.cpp 加載量化模型的格式。最初,為了理解量化編碼的工作原理,我嘗試使用過(guò) ChatGPT,但最后還是決定對(duì) llama.cpp 的代碼進(jìn)行逆向工程——這樣速度還更快些。

理想中的大語(yǔ)言模型應(yīng)該能根據(jù)接觸到的數(shù)據(jù)編碼“結(jié)構(gòu)”聲明和解碼函數(shù),還原出關(guān)于數(shù)據(jù)格式的說(shuō)明文檔,借此幫助系統(tǒng)程序員理解設(shè)計(jì)思路??呻m然 llama.cpp 的函數(shù)不大,完全可以塞進(jìn) GPT-4 的上下文窗口,但輸出的結(jié)論卻毫無(wú)意義。

對(duì)于這類(lèi)情況,我們就只能像最傳統(tǒng)的程序員那樣:掏出紙和筆,一行行閱讀代碼,查看解碼器提取的 bits 在哪里注冊(cè)。

正確看待大語(yǔ)言模型

雖然懷著深深的遺憾,但我不得不承認(rèn):目前大多數(shù)編程任務(wù)都是在以略有不同的形式重復(fù)著相同的工作,根本不需要太高的推理水平。而大語(yǔ)言模型在這方面表現(xiàn)出色,只是仍然受到上下文規(guī)模的硬性約束。

而這也應(yīng)當(dāng)引起我們程序員的思考:這樣的程序,真值得我們花費(fèi)時(shí)間和精力動(dòng)手編寫(xiě)嗎?沒(méi)錯(cuò),這活能給我們帶來(lái)相當(dāng)豐厚的報(bào)酬,但如果大語(yǔ)言模型逐漸接手了這部分任務(wù),那么五年、最多不超過(guò)十年,就會(huì)有很多程序員同行丟掉飯碗。

再有,大語(yǔ)言模型到底具不具備一定程度的推理能力,還是說(shuō)仍然是在鸚鵡學(xué)舌、只是學(xué)得更加惟妙惟肖?我認(rèn)為某些情況下它們確實(shí)具備推理能力,也就是掌握了符號(hào)學(xué)家們所說(shuō)的“能指”概念,即實(shí)質(zhì)上并不存在的意義。

相信每一位跟大模型經(jīng)常打交道的朋友,都能在理解它們局限性的同時(shí),感受到其中體現(xiàn)出的推理之力:它們對(duì)以往接觸過(guò)的內(nèi)容的融合能力,遠(yuǎn)遠(yuǎn)超出了隨機(jī)輸出單詞的范疇。盡管其學(xué)習(xí)過(guò)程主要是在預(yù)訓(xùn)練階段完成,但在預(yù)測(cè)下一個(gè) token 時(shí),大模型還是會(huì)根據(jù)目標(biāo)建立起某種形式的抽象模型。這個(gè)模型雖然還很脆弱、不夠完備和完美,但通過(guò)實(shí)際觀察,我們會(huì)意識(shí)到這種能力的客觀存在。正所謂耳聽(tīng)為虛、眼見(jiàn)為實(shí),哪怕可能挑戰(zhàn)數(shù)學(xué)專(zhuān)業(yè)的確定性原理、與最偉大的技術(shù)專(zhuān)家觀點(diǎn)相背,我也仍然對(duì)大模型表現(xiàn)出的認(rèn)知水平抱有信心。

最后,希望大家能夠積極擁抱大模型,嘗試用它解決編程中的各種問(wèn)題。向大模型提出正確問(wèn)題將成為一項(xiàng)基礎(chǔ)性的開(kāi)發(fā)技能,而且演練的次數(shù)越多,AI 就越是能更好地改進(jìn)工作效果。哪怕不考慮 AI 因素,這種明確清晰的問(wèn)題描述能力也有助于我們更好地跟他人溝通。畢竟大語(yǔ)言模型并不是唯一跟不上我們思維過(guò)程的會(huì)話對(duì)象。相信大家也有體會(huì),很多程序員雖然在自己的特定領(lǐng)域里非常出色,但溝通能力卻很差,這也成為限制其職業(yè)發(fā)展的瓶頸。

現(xiàn)如今的 Google 引擎已經(jīng)稀爛,所以哪怕是從濃縮和提煉文本內(nèi)容的角度,大模型也肯定具備巨大的現(xiàn)實(shí)意義。就個(gè)人而言,我也將繼續(xù)使用大模型、了解大模型。我向來(lái)不喜歡學(xué)習(xí)晦澀的通信協(xié)議細(xì)節(jié),也不愿跟那些炫技式的復(fù)雜庫(kù)編寫(xiě)方法打交道。對(duì)我來(lái)說(shuō),這些只是白白浪費(fèi)時(shí)間和精力的“垃圾知識(shí)”。感謝大語(yǔ)言模型,把我從這些曾經(jīng)的泥潭當(dāng)中解救出來(lái)。

原文鏈接:

http:///news/140

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多