來源:AI深度研究員
最近,在約翰斯·霍普金斯大學(xué)新落成的彭博中心,Meta首席科學(xué)家Yann LeCun 帶來了一個引人深思的觀點(diǎn):鑒于數(shù)據(jù)問題,大語言模型(LLM)可能已經(jīng)觸及了發(fā)展天花板。
作為人工智能領(lǐng)域公認(rèn)的'教父'級人物,LeCun的這一判斷值得關(guān)注。他在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的奠基性工作,為當(dāng)今最強(qiáng)大的AI系統(tǒng)奠定了基礎(chǔ)。目前,作為Meta首席科學(xué)家,他正帶領(lǐng)團(tuán)隊開啟一個新的方向:大型概念模型(LCM)。'可用的自然語言數(shù)據(jù)已經(jīng)被用盡。'LeCun直言不諱,'目前,幾乎所有可以公開獲得的互聯(lián)網(wǎng)文本數(shù)據(jù)都已被用于訓(xùn)練這些LLM。即便開始生成合成數(shù)據(jù),也無法將性能提升10倍或100倍。'
傳統(tǒng)的LLM通過預(yù)測下一個詞來工作:收集約20萬億個單詞的公開文本數(shù)據(jù),用數(shù)十億甚至數(shù)百億參數(shù)的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,根據(jù)上下文預(yù)測下一個詞的概率分布。但LeCun認(rèn)為,這種方法已達(dá)瓶頸。
'這種預(yù)測模式并不能保證生成的文本邏輯自洽或避免虛構(gòu)內(nèi)容。'LeCun解釋道,'雖然業(yè)界正通過人類反饋訓(xùn)練和數(shù)據(jù)庫查詢來優(yōu)化系統(tǒng),但這并非未來AI的發(fā)展方向。我們需要一個全新的范式。'
采訪文稿
主持人:老朋友了,我想我們今天主要會聊人工智能,我想聽聽你對這些事情的看法。你和埃隆有公開爭論,還稱特朗普是“病態(tài)撒謊者”。與此同時,扎克伯格(Meta CEO)卻在海湖莊園的露臺上享受了一頓美餐。談?wù)勀闩c即將上任的政府的關(guān)系吧。你是否需要開始減少這樣的評論?或者你完全不在意?
嘉賓Yann LeCun:嗯,我對很多事情都感興趣,也對許多問題感到擔(dān)憂。從政治上來說,我很明顯是一個典型的自由派,這在歐洲的政治派別中將我放在正中央,但在美國顯然不是。讓我對埃隆感到不滿的是他開始攻擊高等教育、科學(xué)機(jī)構(gòu)和科學(xué)家,比如Anthony Fauci。作為科學(xué)家,我也同時是 Meta 的高管,我對此非常反感。我非常感謝 Meta 能讓我擁有獨(dú)立的聲音,你可以看得出來我并沒有在說“企業(yè)話術(shù)”。這也反映在我創(chuàng)立的研究實(shí)驗(yàn)室中,我們發(fā)布所有研究成果,并通過開源與大家分享。我們對研究和意見都很開放。這是我的立場。作為科學(xué)家和理性主義者,我真的很不滿埃隆攻擊科學(xué)界的行為。
1、選擇 Meta工作
主持人:現(xiàn)在埃隆正處于事件的中心,你如何應(yīng)對?
Yann LeCun:我見過埃隆很多次,他可以是個很理性的人。你必須與人合作,無論政治或哲學(xué)觀點(diǎn)有何分歧。最終,你不得不和人合作,這就是我和他之間的關(guān)系發(fā)展方向。
主持人:在 Meta,你的職責(zé)是什么?
Yann LeCun: 我不負(fù)責(zé)政策制定。我從事的是基礎(chǔ)研究,我不負(fù)責(zé)內(nèi)容政策,也不涉及這些事情。我確實(shí)和全球許多政府交談,但主要是關(guān)于 AI 技術(shù)及其對政策的影響。
主持人:我很好奇,你為什么選擇 Meta,而不是傳統(tǒng)的大型研究型大學(xué)?你如何看待自己的影響力?
Yann LeCun: 我只是一個簡單的科學(xué)家,做一些研究。同時我也是一名學(xué)者。我是紐約大學(xué)的教授,同時也在 Meta 工作。差不多 11 年前,馬克·扎克伯格找到我,他希望我為 Meta 創(chuàng)建一個專注于 AI 的研究實(shí)驗(yàn)室,因?yàn)樗J(rèn)為這將對未來產(chǎn)生重大影響,他的判斷是對的。我當(dāng)時提出了三個條件:第一,我不會離開紐約;第二,我不會辭去在紐約大學(xué)的職位;第三,我們的所有研究都將公開,我們會發(fā)表所有研究成果,并開源代碼。他的回答是“沒問題”。而且他還補(bǔ)充說:“這已經(jīng)是公司的 DNA,我們的所有平臺代碼都是開源的?!?這讓我意識到,在擁有足夠資源的公司中,這是一個從零開始建立研究機(jī)構(gòu)的機(jī)會。我可以按照自己認(rèn)為合適的方式構(gòu)建它。我之前在貝爾實(shí)驗(yàn)室工作過,所以對如何在工業(yè)界進(jìn)行雄心勃勃的研究有一些經(jīng)驗(yàn)。我覺得這是一項非常令人興奮的挑戰(zhàn)。
主持人:那我們繼續(xù)討論更先進(jìn)的 AI。最近,特朗普任命了 David Sacks 為 AI 和加密領(lǐng)域的“沙皇”。政府在這個領(lǐng)域顯然會扮演越來越重要的角色。對于不太了解的人來說,Sacks 是一名投資者,也是“PayPal 黑手黨”的一員,同時也是埃隆·馬斯克的老朋友。他的政治立場發(fā)生了顯著變化。你覺得現(xiàn)在華盛頓需要這樣一個角色嗎?或者你對此完全不關(guān)心?
Yann LeCun:有幾個原因。首先,政府不應(yīng)該制定讓開源 AI 平臺非法的法規(guī)。我認(rèn)為開源對技術(shù)的進(jìn)步和廣泛使用至關(guān)重要。我們可以進(jìn)一步討論這個問題。其次,我并不反對對基于 AI 的產(chǎn)品進(jìn)行監(jiān)管,這是完全可以接受的。但學(xué)術(shù)界在 AI 的發(fā)展中正逐漸落后,主要原因是缺乏計算資源。因此,我認(rèn)為政府應(yīng)該為學(xué)術(shù)界提供更多的計算資源。因?yàn)槲蚁矚g做科學(xué)研究。在我的職業(yè)生涯中,我有很多機(jī)會成為管理者。我在 Meta 當(dāng)了四年的管理者,然后成為首席科學(xué)家。坦率地說,我現(xiàn)在的工作是公司里最棒的職位,每個人都羨慕我,因?yàn)槲沂歉呒壐笨偛茫珱]有任何直接下屬。我不用管理一個團(tuán)隊或組織。
主持人:那么,在你看來,一個 AI “沙皇”最重要的職責(zé)是什么?
Yann LeCun:確保 AI 的研究和開發(fā)不會被視為非法。
主持人:你認(rèn)為 AI 的研究開發(fā)真的會被視為非法嗎?
Yann LeCun:過去兩年,關(guān)于 AI 是否會變得“本質(zhì)上危險”的爭論很激烈。不是指產(chǎn)品的危險性,而是技術(shù)本身是否危險。因此,有人提議對 AI 系統(tǒng)的能力設(shè)限。我一直反對這種對研發(fā)進(jìn)行監(jiān)管的想法。我認(rèn)為這極其適得其反,基于對 AI 潛在危險的錯誤理解,比如“AI 未來某一天會接管世界”這樣的觀點(diǎn)。但我們距離這種情況還很遠(yuǎn)。任何試圖監(jiān)管研發(fā)的行為都非常不利,而且實(shí)際上,這些提案會導(dǎo)致行業(yè)內(nèi)少數(shù)公司通過監(jiān)管獲取壟斷地位。建議政府不僅不要限制,還要提供更多的資金支持。政府應(yīng)該在提供資源方面發(fā)揮更積極的作用。
主持人:FDC 新任負(fù)責(zé)人是 Andrew Ferguson,而國防部長提名了前??怂剐侣勚鞑?Pete Hegseth。他們一個試圖減少監(jiān)管,一個正在談?wù)搰啦康男?AI 辦公室。你認(rèn)為政府在這個領(lǐng)域的活躍度應(yīng)該增加嗎?
Yann LeCun:政府需要更加了解和教育自己,當(dāng)然也需要更加積極,正如我之前提到的那些原因。我們需要有一套工業(yè)政策來解決目前所有 AI 芯片都在臺灣生產(chǎn)、由一家公司的設(shè)計壟斷等問題。
2、芯片和AI人才的競爭
主持人:關(guān)于芯片領(lǐng)域,你認(rèn)為是否需要讓這個市場更加競爭?
Yann LeCun:是的,比如在芯片領(lǐng)域,可能需要采取一些措施讓市場更加具有競爭力。另外,還有一個非常關(guān)鍵的問題,這不僅僅涉及美國政府,還涉及全世界的政府。人工智能正在迅速成為一種通用的知識平臺,基本上可以作為所有人類知識的存儲庫。但是,這只能通過自由和開源的平臺來實(shí)現(xiàn),這些平臺需要從全世界的數(shù)據(jù)中進(jìn)行訓(xùn)練。你不能僅僅依賴美國西海岸某家公司墻內(nèi)的系統(tǒng),這樣的系統(tǒng)無法覆蓋印度的 700 種語言或印度尼西亞的 300 多種語言。因此,最終這些平臺需要通過全球范圍內(nèi)的分布式訓(xùn)練來實(shí)現(xiàn),同時必須保持開放。
主持人:我知道你對過早的監(jiān)管抑制創(chuàng)新表示擔(dān)憂。不過,你簽署了一封公開信,反對拜登總統(tǒng)的 AI 行政命令。請談?wù)勀銥槭裁匆@樣做,以及你認(rèn)為政府在這方面應(yīng)該扮演什么角色?
Yann LeCun:我認(rèn)為在那個行政命令中有很多完全合理的內(nèi)容,比如保護(hù)隱私等,這些完全有意義。不過,我不贊成的地方在于,行政命令和最初版本的歐盟 AI 法案都設(shè)定了一個限制,比如如果你訓(xùn)練的模型超過億次浮點(diǎn)運(yùn)算(FLOP),你就必須獲得政府的許可。這種基于 AI 本質(zhì)上危險的假設(shè)完全沒有道理。我完全不同意這種方法。AI 安全確實(shí)有很多重要的問題需要討論,但對競爭設(shè)限毫無意義,這只會扼殺創(chuàng)新。
主持人:2016 年,特朗普曾表示要收緊 H1-B 簽證,而這類簽證為美國帶來了大量技術(shù)人才。你在帖子中提到,如果沒有這些簽證,你和許多科技界的大人物都不會在這里。這會對美國在 AI 領(lǐng)域的全球地位造成傷害嗎?
Yann LeCun:當(dāng)然會。很多人都說,美國在這一點(diǎn)上簡直是自斷手腳,讓人才很難獲得留在這里的簽證。我自己經(jīng)歷過這些困難。我是法國人,同時也是美國公民。我的法語口音可能暴露了一點(diǎn)(笑)。不過,這確實(shí)是一個障礙過程。美國的科學(xué)技術(shù)實(shí)際上受益于從全世界吸引人才,但目前的移民政策卻非常不利于這一點(diǎn)。我建議是比如,如果一個人在美國大學(xué)獲得了研究生學(xué)位,可以自動獲得留下的資格,至少有一段時間找到工作,從而使他們能夠更穩(wěn)定地生活。事實(shí)上,這種政策應(yīng)該擴(kuò)大到在任何地方獲得高級學(xué)位的人,但目前的流程復(fù)雜且耗時,很容易讓許多人望而卻步。因?yàn)楸热?Sergey Brin(谷歌聯(lián)合創(chuàng)始人)、Satya Nadella(微軟 CEO)、埃隆·馬斯克(特斯拉 CEO)等,他們都是移民。
主持人:最近,許多大科技公司都推出了新的大語言模型(LLM)或 AI 功能。我想了解一下 Meta 目前在做些什么,比如最新發(fā)布的 Llama 3.3。這與其他模型相比如何?
Yann LeCun:Llama 的主要區(qū)別在于它是免費(fèi)的,也是開源的。開源軟件是指其源代碼是公開的,你可以修改、編譯并免費(fèi)使用它。根據(jù)大多數(shù)開源許可協(xié)議,如果你對代碼進(jìn)行改進(jìn)并將其用于產(chǎn)品,也需要以源代碼的形式發(fā)布這些改進(jìn)。這種模式讓平臺軟件的發(fā)展非常迅速。整個互聯(lián)網(wǎng)幾乎都運(yùn)行在開源軟件上,比如 Linux。開源的復(fù)雜性在于構(gòu)建 AI 系統(tǒng)時,首先需要收集訓(xùn)練數(shù)據(jù),然后用這些數(shù)據(jù)訓(xùn)練一個基礎(chǔ)模型(foundation model)。Meta 的 Llama 模型并未分發(fā)訓(xùn)練數(shù)據(jù)或訓(xùn)練代碼,但我們分發(fā)了已經(jīng)訓(xùn)練好的基礎(chǔ)模型,以及用于運(yùn)行和微調(diào)模型的開源代碼。用戶無需支付費(fèi)用或向 Meta 請求許可,就可以自由使用和調(diào)整這些模型。當(dāng)然,法律環(huán)境對這一點(diǎn)有一定的限制。
3、大模型開源初衷
主持人:為什么開源更好?你的觀點(diǎn)是,其他大公司是封閉系統(tǒng),比如 OpenAI、Anthropic 和 Google。為什么你認(rèn)為他們選擇封閉系統(tǒng)?
Yann LeCun:很可能是為了獲得商業(yè)優(yōu)勢。如果你希望直接從這種產(chǎn)品中獲取收入,并且認(rèn)為自己在技術(shù)上領(lǐng)先,或者能夠保持領(lǐng)先,那么保持封閉可能是有道理的。但這不是 Meta 的情況。對于 Meta 來說,AI 工具只是我們一系列體驗(yàn)的一部分,而這些體驗(yàn)主要是由廣告收入支持的,因此這不是我們的主要收入來源。我們相信,開源平臺會進(jìn)步得更快,也會更有創(chuàng)新性。實(shí)際上,我們已經(jīng)看到,很多創(chuàng)新是因?yàn)槿藗兡軌蚴褂?Llama 系統(tǒng)進(jìn)行實(shí)驗(yàn),從而提出了新的想法。
主持人:有人批評說,Meta 是因?yàn)樵诟偁幹新浜?,才選擇開源以趕上對手。你怎么看待這種說法?
Yann LeCun:這其中有一個有趣的歷史背景。首先,行業(yè)中除了 Google 外,幾乎所有公司都在使用一個名為 PyTorch 的開源軟件平臺,而這個平臺最初是在 Meta 開發(fā)的。后來,Meta 將其所有權(quán)轉(zhuǎn)移給了 Linux 基金會。所以,像 OpenAI、Anthropic 等公司都在使用 PyTorch。如果沒有 Meta,就不會有今天的 ChatGPT 和 Claude。OpenAI 和 Google 現(xiàn)在變得越來越封閉。過去 OpenAI 并不保密,但在過去三年里,他們變得越來越封閉。Google 也有類似的趨勢,盡管沒有完全封閉。他們試圖在秘密中推動技術(shù)發(fā)展,而 Meta 則選擇了開放的道路。
主持人:你提到 Meta 的研究正在超越大型語言模型(LLMs)和聊天機(jī)器人,進(jìn)入下一代 AI 系統(tǒng)。能談?wù)勥@方面的工作嗎?LCM 和 LLM 有什么區(qū)別?
Yann LeCun:是的,我們正在開發(fā)一種新的模型,被稱為大型概念模型(LCM)。這是一種超越傳統(tǒng) LLM 的系統(tǒng)。LLM 是通過預(yù)測下一個詞來工作的。你收集大約 20 萬億個單詞的公開文本數(shù)據(jù),對一個擁有數(shù)十億或數(shù)百億可調(diào)參數(shù)的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,讓它根據(jù)前幾個單詞預(yù)測下一個單詞的概率分布。LCM 則更進(jìn)一步,它不僅僅是預(yù)測下一個詞。我們相信,單純依賴 LLM 的方法已經(jīng)達(dá)到了性能瓶頸。
主持人:為什么 LLM 達(dá)到了瓶頸?
Yann LeCun:原因很簡單:可用的自然語言數(shù)據(jù)已經(jīng)被用盡。目前,幾乎所有可以公開獲得的互聯(lián)網(wǎng)文本數(shù)據(jù)都已被用于訓(xùn)練這些 LLM。雖然人們開始生成合成數(shù)據(jù),但這并不能將性能提高 10 倍或 100 倍。因此,我們正在開發(fā)一種新一代的 AI 系統(tǒng),它不再僅僅依賴于預(yù)測下一個詞。自動回歸 LLM 工作原理是通過預(yù)測文本中的下一個詞來工作的。它根據(jù)幾千個單詞的上下文來預(yù)測下一個詞的概率分布。預(yù)測出一個詞后,將其作為輸入,再預(yù)測下一個詞,以此類推。這種方式并不能保證生成的文本邏輯自洽或避免虛構(gòu)內(nèi)容。行業(yè)中很多公司正在致力于讓 AI 系統(tǒng)通過人類的反饋訓(xùn)練,去完成特定任務(wù),避免生成無意義的內(nèi)容。并且這些系統(tǒng)還需要在不知道答案時,能夠查詢數(shù)據(jù)庫或搜索引擎。但是這并不是未來的 AI 系統(tǒng)工作方式。未來的系統(tǒng)不會僅僅依賴這種方法。
4、Meta新產(chǎn)品 Motivo
主持人:我聽說 Meta 最近發(fā)布了 Meta Motivo,是為了制作更逼真的數(shù)字化身。你能談?wù)勥@個嗎?
Yann LeCun:當(dāng)然可以。我先透露個秘密:我現(xiàn)在戴著智能眼鏡。這種智能設(shè)備讓我們離未來的 AI 助手更近一步。五到十年后,人們可能會佩戴這樣的智能眼鏡或其他智能設(shè)備,這些設(shè)備中內(nèi)置的 AI 助手將幫助我們處理日常生活中的各類事務(wù)。這些助手需要具備接近人類甚至超越人類的智能。
主持人:那我們離這種人工通用智能(AGI)還有多遠(yuǎn)?
Yann LeCun:其實(shí)我們離 AGI 還很遠(yuǎn),并不像有些人宣傳的那么接近。雖然不是幾百年,但也可能需要數(shù)十年。目前,我們有能通過律師資格考試或大學(xué)考試的 LLM,但我們?nèi)匀粵]有能清理房間或裝洗碗機(jī)的家用機(jī)器人。這并不是因?yàn)槲覀儾荒茉斐鰴C(jī)器人,而是因?yàn)槲覀冞€無法讓它們足夠智能,無法理解物理世界。物理世界對 AI 來說,比語言更復(fù)雜。
主持人:語言不是智力的巔峰嗎?
Yann LeCun:其實(shí)不是。語言只是離散符號的序列,對 AI 來說相對簡單。相比之下,理解物理世界要復(fù)雜得多。我們正在開發(fā)的新架構(gòu)和系統(tǒng),旨在讓 AI 通過觀察和與世界互動來學(xué)習(xí),像嬰兒和小動物那樣理解物理世界。這意味著這些系統(tǒng)將變得更具“代理性”。“代理性”系統(tǒng)(agentic systems)是指能夠規(guī)劃一系列行動以實(shí)現(xiàn)特定目標(biāo)的系統(tǒng)。目前所謂的代理性系統(tǒng)還無法真正進(jìn)行規(guī)劃,它們只能依賴一些預(yù)設(shè)的計劃模板。
主持人:Meta 也在開發(fā)一個 AI 搜索引擎,是否是為了超越 Google 的搜索系統(tǒng)?
Yann LeCun:搜索確實(shí)是智能助手的一個重要組成部分,它可以幫助用戶找到事實(shí)并鏈接到可靠的來源。這是一個完整 AI 系統(tǒng)的一部分,但我們的目標(biāo)并不是直接與 Google 競爭,而是為需要 AI 助手的人提供服務(wù)。Meta 的 AI 系統(tǒng)除了提高廣告效率外,它的長期愿景是讓每個人隨時擁有一個 AI 助手。這不僅僅是一個廣告工具,而是一個全新的計算平臺。未來的智能眼鏡可能會配備增強(qiáng)現(xiàn)實(shí)顯示屏,比如最近展示的 Orion 項目。雖然目前還無法廉價生產(chǎn),但未來它們一定會普及。這些助手將成為我們的助手、顧問,甚至像團(tuán)隊一樣為我們工作。它會像一個比我們更聰明的虛擬員工,最終每個人都會有一個虛擬助手,甚至比人類助理更聰明,為你提供支持和幫助。
主持人:這聽起來不錯,但目前人類助理的成本要低得多?,F(xiàn)在 Meta 預(yù)計在 AI 上的支出將在 380 億到 400 億美元之間,Google 的支出今年超過 510 億美元,分析師預(yù)測微軟的支出接近 900 億美元。這是不是太多了?Marc Benioff 最近告訴我,這簡直是在“奔向低谷”。你擔(dān)心被超支擊敗嗎?而且,花這么多錢來開發(fā)更智能的助手,似乎也不是個好生意。
Yann LeCun:這是一個長期的投資。我們需要建立基礎(chǔ)設(shè)施,以合理的速度運(yùn)行這些 AI 助手,滿足越來越多用戶的需求。目前 Meta 的 Mii 系統(tǒng)已經(jīng)有 6 億用戶。Llama 的開源版本已經(jīng)被下載了 6.5 億次,這個數(shù)字令人震驚。此外,有 85,000 個基于 Llama 開發(fā)的開源項目,很多項目致力于讓 Llama 支持更多語言,比如印度或撒哈拉以南非洲的語言。所以我不認(rèn)為這些錢花得冤枉。這筆投資主要是為了基礎(chǔ)設(shè)施建設(shè),因?yàn)槲磥頃写罅坑脩裘刻焓褂眠@些 AI 系統(tǒng)。而且,這些系統(tǒng)越強(qiáng)大,它們的計算成本也越高。所以這是一種必要的投入。
5、AI 模型風(fēng)險
主持人: 你之前提到,集中化的專有 AI 模型是一個巨大風(fēng)險。但也有人批評開源模式,認(rèn)為它可能被壞人用來傳播虛假信息、進(jìn)行網(wǎng)絡(luò)戰(zhàn)或生物恐怖主義。Meta 對此有責(zé)任嗎?
Yann LeCun:這個問題在內(nèi)部引發(fā)了很大的討論,尤其是在 2023 年初我們發(fā)布 Llama 的時候。最初版本的 Llama 不是完全開源的,而是需要用戶申請權(quán)限并證明自己是研究人員。后來,我們收到來自行業(yè)的大量請求,要求下一版本開源,因?yàn)檫@將推動整個行業(yè)的發(fā)展,催生大量初創(chuàng)企業(yè)和新產(chǎn)品。經(jīng)過數(shù)月的內(nèi)部討論,最終由馬克(扎克伯格)拍板決定在 2023 年夏天開源 Llama 2。這一決定確實(shí)為行業(yè)帶來了巨大的推動力。我認(rèn)為開源比專有模式更安全嗎。因?yàn)橛懈嗟娜嗽陉P(guān)注它并優(yōu)化它。這種開放模式促進(jìn)了更廣泛的創(chuàng)新。當(dāng)然,有人擔(dān)心壞人可能利用這些工具做壞事。例如,中國的研究人員曾用 Llama 的舊版本開發(fā)了新的模型,但這并不算什么大問題。而且,中國本身也有非常優(yōu)秀的開源模型,比如 Qwen。
主持人:所以 Meta 對這些工具的使用沒有責(zé)任?
Yann LeCun:我們當(dāng)然有一定的責(zé)任。Llama 團(tuán)隊和 Meta 的 Geni 組織對所有發(fā)布的系統(tǒng)進(jìn)行了嚴(yán)格的“紅隊測試”(Red Teaming),以確保它們在發(fā)布時至少是“最低毒性”的,并且盡可能安全。例如,我們最初將 Llama 2 提供給 Defcon 的一群黑客,讓他們嘗試攻擊系統(tǒng)或做壞事。這被稱為“白帽測試”(White Hat Testing)。結(jié)果顯示,在過去兩年內(nèi),我們尚未發(fā)現(xiàn)任何使用我們分發(fā)的模型做壞事的重大案例。但這是“尚未”,未來可能會發(fā)生。如果真的會發(fā)生,早就發(fā)生了。公眾可能不知道,其實(shí)早在 ChatGPT 出現(xiàn)之前,開源的 LLM 就已經(jīng)存在很多年了。而當(dāng)年 OpenAI 發(fā)布 GPT-2 時,曾聲稱不公開是因?yàn)樗胺浅NkU”,可能被用來在互聯(lián)網(wǎng)上傳播虛假信息。然而,事實(shí)證明,這些擔(dān)憂有些夸大。
主持人:你的意思是我們不需要開源。你曾調(diào)侃其他公司,說他們的系統(tǒng)當(dāng)時其實(shí)并沒有多強(qiáng)大。這種擔(dān)憂真的合理嗎?
Yann LeCun:確實(shí),當(dāng)時有很多關(guān)于這些系統(tǒng)可能被用于虛假信息傳播的擔(dān)憂,尤其是在美國選舉期間。今年全球有三次重要選舉,還有很多關(guān)于網(wǎng)絡(luò)攻擊的擔(dān)憂。但實(shí)際上,這些事情并沒有真正發(fā)生。我不是說不需要擔(dān)憂,而是說要保持警惕,盡可能防止問題發(fā)生。但關(guān)鍵是,傳播虛假信息并不需要 AI 助手——看看 Twitter 就知道了(笑)。
主持人: 哈哈,我注意到你很擅長“內(nèi)涵”別人,比如之前你提到 OpenAI 是“秘密主義的戲劇女王”。最近你因?yàn)檎f文化機(jī)構(gòu)、圖書館和基金會應(yīng)該讓他們的內(nèi)容用于免費(fèi)和開源的 AI 模型訓(xùn)練而受到了很多批評。你能談?wù)勥@個問題嗎?
Yann LeCun:當(dāng)然。拋開法律問題不談,如果你有一個愿景,認(rèn)為 AI 將成為人類知識的存儲庫,那么所有的人類知識都必須用于訓(xùn)練這些模型。很多知識要么沒有數(shù)字化,要么雖然數(shù)字化了但無法公開獲取。這些不一定是受版權(quán)保護(hù)的內(nèi)容,比如法國國家圖書館的大量內(nèi)容已經(jīng)數(shù)字化,但不能用于訓(xùn)練 AI 模型。
主持人: 你不是指侵犯版權(quán),而是更廣泛的文化知識獲取問題?
Yann LeCun:是的。例如,我的家族來自法國布列塔尼地區(qū),那里有一種傳統(tǒng)語言叫布列塔尼語。這種語言正在消失,現(xiàn)在每天使用這門語言的人只有大約 3 萬。如果我們希望未來的大型語言模型能夠支持布列塔尼語,就需要足夠的訓(xùn)練數(shù)據(jù)。這些數(shù)據(jù)從哪里來呢?可能需要文化類非營利組織和政府合作來收集數(shù)據(jù),并支持將其用于 AI 模型的訓(xùn)練。
主持人: 但是這些文化機(jī)構(gòu)可能不愿意把數(shù)據(jù)交給美國西岸的大公司,那怎么辦?
Yann LeCun:我的個人觀點(diǎn)是,我們可以通過分布式的方式來訓(xùn)練全球性的 AI 系統(tǒng)。這意味著世界各地的數(shù)據(jù)中心可以利用本地數(shù)據(jù),為一個全球系統(tǒng)做出貢獻(xiàn),而不需要將數(shù)據(jù)復(fù)制到單一的地方。就像 Linux 的開發(fā)一樣。Linux 是一個為全人類服務(wù)的操作系統(tǒng),主要由公司雇員在公司支持下貢獻(xiàn)代碼。AI 系統(tǒng)也可以采用類似的方式,每個人都為這個全球模型做出貢獻(xiàn)。
主持人:但是這樣的模型如何盈利呢?
Yann LeCun:就像 Linux 一樣,你不會為 Linux 支付費(fèi)用,但如果你買一臺運(yùn)行 Linux 的設(shè)備,比如 Android 手機(jī)或配備觸摸屏的汽車,你為設(shè)備支付費(fèi)用。同樣,AI 的基礎(chǔ)模型可以是免費(fèi)的,盈利是在其上的商業(yè)應(yīng)用。這確實(shí)是一個美好的愿景,但目前看起來,權(quán)力還是集中在少數(shù)幾個公司手中。但我們希望通過這樣的開放模式,讓 AI 成為所有人的 AI,而不僅僅是少數(shù)公司的工具。
主持人:但這種情況并沒有真正發(fā)生,對嗎?
Yann LeCun:從我的角度來看,這實(shí)際上是不可避免的,只是時間問題。
6、政府對AI監(jiān)管
主持人:說到辯論,你和其他人工智能領(lǐng)域的“教父”們有過公開辯論,比如圖靈獎的共同獲獎?wù)?Geoffrey Hinton 和 Yoshua Bengio。他們最近對 AI 的潛在危險發(fā)出了相當(dāng)戲劇性的警告,呼吁加強(qiáng)政府監(jiān)管,包括對研發(fā)的監(jiān)管。而你則稱這些警告“完全是胡說八道”。為什么你會這么說?
Yann LeCun:是的,我對這個話題非常直言不諱。Jeff 和 Yoshua 都是我的好朋友,我們認(rèn)識幾十年了。我在 1987-88 年間和 Jeff 一起做博士后,而我第一次見到 Yoshua 時,他還是個碩士生。我們一起合作過很多項目,也因?yàn)樵谏疃葘W(xué)習(xí)領(lǐng)域的貢獻(xiàn)而獲得了圖靈獎。在很多地方是意見一致的,但在 AI 的“生存威脅”上顯然分歧很大。Jeff 認(rèn)為當(dāng)前的大型語言模型(LLMs)具備主觀體驗(yàn),我對此完全不同意。我認(rèn)為他在這一點(diǎn)上完全錯了。我們之前也有過技術(shù)上的分歧,只是當(dāng)時沒有這么公開。Yoshua 的觀點(diǎn)稍有不同,他更多擔(dān)心壞人會利用 AI 做壞事,比如制造生化武器或其他危險物品。但老實(shí)說,這些危險在多年前就被提出來了,而且已經(jīng)被夸大得不切實(shí)際,甚至有些扭曲。
主持人:你之前稱那些推動像 SB 1047 法案的人是“妄想癥患者”(delusional)。這表達(dá)是不是太激烈了?
Yann LeCun:我并沒有說 Jeff 和 Yoshua 是妄想癥患者。我所說的是那些極端推動監(jiān)管的人,比如認(rèn)為 AI 會在五個月內(nèi)毀滅人類的人,他們的觀點(diǎn)顯然是錯誤的。
主持人:關(guān)于 AGI(人工通用智能),Hinton 和 Bengio 認(rèn)為可能在五年內(nèi)出現(xiàn),而你說可能需要數(shù)十年。為什么你不擔(dān)心呢?
Yann LeCun:首先,毫無疑問,未來某個時候會出現(xiàn)比我們更聰明的 AI 系統(tǒng)。這是一定會發(fā)生的事情。但五年、十年還是二十年?這很難說。從我的個人觀點(diǎn)來看,最早可能是五到六年,但更可能是十年甚至更久。歷史上,AI 的進(jìn)展總是被低估。我們現(xiàn)在連家用機(jī)器人、完全自動駕駛汽車都沒有實(shí)現(xiàn),還有很多問題沒有解決。要達(dá)到人類水平的智能,我們需要一整套新的技術(shù),但目前我們甚至還沒有找到通往這條路的方法。
主持人:但如果你錯了,那后果可能是災(zāi)難性的。
Yann LeCun:如果我認(rèn)為存在這樣的生存威脅,我當(dāng)然會非常直言不諱,努力警告大家。但事實(shí)是,當(dāng)前的系統(tǒng)并沒有表現(xiàn)出這種威脅的跡象。我們距離真正的 AGI 還有很長的路要走。幾年后,當(dāng)我們有了一種藍(lán)圖和一些可以令人信服的證明,表明我們可能找到通向人類水平人工智能的路徑時。我其實(shí)不喜歡稱其為“人工智能”(AI),因?yàn)槿祟惖闹悄軐?shí)際上非常專門化。我們以為自己有通用智能,但事實(shí)并非如此。不過,一旦我們有了藍(lán)圖,我們就可以更好地思考如何讓它安全。這有點(diǎn)像 1920 年代的情景,如果那時有人告訴你幾十年后,我們會用接近音速的速度讓數(shù)百萬人穿越大西洋,你可能會問:“那怎么確保安全呢?”但問題是,當(dāng)時渦輪噴氣發(fā)動機(jī)還沒有被發(fā)明。我們現(xiàn)在就在類似的情境中。
主持人:你的意思是,AI 的設(shè)計不是為了不安全。
Yann LeCun:是的,正如渦輪噴氣發(fā)動機(jī)的設(shè)計不是為了不安全一樣。渦輪噴氣發(fā)動機(jī)現(xiàn)在非??煽?。最近有一個統(tǒng)計數(shù)據(jù),美國航空公司自上一次致命事故以來,人類的總飛行距離達(dá)到了 2.3 光年。這是一個驚人的數(shù)字,航空非常安全。讓 AI 安全的關(guān)鍵在于從設(shè)計上確保它的安全。但在我們設(shè)計出這些系統(tǒng)之前,討論如何讓它安全是沒有意義的。
主持人:你似乎并不擔(dān)心 AI 想要支配人類。你曾說過,當(dāng)前的 AI 比家貓還笨。那么,如果 AI 是“愚蠢的”,或者它沒有主觀意圖想要傷害我們,那你認(rèn)為哪些關(guān)于 AI 或 AI 研發(fā)的限制是合理的?
Yann LeCun:在研發(fā)方面,我認(rèn)為不需要任何限制。比如,如果你想推出一款可以為你做飯的家用機(jī)器人,可能需要設(shè)置一些規(guī)則,比如當(dāng)有人在機(jī)器人周圍時,機(jī)器人如果手里拿著刀,就不會亂揮手臂。這就是我們常說的“防護(hù)欄”(guardrails)。當(dāng)前 AI 的設(shè)計是“本質(zhì)上不安全”的。因?yàn)楫?dāng)前的 AI 系統(tǒng)很難控制,基本上你需要通過訓(xùn)練讓它們表現(xiàn)得符合預(yù)期。但我提議了一種新的架構(gòu),稱為“目標(biāo)驅(qū)動型”(objective-driven)架構(gòu)。在這種架構(gòu)中,AI 系統(tǒng)的唯一目的就是完成目標(biāo),并且只能在符合一系列防護(hù)欄(其他目標(biāo))的情況下完成這些目標(biāo)。這樣可以確保系統(tǒng)的輸出和行為都是安全的。很多人會說,這是一個前所未有的挑戰(zhàn),需要發(fā)明一種全新的科學(xué)。但實(shí)際上,我們已經(jīng)很熟悉這種過程了,這就是“制定法律”。通過制定法律,我們改變?nèi)藗儾扇⌒袆拥某杀?,從而塑造他們的行為。同樣的原則也可以用于設(shè)計 AI 的目標(biāo)和防護(hù)欄。
主持人:你提到,我們需要等到有一個可行的藍(lán)圖時,再討論如何讓 AI 安全。那么,對于目前的情況,比如像歐盟那樣針對高風(fēng)險 AI 系統(tǒng)和一般模型的差異化監(jiān)管,你怎么看?他們已經(jīng)對一些威脅公民權(quán)利的應(yīng)用,如公共場所的面部識別技術(shù),實(shí)施了禁令。你認(rèn)為這種模式是否適合用來讓 AI 更安全,或者你建議等到真的出現(xiàn)問題再去補(bǔ)救?
Yann LeCun:不,不,我并不是建議等到出現(xiàn)問題再去處理。我認(rèn)為像禁止在公共場所進(jìn)行大規(guī)模面部識別這樣的措施是非常好的。除非你是一個威權(quán)政府,否則沒有人會覺得這是個壞主意。當(dāng)然,這在某些國家已經(jīng)存在,但在民主國家,這種禁令非常合理。類似的措施,比如針對某些技術(shù)在非法用途上的濫用制定具體規(guī)則,也是完全可以接受的。我反對的觀點(diǎn)是認(rèn)為 AI 本身就是一種內(nèi)在的危險,必須通過監(jiān)管研發(fā)來應(yīng)對。這種方法是適得其反的。如果未來我們需要那些開源平臺來支持民主,那么對研發(fā)的監(jiān)管只會讓開源變得風(fēng)險過高,導(dǎo)致沒有公司愿意分發(fā)這些平臺。結(jié)果就是,所有的控制權(quán)都會集中在少數(shù)幾家私人公司手中。
7、科技巨頭對AI的壟斷
主持人:這是否意味著你擔(dān)心 AI 被少數(shù)公司壟斷,比如 OpenAI、微軟、Google,可能還有亞馬遜和 Anthropic?
Yann LeCun:是的,這正是問題所在。如果所有人的數(shù)字生活都由這幾家公司通過 AI 助手來決定,這對民主來說將是災(zāi)難性的。尤其是對于美國以外的政府來說,他們無法接受這樣一個未來——所有的文化和價值觀都由美國西海岸的幾家公司主導(dǎo)。因此,開源平臺是必要的,這樣各國可以根據(jù)自己的文化、價值體系和興趣,對這些平臺進(jìn)行微調(diào)。用戶需要選擇,而不是被迫接受少數(shù)幾家公司的產(chǎn)品。
主持人:你最近獲得了 2024 年 VinFuture 獎,以表彰你在深度學(xué)習(xí)領(lǐng)域的變革性貢獻(xiàn)。在你的獲獎演講中,你提到 AI 的學(xué)習(xí)方式與人類和動物不同。你還提到,AI doomers(AI 的悲觀主義者)不相信人性本善,而你相信。你能談?wù)勥@一點(diǎn)嗎?
Yann LeCun:當(dāng)然。在未來的某個時刻,我們會擁有一些能夠像人類和動物一樣學(xué)習(xí)的系統(tǒng)。它們能夠以令人難以置信的速度學(xué)習(xí)新技能和任務(wù),這種能力目前的機(jī)器還無法復(fù)制。例如,像特斯拉這樣的公司有成千上萬甚至數(shù)百萬小時的駕駛數(shù)據(jù)可以用來訓(xùn)練 AI 系統(tǒng),但這些系統(tǒng)仍然無法達(dá)到人類的水平。
主持人:所以你認(rèn)為,AI 在這一點(diǎn)上距離人類和動物還有很遠(yuǎn)的距離?
Yann LeCun:是的。盡管我們已經(jīng)取得了很大的進(jìn)步,但我們?nèi)匀粺o法造出真正的自動駕駛汽車,除非像 Waymo 那樣在特定區(qū)域進(jìn)行限制性運(yùn)行。
主持人:最后一個問題,你提到你對民主的擔(dān)憂,同時也對威權(quán)政府持警惕態(tài)度。那么,為什么你認(rèn)為人性本善,并且 AI 系統(tǒng)可以朝著好的方向發(fā)展?
Yann LeCun: 我認(rèn)為人性本善是因?yàn)闅v史已經(jīng)多次證明,人類的法律和社會制度能夠塑造行為,并為大多數(shù)人創(chuàng)造更好的生活條件。AI 系統(tǒng)也是如此,通過設(shè)計合理的目標(biāo)和防護(hù)欄,我們可以確保它們的行為符合社會期望。目前我們無法購買家用機(jī)器人,是因?yàn)槲覀冞€無法讓它們足夠聰明。原因很簡單。我們現(xiàn)在訓(xùn)練的大型語言模型(LLMs)和聊天機(jī)器人,依賴的是所有公開可用的文本數(shù)據(jù),大約是 20 萬億個單詞。這些文本數(shù)據(jù)的總量約為 (10^{14}) 字節(jié)
而發(fā)育心理學(xué)家會告訴你,一個四歲的孩子在清醒狀態(tài)下已經(jīng)經(jīng)歷了 16,000 小時。在這期間,孩子的視覺皮層每秒接收到大約 2 兆字節(jié)的數(shù)據(jù),總量也是 (10^{14}) 字節(jié)。一個四歲的孩子從視覺中獲取的數(shù)據(jù)量,與我們最大的 LLM 從文本中獲取的數(shù)據(jù)量相當(dāng)。這說明,僅僅依賴文本訓(xùn)練,永遠(yuǎn)無法達(dá)到人類水平的智能。我們必須通過感官輸入,比如視頻,讓系統(tǒng)觀察和理解世界。16,000 小時的視頻相當(dāng)于 YouTube 上 30 分鐘的上傳量,因此數(shù)據(jù)源是幾乎無限的。未來幾年的重大挑戰(zhàn)是讓 AI 系統(tǒng)通過觀察視頻和與世界互動來理解物理世界。盡管目前尚未完全解決,但未來五年內(nèi)可能會取得重大進(jìn)展。所以我認(rèn)為這是為什么許多公司正在開發(fā)人形機(jī)器人,盡管它們現(xiàn)在還不夠智能,但他們在為未來的 AI 進(jìn)步做準(zhǔn)備。他們相信,當(dāng)這些機(jī)器人可以上市時,AI 的能力將足夠強(qiáng)大支持這些機(jī)器人。
提問環(huán)節(jié)
閱讀報告全文,請訪問歐米伽研究所的“未來知識庫”
https://wx./group/454854145828
截止到11月25日 ”未來知識庫”精選的100部前沿科技趨勢報告
Air Street Capital《2024 年人工智能現(xiàn)狀報告》
未來今日研究所:2024 技術(shù)趨勢報告 - 廣義計算篇
科睿唯安中國科學(xué)院 2024 研究前沿?zé)岫戎笖?shù)報告
文本到圖像合成:十年回顧
《以人為中心的大型語言模型(LLM)研究綜述》
經(jīng)合組織 2024 年數(shù)字經(jīng)濟(jì)展望報告加強(qiáng)連通性創(chuàng)新與信任第二版
波士頓咨詢 2024 全球經(jīng)濟(jì)體 AI 成熟度矩陣報告
理解世界還是預(yù)測未來?世界模型的綜合綜述
Google Cloud CSA2024 AI 與安全狀況調(diào)研報告
英國制造商組織 MakeUK2024 英國工業(yè)戰(zhàn)略愿景報告從概念到實(shí)施
花旗銀行 CitiGPS2024 自然環(huán)境可持續(xù)發(fā)展新前沿研究報告
國際原子能機(jī)構(gòu) 2024 聚變關(guān)鍵要素報告 - 聚變能發(fā)展的共同愿景
國際可再生能源署 IRENA2024 年全球氣候行動報告
Cell: 物理學(xué)和化學(xué) 、人工智能知識領(lǐng)域的融合
智次方 2025 中國 5G 產(chǎn)業(yè)全景圖譜報告
未來今日研究所:2024 技術(shù)趨勢報告 - 移動性,機(jī)器人與無人機(jī)篇
Deepmind:AI 加速科學(xué)創(chuàng)新發(fā)現(xiàn)的黃金時代報告
PitchBookNVCA2024 年第三季度全球風(fēng)險投資監(jiān)測報告
德科 2024 年未來全球勞動力報告
高工咨詢 2024 年協(xié)作機(jī)器人產(chǎn)業(yè)發(fā)展藍(lán)皮書
國際能源署 IEA2024 年全球能源效率報告
基因慧基因行業(yè)藍(lán)皮書 2024 - 2025
普華永道 PwC2024 全球經(jīng)濟(jì)犯罪調(diào)查英國報告 - 智對風(fēng)險直面挑戰(zhàn)
中國互聯(lián)網(wǎng)協(xié)會 2024 面向未來網(wǎng)絡(luò)的數(shù)字孿生城市場景應(yīng)用白皮書
中移智庫 2024 先進(jìn)感知新技術(shù)及新應(yīng)用白皮書
智次方研究院 2025 中國 AIoT 產(chǎn)業(yè)全景圖譜報告
未來今日研究所:2024 技術(shù)趨勢報告 - 人工智能篇
國際電聯(lián):邁向衡量數(shù)字經(jīng)濟(jì)的通用框架的路線圖
聯(lián)合國糧食與農(nóng)業(yè)組織:2024 年世界糧食安全和營養(yǎng)狀況
大語言模型綜述
李飛飛等,AI 智能體:探索多模式交互的前景綜述
哈爾濱工業(yè)大學(xué) - ChatGPT 調(diào)研報告
2024《美國核部署戰(zhàn)略報告》最新文件
清華大學(xué):AIGC 發(fā)展研究 3.0 發(fā)布版 b 版
OpenAI:2024 年 OpenAI o1 大模型技術(shù)報告
Verizon2024 年世界支付安全報告
皇家學(xué)會哲學(xué)學(xué)報 從復(fù)雜系統(tǒng)角度評估人工智能風(fēng)險
復(fù)旦大學(xué) 大模型 AI 代理的興起和潛力:綜述
經(jīng)合組織 OECD2024 年氣候行動監(jiān)測報告
Wevolver2024 年邊緣人工智能現(xiàn)狀報告 - 探索各行業(yè)邊緣 AI 應(yīng)用動態(tài)
2024 全球人形機(jī)器人產(chǎn)品數(shù)據(jù)庫報告 - 人形機(jī)器人洞察研究 BTIResearch
《全球金融穩(wěn)定報告》 把舵定航 不確定性、人工智能與金融穩(wěn)定
瑞士洛桑聯(lián)邦理工學(xué)院 《人工智能中的 - 創(chuàng)造力:進(jìn)展與挑戰(zhàn)》
《你所需要知道的理 - 論:人工智能、人類認(rèn)知與決策》牛津大學(xué)最新 53 頁報告
世界經(jīng)濟(jì)論壇 新興技術(shù)時代的網(wǎng)絡(luò)彈性導(dǎo)航:應(yīng)對復(fù)雜挑戰(zhàn)的協(xié)作解決方案 2024
ADL 理特咨詢 2024 汽車出行未來展望報告
2024 中國硬科技創(chuàng)新發(fā)展白皮書 - 開辟未來產(chǎn)業(yè)新賽道
科學(xué)時代的大語言模型中的人工智能
Gartner2025 年重要戰(zhàn)略技術(shù)趨勢報告
CBInsights2024 年第三季度全球人工智能投融資狀況報告
TrendHunter2025 年全球趨勢報告 - 全行業(yè)頂級創(chuàng)新和變革趨勢前瞻
天津大學(xué) 2024 大模型輕量化技術(shù)研究報告
歐洲海洋局 2024 導(dǎo)航未來報告將海洋置于更廣泛的地球系統(tǒng)中第六版
美國安全與新興技術(shù)中心 2024 AI 生成代碼的網(wǎng)絡(luò)安全風(fēng)險研究報告
國際原子能機(jī)構(gòu) 2024 年世界聚變展望報告
復(fù)旦大學(xué) 2024 大語言模型的能力邊界與發(fā)展思考報告
安盛 AXA2024 年氣候與生物多樣性報告氣候過渡計劃路線圖
YouGov2024 美國公眾對人工智能 AI 的態(tài)度調(diào)研報告
麥肯錫中國報告:《中國與世界》完整版
麥肯錫全球研究所 2024 下一代競技場報告 - 重塑全球經(jīng)濟(jì)的 18 個新興行業(yè)領(lǐng)域
Project Sid,一個旨在模擬多智能體交互以研究 AI 文明的項目
德國研究與創(chuàng)新專家委員會 德國研究創(chuàng)新與科技成果報告
2024 年歐洲關(guān)鍵產(chǎn)業(yè)的科技重塑研究報告
智能體專題報告之二 - 智能體時代來臨具身智能有望成為最佳載體
ActivateConsulting 2025 年頂級技術(shù)和媒體發(fā)展趨勢報告
蘭德 全球?yàn)?zāi)難風(fēng)險評估
斯坦福李飛飛 《AI agent 綜述》Agent AI 開啟多模態(tài)交互新紀(jì)元
中國聯(lián)通研究院 2024 中國生成式人工智能應(yīng)用與實(shí)踐展望白皮書中文版
普華永道 2024 第五次工業(yè)革命研究報告邁向彈性可持續(xù)和以人為本的未來
大成 Dentsons2024 年全球智慧城市與互聯(lián)社區(qū)智庫年度報告
TechUK2024 量子技術(shù)挑戰(zhàn)與機(jī)遇并存構(gòu)筑量子韌性的策略與實(shí)踐研究報告
Emakina 將塑造 2024 年的技術(shù)趨勢報告
圖靈獎得主 Yann LeCun《機(jī)器如何才能達(dá)到人類智能水平?》——Yann LeCun, 附 Slides 及視頻
華為:2024 鴻蒙生態(tài)應(yīng)用開發(fā)白皮書 V3.0(最新版)
CASA:2023 第三代半導(dǎo)體產(chǎn)業(yè)發(fā)展報告
大型視覺語言模型中幻覺現(xiàn)象的綜述
IEA PVPS:2024 光伏應(yīng)用趨勢報告(英文版)
ABI Research:82 個將會或不會在 2024 年發(fā)生的技術(shù)趨勢白皮書
《美國反無人機(jī)系統(tǒng)未來趨勢報告(2024 - 2029 年)》
《軍事自主系統(tǒng):未來之路》美空軍
空間智能如何?牛津大學(xué)博士論文《深度具身智能體的空間推理與規(guī)劃》
2024 低空經(jīng)濟(jì)場景白皮書 v1.0
戰(zhàn)略與國際研究中心(CSIS)人類地月空間探索的總體狀況研究報告(2024)
Artificial Intelligence Review:人工智能與物理學(xué)相遇的綜述
麥肯錫:全球難題,應(yīng)對能源轉(zhuǎn)型的現(xiàn)實(shí)問題
歐米伽理論,智能科學(xué)視野下的萬物理論新探索(研究論文)
Gartner 2025 年主要戰(zhàn)略技術(shù)趨勢研究報告
2024 人工智能國外大模型使用手冊 + 中文大模型使用手冊
詳解光刻巨人 ASML 成功之奧妙 - 241015
CB Insights:未來變革者:2025 年九大科技趨勢研究報告
國際電信聯(lián)盟 2023 - 2024 年聯(lián)合國人工智能 AI 活動報告
《人工智能能力的人類系統(tǒng)集成測試和評估》最新 51 頁,美國防部首席數(shù)字和人工智能辦公室(CDAO)
2024 瑞典皇家科學(xué)院諾貝爾化學(xué)獎官方成果介紹報告
MHP 2024 全球工業(yè) 4.0 晴雨表白皮書
世界經(jīng)濟(jì)論壇白皮書《AI 價值洞察:引導(dǎo)人工智能實(shí)現(xiàn)人類共同目標(biāo)》
瑞典皇家科學(xué)院諾貝爾物理學(xué)獎科學(xué)背景報告資料
AI 智能體的崛起:整合人工智能、區(qū)塊鏈技術(shù)與量子計算 (研究報告,書)
OpenAI o1 評估:AGI 的機(jī)遇和挑戰(zhàn)(280 頁)
世界知識產(chǎn)權(quán)組織:2024 年全球創(chuàng)新指數(shù)
美國白宮:國家近地天體防御策略與行動計劃