小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

對話首席AI科學(xué)家、圖靈獎得主LeCun:大語言模型已觸頂,Meta的下一代AI模型可能是新方向

 netouch 2024-12-25
對話首席AI科學(xué)家、圖靈獎得主LeCun:大語言模型已觸頂,Meta的下一代AI模型可能是新方向

來源:AI深度研究員

最近,在約翰斯·霍普金斯大學(xué)新落成的彭博中心,Meta首席科學(xué)家Yann LeCun 帶來了一個引人深思的觀點(diǎn):鑒于數(shù)據(jù)問題,大語言模型(LLM)可能已經(jīng)觸及了發(fā)展天花板。

作為人工智能領(lǐng)域公認(rèn)的'教父'級人物,LeCun的這一判斷值得關(guān)注。他在神經(jīng)網(wǎng)絡(luò)領(lǐng)域的奠基性工作,為當(dāng)今最強(qiáng)大的AI系統(tǒng)奠定了基礎(chǔ)。目前,作為Meta首席科學(xué)家,他正帶領(lǐng)團(tuán)隊開啟一個新的方向:大型概念模型(LCM)。'可用的自然語言數(shù)據(jù)已經(jīng)被用盡。'LeCun直言不諱,'目前,幾乎所有可以公開獲得的互聯(lián)網(wǎng)文本數(shù)據(jù)都已被用于訓(xùn)練這些LLM。即便開始生成合成數(shù)據(jù),也無法將性能提升10倍或100倍。'

傳統(tǒng)的LLM通過預(yù)測下一個詞來工作:收集約20萬億個單詞的公開文本數(shù)據(jù),用數(shù)十億甚至數(shù)百億參數(shù)的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,根據(jù)上下文預(yù)測下一個詞的概率分布。但LeCun認(rèn)為,這種方法已達(dá)瓶頸。

'這種預(yù)測模式并不能保證生成的文本邏輯自洽或避免虛構(gòu)內(nèi)容。'LeCun解釋道,'雖然業(yè)界正通過人類反饋訓(xùn)練和數(shù)據(jù)庫查詢來優(yōu)化系統(tǒng),但這并非未來AI的發(fā)展方向。我們需要一個全新的范式。'

采訪文稿

主持人:老朋友了,我想我們今天主要會聊人工智能,我想聽聽你對這些事情的看法。你和埃隆有公開爭論,還稱特朗普是“病態(tài)撒謊者”。與此同時,扎克伯格(Meta CEO)卻在海湖莊園的露臺上享受了一頓美餐。談?wù)勀闩c即將上任的政府的關(guān)系吧。你是否需要開始減少這樣的評論?或者你完全不在意?

嘉賓Yann LeCun:嗯,我對很多事情都感興趣,也對許多問題感到擔(dān)憂。從政治上來說,我很明顯是一個典型的自由派,這在歐洲的政治派別中將我放在正中央,但在美國顯然不是。讓我對埃隆感到不滿的是他開始攻擊高等教育、科學(xué)機(jī)構(gòu)和科學(xué)家,比如Anthony Fauci。作為科學(xué)家,我也同時是 Meta 的高管,我對此非常反感。我非常感謝 Meta 能讓我擁有獨(dú)立的聲音,你可以看得出來我并沒有在說“企業(yè)話術(shù)”。這也反映在我創(chuàng)立的研究實(shí)驗(yàn)室中,我們發(fā)布所有研究成果,并通過開源與大家分享。我們對研究和意見都很開放。這是我的立場。作為科學(xué)家和理性主義者,我真的很不滿埃隆攻擊科學(xué)界的行為。

1、選擇 Meta工作

主持人:現(xiàn)在埃隆正處于事件的中心,你如何應(yīng)對?

Yann LeCun:我見過埃隆很多次,他可以是個很理性的人。你必須與人合作,無論政治或哲學(xué)觀點(diǎn)有何分歧。最終,你不得不和人合作,這就是我和他之間的關(guān)系發(fā)展方向。

主持人:在 Meta,你的職責(zé)是什么?

Yann LeCun: 我不負(fù)責(zé)政策制定。我從事的是基礎(chǔ)研究,我不負(fù)責(zé)內(nèi)容政策,也不涉及這些事情。我確實(shí)和全球許多政府交談,但主要是關(guān)于 AI 技術(shù)及其對政策的影響。

主持人:我很好奇,你為什么選擇 Meta,而不是傳統(tǒng)的大型研究型大學(xué)?你如何看待自己的影響力?

Yann LeCun: 我只是一個簡單的科學(xué)家,做一些研究。同時我也是一名學(xué)者。我是紐約大學(xué)的教授,同時也在 Meta 工作。差不多 11 年前,馬克·扎克伯格找到我,他希望我為 Meta 創(chuàng)建一個專注于 AI 的研究實(shí)驗(yàn)室,因?yàn)樗J(rèn)為這將對未來產(chǎn)生重大影響,他的判斷是對的。我當(dāng)時提出了三個條件:第一,我不會離開紐約;第二,我不會辭去在紐約大學(xué)的職位;第三,我們的所有研究都將公開,我們會發(fā)表所有研究成果,并開源代碼。他的回答是“沒問題”。而且他還補(bǔ)充說:“這已經(jīng)是公司的 DNA,我們的所有平臺代碼都是開源的?!?這讓我意識到,在擁有足夠資源的公司中,這是一個從零開始建立研究機(jī)構(gòu)的機(jī)會。我可以按照自己認(rèn)為合適的方式構(gòu)建它。我之前在貝爾實(shí)驗(yàn)室工作過,所以對如何在工業(yè)界進(jìn)行雄心勃勃的研究有一些經(jīng)驗(yàn)。我覺得這是一項非常令人興奮的挑戰(zhàn)。

主持人:那我們繼續(xù)討論更先進(jìn)的 AI。最近,特朗普任命了 David Sacks 為 AI 和加密領(lǐng)域的“沙皇”。政府在這個領(lǐng)域顯然會扮演越來越重要的角色。對于不太了解的人來說,Sacks 是一名投資者,也是“PayPal 黑手黨”的一員,同時也是埃隆·馬斯克的老朋友。他的政治立場發(fā)生了顯著變化。你覺得現(xiàn)在華盛頓需要這樣一個角色嗎?或者你對此完全不關(guān)心?

Yann LeCun:有幾個原因。首先,政府不應(yīng)該制定讓開源 AI 平臺非法的法規(guī)。我認(rèn)為開源對技術(shù)的進(jìn)步和廣泛使用至關(guān)重要。我們可以進(jìn)一步討論這個問題。其次,我并不反對對基于 AI 的產(chǎn)品進(jìn)行監(jiān)管,這是完全可以接受的。但學(xué)術(shù)界在 AI 的發(fā)展中正逐漸落后,主要原因是缺乏計算資源。因此,我認(rèn)為政府應(yīng)該為學(xué)術(shù)界提供更多的計算資源。因?yàn)槲蚁矚g做科學(xué)研究。在我的職業(yè)生涯中,我有很多機(jī)會成為管理者。我在 Meta 當(dāng)了四年的管理者,然后成為首席科學(xué)家。坦率地說,我現(xiàn)在的工作是公司里最棒的職位,每個人都羨慕我,因?yàn)槲沂歉呒壐笨偛茫珱]有任何直接下屬。我不用管理一個團(tuán)隊或組織。

主持人:那么,在你看來,一個 AI “沙皇”最重要的職責(zé)是什么?

Yann LeCun:確保 AI 的研究和開發(fā)不會被視為非法。

主持人:你認(rèn)為 AI 的研究開發(fā)真的會被視為非法嗎?

Yann LeCun:過去兩年,關(guān)于 AI 是否會變得“本質(zhì)上危險”的爭論很激烈。不是指產(chǎn)品的危險性,而是技術(shù)本身是否危險。因此,有人提議對 AI 系統(tǒng)的能力設(shè)限。我一直反對這種對研發(fā)進(jìn)行監(jiān)管的想法。我認(rèn)為這極其適得其反,基于對 AI 潛在危險的錯誤理解,比如“AI 未來某一天會接管世界”這樣的觀點(diǎn)。但我們距離這種情況還很遠(yuǎn)。任何試圖監(jiān)管研發(fā)的行為都非常不利,而且實(shí)際上,這些提案會導(dǎo)致行業(yè)內(nèi)少數(shù)公司通過監(jiān)管獲取壟斷地位。建議政府不僅不要限制,還要提供更多的資金支持。政府應(yīng)該在提供資源方面發(fā)揮更積極的作用。

主持人:FDC 新任負(fù)責(zé)人是 Andrew Ferguson,而國防部長提名了前??怂剐侣勚鞑?Pete Hegseth。他們一個試圖減少監(jiān)管,一個正在談?wù)搰啦康男?AI 辦公室。你認(rèn)為政府在這個領(lǐng)域的活躍度應(yīng)該增加嗎?

Yann LeCun:政府需要更加了解和教育自己,當(dāng)然也需要更加積極,正如我之前提到的那些原因。我們需要有一套工業(yè)政策來解決目前所有 AI 芯片都在臺灣生產(chǎn)、由一家公司的設(shè)計壟斷等問題。

2、芯片和AI人才的競爭

主持人:關(guān)于芯片領(lǐng)域,你認(rèn)為是否需要讓這個市場更加競爭?

Yann LeCun:是的,比如在芯片領(lǐng)域,可能需要采取一些措施讓市場更加具有競爭力。另外,還有一個非常關(guān)鍵的問題,這不僅僅涉及美國政府,還涉及全世界的政府。人工智能正在迅速成為一種通用的知識平臺,基本上可以作為所有人類知識的存儲庫。但是,這只能通過自由和開源的平臺來實(shí)現(xiàn),這些平臺需要從全世界的數(shù)據(jù)中進(jìn)行訓(xùn)練。你不能僅僅依賴美國西海岸某家公司墻內(nèi)的系統(tǒng),這樣的系統(tǒng)無法覆蓋印度的 700 種語言或印度尼西亞的 300 多種語言。因此,最終這些平臺需要通過全球范圍內(nèi)的分布式訓(xùn)練來實(shí)現(xiàn),同時必須保持開放。

主持人:我知道你對過早的監(jiān)管抑制創(chuàng)新表示擔(dān)憂。不過,你簽署了一封公開信,反對拜登總統(tǒng)的 AI 行政命令。請談?wù)勀銥槭裁匆@樣做,以及你認(rèn)為政府在這方面應(yīng)該扮演什么角色?

Yann LeCun:我認(rèn)為在那個行政命令中有很多完全合理的內(nèi)容,比如保護(hù)隱私等,這些完全有意義。不過,我不贊成的地方在于,行政命令和最初版本的歐盟 AI 法案都設(shè)定了一個限制,比如如果你訓(xùn)練的模型超過億次浮點(diǎn)運(yùn)算(FLOP),你就必須獲得政府的許可。這種基于 AI 本質(zhì)上危險的假設(shè)完全沒有道理。我完全不同意這種方法。AI 安全確實(shí)有很多重要的問題需要討論,但對競爭設(shè)限毫無意義,這只會扼殺創(chuàng)新。

主持人:2016 年,特朗普曾表示要收緊 H1-B 簽證,而這類簽證為美國帶來了大量技術(shù)人才。你在帖子中提到,如果沒有這些簽證,你和許多科技界的大人物都不會在這里。這會對美國在 AI 領(lǐng)域的全球地位造成傷害嗎?

Yann LeCun:當(dāng)然會。很多人都說,美國在這一點(diǎn)上簡直是自斷手腳,讓人才很難獲得留在這里的簽證。我自己經(jīng)歷過這些困難。我是法國人,同時也是美國公民。我的法語口音可能暴露了一點(diǎn)(笑)。不過,這確實(shí)是一個障礙過程。美國的科學(xué)技術(shù)實(shí)際上受益于從全世界吸引人才,但目前的移民政策卻非常不利于這一點(diǎn)。我建議是比如,如果一個人在美國大學(xué)獲得了研究生學(xué)位,可以自動獲得留下的資格,至少有一段時間找到工作,從而使他們能夠更穩(wěn)定地生活。事實(shí)上,這種政策應(yīng)該擴(kuò)大到在任何地方獲得高級學(xué)位的人,但目前的流程復(fù)雜且耗時,很容易讓許多人望而卻步。因?yàn)楸热?Sergey Brin(谷歌聯(lián)合創(chuàng)始人)、Satya Nadella(微軟 CEO)、埃隆·馬斯克(特斯拉 CEO)等,他們都是移民。

主持人:最近,許多大科技公司都推出了新的大語言模型(LLM)或 AI 功能。我想了解一下 Meta 目前在做些什么,比如最新發(fā)布的 Llama 3.3。這與其他模型相比如何?

Yann LeCun:Llama 的主要區(qū)別在于它是免費(fèi)的,也是開源的。開源軟件是指其源代碼是公開的,你可以修改、編譯并免費(fèi)使用它。根據(jù)大多數(shù)開源許可協(xié)議,如果你對代碼進(jìn)行改進(jìn)并將其用于產(chǎn)品,也需要以源代碼的形式發(fā)布這些改進(jìn)。這種模式讓平臺軟件的發(fā)展非常迅速。整個互聯(lián)網(wǎng)幾乎都運(yùn)行在開源軟件上,比如 Linux。開源的復(fù)雜性在于構(gòu)建 AI 系統(tǒng)時,首先需要收集訓(xùn)練數(shù)據(jù),然后用這些數(shù)據(jù)訓(xùn)練一個基礎(chǔ)模型(foundation model)。Meta 的 Llama 模型并未分發(fā)訓(xùn)練數(shù)據(jù)或訓(xùn)練代碼,但我們分發(fā)了已經(jīng)訓(xùn)練好的基礎(chǔ)模型,以及用于運(yùn)行和微調(diào)模型的開源代碼。用戶無需支付費(fèi)用或向 Meta 請求許可,就可以自由使用和調(diào)整這些模型。當(dāng)然,法律環(huán)境對這一點(diǎn)有一定的限制。

3、大模型開源初衷

主持人:為什么開源更好?你的觀點(diǎn)是,其他大公司是封閉系統(tǒng),比如 OpenAI、Anthropic 和 Google。為什么你認(rèn)為他們選擇封閉系統(tǒng)?

Yann LeCun:很可能是為了獲得商業(yè)優(yōu)勢。如果你希望直接從這種產(chǎn)品中獲取收入,并且認(rèn)為自己在技術(shù)上領(lǐng)先,或者能夠保持領(lǐng)先,那么保持封閉可能是有道理的。但這不是 Meta 的情況。對于 Meta 來說,AI 工具只是我們一系列體驗(yàn)的一部分,而這些體驗(yàn)主要是由廣告收入支持的,因此這不是我們的主要收入來源。我們相信,開源平臺會進(jìn)步得更快,也會更有創(chuàng)新性。實(shí)際上,我們已經(jīng)看到,很多創(chuàng)新是因?yàn)槿藗兡軌蚴褂?Llama 系統(tǒng)進(jìn)行實(shí)驗(yàn),從而提出了新的想法。

主持人:有人批評說,Meta 是因?yàn)樵诟偁幹新浜?,才選擇開源以趕上對手。你怎么看待這種說法?

Yann LeCun:這其中有一個有趣的歷史背景。首先,行業(yè)中除了 Google 外,幾乎所有公司都在使用一個名為 PyTorch 的開源軟件平臺,而這個平臺最初是在 Meta 開發(fā)的。后來,Meta 將其所有權(quán)轉(zhuǎn)移給了 Linux 基金會。所以,像 OpenAI、Anthropic 等公司都在使用 PyTorch。如果沒有 Meta,就不會有今天的 ChatGPT 和 Claude。OpenAI 和 Google 現(xiàn)在變得越來越封閉。過去 OpenAI 并不保密,但在過去三年里,他們變得越來越封閉。Google 也有類似的趨勢,盡管沒有完全封閉。他們試圖在秘密中推動技術(shù)發(fā)展,而 Meta 則選擇了開放的道路。

主持人:你提到 Meta 的研究正在超越大型語言模型(LLMs)和聊天機(jī)器人,進(jìn)入下一代 AI 系統(tǒng)。能談?wù)勥@方面的工作嗎?LCM 和 LLM 有什么區(qū)別?

Yann LeCun:是的,我們正在開發(fā)一種新的模型,被稱為大型概念模型(LCM)。這是一種超越傳統(tǒng) LLM 的系統(tǒng)。LLM 是通過預(yù)測下一個詞來工作的。你收集大約 20 萬億個單詞的公開文本數(shù)據(jù),對一個擁有數(shù)十億或數(shù)百億可調(diào)參數(shù)的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,讓它根據(jù)前幾個單詞預(yù)測下一個單詞的概率分布。LCM 則更進(jìn)一步,它不僅僅是預(yù)測下一個詞。我們相信,單純依賴 LLM 的方法已經(jīng)達(dá)到了性能瓶頸。

主持人:為什么 LLM 達(dá)到了瓶頸?

Yann LeCun:原因很簡單:可用的自然語言數(shù)據(jù)已經(jīng)被用盡。目前,幾乎所有可以公開獲得的互聯(lián)網(wǎng)文本數(shù)據(jù)都已被用于訓(xùn)練這些 LLM。雖然人們開始生成合成數(shù)據(jù),但這并不能將性能提高 10 倍或 100 倍。因此,我們正在開發(fā)一種新一代的 AI 系統(tǒng),它不再僅僅依賴于預(yù)測下一個詞。自動回歸 LLM 工作原理是通過預(yù)測文本中的下一個詞來工作的。它根據(jù)幾千個單詞的上下文來預(yù)測下一個詞的概率分布。預(yù)測出一個詞后,將其作為輸入,再預(yù)測下一個詞,以此類推。這種方式并不能保證生成的文本邏輯自洽或避免虛構(gòu)內(nèi)容。行業(yè)中很多公司正在致力于讓 AI 系統(tǒng)通過人類的反饋訓(xùn)練,去完成特定任務(wù),避免生成無意義的內(nèi)容。并且這些系統(tǒng)還需要在不知道答案時,能夠查詢數(shù)據(jù)庫或搜索引擎。但是這并不是未來的 AI 系統(tǒng)工作方式。未來的系統(tǒng)不會僅僅依賴這種方法。

4、Meta新產(chǎn)品 Motivo

主持人:我聽說 Meta 最近發(fā)布了 Meta Motivo,是為了制作更逼真的數(shù)字化身。你能談?wù)勥@個嗎?

Yann LeCun:當(dāng)然可以。我先透露個秘密:我現(xiàn)在戴著智能眼鏡。這種智能設(shè)備讓我們離未來的 AI 助手更近一步。五到十年后,人們可能會佩戴這樣的智能眼鏡或其他智能設(shè)備,這些設(shè)備中內(nèi)置的 AI 助手將幫助我們處理日常生活中的各類事務(wù)。這些助手需要具備接近人類甚至超越人類的智能。

主持人:那我們離這種人工通用智能(AGI)還有多遠(yuǎn)?

Yann LeCun:其實(shí)我們離 AGI 還很遠(yuǎn),并不像有些人宣傳的那么接近。雖然不是幾百年,但也可能需要數(shù)十年。目前,我們有能通過律師資格考試或大學(xué)考試的 LLM,但我們?nèi)匀粵]有能清理房間或裝洗碗機(jī)的家用機(jī)器人。這并不是因?yàn)槲覀儾荒茉斐鰴C(jī)器人,而是因?yàn)槲覀冞€無法讓它們足夠智能,無法理解物理世界。物理世界對 AI 來說,比語言更復(fù)雜。

主持人:語言不是智力的巔峰嗎?

Yann LeCun:其實(shí)不是。語言只是離散符號的序列,對 AI 來說相對簡單。相比之下,理解物理世界要復(fù)雜得多。我們正在開發(fā)的新架構(gòu)和系統(tǒng),旨在讓 AI 通過觀察和與世界互動來學(xué)習(xí),像嬰兒和小動物那樣理解物理世界。這意味著這些系統(tǒng)將變得更具“代理性”。“代理性”系統(tǒng)(agentic systems)是指能夠規(guī)劃一系列行動以實(shí)現(xiàn)特定目標(biāo)的系統(tǒng)。目前所謂的代理性系統(tǒng)還無法真正進(jìn)行規(guī)劃,它們只能依賴一些預(yù)設(shè)的計劃模板。

主持人:Meta 也在開發(fā)一個 AI 搜索引擎,是否是為了超越 Google 的搜索系統(tǒng)?

Yann LeCun:搜索確實(shí)是智能助手的一個重要組成部分,它可以幫助用戶找到事實(shí)并鏈接到可靠的來源。這是一個完整 AI 系統(tǒng)的一部分,但我們的目標(biāo)并不是直接與 Google 競爭,而是為需要 AI 助手的人提供服務(wù)。Meta 的 AI 系統(tǒng)除了提高廣告效率外,它的長期愿景是讓每個人隨時擁有一個 AI 助手。這不僅僅是一個廣告工具,而是一個全新的計算平臺。未來的智能眼鏡可能會配備增強(qiáng)現(xiàn)實(shí)顯示屏,比如最近展示的 Orion 項目。雖然目前還無法廉價生產(chǎn),但未來它們一定會普及。這些助手將成為我們的助手、顧問,甚至像團(tuán)隊一樣為我們工作。它會像一個比我們更聰明的虛擬員工,最終每個人都會有一個虛擬助手,甚至比人類助理更聰明,為你提供支持和幫助。

主持人:這聽起來不錯,但目前人類助理的成本要低得多?,F(xiàn)在 Meta 預(yù)計在 AI 上的支出將在 380 億到 400 億美元之間,Google 的支出今年超過 510 億美元,分析師預(yù)測微軟的支出接近 900 億美元。這是不是太多了?Marc Benioff 最近告訴我,這簡直是在“奔向低谷”。你擔(dān)心被超支擊敗嗎?而且,花這么多錢來開發(fā)更智能的助手,似乎也不是個好生意。

Yann LeCun:這是一個長期的投資。我們需要建立基礎(chǔ)設(shè)施,以合理的速度運(yùn)行這些 AI 助手,滿足越來越多用戶的需求。目前 Meta 的 Mii 系統(tǒng)已經(jīng)有 6 億用戶。Llama 的開源版本已經(jīng)被下載了 6.5 億次,這個數(shù)字令人震驚。此外,有 85,000 個基于 Llama 開發(fā)的開源項目,很多項目致力于讓 Llama 支持更多語言,比如印度或撒哈拉以南非洲的語言。所以我不認(rèn)為這些錢花得冤枉。這筆投資主要是為了基礎(chǔ)設(shè)施建設(shè),因?yàn)槲磥頃写罅坑脩裘刻焓褂眠@些 AI 系統(tǒng)。而且,這些系統(tǒng)越強(qiáng)大,它們的計算成本也越高。所以這是一種必要的投入。

5、AI 模型風(fēng)險

主持人: 你之前提到,集中化的專有 AI 模型是一個巨大風(fēng)險。但也有人批評開源模式,認(rèn)為它可能被壞人用來傳播虛假信息、進(jìn)行網(wǎng)絡(luò)戰(zhàn)或生物恐怖主義。Meta 對此有責(zé)任嗎?

Yann LeCun:這個問題在內(nèi)部引發(fā)了很大的討論,尤其是在 2023 年初我們發(fā)布 Llama 的時候。最初版本的 Llama 不是完全開源的,而是需要用戶申請權(quán)限并證明自己是研究人員。后來,我們收到來自行業(yè)的大量請求,要求下一版本開源,因?yàn)檫@將推動整個行業(yè)的發(fā)展,催生大量初創(chuàng)企業(yè)和新產(chǎn)品。經(jīng)過數(shù)月的內(nèi)部討論,最終由馬克(扎克伯格)拍板決定在 2023 年夏天開源 Llama 2。這一決定確實(shí)為行業(yè)帶來了巨大的推動力。我認(rèn)為開源比專有模式更安全嗎。因?yàn)橛懈嗟娜嗽陉P(guān)注它并優(yōu)化它。這種開放模式促進(jìn)了更廣泛的創(chuàng)新。當(dāng)然,有人擔(dān)心壞人可能利用這些工具做壞事。例如,中國的研究人員曾用 Llama 的舊版本開發(fā)了新的模型,但這并不算什么大問題。而且,中國本身也有非常優(yōu)秀的開源模型,比如 Qwen。

主持人:所以 Meta 對這些工具的使用沒有責(zé)任?

Yann LeCun:我們當(dāng)然有一定的責(zé)任。Llama 團(tuán)隊和 Meta 的 Geni 組織對所有發(fā)布的系統(tǒng)進(jìn)行了嚴(yán)格的“紅隊測試”(Red Teaming),以確保它們在發(fā)布時至少是“最低毒性”的,并且盡可能安全。例如,我們最初將 Llama 2 提供給 Defcon 的一群黑客,讓他們嘗試攻擊系統(tǒng)或做壞事。這被稱為“白帽測試”(White Hat Testing)。結(jié)果顯示,在過去兩年內(nèi),我們尚未發(fā)現(xiàn)任何使用我們分發(fā)的模型做壞事的重大案例。但這是“尚未”,未來可能會發(fā)生。如果真的會發(fā)生,早就發(fā)生了。公眾可能不知道,其實(shí)早在 ChatGPT 出現(xiàn)之前,開源的 LLM 就已經(jīng)存在很多年了。而當(dāng)年 OpenAI 發(fā)布 GPT-2 時,曾聲稱不公開是因?yàn)樗胺浅NkU”,可能被用來在互聯(lián)網(wǎng)上傳播虛假信息。然而,事實(shí)證明,這些擔(dān)憂有些夸大。

主持人:你的意思是我們不需要開源。你曾調(diào)侃其他公司,說他們的系統(tǒng)當(dāng)時其實(shí)并沒有多強(qiáng)大。這種擔(dān)憂真的合理嗎?

Yann LeCun:確實(shí),當(dāng)時有很多關(guān)于這些系統(tǒng)可能被用于虛假信息傳播的擔(dān)憂,尤其是在美國選舉期間。今年全球有三次重要選舉,還有很多關(guān)于網(wǎng)絡(luò)攻擊的擔(dān)憂。但實(shí)際上,這些事情并沒有真正發(fā)生。我不是說不需要擔(dān)憂,而是說要保持警惕,盡可能防止問題發(fā)生。但關(guān)鍵是,傳播虛假信息并不需要 AI 助手——看看 Twitter 就知道了(笑)。

主持人: 哈哈,我注意到你很擅長“內(nèi)涵”別人,比如之前你提到 OpenAI 是“秘密主義的戲劇女王”。最近你因?yàn)檎f文化機(jī)構(gòu)、圖書館和基金會應(yīng)該讓他們的內(nèi)容用于免費(fèi)和開源的 AI 模型訓(xùn)練而受到了很多批評。你能談?wù)勥@個問題嗎?

Yann LeCun:當(dāng)然。拋開法律問題不談,如果你有一個愿景,認(rèn)為 AI 將成為人類知識的存儲庫,那么所有的人類知識都必須用于訓(xùn)練這些模型。很多知識要么沒有數(shù)字化,要么雖然數(shù)字化了但無法公開獲取。這些不一定是受版權(quán)保護(hù)的內(nèi)容,比如法國國家圖書館的大量內(nèi)容已經(jīng)數(shù)字化,但不能用于訓(xùn)練 AI 模型。

主持人: 你不是指侵犯版權(quán),而是更廣泛的文化知識獲取問題?

Yann LeCun:是的。例如,我的家族來自法國布列塔尼地區(qū),那里有一種傳統(tǒng)語言叫布列塔尼語。這種語言正在消失,現(xiàn)在每天使用這門語言的人只有大約 3 萬。如果我們希望未來的大型語言模型能夠支持布列塔尼語,就需要足夠的訓(xùn)練數(shù)據(jù)。這些數(shù)據(jù)從哪里來呢?可能需要文化類非營利組織和政府合作來收集數(shù)據(jù),并支持將其用于 AI 模型的訓(xùn)練。

主持人: 但是這些文化機(jī)構(gòu)可能不愿意把數(shù)據(jù)交給美國西岸的大公司,那怎么辦?

Yann LeCun:我的個人觀點(diǎn)是,我們可以通過分布式的方式來訓(xùn)練全球性的 AI 系統(tǒng)。這意味著世界各地的數(shù)據(jù)中心可以利用本地數(shù)據(jù),為一個全球系統(tǒng)做出貢獻(xiàn),而不需要將數(shù)據(jù)復(fù)制到單一的地方。就像 Linux 的開發(fā)一樣。Linux 是一個為全人類服務(wù)的操作系統(tǒng),主要由公司雇員在公司支持下貢獻(xiàn)代碼。AI 系統(tǒng)也可以采用類似的方式,每個人都為這個全球模型做出貢獻(xiàn)。

主持人:但是這樣的模型如何盈利呢?

Yann LeCun:就像 Linux 一樣,你不會為 Linux 支付費(fèi)用,但如果你買一臺運(yùn)行 Linux 的設(shè)備,比如 Android 手機(jī)或配備觸摸屏的汽車,你為設(shè)備支付費(fèi)用。同樣,AI 的基礎(chǔ)模型可以是免費(fèi)的,盈利是在其上的商業(yè)應(yīng)用。這確實(shí)是一個美好的愿景,但目前看起來,權(quán)力還是集中在少數(shù)幾個公司手中。但我們希望通過這樣的開放模式,讓 AI 成為所有人的 AI,而不僅僅是少數(shù)公司的工具。

主持人:但這種情況并沒有真正發(fā)生,對嗎?

Yann LeCun:從我的角度來看,這實(shí)際上是不可避免的,只是時間問題。

6、政府對AI監(jiān)管

主持人:說到辯論,你和其他人工智能領(lǐng)域的“教父”們有過公開辯論,比如圖靈獎的共同獲獎?wù)?Geoffrey Hinton 和 Yoshua Bengio。他們最近對 AI 的潛在危險發(fā)出了相當(dāng)戲劇性的警告,呼吁加強(qiáng)政府監(jiān)管,包括對研發(fā)的監(jiān)管。而你則稱這些警告“完全是胡說八道”。為什么你會這么說?

Yann LeCun:是的,我對這個話題非常直言不諱。Jeff 和 Yoshua 都是我的好朋友,我們認(rèn)識幾十年了。我在 1987-88 年間和 Jeff 一起做博士后,而我第一次見到 Yoshua 時,他還是個碩士生。我們一起合作過很多項目,也因?yàn)樵谏疃葘W(xué)習(xí)領(lǐng)域的貢獻(xiàn)而獲得了圖靈獎。在很多地方是意見一致的,但在 AI 的“生存威脅”上顯然分歧很大。Jeff 認(rèn)為當(dāng)前的大型語言模型(LLMs)具備主觀體驗(yàn),我對此完全不同意。我認(rèn)為他在這一點(diǎn)上完全錯了。我們之前也有過技術(shù)上的分歧,只是當(dāng)時沒有這么公開。Yoshua 的觀點(diǎn)稍有不同,他更多擔(dān)心壞人會利用 AI 做壞事,比如制造生化武器或其他危險物品。但老實(shí)說,這些危險在多年前就被提出來了,而且已經(jīng)被夸大得不切實(shí)際,甚至有些扭曲。

主持人:你之前稱那些推動像 SB 1047 法案的人是“妄想癥患者”(delusional)。這表達(dá)是不是太激烈了?

Yann LeCun:我并沒有說 Jeff 和 Yoshua 是妄想癥患者。我所說的是那些極端推動監(jiān)管的人,比如認(rèn)為 AI 會在五個月內(nèi)毀滅人類的人,他們的觀點(diǎn)顯然是錯誤的。

主持人:關(guān)于 AGI(人工通用智能),Hinton 和 Bengio 認(rèn)為可能在五年內(nèi)出現(xiàn),而你說可能需要數(shù)十年。為什么你不擔(dān)心呢?

Yann LeCun:首先,毫無疑問,未來某個時候會出現(xiàn)比我們更聰明的 AI 系統(tǒng)。這是一定會發(fā)生的事情。但五年、十年還是二十年?這很難說。從我的個人觀點(diǎn)來看,最早可能是五到六年,但更可能是十年甚至更久。歷史上,AI 的進(jìn)展總是被低估。我們現(xiàn)在連家用機(jī)器人、完全自動駕駛汽車都沒有實(shí)現(xiàn),還有很多問題沒有解決。要達(dá)到人類水平的智能,我們需要一整套新的技術(shù),但目前我們甚至還沒有找到通往這條路的方法。

主持人:但如果你錯了,那后果可能是災(zāi)難性的。

Yann LeCun:如果我認(rèn)為存在這樣的生存威脅,我當(dāng)然會非常直言不諱,努力警告大家。但事實(shí)是,當(dāng)前的系統(tǒng)并沒有表現(xiàn)出這種威脅的跡象。我們距離真正的 AGI 還有很長的路要走。幾年后,當(dāng)我們有了一種藍(lán)圖和一些可以令人信服的證明,表明我們可能找到通向人類水平人工智能的路徑時。我其實(shí)不喜歡稱其為“人工智能”(AI),因?yàn)槿祟惖闹悄軐?shí)際上非常專門化。我們以為自己有通用智能,但事實(shí)并非如此。不過,一旦我們有了藍(lán)圖,我們就可以更好地思考如何讓它安全。這有點(diǎn)像 1920 年代的情景,如果那時有人告訴你幾十年后,我們會用接近音速的速度讓數(shù)百萬人穿越大西洋,你可能會問:“那怎么確保安全呢?”但問題是,當(dāng)時渦輪噴氣發(fā)動機(jī)還沒有被發(fā)明。我們現(xiàn)在就在類似的情境中。

主持人:你的意思是,AI 的設(shè)計不是為了不安全。

Yann LeCun:是的,正如渦輪噴氣發(fā)動機(jī)的設(shè)計不是為了不安全一樣。渦輪噴氣發(fā)動機(jī)現(xiàn)在非??煽?。最近有一個統(tǒng)計數(shù)據(jù),美國航空公司自上一次致命事故以來,人類的總飛行距離達(dá)到了 2.3 光年。這是一個驚人的數(shù)字,航空非常安全。讓 AI 安全的關(guān)鍵在于從設(shè)計上確保它的安全。但在我們設(shè)計出這些系統(tǒng)之前,討論如何讓它安全是沒有意義的。

主持人:你似乎并不擔(dān)心 AI 想要支配人類。你曾說過,當(dāng)前的 AI 比家貓還笨。那么,如果 AI 是“愚蠢的”,或者它沒有主觀意圖想要傷害我們,那你認(rèn)為哪些關(guān)于 AI 或 AI 研發(fā)的限制是合理的?

Yann LeCun:在研發(fā)方面,我認(rèn)為不需要任何限制。比如,如果你想推出一款可以為你做飯的家用機(jī)器人,可能需要設(shè)置一些規(guī)則,比如當(dāng)有人在機(jī)器人周圍時,機(jī)器人如果手里拿著刀,就不會亂揮手臂。這就是我們常說的“防護(hù)欄”(guardrails)。當(dāng)前 AI 的設(shè)計是“本質(zhì)上不安全”的。因?yàn)楫?dāng)前的 AI 系統(tǒng)很難控制,基本上你需要通過訓(xùn)練讓它們表現(xiàn)得符合預(yù)期。但我提議了一種新的架構(gòu),稱為“目標(biāo)驅(qū)動型”(objective-driven)架構(gòu)。在這種架構(gòu)中,AI 系統(tǒng)的唯一目的就是完成目標(biāo),并且只能在符合一系列防護(hù)欄(其他目標(biāo))的情況下完成這些目標(biāo)。這樣可以確保系統(tǒng)的輸出和行為都是安全的。很多人會說,這是一個前所未有的挑戰(zhàn),需要發(fā)明一種全新的科學(xué)。但實(shí)際上,我們已經(jīng)很熟悉這種過程了,這就是“制定法律”。通過制定法律,我們改變?nèi)藗儾扇⌒袆拥某杀?,從而塑造他們的行為。同樣的原則也可以用于設(shè)計 AI 的目標(biāo)和防護(hù)欄。

主持人:你提到,我們需要等到有一個可行的藍(lán)圖時,再討論如何讓 AI 安全。那么,對于目前的情況,比如像歐盟那樣針對高風(fēng)險 AI 系統(tǒng)和一般模型的差異化監(jiān)管,你怎么看?他們已經(jīng)對一些威脅公民權(quán)利的應(yīng)用,如公共場所的面部識別技術(shù),實(shí)施了禁令。你認(rèn)為這種模式是否適合用來讓 AI 更安全,或者你建議等到真的出現(xiàn)問題再去補(bǔ)救?

Yann LeCun:不,不,我并不是建議等到出現(xiàn)問題再去處理。我認(rèn)為像禁止在公共場所進(jìn)行大規(guī)模面部識別這樣的措施是非常好的。除非你是一個威權(quán)政府,否則沒有人會覺得這是個壞主意。當(dāng)然,這在某些國家已經(jīng)存在,但在民主國家,這種禁令非常合理。類似的措施,比如針對某些技術(shù)在非法用途上的濫用制定具體規(guī)則,也是完全可以接受的。我反對的觀點(diǎn)是認(rèn)為 AI 本身就是一種內(nèi)在的危險,必須通過監(jiān)管研發(fā)來應(yīng)對。這種方法是適得其反的。如果未來我們需要那些開源平臺來支持民主,那么對研發(fā)的監(jiān)管只會讓開源變得風(fēng)險過高,導(dǎo)致沒有公司愿意分發(fā)這些平臺。結(jié)果就是,所有的控制權(quán)都會集中在少數(shù)幾家私人公司手中。

7、科技巨頭對AI的壟斷

主持人:這是否意味著你擔(dān)心 AI 被少數(shù)公司壟斷,比如 OpenAI、微軟、Google,可能還有亞馬遜和 Anthropic?

Yann LeCun:是的,這正是問題所在。如果所有人的數(shù)字生活都由這幾家公司通過 AI 助手來決定,這對民主來說將是災(zāi)難性的。尤其是對于美國以外的政府來說,他們無法接受這樣一個未來——所有的文化和價值觀都由美國西海岸的幾家公司主導(dǎo)。因此,開源平臺是必要的,這樣各國可以根據(jù)自己的文化、價值體系和興趣,對這些平臺進(jìn)行微調(diào)。用戶需要選擇,而不是被迫接受少數(shù)幾家公司的產(chǎn)品。

主持人:你最近獲得了 2024 年 VinFuture 獎,以表彰你在深度學(xué)習(xí)領(lǐng)域的變革性貢獻(xiàn)。在你的獲獎演講中,你提到 AI 的學(xué)習(xí)方式與人類和動物不同。你還提到,AI doomers(AI 的悲觀主義者)不相信人性本善,而你相信。你能談?wù)勥@一點(diǎn)嗎?

Yann LeCun:當(dāng)然。在未來的某個時刻,我們會擁有一些能夠像人類和動物一樣學(xué)習(xí)的系統(tǒng)。它們能夠以令人難以置信的速度學(xué)習(xí)新技能和任務(wù),這種能力目前的機(jī)器還無法復(fù)制。例如,像特斯拉這樣的公司有成千上萬甚至數(shù)百萬小時的駕駛數(shù)據(jù)可以用來訓(xùn)練 AI 系統(tǒng),但這些系統(tǒng)仍然無法達(dá)到人類的水平。

主持人:所以你認(rèn)為,AI 在這一點(diǎn)上距離人類和動物還有很遠(yuǎn)的距離?

Yann LeCun:是的。盡管我們已經(jīng)取得了很大的進(jìn)步,但我們?nèi)匀粺o法造出真正的自動駕駛汽車,除非像 Waymo 那樣在特定區(qū)域進(jìn)行限制性運(yùn)行。

主持人:最后一個問題,你提到你對民主的擔(dān)憂,同時也對威權(quán)政府持警惕態(tài)度。那么,為什么你認(rèn)為人性本善,并且 AI 系統(tǒng)可以朝著好的方向發(fā)展?

Yann LeCun: 我認(rèn)為人性本善是因?yàn)闅v史已經(jīng)多次證明,人類的法律和社會制度能夠塑造行為,并為大多數(shù)人創(chuàng)造更好的生活條件。AI 系統(tǒng)也是如此,通過設(shè)計合理的目標(biāo)和防護(hù)欄,我們可以確保它們的行為符合社會期望。目前我們無法購買家用機(jī)器人,是因?yàn)槲覀冞€無法讓它們足夠聰明。原因很簡單。我們現(xiàn)在訓(xùn)練的大型語言模型(LLMs)和聊天機(jī)器人,依賴的是所有公開可用的文本數(shù)據(jù),大約是 20 萬億個單詞。這些文本數(shù)據(jù)的總量約為 (10^{14}) 字節(jié)

而發(fā)育心理學(xué)家會告訴你,一個四歲的孩子在清醒狀態(tài)下已經(jīng)經(jīng)歷了 16,000 小時。在這期間,孩子的視覺皮層每秒接收到大約 2 兆字節(jié)的數(shù)據(jù),總量也是 (10^{14}) 字節(jié)。一個四歲的孩子從視覺中獲取的數(shù)據(jù)量,與我們最大的 LLM 從文本中獲取的數(shù)據(jù)量相當(dāng)。這說明,僅僅依賴文本訓(xùn)練,永遠(yuǎn)無法達(dá)到人類水平的智能。我們必須通過感官輸入,比如視頻,讓系統(tǒng)觀察和理解世界。16,000 小時的視頻相當(dāng)于 YouTube 上 30 分鐘的上傳量,因此數(shù)據(jù)源是幾乎無限的。未來幾年的重大挑戰(zhàn)是讓 AI 系統(tǒng)通過觀察視頻和與世界互動來理解物理世界。盡管目前尚未完全解決,但未來五年內(nèi)可能會取得重大進(jìn)展。所以我認(rèn)為這是為什么許多公司正在開發(fā)人形機(jī)器人,盡管它們現(xiàn)在還不夠智能,但他們在為未來的 AI 進(jìn)步做準(zhǔn)備。他們相信,當(dāng)這些機(jī)器人可以上市時,AI 的能力將足夠強(qiáng)大支持這些機(jī)器人。

提問環(huán)節(jié)

觀眾1:你好,Yann,我是 Michael Robbins。我們之前在 LinkedIn 上有過一些交流。我想問的是,在 AI 和空間計算、環(huán)境技術(shù)交叉領(lǐng)域的治理方面,你怎么看待未來的發(fā)展?
Yann LeCun:首先,我不是產(chǎn)品專家,也不是政策專家。我從事的是 AI 基礎(chǔ)研究。不過,像你提到的 Google Glass,最初的失敗更多是因?yàn)樯鐣由系膯栴}。相比之下,現(xiàn)在的一些智能眼鏡已經(jīng)克服了類似的障礙,比如在拍照時會有一個小燈亮起,告訴別人你在拍照,這和用智能手機(jī)拍照沒有太大區(qū)別。我個人強(qiáng)烈反對在公共場所大規(guī)模使用面部識別技術(shù),因?yàn)檫@是一種對隱私的侵犯。但要解決這個問題,目前還沒有“萬能子彈”。
觀眾2:從認(rèn)知科學(xué)的角度看,我感興趣的是如何為理解 AI 的“主觀性”奠定基礎(chǔ)。更重要的是,AGI(人工通用智能)是否會獲得類似于人類感知的能力,而不僅僅是信息處理能力?
Yann LeCun:這是一個很好的問題。我要稍微說點(diǎn)有爭議的內(nèi)容。我們正在構(gòu)想的 AI 系統(tǒng)藍(lán)圖表明,這些系統(tǒng)未來將擁有“情感”。這是它們設(shè)計中不可分割的一部分。為什么 AI 系統(tǒng)會有情感?因?yàn)檫@些系統(tǒng)是以目標(biāo)驅(qū)動的。你給它們一個需要完成的任務(wù),系統(tǒng)的設(shè)計目的就是完成這個任務(wù),同時滿足一些內(nèi)置的防護(hù)欄(guardrails)。為了實(shí)現(xiàn)這些目標(biāo),系統(tǒng)需要具備幾個核心組件。首先是判斷目標(biāo)是否已經(jīng)實(shí)現(xiàn)的能力。其次是“世界模型”(world model)。世界模型相當(dāng)于人類前額葉皮層的一部分,幫助我們預(yù)測行動的后果,并規(guī)劃一系列行動以實(shí)現(xiàn)特定目標(biāo)。如果系統(tǒng)能夠預(yù)測某個目標(biāo)是否會被滿足,那么它可以評估結(jié)果的好壞。當(dāng)預(yù)測結(jié)果不好時,系統(tǒng)會感到“恐懼”;當(dāng)預(yù)測結(jié)果很好時,會有類似“欣喜”的反應(yīng)。因此,這種預(yù)測和行為的能力,自然會生成類似情感的狀態(tài)。所以,擁有世界模型、能夠進(jìn)行推理和規(guī)劃的智能 AI 系統(tǒng),也會具備情感。
觀眾3:我想問,你能否分享一兩個 AI 的正面例子?比如 AlphaFold 對醫(yī)學(xué)領(lǐng)域的影響,或者最近 Jensen Huang 和印度的安巴尼提到,如果沒有 Llama 3,他不會想到能用 AI 教育印度的機(jī)會。作為學(xué)生和教師的助手,AI 能發(fā)揮什么作用?
Yann LeCun:Llama 3,或者我們稱為“Llama 家族”,因?yàn)樗情_源的,已經(jīng)被廣泛用于各種用途。例如,有些人專門針對某個垂直領(lǐng)域或某種語言對它進(jìn)行微調(diào)。在塞內(nèi)加爾,一位前同事開發(fā)了一款醫(yī)療助手的聊天機(jī)器人,它能用法語、沃洛夫語以及其他當(dāng)?shù)卣Z言交流。我們還與印度的一些組織合作,希望下一版 Llama 能覆蓋印度的 22 到 29 種官方語言。當(dāng)然,這還不能覆蓋印度的全部語言。印度有 700 多種語言,其中大部分是口語,沒有書寫形式?,F(xiàn)在我們有技術(shù)讓聊天機(jī)器人處理這些純口語的語言,這真是令人驚嘆。我上周剛在越南參加了一個獎項活動,類似的努力也在進(jìn)行,目標(biāo)是讓 AI 支持越南語。這種情況在全球范圍內(nèi)都能看到。人們正在微調(diào)這些模型,并將其用于我們從未想到的應(yīng)用。我認(rèn)為我們需要一種更有組織、更具全球合作性的伙伴關(guān)系,讓這些基礎(chǔ)模型從一開始就支持所有的語言和文化。這將使各種應(yīng)用系統(tǒng)的開發(fā)變得更加容易。在印度農(nóng)村地區(qū)進(jìn)行的實(shí)驗(yàn),把這些智能眼鏡分發(fā)給農(nóng)民。他們他們非常喜歡這些設(shè)備。農(nóng)民可以用自己的語言提問,比如觀察一棵植物,問 AI 助手植物得了什么病,以及如何治療;或者詢問未來一周的天氣情況。這種技術(shù)的影響可能是深遠(yuǎn)的。
觀眾4:你多次提到分布式系統(tǒng)作為實(shí)現(xiàn)人類水平 AI 的路徑。我過去一年中參與訓(xùn)練了很多開源和閉源的 AI 模型,它們在英語和一些語言上的表現(xiàn)很好。但我上周訪問了約旦,發(fā)現(xiàn) ChatGPT 和其他 LLM 在那里的表現(xiàn)非常糟糕。我感覺自己過度承諾了 AI 可以解決所有問題。你怎么看待這個問題?
Yann LeCun:確實(shí)如此,目前的 AI 系統(tǒng)在許多語言上的表現(xiàn)還有很大的局限性。分布式系統(tǒng)的目的正是為了應(yīng)對這一問題。我之前提到的推文是為了激勵世界各地的人們合作行動,比如建立本地的數(shù)據(jù)中心,特別是 AI 專注的數(shù)據(jù)中心。如果有資源的話,政府可能會在其中發(fā)揮重要作用。這些本地化的數(shù)據(jù)中心將有助于針對特定語言和文化進(jìn)行優(yōu)化,最終讓 AI 能更好地服務(wù)于全球用戶。不僅僅是私人行業(yè),全球各地的人們也在收集有助于文化和語言發(fā)展的材料。例如,最近由阿聯(lián)酋的 MBZ 人工智能大學(xué)發(fā)布了一款基于 Llama 3 的衍生模型。他們對 Llama 3 進(jìn)行了微調(diào),使其能夠首先使用阿拉伯語,特別是阿聯(lián)酋地區(qū)的阿拉伯語,并為醫(yī)療服務(wù)提供支持。這實(shí)際上是一個多模態(tài)系統(tǒng),也可以分析醫(yī)學(xué)圖像等內(nèi)容。這些工作之所以能夠進(jìn)行,是因?yàn)?Llama 3 是開源的。如果不是開源的,這些工作就無法實(shí)現(xiàn)。
觀眾5:最后一個問題,有人認(rèn)為 AI 會改變學(xué)習(xí),改變生活,使一切變得更好??墒俏覀円部吹缴鐣械某鸷?、功能失調(diào)、孤獨(dú)感、尤其是女孩的自尊問題,甚至是控制權(quán)集中在億萬富翁和政府手中。為什么這次我應(yīng)該信任你?
Yann LeCun:首先,我不是億萬富翁(笑)。我首先是一名科學(xué)家。而且,我必須能夠面對自己,保持科學(xué)的誠信。我可能是錯的,但你可以相信,我不會對你撒謊,也不會因?yàn)樨澙返炔涣紕訖C(jī)而誤導(dǎo)你。不過,正如科學(xué)的本質(zhì),我可能會錯,而糾正錯誤的過程來自于不同觀點(diǎn)的碰撞和辯論。
主持人:那怎么解釋對 AI 的批評,比如說它會讓社會充滿虛假信息或仇恨言論?
Yann LeCun:從證據(jù)來看,我們并沒有看到這種情況。人們確實(shí)在傳播仇恨言論和虛假信息,但他們會通過各種方式試圖傳播這些內(nèi)容,而 AI 是我們對抗這些問題的最佳工具。讓我舉個例子,以 Facebook 為例。在 2017 年,AI 技術(shù)還不足以幫助 Facebook 和 Instagram 識別所有語言中的仇恨言論。當(dāng)時,自動檢測和刪除仇恨言論的比例只有 23%。到 2022 年底,這一比例達(dá)到了 95%。這一進(jìn)步正是 AI 技術(shù)發(fā)展的結(jié)果。因此,AI 不是被用來制造仇恨言論或虛假信息的工具,而是對抗這些問題的最佳手段。關(guān)鍵在于讓“好人”手中的 AI 比“壞人”手中的 AI 更強(qiáng)大。我確實(shí)擔(dān)心壞人的行為,但 AI 是解決這些問題的利器。
主持人:這是一個很好的回答,非常感謝!

閱讀報告全文,請訪問歐米伽研究所的“未來知識庫”

https://wx./group/454854145828

對話首席AI科學(xué)家、圖靈獎得主LeCun:大語言模型已觸頂,Meta的下一代AI模型可能是新方向
未來知識庫是“歐米伽未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學(xué)、互聯(lián)網(wǎng)、超級智能,數(shù)智大腦、能源、軍事、經(jīng)濟(jì)、人類風(fēng)險等等領(lǐng)域的前沿進(jìn)展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。歡迎掃描二維碼或訪問https://wx./group/454854145828 進(jìn)入。

截止到11月25日 ”未來知識庫”精選的100部前沿科技趨勢報告

  1. Air Street Capital《2024 年人工智能現(xiàn)狀報告》

  2. 未來今日研究所:2024 技術(shù)趨勢報告 - 廣義計算篇

  3. 科睿唯安中國科學(xué)院 2024 研究前沿?zé)岫戎笖?shù)報告

  4. 文本到圖像合成:十年回顧

  5. 《以人為中心的大型語言模型(LLM)研究綜述》

  6. 經(jīng)合組織 2024 年數(shù)字經(jīng)濟(jì)展望報告加強(qiáng)連通性創(chuàng)新與信任第二版

  7. 波士頓咨詢 2024 全球經(jīng)濟(jì)體 AI 成熟度矩陣報告

  8. 理解世界還是預(yù)測未來?世界模型的綜合綜述

  9. Google Cloud CSA2024 AI 與安全狀況調(diào)研報告

  10. 英國制造商組織 MakeUK2024 英國工業(yè)戰(zhàn)略愿景報告從概念到實(shí)施

  11. 花旗銀行 CitiGPS2024 自然環(huán)境可持續(xù)發(fā)展新前沿研究報告

  12. 國際原子能機(jī)構(gòu) 2024 聚變關(guān)鍵要素報告 - 聚變能發(fā)展的共同愿景

  13. 國際可再生能源署 IRENA2024 年全球氣候行動報告

  14. Cell: 物理學(xué)和化學(xué) 、人工智能知識領(lǐng)域的融合

  15. 智次方 2025 中國 5G 產(chǎn)業(yè)全景圖譜報告

  16. 未來今日研究所:2024 技術(shù)趨勢報告 - 移動性,機(jī)器人與無人機(jī)篇

  17. Deepmind:AI 加速科學(xué)創(chuàng)新發(fā)現(xiàn)的黃金時代報告

  18. PitchBookNVCA2024 年第三季度全球風(fēng)險投資監(jiān)測報告

  19. 德科 2024 年未來全球勞動力報告

  20. 高工咨詢 2024 年協(xié)作機(jī)器人產(chǎn)業(yè)發(fā)展藍(lán)皮書

  21. 國際能源署 IEA2024 年全球能源效率報告

  22. 基因慧基因行業(yè)藍(lán)皮書 2024 - 2025

  23. 普華永道 PwC2024 全球經(jīng)濟(jì)犯罪調(diào)查英國報告 - 智對風(fēng)險直面挑戰(zhàn)

  24. 中國互聯(lián)網(wǎng)協(xié)會 2024 面向未來網(wǎng)絡(luò)的數(shù)字孿生城市場景應(yīng)用白皮書

  25. 中移智庫 2024 先進(jìn)感知新技術(shù)及新應(yīng)用白皮書

  26. 智次方研究院 2025 中國 AIoT 產(chǎn)業(yè)全景圖譜報告

  27. 未來今日研究所:2024 技術(shù)趨勢報告 - 人工智能篇

  28. 國際電聯(lián):邁向衡量數(shù)字經(jīng)濟(jì)的通用框架的路線圖

  29. 聯(lián)合國糧食與農(nóng)業(yè)組織:2024 年世界糧食安全和營養(yǎng)狀況

  30. 大語言模型綜述

  31. 李飛飛等,AI 智能體:探索多模式交互的前景綜述

  32. 哈爾濱工業(yè)大學(xué) - ChatGPT 調(diào)研報告

  33. 2024《美國核部署戰(zhàn)略報告》最新文件

  34. 清華大學(xué):AIGC 發(fā)展研究 3.0 發(fā)布版 b 版

  35. OpenAI:2024 年 OpenAI o1 大模型技術(shù)報告

  36. Verizon2024 年世界支付安全報告

  37. 皇家學(xué)會哲學(xué)學(xué)報 從復(fù)雜系統(tǒng)角度評估人工智能風(fēng)險

  38. 復(fù)旦大學(xué) 大模型 AI 代理的興起和潛力:綜述

  39. 經(jīng)合組織 OECD2024 年氣候行動監(jiān)測報告

  40. Wevolver2024 年邊緣人工智能現(xiàn)狀報告 - 探索各行業(yè)邊緣 AI 應(yīng)用動態(tài)

  41. 2024 全球人形機(jī)器人產(chǎn)品數(shù)據(jù)庫報告 - 人形機(jī)器人洞察研究 BTIResearch

  42. 《全球金融穩(wěn)定報告》 把舵定航 不確定性、人工智能與金融穩(wěn)定

  43. 瑞士洛桑聯(lián)邦理工學(xué)院 《人工智能中的 - 創(chuàng)造力:進(jìn)展與挑戰(zhàn)》

  44. 《你所需要知道的理 - 論:人工智能、人類認(rèn)知與決策》牛津大學(xué)最新 53 頁報告

  45. 世界經(jīng)濟(jì)論壇 新興技術(shù)時代的網(wǎng)絡(luò)彈性導(dǎo)航:應(yīng)對復(fù)雜挑戰(zhàn)的協(xié)作解決方案 2024

  46. ADL 理特咨詢 2024 汽車出行未來展望報告

  47. 2024 中國硬科技創(chuàng)新發(fā)展白皮書 - 開辟未來產(chǎn)業(yè)新賽道

  48. 科學(xué)時代的大語言模型中的人工智能

  49. Gartner2025 年重要戰(zhàn)略技術(shù)趨勢報告

  50. CBInsights2024 年第三季度全球人工智能投融資狀況報告

  51. TrendHunter2025 年全球趨勢報告 - 全行業(yè)頂級創(chuàng)新和變革趨勢前瞻

  52. 天津大學(xué) 2024 大模型輕量化技術(shù)研究報告

  53. 歐洲海洋局 2024 導(dǎo)航未來報告將海洋置于更廣泛的地球系統(tǒng)中第六版

  54. 美國安全與新興技術(shù)中心 2024 AI 生成代碼的網(wǎng)絡(luò)安全風(fēng)險研究報告

  55. 國際原子能機(jī)構(gòu) 2024 年世界聚變展望報告

  56. 復(fù)旦大學(xué) 2024 大語言模型的能力邊界與發(fā)展思考報告

  57. 安盛 AXA2024 年氣候與生物多樣性報告氣候過渡計劃路線圖

  58. YouGov2024 美國公眾對人工智能 AI 的態(tài)度調(diào)研報告

  59. 麥肯錫中國報告:《中國與世界》完整版

  60. 麥肯錫全球研究所 2024 下一代競技場報告 - 重塑全球經(jīng)濟(jì)的 18 個新興行業(yè)領(lǐng)域

  61. Project Sid,一個旨在模擬多智能體交互以研究 AI 文明的項目

  62. 德國研究與創(chuàng)新專家委員會 德國研究創(chuàng)新與科技成果報告

  63. 2024 年歐洲關(guān)鍵產(chǎn)業(yè)的科技重塑研究報告

  64. 智能體專題報告之二 - 智能體時代來臨具身智能有望成為最佳載體

  65. ActivateConsulting 2025 年頂級技術(shù)和媒體發(fā)展趨勢報告

  66. 蘭德 全球?yàn)?zāi)難風(fēng)險評估

  67. 斯坦福李飛飛 《AI agent 綜述》Agent AI 開啟多模態(tài)交互新紀(jì)元

  68. 中國聯(lián)通研究院 2024 中國生成式人工智能應(yīng)用與實(shí)踐展望白皮書中文版

  69. 普華永道 2024 第五次工業(yè)革命研究報告邁向彈性可持續(xù)和以人為本的未來

  70. 大成 Dentsons2024 年全球智慧城市與互聯(lián)社區(qū)智庫年度報告

  71. TechUK2024 量子技術(shù)挑戰(zhàn)與機(jī)遇并存構(gòu)筑量子韌性的策略與實(shí)踐研究報告

  72. Emakina 將塑造 2024 年的技術(shù)趨勢報告

  73. 圖靈獎得主 Yann LeCun《機(jī)器如何才能達(dá)到人類智能水平?》——Yann LeCun, 附 Slides 及視頻

  74. 華為:2024 鴻蒙生態(tài)應(yīng)用開發(fā)白皮書 V3.0(最新版)

  75. CASA:2023 第三代半導(dǎo)體產(chǎn)業(yè)發(fā)展報告

  76. 大型視覺語言模型中幻覺現(xiàn)象的綜述

  77. IEA PVPS:2024 光伏應(yīng)用趨勢報告(英文版)

  78. ABI Research:82 個將會或不會在 2024 年發(fā)生的技術(shù)趨勢白皮書

  79. 《美國反無人機(jī)系統(tǒng)未來趨勢報告(2024 - 2029 年)》

  80. 《軍事自主系統(tǒng):未來之路》美空軍

  81. 空間智能如何?牛津大學(xué)博士論文《深度具身智能體的空間推理與規(guī)劃》

  82. 2024 低空經(jīng)濟(jì)場景白皮書 v1.0

  83. 戰(zhàn)略與國際研究中心(CSIS)人類地月空間探索的總體狀況研究報告(2024)

  84. Artificial Intelligence Review:人工智能與物理學(xué)相遇的綜述

  85. 麥肯錫:全球難題,應(yīng)對能源轉(zhuǎn)型的現(xiàn)實(shí)問題

  86. 歐米伽理論,智能科學(xué)視野下的萬物理論新探索(研究論文)

  87. Gartner 2025 年主要戰(zhàn)略技術(shù)趨勢研究報告

  88. 2024 人工智能國外大模型使用手冊 + 中文大模型使用手冊

  89. 詳解光刻巨人 ASML 成功之奧妙 - 241015

  90. CB Insights:未來變革者:2025 年九大科技趨勢研究報告

  91. 國際電信聯(lián)盟 2023 - 2024 年聯(lián)合國人工智能 AI 活動報告

  92. 《人工智能能力的人類系統(tǒng)集成測試和評估》最新 51 頁,美國防部首席數(shù)字和人工智能辦公室(CDAO)

  93. 2024 瑞典皇家科學(xué)院諾貝爾化學(xué)獎官方成果介紹報告

  94. MHP 2024 全球工業(yè) 4.0 晴雨表白皮書

  95. 世界經(jīng)濟(jì)論壇白皮書《AI 價值洞察:引導(dǎo)人工智能實(shí)現(xiàn)人類共同目標(biāo)》

  96. 瑞典皇家科學(xué)院諾貝爾物理學(xué)獎科學(xué)背景報告資料

  97. AI 智能體的崛起:整合人工智能、區(qū)塊鏈技術(shù)與量子計算 (研究報告,書)

  98. OpenAI o1 評估:AGI 的機(jī)遇和挑戰(zhàn)(280 頁)

  99. 世界知識產(chǎn)權(quán)組織:2024 年全球創(chuàng)新指數(shù)

  100. 美國白宮:國家近地天體防御策略與行動計劃

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多