參考消息網(wǎng)8月14日報道 據(jù)德國《商報》網(wǎng)站7月15日報道,現(xiàn)年54歲的認(rèn)知科學(xué)家加里·馬庫斯是人工智能(AI)圈子里最具爭議的人物之一。圍繞所謂的大型語言模型的能力,馬庫斯與開放人工智能研究中心(OpenAI)首席執(zhí)行官薩姆·奧爾特曼以及特斯拉首席執(zhí)行官埃隆·馬斯克爭論不休。奧爾特曼和馬斯克預(yù)計,人工智能將很快發(fā)展出類人的能力。 馬庫斯卻看到了另一種危險:他認(rèn)為,新的人工智能模型只是一場炒作,“很快就會破滅”。 《商報》記者問:馬庫斯先生,您可能是最著名的OpenAI批評者。奧爾特曼公司的哪一點讓您不滿? 馬庫斯答:我并不反對OpenAI或奧爾特曼本人。我反對的是虛假承諾。 問:虛假承諾是指? 答:OpenAI宣布,其使命是開發(fā)能造福全人類的通用人工智能。人們可以向它提出任何問題,它會理性地給出正確答案。但實際上,OpenAI的軟件既不安全也不可靠,且忽視了公眾利益。 問:奧爾特曼說,OpenAI離實現(xiàn)通用人工智能可能只差一兩次突破。 答:我認(rèn)為,這是炒作和無稽之談。 問:為什么? 答:看看新模型GPT-4o,我認(rèn)為它是構(gòu)建GPT-5的一次失敗嘗試。OpenAI曾多次暗示,即將推出GPT-5,然后通用人工智能就會到來。事實卻是,人工智能的發(fā)展速度最近一直在放緩。OpenAI走錯了方向。 問:走錯方向?隨著聊天機器人ChatGPT的推出,OpenAI引發(fā)了前所未有的人工智能熱潮。 答:ChatGPT或許很受歡迎,但并不可信。我對精明的企業(yè)家沒什么意見,但必須指出當(dāng)下流行的人工智能模型的技術(shù)局限性。只有克服這些局限性,人工智能的發(fā)展才能進入值得信賴的軌道。 問:具體是什么讓您不安? 答:我不認(rèn)為大型語言模型(生成式人工智能的一個子集)真的是一個好的解決方案,盡管它們很受歡迎。它們包藏了太多風(fēng)險,其中最嚴(yán)重的是錯誤信息,另一個則是幻覺。 問:也就是說,這些模型會編造答案和結(jié)果。 答:正是。什么是大型語言模型?它是一種概率模型,可以計算出句子中最有可能出現(xiàn)的下一個詞。其結(jié)果是,系統(tǒng)擁有驚人的模仿能力,但并不真正聰明。它們或許可以很好地解答80%的問題,卻對剩下的20%幾乎束手無策。人們可以和聊天機器人談?wù)搸缀跞魏问虑椤S袝r答案是對的,有時是錯的。但我們無法預(yù)測何時會出錯,這是一個大問題。 問:人類不會犯錯嗎? 答:人類當(dāng)然會犯錯,但人的錯誤與機器的錯誤截然不同。此外,人類在某些領(lǐng)域非常出色,當(dāng)今的機器則不然。以人工智能輔助駕駛為例:我們看到,很多事故都是由人類駕駛員高估機器的能力造成的。他們看到機器正確駕駛了45分鐘,于是就認(rèn)為“太好了,我能信任它”。從統(tǒng)計學(xué)角度看,這種想法很愚蠢。一輛在95%的場景中自動駕駛的汽車,會在20種情況中的某一種中做出錯誤決定。這可能會要了我們的命。這是不可接受的。 問:馬斯克認(rèn)為,更多的數(shù)據(jù)將完善自動駕駛。OpenAI也提出,數(shù)據(jù)越多,語言模型越強。 答:這是誤入歧途。我們看到,新推出的模型變體帶來的回報逐漸減少。進步速度放緩。我們不會因為模型越來越大而實現(xiàn)通用人工智能。 問:您怎么能如此確定呢? 答:沒有什么是確定的。但在我看來,用越來越多的數(shù)據(jù)“喂養(yǎng)”模型,從而實現(xiàn)通用人工智能,這種可能性微乎其微。一方面,根本沒有足夠的好數(shù)據(jù)。OpenAI已經(jīng)搜刮了互聯(lián)網(wǎng)上的人類文本,現(xiàn)在又在轉(zhuǎn)錄優(yōu)兔(YouTube)視頻,但仍然不夠。另一方面,目前還不清楚更多的文本是否真的有助于人工智能的發(fā)展。就拿我的孩子們來說:他們比任何人工智能都要聰明,但他們并沒有翻閱整個互聯(lián)網(wǎng)。為什么?因為他們能更高效地分析數(shù)據(jù),并從更多渠道獲取數(shù)據(jù):通過眼睛、耳朵和感覺從現(xiàn)實生活獲取數(shù)據(jù)。人類構(gòu)建了世界運行的因果模型,但生成式人工智能做不到這一點,所以我們無法真正信任它。 問:許多人都希望用所謂的合成數(shù)據(jù),即人工智能生成的數(shù)據(jù),來訓(xùn)練他們的模型。 答:這是主流人工智能抓住的下一根救命稻草,其背后的想法非常糟糕。人工智能系統(tǒng)會產(chǎn)出滿是幻覺的糟糕數(shù)據(jù),然后它們又被用來訓(xùn)練其他系統(tǒng)。結(jié)果就是,越來越多的虛假信息污染了互聯(lián)網(wǎng)。人類已經(jīng)在用生成式人工智能來快速炮制不可靠的產(chǎn)品,例如未經(jīng)研究、未經(jīng)核查的傳記。這樣一來,人工智能不會讓世界變得更聰明,而是變得更愚蠢。 問:ChatGPT通過了圖靈測試。這是數(shù)學(xué)家艾倫·圖靈在1950年提出的一項測試:如果人類認(rèn)為一臺機器的回答是人類的回答,那么這臺機器就是智能的。 答:拜托,圖靈測試太可怕了。也許這曾是個偉大的想法,但它已經(jīng)有74年歷史了,經(jīng)不起時間的考驗。圖靈測試更適用于驗證人類有多么容易上當(dāng)受騙。我們現(xiàn)在就能建立一個系統(tǒng),在短期內(nèi)騙過一個沒有受過心理學(xué)或人工智能訓(xùn)練的天真的人。但這并不能證明什么。圖靈測試的確提出了一個正確的問題:什么是智能?但我們?nèi)晕凑业酱鸢浮?/p> |
|