小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

“人工智能讓世界變得更愚蠢”?專家警告AI炒作“很快就會破滅”

 昵稱UZWbF 2024-08-15 發(fā)布于海南

 參考消息網(wǎng)8月14日報道 據(jù)德國《商報》網(wǎng)站7月15日報道,現(xiàn)年54歲的認(rèn)知科學(xué)家加里·馬庫斯是人工智能(AI)圈子里最具爭議的人物之一。圍繞所謂的大型語言模型的能力,馬庫斯與開放人工智能研究中心(OpenAI)首席執(zhí)行官薩姆·奧爾特曼以及特斯拉首席執(zhí)行官埃隆·馬斯克爭論不休。奧爾特曼和馬斯克預(yù)計,人工智能將很快發(fā)展出類人的能力。

馬庫斯卻看到了另一種危險:他認(rèn)為,新的人工智能模型只是一場炒作,“很快就會破滅”。

《商報》記者問:馬庫斯先生,您可能是最著名的OpenAI批評者。奧爾特曼公司的哪一點讓您不滿?

馬庫斯答:我并不反對OpenAI或奧爾特曼本人。我反對的是虛假承諾。

問:虛假承諾是指?

答:OpenAI宣布,其使命是開發(fā)能造福全人類的通用人工智能。人們可以向它提出任何問題,它會理性地給出正確答案。但實際上,OpenAI的軟件既不安全也不可靠,且忽視了公眾利益。

問:奧爾特曼說,OpenAI離實現(xiàn)通用人工智能可能只差一兩次突破。

答:我認(rèn)為,這是炒作和無稽之談。

問:為什么?

答:看看新模型GPT-4o,我認(rèn)為它是構(gòu)建GPT-5的一次失敗嘗試。OpenAI曾多次暗示,即將推出GPT-5,然后通用人工智能就會到來。事實卻是,人工智能的發(fā)展速度最近一直在放緩。OpenAI走錯了方向。

問:走錯方向?隨著聊天機器人ChatGPT的推出,OpenAI引發(fā)了前所未有的人工智能熱潮。

答:ChatGPT或許很受歡迎,但并不可信。我對精明的企業(yè)家沒什么意見,但必須指出當(dāng)下流行的人工智能模型的技術(shù)局限性。只有克服這些局限性,人工智能的發(fā)展才能進入值得信賴的軌道。

問:具體是什么讓您不安?

答:我不認(rèn)為大型語言模型(生成式人工智能的一個子集)真的是一個好的解決方案,盡管它們很受歡迎。它們包藏了太多風(fēng)險,其中最嚴(yán)重的是錯誤信息,另一個則是幻覺。

問:也就是說,這些模型會編造答案和結(jié)果。

答:正是。什么是大型語言模型?它是一種概率模型,可以計算出句子中最有可能出現(xiàn)的下一個詞。其結(jié)果是,系統(tǒng)擁有驚人的模仿能力,但并不真正聰明。它們或許可以很好地解答80%的問題,卻對剩下的20%幾乎束手無策。人們可以和聊天機器人談?wù)搸缀跞魏问虑椤S袝r答案是對的,有時是錯的。但我們無法預(yù)測何時會出錯,這是一個大問題。

問:人類不會犯錯嗎?

答:人類當(dāng)然會犯錯,但人的錯誤與機器的錯誤截然不同。此外,人類在某些領(lǐng)域非常出色,當(dāng)今的機器則不然。以人工智能輔助駕駛為例:我們看到,很多事故都是由人類駕駛員高估機器的能力造成的。他們看到機器正確駕駛了45分鐘,于是就認(rèn)為“太好了,我能信任它”。從統(tǒng)計學(xué)角度看,這種想法很愚蠢。一輛在95%的場景中自動駕駛的汽車,會在20種情況中的某一種中做出錯誤決定。這可能會要了我們的命。這是不可接受的。

問:馬斯克認(rèn)為,更多的數(shù)據(jù)將完善自動駕駛。OpenAI也提出,數(shù)據(jù)越多,語言模型越強。

答:這是誤入歧途。我們看到,新推出的模型變體帶來的回報逐漸減少。進步速度放緩。我們不會因為模型越來越大而實現(xiàn)通用人工智能。

問:您怎么能如此確定呢?

答:沒有什么是確定的。但在我看來,用越來越多的數(shù)據(jù)“喂養(yǎng)”模型,從而實現(xiàn)通用人工智能,這種可能性微乎其微。一方面,根本沒有足夠的好數(shù)據(jù)。OpenAI已經(jīng)搜刮了互聯(lián)網(wǎng)上的人類文本,現(xiàn)在又在轉(zhuǎn)錄優(yōu)兔(YouTube)視頻,但仍然不夠。另一方面,目前還不清楚更多的文本是否真的有助于人工智能的發(fā)展。就拿我的孩子們來說:他們比任何人工智能都要聰明,但他們并沒有翻閱整個互聯(lián)網(wǎng)。為什么?因為他們能更高效地分析數(shù)據(jù),并從更多渠道獲取數(shù)據(jù):通過眼睛、耳朵和感覺從現(xiàn)實生活獲取數(shù)據(jù)。人類構(gòu)建了世界運行的因果模型,但生成式人工智能做不到這一點,所以我們無法真正信任它。

問:許多人都希望用所謂的合成數(shù)據(jù),即人工智能生成的數(shù)據(jù),來訓(xùn)練他們的模型。

答:這是主流人工智能抓住的下一根救命稻草,其背后的想法非常糟糕。人工智能系統(tǒng)會產(chǎn)出滿是幻覺的糟糕數(shù)據(jù),然后它們又被用來訓(xùn)練其他系統(tǒng)。結(jié)果就是,越來越多的虛假信息污染了互聯(lián)網(wǎng)。人類已經(jīng)在用生成式人工智能來快速炮制不可靠的產(chǎn)品,例如未經(jīng)研究、未經(jīng)核查的傳記。這樣一來,人工智能不會讓世界變得更聰明,而是變得更愚蠢。

問:ChatGPT通過了圖靈測試。這是數(shù)學(xué)家艾倫·圖靈在1950年提出的一項測試:如果人類認(rèn)為一臺機器的回答是人類的回答,那么這臺機器就是智能的。

答:拜托,圖靈測試太可怕了。也許這曾是個偉大的想法,但它已經(jīng)有74年歷史了,經(jīng)不起時間的考驗。圖靈測試更適用于驗證人類有多么容易上當(dāng)受騙。我們現(xiàn)在就能建立一個系統(tǒng),在短期內(nèi)騙過一個沒有受過心理學(xué)或人工智能訓(xùn)練的天真的人。但這并不能證明什么。圖靈測試的確提出了一個正確的問題:什么是智能?但我們?nèi)晕凑业酱鸢浮?/p>

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多