呼吁暫停開發(fā)更先進人工智能 這封信由非營利組織生命未來研究所(FLI)在3月30日發(fā)表,信中說,AI開發(fā)人員“陷入了一場失控的競賽,開發(fā)和部署越來越強大的數(shù)字思維,以至于所有人——甚至包括它們的創(chuàng)造者——也無法理解、預(yù)測或可靠地控制它們”。 這封信詳細描述了具有人類競爭力的人工智能系統(tǒng)以經(jīng)濟和政治干擾的形式對社會和文明的潛在風(fēng)險,并呼吁開發(fā)者與決策者在治理和監(jiān)管機構(gòu)方面進行合作。 “這樣人類可以享受AI帶來的繁榮未來,在這個過程中,收獲回報,設(shè)計監(jiān)管系統(tǒng),造福所有人,并給社會一個適應(yīng)的機會?!?/span> 然而OpenAI的首席執(zhí)行官山姆·阿爾特曼并沒有在這封信上簽名。 2023世界人工智能大會 核心觀點:AI是一把“雙刃劍”,具有控制人類的潛力。 標志事件:2023年7月6日,2023世界人工智能大會(WAIC)在上海開幕,埃隆·馬斯克以視頻方式“現(xiàn)身”,直言“相信中國會有很強的人工智能力”。同時馬斯克再度強調(diào),AI是一把“雙刃劍”,具有控制人類的潛力,提醒“人類要小心!” 馬斯克認為相比自動駕駛、特斯拉人形機器人等人工智能,通用人工智能(AGI, Artificial General Intelligence)有很大不同。 通用人工智能是一種計算機智能,它能比所有人類都聰明。我們需要有監(jiān)管措施來確保這些計算機都可以協(xié)同并有序工作,以成就一個單一的綜合的“超級智能” (ASI, Artificial Super Intelligence) 。 未來,“超級智能”將比人類更有能力,也同時存在著風(fēng)險。我們應(yīng)該盡一切可能,確保擔(dān)憂的事情不會發(fā)生,積極迎接未來的到來。 全球首屆人工智能安全峰會 核心觀點:AI有監(jiān)管是件好事情。 標志事件:2023年11月1日,全球首屆人工智能安全峰會在英國布萊奇利園舉行,與會28個國家和歐盟一致認為需要在全球范圍內(nèi)做出新的努力,以確保以安全和負責(zé)任的方式開發(fā)和使用AI。 11月2日,全球首屆人工智能安全峰發(fā)布《布萊奇利宣言》(Bletchley Declaration)。 人工智能安全峰會閉幕后不久,馬斯克與英國首相蘇納克進行了一場長達40分鐘的對談。 我們該如何應(yīng)對這一挑戰(zhàn)? 馬斯克關(guān)于AI可能失控、甚至威脅人類的言論究竟是未雨綢繆,還是杞人憂天?顯然,現(xiàn)階段這還是一個見仁見智的事情。 無論是充滿希望的未來還是存在的風(fēng)險,AI的崛起已勢不可擋。AI的時代已經(jīng)到來,我們唯有做好準備,迎接這個充滿無限可能的未來。 作為普通人,我們應(yīng)該如何應(yīng)對這一挑戰(zhàn)?這里給大家兩點建議: 1. 提高AI認知 每個人都應(yīng)該提升自己對于AI領(lǐng)域的認知。這些認知包括“AI是什么?”,“AI給我?guī)硎裁矗?/span>”,“我需要AI什么?” 2. 上手和AI打交道 認知提升后,每個人都應(yīng)該去親身體驗AI的威力。 首先是AI繪畫工具,Midjourney、Stable Diffusion、DALL-E。 更重要的是基于大語言模型的聊天式AI,有條件的可以直接嘗試ChatGPT。同時國內(nèi)基于GPT的聊天式AI也很成熟,比如百度的文心一言、騰訊的混元大模型,阿里的通義千問。 嘗試這些AI工具,結(jié)合自身的工作,認真研究,工作中哪些內(nèi)容是可以被替代的。 |
|
來自: 天承辦公室 > 《009科技風(fēng)險》