小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

巨頭紛紛布局,AI是否即將威脅人類(lèi)生存?

 llvsh 2016-09-27
巨頭紛紛布局,AI是否即將威脅人類(lèi)生存?

【AI世代編者按】《麻省理工科技評(píng)論》近期刊登了艾倫人工智能研究所CEO、華盛頓大學(xué)計(jì)算機(jī)科學(xué)教授奧林·艾奇奧尼(Oren Etzioni)的文章,分析了超級(jí)人工智能出現(xiàn)的可能性。艾奇奧尼的研究結(jié)論是,超級(jí)智能在可預(yù)見(jiàn)的未來(lái)還不會(huì)出現(xiàn)。

《斯坦福大學(xué):2030年的人工智能與生活》最近的一份報(bào)告也探討過(guò)該話題,關(guān)注“AI世代”微信號(hào)(tencentAI),回復(fù)“斯坦福”,可獲取報(bào)告下載鏈接。

《麻省理工科技評(píng)論》中發(fā)表的文章與報(bào)告觀點(diǎn)基本類(lèi)似,以下為文章全文:

如果你了解過(guò)關(guān)于人工智能的各種觀點(diǎn),那么可能會(huì)非常擔(dān)心“超級(jí)智能”,或者說(shuō)“殺手人工智能”的出現(xiàn)。近期英國(guó)《衛(wèi)報(bào)》警告稱(chēng),“我們就像是在玩炸彈的小孩”,《新聞周刊》則指出“人工智能正在到來(lái),有可能徹底消滅我們”。

在伊隆·馬斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)等人觀點(diǎn)的支撐下,許多媒體都有過(guò)這樣的報(bào)道。實(shí)際上,這種觀點(diǎn)來(lái)自一個(gè)人的研究成果:英國(guó)教授尼克·博斯特羅姆(Nick Bostrom),哲學(xué)著作《超級(jí)智能:道路、危險(xiǎn)和策略》的作者。

博斯特羅姆是牛津大學(xué)哲學(xué)家,而對(duì)風(fēng)險(xiǎn)的量化評(píng)估則是保險(xiǎn)精算學(xué)的領(lǐng)域。他或許被認(rèn)為是全球首位“精算哲學(xué)家”??紤]到哲學(xué)是一種概念論證學(xué)科,而風(fēng)險(xiǎn)評(píng)估則是由數(shù)據(jù)驅(qū)動(dòng)的統(tǒng)計(jì)學(xué)工作,因此這樣的頭銜顯得很矛盾。

那么,數(shù)據(jù)告訴我們什么?2011年,作為希臘人工智能協(xié)會(huì)的成員,博斯特羅姆參加了在希臘塞薩洛尼基舉辦的“人工智能哲學(xué)和理論”大會(huì)。當(dāng)時(shí),他整理了4項(xiàng)調(diào)查的結(jié)果,并給出了人腦水平人工智能在不同時(shí)間點(diǎn)出現(xiàn)的可能性:

2022年:10%。

2040年:50%。

2075年:90%。

關(guān)于人腦水平人工智能的發(fā)展,博斯特羅姆撰寫(xiě)了一份300頁(yè)的哲學(xué)論證,而這4項(xiàng)調(diào)查是最主要的數(shù)據(jù)來(lái)源。

為了更準(zhǔn)確地評(píng)估行業(yè)領(lǐng)先研究者的意見(jiàn),我尋求了美國(guó)人工智能協(xié)會(huì)(AAAI)會(huì)士們的幫助。這些研究員對(duì)人工智能的研究做出了重要而持續(xù)的貢獻(xiàn)。

2016年3月初,AAAI幫我發(fā)出了一份匿名調(diào)查問(wèn)卷,向193名會(huì)士提出了以下問(wèn)題:“在他的書(shū)中,尼克·博斯特羅姆將超級(jí)智能定義為‘在各個(gè)實(shí)際領(lǐng)域,包括科學(xué)創(chuàng)造力、一般常識(shí)和社會(huì)技能等方面,比最出色人腦還要更聰明的智能’。你們認(rèn)為,我們何時(shí)將會(huì)看到超級(jí)智能?”

在隨后的一周多時(shí)間里,80名會(huì)士做出了回復(fù)(回復(fù)比例為41%)。他們的回復(fù)總結(jié)如下:

92.5%的受訪者認(rèn)為,在可預(yù)見(jiàn)的未來(lái)超級(jí)智能不會(huì)出現(xiàn)。這一觀點(diǎn)也得到了許多會(huì)士書(shū)面內(nèi)容的支持。

即使調(diào)查是匿名的,44名會(huì)士仍決定實(shí)名回復(fù)。這其中包括深度學(xué)習(xí)先驅(qū)吉奧夫·辛頓(Geoff Hinton)、來(lái)自斯坦福大學(xué)的圖靈獎(jiǎng)獲得者埃德·菲恩鮑姆(Ed Feigenbaum)、領(lǐng)先的機(jī)器人專(zhuān)家羅尼·布魯克斯(Rodney Brooks),以及谷歌(微博)的皮特·諾維格(Peter Norvig)。

受訪者也給出了更多看法,摘錄如下:

“可能還需要超過(guò)25年時(shí)間。更有可能還要幾個(gè)世紀(jì)。但不可能永遠(yuǎn)無(wú)法實(shí)現(xiàn)。”

“我們正在與人腦數(shù)百萬(wàn)年的進(jìn)化展開(kāi)競(jìng)爭(zhēng)。我們可以編寫(xiě)單一目的程序,匹敵人類(lèi),有時(shí)甚至勝過(guò)人類(lèi)。然而,世界并不是由多個(gè)單一問(wèn)題組成的。”

“尼克·博斯特羅姆是職業(yè)恐慌傳播者。他的研究所扮演的角色就是尋找人類(lèi)的現(xiàn)存威脅。他在各種地方都能看出威脅來(lái)。我傾向于將他稱(chēng)作人工智能領(lǐng)域的特朗普?!?/p>

這種調(diào)查的科學(xué)價(jià)值有限。問(wèn)題表述和受訪者的選擇都可能會(huì)對(duì)結(jié)果帶來(lái)影響。然而,這也是博斯特羅姆參考的一種數(shù)據(jù)來(lái)源。

另一種研究方法是根據(jù)人工智能當(dāng)前的發(fā)展去推斷未來(lái)的趨勢(shì)。然而這也很困難,因?yàn)槲覀冞€無(wú)法確定當(dāng)前人腦水平智能的量化指標(biāo)。我們已經(jīng)在象棋和圍棋等領(lǐng)域?qū)崿F(xiàn)了超級(jí)智能,但正如艾倫研究所的研究顯示,我們的程序在美國(guó)8年級(jí)科學(xué)考試中還無(wú)法及格。

關(guān)于人工智能我們有很多方面的擔(dān)心,無(wú)論是對(duì)就業(yè)崗位的影響,還是自動(dòng)化武器系統(tǒng),甚至超級(jí)智能的潛在風(fēng)險(xiǎn)。然而,當(dāng)前的數(shù)據(jù)并沒(méi)有表明,超級(jí)智能將在可預(yù)見(jiàn)的未來(lái)誕生。與此同時(shí),悲觀預(yù)測(cè)通常沒(méi)有看到人工智能給人類(lèi)帶來(lái)的幫助,例如預(yù)防醫(yī)療失誤和減少汽車(chē)事故。

此外,人類(lèi)未來(lái)有可能與人工智能系統(tǒng)合作,開(kāi)發(fā)出共生的超級(jí)智能。這將與博斯特羅姆設(shè)想的有害的超級(jí)智能存在很大不同。(編譯/李瑋)

推薦:關(guān)注“AI世代”微信號(hào)(tencentAI),回復(fù)“斯坦?!?,可獲取《斯坦福大學(xué):2030年的人工智能與生活》報(bào)告下載鏈接。


    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類(lèi)似文章 更多