說起人工智能(AI)和深度學(xué)習(xí)算法,一般人可能會覺得過于高深。的確,AI具體的設(shè)計(jì)和算法離普通日常生活很遙遠(yuǎn),但它們的應(yīng)用卻已經(jīng)逐漸地滲透到了我們的日常生活里,發(fā)展也相當(dāng)快。 我自己就有這方面的感觸。四年前,我用手機(jī)拍一些花花草草的時候,想要了解它們的名稱和有關(guān)植物學(xué)方面的知識,還要很費(fèi)勁地查閱植物百科圖鑒。今年初的時候,一款叫“形色”的拍照識花手機(jī)應(yīng)用上架,試用時我發(fā)現(xiàn),它的識辨速度很快,而且很準(zhǔn)確。類似的人臉識別領(lǐng)域的發(fā)展也是突飛猛進(jìn)有報(bào)道說才成立三年多的商湯科技(SenseTime),已經(jīng)迅速以45億美元的估值成為全球估值最高的人工智能創(chuàng)業(yè)公司。在更難一些的人工智能翻譯領(lǐng)域,微軟研究團(tuán)隊(duì)在今年3月也宣布,他們研發(fā)的機(jī)器翻譯系統(tǒng)在通用新聞報(bào)道的中-英翻譯測試上,達(dá)到了人工翻譯水平。 這些發(fā)展迅速,達(dá)到或超過某種人類智能水平的人工智能商業(yè)化應(yīng)用,目前來看還主要集中在某一特定的領(lǐng)域,被稱為功能性/狹義人工智能的開發(fā)和應(yīng)用,其概念很容易被一般人和通用人工智能(AGI)搞混。前不久 “鋼鐵俠”馬斯克在推特上懟哈佛大學(xué)教授斯蒂芬.平克就是一個活生生的例子。 通用人工智能(AGI),簡單說就是在完成認(rèn)知性任務(wù)方面至少可以和人類智能媲美的人工智能。和只能完成某種特定功能(比如圖像識別、翻譯)的狹義人工智能(AI)相比,它涉及的領(lǐng)域更寬泛,是一種能夠類比人類智能,甚至能超越人類智能的超級智能。 麥克斯.泰格瑪克 麻省理工大學(xué)物理學(xué)教授和生命未來研究院院長麥克斯.泰格瑪克的這本新書《生命3.0》,系統(tǒng)講述了通用人工智能(AGI)發(fā)展會給人類未來帶來什么樣的挑戰(zhàn)問題。在各大國紛紛制定戰(zhàn)略規(guī)劃,投入巨大財(cái)力和人力搞AI研發(fā)的當(dāng)下,通過閱讀這本書,幫助我們看清楚一些涉及人類自身未來發(fā)展的根本性問題,可謂正當(dāng)其時。 在思考通用人工智能對人類的影響時,泰格瑪克把問題放在生命進(jìn)化的大歷史來考量,提出了生命3.0的概念。簡而言之,如果用硬件、軟件這種術(shù)語來描述生命演化進(jìn)程的話,生物性的1.0階段是生命在軟件和硬件方面都在自然演化的階段;進(jìn)入文化性的2.0階段,生命可以通過學(xué)習(xí)設(shè)計(jì)軟件,不斷擴(kuò)展認(rèn)知;而到了技術(shù)性的3.0階段,生命就可以設(shè)計(jì)自己的硬件,主動塑造自己的進(jìn)化歷程。 《超驗(yàn)駭客》(Transcendence)中德普飾演的男主Will 這是什么樣的一種圖景?也許可以從2014年的科幻電影《超驗(yàn)駭客》(Transcendence)看出一些端倪。影片中,德普主演的男主臨死前在女朋友幫助下,把自己的意識上傳到量子計(jì)算機(jī),沒多久就形成了一個超級人工通用智能,認(rèn)知水平迅速超過了人類。在他(它?)的幫助治療下,很多身體有缺陷或者頻死的人,不但完全恢復(fù)正常,體能還獲得超乎尋常的增長。更絕的是,這些人的頭腦意識能夠和超級人工智能互相連接,形成一個超強(qiáng)大腦。電影里,人類感到自身存在受到嚴(yán)重威脅,就采用病毒入侵的方式,消滅了這個超級人工智能。這樣做的后果是,保證人類社會正常運(yùn)作的各種強(qiáng)電弱電系統(tǒng)不得不停擺,需要很長時間才能重新恢復(fù)。 泰格瑪克在書里專門提到了這部電影,并認(rèn)為意識上傳和人機(jī)共生的賽博(cyborgs)是實(shí)現(xiàn)超級人工智能的可能途徑,但也許并非最快的途徑。 為什么? 他打了一個很生動的比方。以飛機(jī)的發(fā)明和制造為例,飛機(jī)并不是人類模仿生物意義上飛鳥的飛行原理造出的,實(shí)際上要讓模仿飛鳥的機(jī)器鳥飛上天相當(dāng)困難。同樣,通用人工智能的研發(fā)路徑,也不一定非要完全受限于模仿人腦神經(jīng)元的工作原理。 近幾年隨著機(jī)器深度學(xué)習(xí)算法的研發(fā)深入,AI的進(jìn)展速度大大超出了人們的預(yù)期,特別是在機(jī)器阿爾法狗擊敗人類圍棋領(lǐng)域的最強(qiáng)高手后,有關(guān)超級機(jī)器智能會對人類的未來產(chǎn)生什么影響不再是一個看起來很遙遠(yuǎn)的話題。 有關(guān)這方面的探討,較早前有凱文.凱莉的失控論(1995)和雷.庫茲韋爾的奇點(diǎn)臨近論(2006),比較近的有尼克.波斯特羅姆在《超級智能》(2014)所描述的人類未來啟示錄。 人工智能領(lǐng)域的專家學(xué)者對這個問題的看法并不統(tǒng)一。按泰格瑪克的總結(jié),大致可以分成三大派:一是技術(shù)懷疑派——認(rèn)為建造超級人工通用智能(Superhuman AGI)難度不可想像,在可預(yù)見的未來幾百年里都不可能,所以擔(dān)憂生命3.0的出現(xiàn)完全沒必要;二是數(shù)字烏托邦派——看好本世紀(jì)出現(xiàn)生命3.0的可能,并積極擁抱這樣的前景,認(rèn)為這是宇宙演化進(jìn)程中自然的、值得期許的一步;三是有益AI運(yùn)動——認(rèn)為本世紀(jì)有可能出現(xiàn)生命3.0,但不能想當(dāng)然地假設(shè)它必然會有利于人類的生存和發(fā)展;要讓它可控的話,需要在人工智能安全研究上下大功夫。 泰格瑪克認(rèn)為,如果人工智能持續(xù)發(fā)展的話,那么遠(yuǎn)在達(dá)到人類智能水平之前,AI就會提供很多讓人驚嘆的機(jī)會,同時也會提出很多涉及病毒、法律、武器和工作等方面的挑戰(zhàn)。 最近鬧得沸沸揚(yáng)揚(yáng)的臉書個人數(shù)據(jù)泄漏丑聞就是一個警示。前不久發(fā)生的3100多名谷歌員工要求讓谷歌退出美國國防部Maven計(jì)劃,以及因涉及武器開發(fā),全球50多名人工智能和機(jī)器人研發(fā)人員宣布抵制與韓國科學(xué)技術(shù)院大學(xué)的合作等事件,也是業(yè)界人員出于對人工智能在自動武器研發(fā)方面的顧慮而采取的行動。 對人工智能控制的武器系統(tǒng)來說,泰格瑪克指出改善魯棒性的要求尤其關(guān)鍵,因?yàn)橐坏┏鰡栴},后果不堪設(shè)想。實(shí)際上,很多頂尖的人工智能研究者和機(jī)器人專家都呼吁簽署禁止開發(fā)運(yùn)用某些自動武器的國際公約,避免軍備競賽失控。不過,這方面的聲音似乎還沒進(jìn)入公眾的視線。 在《生命3.0》中,泰格瑪克坦誠自己是個謹(jǐn)慎的樂觀派,他本人也是有益AI運(yùn)動的發(fā)起人之一。在書末,他用專門的一章講述了牽頭組織人工智能研究領(lǐng)域在學(xué)界和商界的精英,共同協(xié)商討論制定阿西洛馬人工智能原則(The Asilomar AI Principles)的過程。 這本書最精彩的、也是最有見地的部分,是泰格瑪克對人工智能出現(xiàn)爆發(fā)式增長后,社會形態(tài)會出現(xiàn)什么樣變化的預(yù)測性描述。按他的說法,假如有一天達(dá)到人類智識智識水平的人工通用智能(AGI)成功實(shí)現(xiàn)的話,將會引發(fā)智能的爆發(fā)式增長,把人類遠(yuǎn)遠(yuǎn)拋在后面。 如果一群人設(shè)法控制住智能爆發(fā)的話,他們有可能在短短幾年內(nèi)接管全世界。如果做不到這一點(diǎn)的話,人工智能本身會在更短地時間內(nèi)接管世界??焖俚闹悄鼙l(fā)有可能導(dǎo)致一個單極化的世界,但持續(xù)幾年甚至幾十年的智能爆發(fā)則更有可能形成一個多極化的、力量均衡的世界。從自由或者平等的烏托邦、到仁慈的獨(dú)裁者、守門人等,泰格瑪克列出了12種可能的未來場景。 泰格瑪克認(rèn)為,目前在通用人工智能(AGI)領(lǐng)域的競賽,可能會對人類造成史上最好,但也可能最壞的結(jié)果。在最好和最壞之間,有很多種可能性。超級智能可以和人類和平共處,要么因?yàn)樗黄冗@樣做,要么因?yàn)椤坝押谩钡乃敢膺@樣做。通過設(shè)計(jì)作為看門人角色的人工智能,或者通過人類本身的刻意集體行為來防止超級智能的出現(xiàn),比如通過故意忽略技術(shù),或者刻意不往這個方向做技術(shù)研發(fā)等,也是避免出現(xiàn)壞結(jié)果的可能路徑。凡此種種,我們需要認(rèn)真思考哪種結(jié)果是我們想要的,如何才能讓它的發(fā)展和我們想要的目標(biāo)保持一致,這是通用人工智能研發(fā)中最大的難題。 按作者的觀點(diǎn),在我們不斷制造幫我們完成各種目標(biāo)的智能機(jī)器,并努力讓這些機(jī)器的目標(biāo)和我們的目標(biāo)保持一致的時候,需要解決三個問題:讓機(jī)器學(xué)習(xí)我們?nèi)祟惖哪繕?biāo),采用人類的目標(biāo)并能夠保持它們。然而,因?yàn)槿魏芜_(dá)到人類水平的通用人工智能目標(biāo)都包含自我生存、資源獲取、以及更好理解世界的好奇心等這些子目標(biāo),超級人工智能的前兩種子目標(biāo)很可能會給人類造成問題,而最后一個有可能讓超級人工智能無法保持我們給它定下的目標(biāo)。 此外,目前也不清楚如何把人類擁有的普世倫理道德,運(yùn)用到未來的超級人工智能上,也不清楚如何給超級人工智能灌輸人類的最終目標(biāo),從而避免出現(xiàn)人類消亡的可能。泰格瑪克稱,這種棘手的問題需要哲學(xué)家的出場來解答。問題是,哲學(xué)家們做好這個準(zhǔn)備了嗎?即便是的話,逐漸走向狂熱的開發(fā)競爭,是否能讓政策的制定者們有足夠的耐心來聆聽他們的聲音? 繞來繞去,又回到了威爾遜提出的知識大融通和人類意向性進(jìn)化的問題上。看起來,要做到知識的大融通,人類可以借助機(jī)器深度學(xué)習(xí)之力。很顯然,生命3.0的意識會和生命2.0的大不一樣。泰格瑪克指出,如果通用人工智能意識出現(xiàn)的話,它的體驗(yàn)空間會大大超過人類能體驗(yàn)到的空間,無論是在感受性(qualia),還是在時間尺度上都非常巨大,生命會從地球文明躍升到星際文明。 有意思的是,泰格瑪克還提出,當(dāng)我們?nèi)祟愖龊迷诟斆鞯臋C(jī)器面前低頭的準(zhǔn)備時,我們要告別“智人”(Homo sapiens)的身份,以“有情人”(Homo sentiens)的身份出場。這真是一個很有想像力想像力的看法,和赫拉利在《未來簡史》中提出的智人進(jìn)化為神人(Homo deus)的提法有異曲同工之處。 |
|