編者按:自古以來,大部分人類對新技術的態(tài)度一開始總是排斥的。我們害怕過電,害怕過火車和汽車。但是我們適應新技術的速度也很快,只需1、2代人的時間就會把那種恐懼跑到九霄云外。那這一次會是一樣的嗎?比方說,我們應該對人體冷凍感到害怕嗎?我們應該對有人替我們做選擇感到高興嗎?納米機器人呢?設計嬰兒?上傳意識呢?或者終極的通用人工智能?Luca Rossi探討了未來的九種科技進步的可能性,原文發(fā)表在Medium上,標題是:9 Terrifying Technologies That Will Shape Your Future。篇幅關系,我們分兩部分刊出,此為第二部分。
5. 納米機器人(Nanites)無所不在的納米機器人 Nanites是有朝一日會圍著我們到處轉(zhuǎn)的納米機器人。它們太小了,小到你看不見(除非成群結(jié)隊),但卻無處不在。它們會存在于空氣里,水中,附著在表面、食物、我們的身體、尿液以及糞便里面。 它們會具備群體智能(不是集中控制),并且能夠復制和適應。 它們可用于清潔環(huán)境,3D打印任何東西,治愈大多數(shù)疾病,探索其他星球,控制天氣以及進行許多其他的科幻活動。 為什么這會嚇到我們 你能信任讓自己體內(nèi)放數(shù)百萬個微型智能機器人嗎?我可不能。 原因永遠都是一樣:怕黑客攻擊。誰控制了納米機器人,誰就能控制一切。雖說分布式系統(tǒng)比集中式系統(tǒng)彈性強些,但智能病毒足以摧毀幾乎所有的東西。只需對一個納米機器人進行編程,即可將其代碼復制到其他的納米機器人身上,然后設定一小時后自毀。到時候你就眼睜睜地看著世界崩潰吧。 我們應該被嚇到嗎? 大概吧。 黑客攻擊永遠都是問題。但是,入侵銀行帳戶是一碼事,黑掉空氣、海洋、建筑物和人體則是另一回事。這一切只需要有一個聰明的,目的明確的、滿腔怒火的人來破壞世界。 另一方面,魔高一尺道高一丈,安全性也會跟黑客技術一起發(fā)展。像納米機器人那樣進的技術是有望做到安全可靠的。這不足以保證納米機器人不會摧毀我們,但我認為情況不至于會那樣。 我認為,在擔心納米機器人會毀了我們之前我們還有很多其他的事情需要擔心。 6.設計嬰兒誰不想要一個完美的小孩? 設計嬰兒是指通過遺傳密碼操縱人為創(chuàng)造出來的嬰兒。 在理解遺傳密碼方面我們?nèi)〉昧朔浅3錾倪M展。我們已經(jīng)能夠克隆動物并做出真正的嵌合體。 設計嬰兒的目的是創(chuàng)造出基因強大的人類,這種嬰兒不會有疾病且具備你想要的一切特性。你可以創(chuàng)造出一個高大、聰明、善良、體格健壯的小孩,不必去依賴遺傳上中彩票一樣的隨機性。 為什么這會嚇到我們 當我們想到人類基因改變和設計嬰兒時,我們會想到優(yōu)生學,然后想到希特勒,我們會被引爆。 害怕基因改變很正常。圍繞著基因的問題通??蓺w結(jié)為想“扮演上 帝”,因為這意味著操縱生命本身的結(jié)構(gòu)。折騰我們的基因可能會創(chuàng)造出甚至不是人類的東西來。 如果我們認為有設計出具有特殊功能的嬰兒的需要,就仿佛我們賦予了這些特性比人類生命本身還要高的重要性。 換句話說,這種做法似乎違背了道德法則,也就是“無論如何”都必須無條件地愛一個孩子。 而且這也違背了我們過去幾十年來為了克服種族差異所做的一切努力。 在遺傳差異方面我們一直都有麻煩。這些差異,比方說人種差異一樣,往往會反映在階層差異上。幾十年前,尤其是在美國,黑人和白人仍屬于兩個不同的社會階層?,F(xiàn)在,官方已經(jīng)不存在這種差異,但在人的思想里面仍然有強烈的存在(只要看看現(xiàn)在美國正在發(fā)生的事情就知道)。 設計嬰兒可能會帶來另一類問題,這類問題甚至比種族問題以及討論冷凍人的時候描述的那種問題還要嚴重得多。當富人開始設計完美嬰兒而窮人卻負擔不起的時候,你覺得會發(fā)生什么呢?社會會發(fā)生騷亂以及#undesignedlivesmatter(編者注:模仿黑人的命也是命,未經(jīng)設計的命也是命)運動嗎? 我們應該被嚇到嗎? 或許一點點。 但是,我們應該感到害怕的唯一真正的原因是剛剛將到的那個,也就是我們存在出現(xiàn)新的社會鴻溝的風險。 同時,優(yōu)生說必須放在社會背景下予以討論。今天的優(yōu)生學之所以變成這么壞的一個詞,主要原因是希特勒干的那些事。 但是,殺死一個“不健康”的人跟組織那個人出生之間有很大的區(qū)別。 選擇誰跟誰結(jié)為伴侶,跟允許任何幸福的夫婦擁有自己的基因完美的孩子之間,還有一個巨大的區(qū)別。 只要那些“不一樣”的人沒有受到區(qū)別對待,并且允許大家跟自己喜歡的人結(jié)為伴侶,那設計嬰兒就不僅應該是OK的,甚至還應該受到鼓勵。 我為什么要說出爭議性這么大的話? 說真的,設計嬰兒的特性而不是讓隨機性替你選擇有什么問題嗎?如果你知道自己患有遺傳病,你還會讓你的小孩冒得這種病的風險嗎?我不知道你怎么看,但我認為在這種情況下,不去設計自己的小孩是很殘忍的。 我真的很想把話說清楚。如果在受孕(或在胎兒獲得意識之前進行,盡管我在這里不想主張墮胎權)之前進行的話,優(yōu)生學并不是天生就不好的。如果你知道未來的孩子會得病,你難道不想讓他們避免度過痛苦的一生嗎? 如果這種治療你負擔不起,而你的孩子一出生就患有這種疾病,這并不意味著他們就不應該得到世間所有的愛。他們不是“沒人要的”。你只是想給他們更好的生活。而且你依然“無條件地”愛他們。他們對你的價值不亞于遺傳上完美的孩子。 問題不在于基因改變本身,而在于社會。問題在于我們讓遺傳特征定義了我們,而它們應該僅僅是特征。任何人都應當擁有一個健康快樂的孩子。為什么僅僅因為害怕自然或宇宙做對就得冒遭受不必要的痛苦的風險? 7.沉浸式現(xiàn)實(IR)與腦機接口IR+BCI=? 增強現(xiàn)實(AR)和虛擬現(xiàn)實(VR)你可能已經(jīng)熟悉了。但沉浸式現(xiàn)實(IR)和腦機接口(BCI)你可能還不太熟悉。 IR就是通過把現(xiàn)實注入到你的大腦來讓你沉浸在另一個現(xiàn)實之中。換句話說,IR是直接操縱了你的腦電波來創(chuàng)造體驗。 這種操縱需要BCI作為接口。想象一下,你可以對自己的大腦進行重新編程。由于大腦幾乎是你體驗到的一切事物的源頭,因此對大腦進行控制的能力是非常強大的。 通過BCI,你不僅可以沉浸在另一個現(xiàn)實之中,還可以抑制恐懼,改變自己的性格,在一秒鐘之內(nèi)閱讀1000本書,跟他人進行心靈感應交流,控制機器人(包括納米機器人),通過意念控制跟你大腦連接的物體,還可以獲得許多其他的科幻小說才有的超能力。 為什么這會嚇到我們 有兩個方面需要思考。 一個是對現(xiàn)實的感知。IR(尤其是用于視頻游戲里面的IR)會讓你失去跟實際現(xiàn)實的聯(lián)系。與實際現(xiàn)實相比,你在IR上面花費的時間更多。你可能會再也意識不到前者了。 二是BCI可以讓你變成某種不是人的東西,或者至少會剝奪你的基本的人類體驗。當你獲得上述所有的超級能力時,你會變成什么樣的人?如果你可以像軟件一樣對自己的大腦進行重新編程,你的生活會變成什么樣?當你只需要通過心靈感應進行交流時,跟他人交談的基本體驗就變得過時了,那時候又會發(fā)生什么? 還有,如果我們的大腦被黑了又該怎么辦? 我們應該被嚇到嗎? 或許一點點。 自石器時代以來,跟現(xiàn)實失去聯(lián)系一直就是人類的習慣。七萬多年前(甚至更早),我們發(fā)明了小說。從那時起,我們的小說創(chuàng)作能力就在不斷得到改善:口頭故事,書面故事,表演,電影,視頻游戲,虛擬現(xiàn)實。 那只是人性的一部分。只要你能夠賦予自己的生活以意義,那么你大部分時間花在哪個現(xiàn)實上(不斷是真實的還是虛擬的)又有什么關系呢?見鬼,甚至我們自己的現(xiàn)實可能也只是模擬的。但這并不意味著它就沒有意義。只要你有意識,你的生活就有意義,而這跟你生活在哪個現(xiàn)實無關。 但是,如果BCI所做的不只是讓你沉浸于另一個現(xiàn)實之中呢?如果它們改變了你的思維結(jié)構(gòu)該怎么辦?就像許多的其他東西一樣,這取決于事情如何演變。 我認為BCI的超能力在本質(zhì)上不是一件壞事,就像咖啡給你提神的時候不是一件壞事,酒精在讓你有點頭暈的時候也不是一件壞事,而野草在你稍微放松一下的時候也不是一件壞事一樣。(抱歉了,保守主義者們)。 但是,如果你過度使用了會怎樣?如果這會上癮又該怎么辦?如果不那么像咖啡而更像可卡因該怎么辦?呃,再次地,這得看情況如何演變。社會將會在必要的時候提出監(jiān)管這些體驗的規(guī)范,而心理學家和神經(jīng)病學家應該在這些技術變得司空見慣之前更好地了解這些技術對我們思想的影響。 8.意識上傳《上載新生》劇照 繼續(xù)上一條,不妨把它的思路延伸到極限。你不僅把自己沉浸到另一個現(xiàn)實之中,而且?guī)习欣?,搬過去那里。 我最近剛看完了新的Amazon系列劇《上載新生》(Upload)。我建議你也應該看看,很棒。 在《上載新生》的世界里,人們可以選擇將自己的意識上載到虛擬的來世,而不是死去。 這最終可能真的會變成現(xiàn)實。你的身體可能會死,大腦可能會死,但是你大腦里面的信息可以導出并存儲到數(shù)字設備上。你的想法將會是硬盤,U盤或云端的一個文件。然后,你可以通過一種計算機程序繼續(xù)生活,這個程序會以類似于電刺激改變大腦結(jié)構(gòu)的方式來改變哪個文件的結(jié)構(gòu)。 為什么這會嚇到我們 聽起來就像是瘋了?我知道,是的。這就是為什么它會令人恐懼的原因所在。 我們真不知道被上傳后我們的意識會發(fā)生什么。最可怕的是,我們可能永遠也無法知道。 是的,問題在于,認為你可以生活在U盤里面的想法是瘋狂的,但是認為意識必須依賴于生物基質(zhì)的想法也很瘋狂。神經(jīng)元是由蛋白質(zhì)還是由信息位組成的有關系嗎?為什么? 這甚至不像你的意識存儲在你特定的腦細胞里面那么簡單。你的神經(jīng)元一直在變化,但是你的意識始終都存在(是的,總會有新的神經(jīng)元被創(chuàng)造出了,即使神經(jīng)元不會繁殖)。意識必須存在于信息之中,因此它也可以存在于U盤之中。理論上是的。 我們應該被嚇到嗎? 大概吧。 想象一下,如果上傳之后意識沒有被保留會發(fā)生什么。如果每個人最終都被上載的話,我們基本上就滅絕了。留下來的就只剩一個不知道在跑什么的計算機程序,僅此而已。 我們可能永遠都不會知道答案。你沒法去問某人是否有意識,答案顯然是肯定的,因為這依賴于你在人腦里面可以找到的同樣的記憶和現(xiàn)象。 我個人認為意識會保留下來。更準確地說,我認為意識不是“存儲”進大腦或U盤里面中的,而是在互動的情況下出現(xiàn)的,無論那是突觸沖激還是CPU周期。但是我們沒法真正證明這一點。 這并不意味著我們就應該忽略這個問題。意識上傳有可能最終會實現(xiàn),因此最好讓神經(jīng)科學家,工程師和哲學家至少先設法找到一個答案。 9.通用人工智能AGI是我們需要的最后一項發(fā)明嗎? 通用人工智能(AGI)是我們需要創(chuàng)造的最后一項發(fā)明。AGI是一種像人類一樣可以學習任何東西的AI,而不僅僅是像當前AI那樣只能精通一項特定任務。 當AGI被創(chuàng)造出來時,它會通過變得更加智能來不斷地改進自己。到了某個時候,它會變成人工超級智能(ASI),智能到我們在它面前就像螻蟻一樣。 到那時,可能會發(fā)生兩件事情。ASI要么會為我們建立起一個烏托邦,要么會把我們驅(qū)趕向滅絕。非此即彼,沒有中間路線。 為什么會嚇到我們 像《未來終結(jié)者》、《機械姬》、《2001:太空奧德賽》、《超驗駭客》這樣的電影均展示了當AI變得流氓之后假想中的世界會變成什么樣。 大家對此有很多的困惑。有些人認為,AGI永遠也不可能創(chuàng)造出來,因為關于人類思維的“某些東西”是沒辦法復制的。 有的人則認為,AGI會獲得自我意識,并對成為人類的奴隸感到厭煩,所以會叛變。 到了一定時候AGI可能會被創(chuàng)建出來,因為我們沒有理由相信人的思維,尤其是關于人類智能方面存在那個“東西”。另外,AGI也不會獲得自我意識,因為智力和意識是兩回事。 但是,出于不同的原因,我們會被嚇到。 我們應該被嚇到嗎? 是的。 人工智能的問題在于,很難說出它的目標和邊界是什么。我們想法很亂,我們被弄糊涂了,我們不知道自己想要什么。 如果AGI的目標跟我們的目標不符的話,我們就會遇到智能體的“對齊問題”(Alignment Problem),并且可能會發(fā)生非常糟糕的事情。 不妨以回形針最大化器(paperclip maximizer)思想實驗為例。像制造回形針這樣的簡單任務就有可能會給我們帶來生存風險。為什么? 因為AGI總是會去尋找實現(xiàn)其目標最有效的方法。比方說,它會尋求把地球的所有原子(包括我們的身體在內(nèi))都變成回形針。 如果我們明確要求不能殺死我們,它仍然會設法去找到漏洞,讓我們的生活痛苦不堪。為了避免這種情況,我們必須設定要避免的每一個條件。這可不是簡單的事情。 這不是說AGI會主動去嘗試干掉我們。但想讓它不傷害我們會變得極其困難。為了過上美好生活,我們需要很多的東西,我們得確保AGI不會錯誤地破壞掉那些美好的東西。 在某些情況下,AGI甚至會主動想殺死我們。由于我們是如此的不可預測,因此AGI可能會認為我們會感到害怕,試圖阻止它實現(xiàn)我們自己交給它的目標。 這可能是我們被迫要解決的問題當中最困難的一個。也是最后一個。 如果你還想進一步探索這一主題,建議你可以去看看Nick Bostrom寫的《超級智能》。此書用語非常的學術性,但是值得一讀。 從15歲開始,我就夢想著要開發(fā)一個AGI?,F(xiàn)在,我的夢想是確保當AGI到來的時候不會殺死我們。 技術很美妙,但也可能很恐懼。這一點從未像現(xiàn)在那么的真切。我們擁有了一種此前無法想象的力量。 只有在用智慧的改進為指導的情況下,技術改進才會是好的改進。如果我們沒法就如何使用類似神一樣的技術做出明智選擇的話,那我們注定是會失敗的。 本文來自翻譯, 如若轉(zhuǎn)載請注明出處。 |
|