肯定有很多施瓦辛格的粉絲都看過(guò)《終結(jié)者》這部劇,在這部劇里面主要講述的一個(gè)內(nèi)容就是超級(jí)強(qiáng)大的人工智能機(jī)器人反噬人類的故事,就是終結(jié)者號(hào)機(jī)器人產(chǎn)生了自我意識(shí),差點(diǎn)把整個(gè)人類都滅絕。《終結(jié)者》系列不變的線索,永遠(yuǎn)是“終結(jié)者”與人類之間“追殺”和“保護(hù)”的故事。 有人希望擁有一個(gè)強(qiáng)大而忠實(shí)的人工智能守護(hù)者,也有人擔(dān)心人工智能成為人類的“終結(jié)者”那天遲早會(huì)到來(lái)。
那么,人工智能究竟會(huì)不會(huì)成為人類的“終結(jié)者”? 生物的進(jìn)化的速度要以百萬(wàn)年的時(shí)間來(lái)計(jì)算,而人工智能卻在以肉眼看得見(jiàn)的速度進(jìn)化,不斷給人類社會(huì)帶來(lái)沖擊。在前兩年的時(shí)候,人類制造的人工智能阿爾法狗已經(jīng)能夠在圍棋這個(gè)領(lǐng)域上戰(zhàn)勝世界第一的棋手柯潔。 1997年,“Deep Blue”(深藍(lán))打敗了人類國(guó)際象棋大師; 2011年在益智游戲節(jié)目《危險(xiǎn)邊緣》中,“Watson”(沃森)戰(zhàn)勝過(guò)人類冠軍。 現(xiàn)在我們?nèi)祟愐部梢郧宄恼J(rèn)識(shí)到,人工智能的力量確實(shí)是要比單純?nèi)祟惖牧α扛鼜?qiáng)大一些,可能在未來(lái),人工智能將會(huì)占據(jù)社會(huì)的主導(dǎo)地位,并不只是單純的為人類服務(wù),等他們真的產(chǎn)生了靈智,有可能就會(huì)征服人類,給他們服務(wù)。 在AI發(fā)展一片欣欣向榮的景象中,傳奇物理學(xué)家斯蒂芬·霍金卻對(duì)未來(lái)AI和人類的關(guān)系充滿了擔(dān)憂。他認(rèn)為AI可能是人類文明歷史中最糟糕的發(fā)明,擔(dān)心AI終將取代人類。他曾多次公開(kāi)表示:“徹底開(kāi)發(fā)人工智能可能導(dǎo)致人類滅亡”。
霍金在很久之前就曾經(jīng)告誡過(guò)人類。千萬(wàn)不要過(guò)度的發(fā)展人工智能,發(fā)展的太快對(duì)于人類沒(méi)有好處,很顯然,現(xiàn)在的人類早已經(jīng)忘記了霍金所說(shuō)過(guò)的話,也有可能是壓根不把霍金說(shuō)過(guò)的話當(dāng)回事,當(dāng)前也已經(jīng)可以看到在不少的國(guó)家都研究出來(lái)和人類比較相似的機(jī)器人,甚至可以和人類正常的交流,說(shuō)話的聲音和表情動(dòng)作也都不再那么生硬。 不僅是霍金,處于風(fēng)口浪尖的“鋼鐵俠”設(shè)計(jì)者埃隆·馬斯克以及微軟創(chuàng)始人比爾·蓋茨,也都警告過(guò)要注意AI的“危害”。MIT的教授以及幾名來(lái)自美國(guó)三大互聯(lián)網(wǎng)巨頭谷歌、IBM和微軟的企業(yè)員工等,也曾聯(lián)名寫過(guò)公開(kāi)信,表達(dá)AI未來(lái)會(huì)影響人類安全問(wèn)題和社會(huì)福利問(wèn)題的憂慮。 或許在未來(lái),人工智能真的可以毀滅人類世界,但也絕對(duì)不是這一兩百年能夠做到的事情,到時(shí)候我們?cè)缫呀?jīng)沒(méi)入黃土當(dāng)中,就算是機(jī)器人真的要統(tǒng)治人類,世界也是人類自己作的。 |
|
來(lái)自: 月下飛舞 > 《經(jīng)典美文》