小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

霍金最新演講(完整視頻)

 心靜如水D 2017-05-08

作為“全世界最具智慧的頭腦”,劍橋大學物理學家斯蒂芬·威廉·霍金教授在前沿科技領域的探索和思考從未止步4月初,長城會創(chuàng)始人兼董事長文廚和長城會CEO郝義親赴英國與霍金教授探討科學復興,人工智能等相關議題?;艚鸾淌趯iT為GMIC北京2017大會做了主題為“ 讓人工智能造福人類及其賴以生存的家園”的視頻演講,并回答了中國科技大咖,科學家,投資家和網(wǎng)友的8個問題。

指導人工受益人類與環(huán)境

“讓人工智能造福人類及其賴以生存的家園”

 

演講全文如下

在我一生中,我看到非常重要的社會變化??赡苁亲钪匾囊粋€,越來越關心人們的是人造智能的興起。簡而言之,我相信強大的AI的崛起將是人類最好的事情,也可能是最壞的事情。我現(xiàn)在不得不說,我們還不知道哪個。但我們應該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我看到AI的發(fā)展,作為一個趨勢,我們知道自己的問題必須在現(xiàn)在和未來處理。

在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。是好是壞,我不得不說,我們依然不能確定。但我們應該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我認為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。

人工智能研究與開發(fā)進展迅速。也許我們應該停下來一會兒,集中我們的研究,不僅要使AI更有能力,而且要最大化社會效益。這樣的考慮激發(fā)了美國人工智能協(xié)會,兩千八千二千九十個長期AI期貨總裁小組,最近主要集中在技術上,在目的上是中立的。但是我們的AI系統(tǒng)必須做我們想要的工作??鐚W科研究可以向前發(fā)展:從經(jīng)濟學,法律學,哲學學到計算機安全,正式方法,以及大學本身的各個分支。

人工智能的研究與開發(fā)正在迅速推進。也許科學研究應該暫停片刻,從而使研究重點從提升人工智能能力轉移到最大化人工智能的社會效益上面?;谶@樣的考慮,美國人工智能協(xié)會(AAAI)于2008至2009年,成立了人工智能長期未來總籌論壇[原文:PresidentialPanel on Long-term AI Futures],他們近期在目的導向的中性技術上投入了大量的關注。但我們的人工智能系統(tǒng)的原則依然須要按照我們的意志工作跨學科研究可能是一條可能的前進道路:從經(jīng)濟,法律,哲學延伸至計算機安全,形式化方法,當然還有人工智能本身的各個分支。

文明所提供的一切都是人類智慧的產(chǎn)物,我相信生物大腦可以實現(xiàn)什么和計算機可以實現(xiàn)的內(nèi)容之間沒有真正的區(qū)別。因此,計算機在理論上可以模仿人的智力,超越它。但是我們不知道。所以我們不知道我們將會被AI無限的幫助,或者忽略它,并且被排列在旁邊,或者可以被它所毀滅。事實上,我們擔心,聰明的機器將能夠進行人類目前的工作,并迅速銷毀數(shù)以百萬計的工作。

文明所提產(chǎn)生的一切都是人類智能的產(chǎn)物,我相信生物大腦總有一天會達到計算機可以達到的程度,沒有本質區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。

雖然迄今為止開發(fā)的原始形式的人造智能已被證明是非常有用的,但我擔心創(chuàng)造可以匹配或超越人類的東西的后果。人工智能將自行起飛,并以不斷增加的速度重新設計自己。受生物進化緩慢限制的人不能競爭,而是被取代。這將給我們的經(jīng)濟帶來很大的破壞。未來,人大可以發(fā)展自己的意志,意志與我們相沖突。雖然我以人為本的知名度樂觀主義者,但還有人認為,人類可以長時間地掌握技術水平,而AI解決世界上許多問題的潛力也將會實現(xiàn)。我不太確定

在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,我也在擔憂這樣這個結果,即創(chuàng)造一個可以等同或超越人類的智能的人工智能:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設計自身。人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟帶來極大的破壞。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。很多人認為人類可以在相當長的時間里控制技術的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定。盡管我對人類一貫持有樂觀的態(tài)度。

2015年1月,我與科技企業(yè)家Elon Musk和許多其他AI專家簽署了人造智能公開信,要求對其對社會的影響進行認真的研究。過去,on Mus k已經(jīng)警告說,超級人造智能是可以提供可計算的利益的,但如果謹慎地部署,會對人類造成不利影響。他和我,坐在生命研究所未來的科學觀察委員會,這是一個致力于減輕人類面臨的存在風險的組織,并起草了公開信。這就要求對如何預防潛在問題進行具體研究,同時也能獲得AI為我們提供的潛在利益,并且旨在使AI研究人員和開發(fā)人員更加重視人身安全。此外,對于政策制定者和公眾來說,這封信是為了提供信息,而不是危言聳聽。我們認為非常重要的是,大家都知道,AI研究人員正在認真思考這些問題和倫理問題。例如,AI有潛力消除疾病和貧困,但研究人員必須努力創(chuàng)造可以控制的AI。標題為“Robustand Beneficial Artificial Intelligence”的公開信的研究重點的四段字母在附帶的十二頁文件中列出了詳細的研究重點。

2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認真的調研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當,則可能給人類帶來相反的效果我和他同在“生命未來研究所”擔任科學顧問委員會的職務,這是一個旨在緩解人類所面臨的存在風險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召展開可以阻止?jié)撛趩栴}的直接研究,同時也收獲人工智能帶給我們的潛在利益,同時致力于讓人工智能的研發(fā)人員更關注人工智能安全。此外,對于決策者和普通大眾來說,這封公開信內(nèi)容翔實,并非危言聳聽。人人都知道人工智能研究人員們在認真思索這些擔心和倫理問題,們認為這一點非常重要。比如,人工智能具有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng)造出可控的人工智能。那封只有四段文字,題目為“應優(yōu)先研究強大而有益的人工智能“的公開信,在其附帶的十二頁文件中對研究的優(yōu)先次序作了詳細的安排。

在過去20年左右的時間里,AI一直專注于智能代理商的建設問題,在某些環(huán)境中感知和采取行動的系統(tǒng)。在這種情況下,情報與理性統(tǒng)計和經(jīng)濟概念有關。俗話說,能做出好的決策,計劃或推論。由于最近的這項工作,AI,機器學習,統(tǒng)計學,控制理論,神經(jīng)科學等領域的整合和交叉程度很大。建立共享的理論框架,結合數(shù)據(jù)和處理能力的可用性,在語音識別,圖像分類,自主車輛,機器翻譯,有腿運動和問答系統(tǒng)等方面取得了顯著的成就。

在過去的20年或更長時間里,人工智能一直專注于建設智能代理所產(chǎn)生的問題,即在特定環(huán)境下可以感知并行動的各種系統(tǒng)。在這種情況下,智能是一個與統(tǒng)計學和經(jīng)濟學相關的理性概念。通俗地講,這是一種做出好的決定,計劃和推論的能力?;谶@些工作,大量的整合和交叉孕育被應用在人工智能,機器學習,統(tǒng)計學,控制論,神經(jīng)科學,以及其它領域。共享理論框架的建立,結合數(shù)據(jù)的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別,圖像分類,自動駕駛,機器翻譯,步態(tài)運動和問答系統(tǒng)。

隨著這些領域和其他領域的發(fā)展,從實驗室研究轉向經(jīng)濟上有價值的技術,一個良性循環(huán)演變,即使在性能上的小幅改善也值得大量資金,從而進一步加大對研究的投入?,F(xiàn)在人們廣泛的共識是,人工智能研究正在穩(wěn)步前進,對社會的影響可能會增加。潛在的好處是巨大的,因為文明所提供的一切都是人類智慧的產(chǎn)物; 我們無法預測我們可能會實現(xiàn)什么,當這種情報被AI可以提供的工具放大時。但是,正如我所說,消除疾病和貧窮是不可估量的。由于AI的巨大潛力,重要的是研究如何獲得收益,同時避免潛在的陷阱。

隨著這些領域的發(fā)展,從實驗室研究到有經(jīng)濟價值的技術形成良性循環(huán)。哪怕很小的性能改進,都會帶來巨大的經(jīng)濟效益,進而鼓勵更長期,更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩(wěn)步發(fā)展,而它對社會的影響很可能擴大,潛在的好處是巨大的,甚至文明所產(chǎn)生的一切,都可能是人類智能的產(chǎn)物;但我們無法預測我們可能取得什么成果,這種成果可能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風險是非常重要的。

人工智能研究正在迅速發(fā)展。這項研究可以作為短期和長期的討論。一些短期的問題涉及到民用無人機和自駕車的自主車輛。例如,自駕車可能在緊急情況下必須決定發(fā)生重大事故的小風險和小事故的可能性很大。其他問題涉及致命的智能自主武器。應該被禁止 如果是這樣,自主權如何精確定義。如果沒有,應分配任何誤用或故障的責任。其他內(nèi)容包括隱私問題,因為人工智能越來越能夠解釋大型監(jiān)控數(shù)據(jù)集,以及如何最好地管理人工智能流離失所的工作的經(jīng)濟影響。

現(xiàn)在,關于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響。

長期的關切,主要是由于通過不符合人類愿望的超智能的興起,AI系統(tǒng)的潛在失控,而這種強大的系統(tǒng)將威脅人類。這樣的日子話題成果是可能的。如果是這樣,這些情況怎么會出現(xiàn)。應該進行什么樣的研究投資,以便更好地了解和解決危險的超級情報的興起或發(fā)生情報爆炸的可能性。

長期擔憂主要是人工智能系統(tǒng)失控的潛在風險,隨著不遵循人類意愿行事的超級智能的崛起,那個強大的系統(tǒng)威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現(xiàn)的?我們應該投入什么樣的研究,以便更好的理解和解決危險的超級智能崛起的可能性,或智能爆發(fā)的出現(xiàn)?

用于利用AI的現(xiàn)有工具,如強化學習和簡單的效用函數(shù),是不足以解決這個問題的。因此,需要更多的研究來找到和驗證控制問題的可靠解決方案。

當前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。

最近的地標,例如已經(jīng)提到的自駕車,還是在Go游戲中獲勝的電腦,都是未來的跡象。巨大的投資水平正在涌入這一技術。到目前為止,我們所看到的成就肯定會對未來幾十年會帶來什么樣的影響,當我們自己的思想被大赦國際放大時,我們無法預測我們會實現(xiàn)什么。也許借助這項新技術革命的工具,我們將能夠將最后一個受損的工業(yè)從一個工業(yè)化中撤出。我們的每一個方面都會改變。簡而言之,創(chuàng)造AI的成功可能是我們文明史上最大的事件。

近來的里程碑,比如說之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年后可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什么成就,當我們的頭腦被人工智能放大以后。也許在這種新技術革命的輔助下,我們可以解決一些工業(yè)化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的事件。

但也可能是最后一個,除非我們學習如何避免風險。我過去曾經(jīng)說過,全面發(fā)展AI,可以說明人類的終結,如最終使用強大的自主武器。今年早些時候,我和其他國際科學家一起支持聯(lián)合國公約談判禁止核武。這些談判是在上周開始的,我們等待著神經(jīng)緊張的結局。目前,九個核能力可以獲得大約14,000個核武器,其中任何一個都可以消滅城市,用無線電垮掉的方式污染廣泛的土地,最可怕的危險是造成一個核誘發(fā)的冬季,其中火災和煙霧可能引發(fā)全球微型冰河時代。結果是全球糧食系統(tǒng)徹底崩潰,世界末日的動亂,可能會殺死大多數(shù)人。我們科學家對核武器負有特殊責任,因為科學家發(fā)明了這些武器,發(fā)現(xiàn)它們的影響比首先想象的更可怕。

但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯(lián)合國會議上支持其對于核武器的禁令。這次協(xié)商于上周開始,[為了避免歧義刪掉這句]我們正在焦急的等待協(xié)商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發(fā)明了它們,并發(fā)現(xiàn)它們的影響比最初預想的更加可怕。

在這個階段,我今天可能會害怕你們,談論厄運。我道歉。但重要的是,作為與會者,今天的會議,您認識到您在今后的技術未來研究與開發(fā)中所持的立場。我相信我們聯(lián)合起來,呼吁支持國際條約,或簽署給各國政府所有權力的信件。技術領袖和科學家正在盡其所能,以免無法控制的人工智能的興起。

現(xiàn)階段,我對災難的探討可能驚嚇到了在座的各位,很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發(fā)中的位置。我相信我們團結在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智能的崛起。

去年10月,我在英國劍橋開設了一個新的中心,這將試圖解決人工智能研究的快速發(fā)展提出的一些不限成員名額的問題。Leverhulme智力未來中心是一個多學科研究所,致力于研究未來的智慧,對我們文明和我們物種的未來至關重要。我們花費大量的時間學習歷史,讓我們面對它,主要是愚蠢的歷史。所以這是一個值得歡迎的變化,人們正在研究智力的未來。我們意識到潛在的危險,但我心中樂觀,并認為創(chuàng)造智慧的潛在好處是巨大的。也許借助這項新技術革命的工具,我們將可以通過工業(yè)化來消除對自然世界造成的一些傷害。

去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學科研究所,致力于研究智能的未來,這對我們文明和物種的未來至關重要我們花費大量時間學習歷史,深入去看。 - 大多數(shù)是關于愚蠢的歷史所以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內(nèi)心仍秉持樂觀態(tài)度,我相信創(chuàng)造智能的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害。

我們生活的每一個方面都會改變。我的研究所的同事HuwPrice已經(jīng)承認,該中心部分地是由于大學的存在風險中心的結果。該研究所審查了更廣泛的人類潛在問題,而Leverhulme Centrehas則更為狹隘。

我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認,“利弗休姆中心”能建立,部分是因為大學成立了“存在風險中心”。后者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點研究范圍則相對狹窄。

AI的進步最近的發(fā)展包括歐洲議會的起草一套法規(guī)的呼吁,以管理機器人和AI的yoossand創(chuàng)造。有點令人驚訝的是,這包括一種電子人格的形式,以確保最有能力和最先進的AI的權利和責任。歐洲議會發(fā)言人評論說,隨著日益增長的日益增長的人們越來越多地受到機器人的影響,我們需要確保機器人是并將繼續(xù)為人類服務。向MEP提供的端口,表明它相信世界正處于新的工業(yè)機器人革命的領域。它檢查是否允許為機器人提供合法權利的電子人,與法人人格的法定定義相同。但強調,在任何時候,研究人員和設計人員應確保所有機器人設計都包含一個殺死開關。這并沒有幫助科學家與哈爾,在庫布里克二千一個,一個太空漫游,這是虛構的故障機器人計算機上的太空船。我們處理事實??鐕蓭熓聞账鶌W斯本·克拉克的合伙人洛納·布拉澤爾(Lorna Brazell)在報告中說,我們不給鯨魚和大猩猩的人格,所以沒有必要跳上機器人的人格。但是這里的確是有道理的。該報告承認在幾十年的時間內(nèi),人工智能可以超越人類智力的能力,并挑戰(zhàn)人機關系。最后,該報告呼吁建立一個歐洲機器人砂AI機構,可以提供技術,倫理和監(jiān)管方面的專業(yè)知識。如果環(huán)保部門贊成立法,報告將提交給歐盟委員會,該委員會有三個月的時間來決定將采取哪些立法步驟。

人工智能的最新進展,包括歐洲議會呼吁起草一系列法規(guī),以管理機器人和人工智能的創(chuàng)新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智能的權利和責任。歐洲議會發(fā)言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現(xiàn)在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處于新的工業(yè)機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布里克的電影“2001太空漫游”中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。奧斯本·克拉克 國律師事務所的合伙人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急于接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間內(nèi),人工智能可能會超越人類智力范圍,人工智能可能會超越人類智力范圍,進而挑戰(zhàn)人機關系。報告最后呼吁成立歐洲機器人和人工智能機構,以提供技術,倫理和監(jiān)管方面的專業(yè)知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內(nèi)決定要采取哪些立法步驟。

我們也可以發(fā)揮作用,確保下一代不僅有機會,而且決心在早期階段充分參與科學研究,以便繼續(xù)發(fā)揮潛力,創(chuàng)造一個更美好的整個人類的世界。這就是我剛才在談論你們學習和教育的重要性的時候,我們需要做的不僅僅是理論上的討論,而應該是采取行動,并采取行動,確保他們有機會得到在船上。我們站在一個勇敢的新世界的門檻上。這是一個令人興奮的,如果不穩(wěn)定的地方,你是先驅者。祝你順利。

我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探討,并且采取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的,同時充滿了不確定性的世界,而你們是先行者。我祝福你們。

謝謝你的聽

謝謝

 霍金回中國科技大咖,科學家,投資家和網(wǎng)友問 

霍金教授,我們從你的洞察力中學到了很多東西。

接下來我要問一些問題。這些來自中國科學家和企業(yè)家。

霍金教授,我們從您的洞見中學到了很多。

接下來我將要問一些問題,來自于中國的科學家和企業(yè)家。

Sinoave Ventures首席執(zhí)行官開福立:

“大型互聯(lián)網(wǎng)公司可以訪問大量的數(shù)據(jù)庫,這樣他們就可以通過違反用戶隱私的方式在大型數(shù)據(jù)庫中取得巨大的進步,這些公司被巨大的經(jīng)濟利益所吸引,并不能真正地對自己進行紀律處理,這種數(shù)據(jù)訪問非常不成比例小公司和創(chuàng)業(yè)公司不能創(chuàng)新,你多次提到我們應該限制人工智能,但是更難限制人類,你認為我們可以做些什么來約束大型互聯(lián)網(wǎng)公司?

創(chuàng)新工場CEO李開復(問)

互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),而這些數(shù)據(jù)會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導致小公司和創(chuàng)業(yè)者更難創(chuàng)新。您常談到如何約束人工智能,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?

據(jù)了解,公司正在使用數(shù)據(jù)進行統(tǒng)計,但應禁止使用任何個人信息。這將有助于隱私,如果互聯(lián)網(wǎng)上的所有材料都通過使用代碼的量子加密技術加密,互聯(lián)網(wǎng)公司在合理的時間內(nèi)無法破解。但這些好奇的服務會反對。

據(jù)我了解,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計分析,但任何涉及到私人信息的使用都應該被禁止。會有助于隱私保護的是,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術加密,這樣互聯(lián)網(wǎng)公司在一定時間內(nèi)便無法破解。但安全服務會反對這個做法。

教授,第二個問題來自于獵冠公司CEO Cheetah Mobile:

“人類的靈魂是存在于量子還是其他形式的高維空間的形式?”

教授,第二個問題來自于獵豹移動CEO傅盛,

“靈魂會不會是量子的一種存在形態(tài)?或者是高維空間里的另一個表現(xiàn)?”

我相信AI的最新進展,比如在國際象棋和Go上獲得的電腦,這顯示出人腦與電腦之間沒有本質區(qū)別。與我的同事Roger Penrose的意見相反。有人會說電腦有靈魂。在我看來,個人的靈魂的概念是一個基督教的概念,與后來的生活有關,我認為這是一個童話故事。

我認為近來人工智能的發(fā)展,比如電腦在國際象棋和圍棋的比賽中戰(zhàn)勝人腦,都顯示出人腦和電腦并沒有本質差別。這點上我和我的同事羅杰·彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯(lián)系在一起。我認為這是一個童話故事。

教授,第三個問題來自百度總裁雅沁璋:  

“人類觀察和抽象宇宙的方式不斷發(fā)展,從觀察和估計到牛頓定律和愛因斯坦方程,現(xiàn)在是數(shù)據(jù)驅動的計算和人工智能。下一步是什么?” 

教授,第三個問題來自于百度總裁張亞勤

“人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式,到今天數(shù)據(jù)驅動的計算和人工智能,下一個是什么?”

我們需要一個新的量子理論,將重力與其他自然力量統(tǒng)一起來。許多人聲稱這是字符串理論,但我有疑問。到目前為止,唯一的預測是,時空有十個維度。 

我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。

教授,第四個問題來自斯坦福大學物理系教授張守成:

“如果你要告訴外星人關于我們?nèi)祟愇拿髟谝粋€信封的最高成就,你會寫什么?

教授,第四個問題來自于斯坦福大學物理學教授張首晟

“如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删停瑢懺谝粡埫餍牌谋趁?,您會寫什么??/p>

對于美麗或任何其他可能的藝術形式,我們可能認為是最高的藝術成就,因為這些是非常具體的人,這并不好。相反,我會寫關于戈德爾的不完全定理和費馬的最后定理。這些都是外星人會理解的東西。

告訴外星人關于美,或者任何可能代表最高藝術成就的藝術形式都是無益的,因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。

下一個問題來自于我自己:

“我們希望在全球所有9個GMIC會議上促進科學精神。你們推薦哪些三本書,技術領導人閱讀,以便更好地了解未來的未來和推動它的科學?

下一個問題來自我自己:

“我們希望提倡科學精神,貫穿GMIC全球九站,清您推薦三本書,讓科技屆的朋友們更好的理解科學及科學的未來?!?/p>

他們應該寫書不讀書。一個人只有在寫了一本書的時候才能完全理解。

他們應該去寫書而不是讀書。只有當一個人關于某件事能寫出一本書,才代表他完全理解了這件事。

下一個問題來自微博用戶:

“我們不應該在生活中做什么,我們應該做的一件事是什么?”

下一個問題來自于微博用戶

“您認為一個人一生中最應當做的一件事和最不應當做的一件事是什么?”

我們永遠不要放棄,我們應該盡可能多地努力去理解。

我們絕不應當放棄,我們都應當盡可能多的去理解(這個世界)。

下一個問題也來自微博用戶:

“人類經(jīng)歷了許多演變,例如石器時代,到電力時代的蒸汽年齡。你認為會推動下一個進化?

下一個問題同樣來自于微博用戶

“人類在漫漫的歷史長河中,重復著一次又一次的革命與運動。從石器,蒸汽,電氣......您認為下一次的革命會是由什么驅動的?”

計算機科學的進步,包括人工智能和量子計算。技術已經(jīng)構成了我們生活的主要部分,但在未來的幾十年中,它將滲透到我們社會的各個方面。在包括醫(yī)療保健工作教育和科學在內(nèi)的許多領域為我們提供智能支持和咨詢。但是我們必須確保我們控制AI不是我們。

(我認為是)計算機科學的發(fā)展,包括人工智能和量子計算??萍家呀?jīng)成為我們生活中重要的一部分,但未來幾十年里,它會逐漸滲透到社會的每一個方面,為我們提供智能地支持和建議,在醫(yī)療,工作,教育和科技等眾多領域。但是我們必須要確保是我們來掌控人工智能,而非它(掌控)我們。

霍金教授,最后一個問題是海泉,音樂家和VC:

“如果技術尚未成熟,但對于星際移民而言,人類有沒有可解決的挑戰(zhàn),可能導致人類滅絕,除了像小行星擊中地球這樣的外部災難?

霍金教授,最后一個問題來自于音樂人,投資者胡海泉:

“如果星際移民技術的成熟窗口期遲到,有沒有完全解決不了的內(nèi)發(fā)災難導致人類滅絕?拋開隕星撞地球這樣的外來災難?!?/p>

是。人口過多,疾病,戰(zhàn)爭,饑荒,氣候變化和缺水。解決人心是屬于人的力量,但令人遺憾的是,這些仍然是我們在地球上繼續(xù)存在的嚴重威脅。這些都是可以解決的,但到目前為止還沒有。

是的。人口過剩,疾病,戰(zhàn)爭,饑荒,氣候變化和水資源匱乏,人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅著我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。

霍金教授,您的答案非常鼓舞人心。今天和你聊天非常激動,你知道GWC和GMIC都有一個夢想,“大家來到GMIC!”,今天對于GMIC來說非常特別。謝謝!感謝您的時間!

霍金教授,您的解答非常有啟發(fā)性今天和您談話令人興奮長城會和GMIC有一個夢想:。??!地球上每個人來一次GMIC今天對GMIC來說非常特別,謝謝您謝謝您的寶貴時間!

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多