人工智能的能力很大一部分要歸功于 Judea Pearl。上世紀 80 年代,他帶頭推動機器進行概率推理。而現(xiàn)在他是這個領域最尖銳的批評者之一。他在最新著作《The Book of Why:The New Science of Cause and Effect》中指出,由于未能完全理解智能真正的含義,人工智能的發(fā)展已經受到阻礙。 30 年前,人工智能研究的一個主要挑戰(zhàn)是對機器進行編程,以便將潛在的原因與一系列可觀察到的情況聯(lián)系起來。Pearl 用一種叫做貝葉斯網絡的方案來解決這個問題。貝葉斯網絡讓機器可以回答問題——給出一個從非洲回來的發(fā)燒且身體疼痛的病人,最有可能的解釋是瘧疾。2011 年,Pearl 獲得圖靈獎這一計算機科學領域最高榮譽,這很大程度上要歸功于貝葉斯網絡。 但在 Pearl 看來,人工智能領域已經陷入了概率關聯(lián)(probabilistic association)的泥潭。近來,新聞頭條吹捧機器學習和神經網絡的最新突破,比如計算機可以下圍棋和駕駛汽車。但 Pearl 對此感到膩味。在他看來,當今人工智能領域的最新技術僅僅是上一代機器所做事情的強化版:在大量數(shù)據中找到隱藏的規(guī)律。他最近稱:「所有令人印象深刻的深度學習成果都只是曲線擬合?!?/p> 現(xiàn)年 81 歲的 Pearl 在新書中闡述了一個關于真正智能的機器如何思考的愿景。他認為,關鍵是用因果推理來代替關聯(lián)推理。機器不能只有把發(fā)燒和瘧疾聯(lián)系起來的能力,還要有推理「瘧疾引起發(fā)燒」的能力。一旦這種因果框架到位,機器就有可能提出反事實的問題——詢問在某種干預下因果關系將如何變化,Pearl 認為這是科學思考的基礎。他還提出了一種使這種思維成為可能的正式語言——21 世紀版的貝葉斯框架,允許機器進行概率思維。 Pearl 期望因果推理能為機器提供人類水平的智能。他解釋說,它們可以更有效地與人類溝通,甚至可以獲得道德實體(moral entity)的地位,具有自由意志和作惡的能力。《量子雜志》(Quanta Magazine)對 Pearl 進行了電話采訪。以下是采訪內容。
它是對我過去 25 年來在因果關系方面所做研究的一次總結,因果在生命中代表什么、它的應用,以及我們如何解決固有的因果關系問題。奇怪的是,這些問題被科學拋棄了。所以我要做的是彌補科學對它們的忽視。
當然,在科學方程式中你看不到這種崇高的愿望。代數(shù)語言是對稱的:如果 X 告訴我們 Y,那么 Y 告訴我們 X。這些是確定性關系。沒有辦法在數(shù)學中寫出一個簡單的事實——例如,即將到來的風暴會導致氣壓計下降,而不是上升。 數(shù)學還沒有發(fā)展出非對稱語言來捕捉我們的理解,即 X 引起 Y 并不代表 Y 導致 X。我知道,反對科學聽起來是一件很可怕的事情。如果我對媽媽說我要反對科學,她會打我。 但科學更寬容:鑒于我們缺乏對不對稱關系的計算,科學鼓勵我們創(chuàng)造。這就是數(shù)學的來源??吹揭粋€簡單的因果關系演算解決了我們那個時代連最偉大的統(tǒng)計學家也定義不清或無法解決的問題,我非常激動。所有這一切都和在高中幾何中找到一個證明一樣讓人感到輕松、充滿樂趣。
20 世紀 80 年代初出現(xiàn)的問題具有預測或診斷性質。根據病人的一系列癥狀,醫(yī)生想找出病人患瘧疾或其他疾病的概率。我們希望自動系統(tǒng)、專家系統(tǒng)能夠取代專業(yè)人員——無論是醫(yī)生、礦產勘探人員,還是其他類型的付費專家。所以那時,我提出了一個通過概率來實現(xiàn)這些的想法。 不幸的是,標準概率計算需要指數(shù)空間和指數(shù)時間。所以我提出了一個叫做貝葉斯網絡的方案,它需要多項式時間,而且非常透明。
在研發(fā)出能夠使機器對不確定性進行推理的工具后,我很快離開了 AI 社區(qū),轉而研究更有難度的任務:對因果進行推理。而我很多研究 AI 的同事仍然在研究不確定性。仍有很多研究者在繼續(xù)研究診斷問題,而不去考慮問題的因果關系。他們只想得到好的預測效果和診斷結果。 舉個例子,今天我們看到的所有機器學習研究都是用診斷模式實施的,即把物體標注為「貓」或「老虎」。他們不考慮干預,只想識別物體,預測它如何隨時間演化。 當我開發(fā)出強大的預測和診斷工具并意識到這只是人類智能的一小部分時,我感覺自己是個叛徒。如果我們想讓機器對干預(「如果禁煙會怎樣?」)和反省(「如果我讀完高中,會怎么樣呢?」)進行推理,那我們必須開發(fā)出因果模型。僅有關聯(lián)性(association)不夠,并且這是一個數(shù)學事實,而非觀點。
當我查看深度學習在做什么時,發(fā)現(xiàn)相關研究者都陷在關聯(lián)性級別的問題中。曲線擬合。說所有深度學習的矚目成果都只是對數(shù)據的曲線擬合似乎是一種褻瀆。但從數(shù)學層級的角度來看,不管你控制數(shù)據的技能有多熟練、控制數(shù)據時你從中讀取到什么信息,這都只是曲線擬合,可能是復雜和繁瑣的曲線擬合罷了。
不,我對機器學習印象深刻,因為僅靠曲線擬合無法解決那么多問題。而現(xiàn)在很多問題已被成功解決。但是我在考慮未來,未來會怎么樣?會出現(xiàn)一個能夠規(guī)劃實驗、解決懸而未決科學難題的機器人科學家嗎?我認為這是機器學習的下一步。我們還想與機器進行有意義的交流,有意義指機器與我們的認知水平相匹配。如果你剝奪了機器人對因果關系的認知,那么你們之間就不會出現(xiàn)有意義的交流。機器人沒法像你我這樣說出「我應該做得更好」。因此我們就丟失了一個重要的交流渠道。
我們必須使機器具備環(huán)境模型。如果機器不具備現(xiàn)實模型,那么你不能指望它在現(xiàn)實環(huán)境中有智能行為。首先,人類編程的現(xiàn)實概念模型可能在 10 年內出現(xiàn)。 下一步是機器將假設此類模型屬于它們自己,并基于實驗驗證和修改模型。這就是科學中一直發(fā)生的事情:例如人類最初認同地心說,后來發(fā)現(xiàn)了日心說。 機器人也是一樣,它們將彼此溝通,將這個假設的世界轉換成隱喻模型(metaphorical model)。
AI 目前是分裂的。首先,一部分人陶醉于機器學習、深度學習和神經網絡的成功之中。他們不理解我的觀點,只想繼續(xù)進行曲線擬合。但是和在統(tǒng)計學習范疇以外研究 AI 的人們談論這些時,他們立刻可以理解。我讀了一些近兩個月關于機器學習局限性的論文。
不是趨勢,而是一個嚴肅的內省過程,涉及這些問題:我們去向何處?下一步是什么? 這是我最不想問您的問題。 我很高興你沒有問我關于自由意志的問題。
我們將開發(fā)出具備自由意志的機器人,絕對會。我們必須理解如何編程機器人,以及我們能從中得到什么。由于某種原因,就進化方面而言這種自由意志在計算層面也將是需要的。
你具備自由意志,進化已經賦予我們這種感覺。很顯然,它提供了一些計算功能。
我認為第一個跡象將是機器人開始反事實地彼此溝通,如「你應該做得更好」。如果一組踢足球的機器人開始用這種語言溝通,那么我們將知道它們具備了自由意志?!改銘搨髑蚪o我,我剛才一直在等,但你沒有把球傳給我!」「你應該……」(You should have)意味著你本應該做什么,但是沒做。因此第一個征兆是溝通,第二個是踢出更好的足球。
人們認為惡是貪婪或不滿取代了社會的所有規(guī)范。例如,某人具備一個類似會說「你餓了,因此你可以做一些事來滿足自己的貪欲或發(fā)泄自己的不滿?!沟能浖K。但是你具備其他軟件模塊,可以指導自己遵循社會規(guī)范。其中一個叫做同理心(compassion)。當你抬高自己的貪欲,超過了社會通用規(guī)范,那么這就是邪惡。
當機器人一直忽略一些軟件模塊時,這對我們來說就是一個明顯的跡象。還有當機器人遵循一部分軟件模塊的建議而不聽另外模塊的建議時,當機器人忽略那些維持行為規(guī)范的模塊的建議時,當機器人停止遵循這些模塊時。 |
|
來自: 虎牙變大貓 > 《2多集群智能系統(tǒng)工程》