如果有人跑來跟你說:“我的公司開發(fā)了一種技術(shù),能讓人工智能更強大,”你會給出什么建議?博斯特羅姆:我的首要建議就是,在公司內(nèi)部培養(yǎng)AI安全研究力量。關(guān)鍵點之一是在AI和AI安全人員之間建立良好的協(xié)作關(guān)系。要得到好的結(jié)果,唯一的辦法就是把這些觀念樹立起來,然后加以實施。谷歌、Facebook等各大科技公司似乎正在引領(lǐng)人工智能領(lǐng)域的進步。你是不是已經(jīng)在和他們交流了?博斯特羅姆:我不想具體指出是哪些公司,但都是在這個領(lǐng)域投入最多的。我想他們也承認,是該有人去考慮AI安全問題了,日后一旦取得進展,就可以大舉運用起來。有這樣一顆種子在也是好的——有人專門在關(guān)注這些事情。對于這么遙遠的事情,哪一類研究是我們現(xiàn)在能做的?博斯特羅姆:目前的成果就是對AI問題本身有了一個更清晰的認識,也確立了一些概念,用來思考這一類問題。聽起來可能顯得微不足道,但沒有這些作為基礎(chǔ),我們就沒辦法進入到下一步,也就是開發(fā)一個技術(shù)研究議程。博斯特羅姆:比如,你能不能設(shè)計一個AI激勵機制,避免AI抗拒程序員變更它的目標?我們有一整套可能奏效的辦法,如“裝盒”法,在AI發(fā)布之前,用工具把它限制起來。但谷歌他們在建的系統(tǒng)跟人類級別的AI差距還是很大的。博斯特羅姆:是的。難點之一就針對高級AI系統(tǒng)早早做好防范機制的建設(shè)工作,一旦這類系統(tǒng)出現(xiàn),就能把機制運用起來,也應(yīng)當(dāng)運用起來。
遠低于人類水平的人工智能不也能造成問題嗎?比如被政府用作武器,或者一不小心流入金融市場?
博斯特羅姆:確實存在一大批更加緊迫的小問題,也就是一些人所說的更切實際的問題,有算法交易、無人機、自動化及其對勞動力市場的沖擊等問題,還要考慮到系統(tǒng)會不會有意無意地表現(xiàn)出種族歧視。我不否認這些問題的存在,我只是覺得,大家可能忽略了另一個問題,因為只有當(dāng)AI達到非常高的水平時,這個特定問題才會顯得嚴重起來。您的態(tài)度很謹慎,認為沒人能預(yù)測我們離那一水平還有多遠。但有沒有一些特定進展能夠標志著我們?nèi)〉昧诉M步?博斯特羅姆:AI很可能需要一系列的重大突破,才能具備更多的常識推理能力、跨不同領(lǐng)域的廣義學(xué)習(xí)能力,以及更加靈活的規(guī)劃能力。AI領(lǐng)域內(nèi)至少出現(xiàn)過兩個從炒作泡沫到幻想破滅的周期。我們現(xiàn)在完全有可能處在第三個炒作泡沫階段——新技術(shù)的運用已經(jīng)到頂,下一次重大進展還要很久才會出現(xiàn)。但我們也有可能一路前進,直到抵達人類水平的AI。如果真是上述情況,您對人類的生存幾率是否還是持樂觀態(tài)度?博斯特羅姆:長期來看,我想我們會有兩種結(jié)果,要么很好,要么很糟,不會介于兩者中間。希望會是一個好結(jié)果吧。
翻譯 / 何無魚 雁行