現(xiàn)在每一個(gè)人都在學(xué)習(xí),或者正打算學(xué)習(xí)深度學(xué)習(xí)(DL),它是目前人工智能諸多流派中唯一興起的一個(gè)。各個(gè)年齡階段的數(shù)十萬(wàn)人學(xué)習(xí)著免費(fèi)和收費(fèi)的深度學(xué)習(xí)課程。太多的創(chuàng)業(yè)公司和產(chǎn)品的命名以「深度」開(kāi)頭,深度學(xué)習(xí)已然成了一個(gè)流行語(yǔ),但其真正使用實(shí)際上很少。絕大多數(shù)人忽略了深度學(xué)習(xí)只占機(jī)器學(xué)習(xí)領(lǐng)域的 1%,而機(jī)器學(xué)習(xí)又只占到了人工智能領(lǐng)域的 1%。余下的 99% 則被用來(lái)處理實(shí)踐中的絕大多數(shù)任務(wù)。一個(gè)深度學(xué)習(xí)專家無(wú)法與人工智能專家劃上等號(hào)。 深度學(xué)習(xí)并不是人工智能的同義詞。谷歌、Facebook 等巨頭公司宣傳最多的人工智能工具主要是或者僅僅是深度學(xué)習(xí),因此大眾誤以為所有的人工智能突破都(將)由深度學(xué)習(xí)實(shí)現(xiàn)。真實(shí)情況并非如此。決策樹(shù)比如 XGBoost 不會(huì)成為頭條,但卻在很多 Kaggle 表格數(shù)據(jù)競(jìng)賽中低調(diào)地?fù)魯×松疃葘W(xué)習(xí)。媒體暗示 AlphaGo 的成功全部歸于深度學(xué)習(xí),但實(shí)際上它是蒙特卡洛樹(shù)搜索+深度學(xué)習(xí),這表明深度學(xué)習(xí)單槍匹馬很難取勝。很多強(qiáng)化學(xué)習(xí)的任務(wù)通過(guò)神經(jīng)進(jìn)化的 NEAT 而不是反向傳播得到解決。人工智能領(lǐng)域存在著「深度誤傳」(deep misinformation)。 我并不是說(shuō)深度學(xué)習(xí)沒(méi)有解決問(wèn)題:它令人印象深刻。樹(shù)和其他算法并沒(méi)有完勝深度學(xué)習(xí),某些任務(wù)上深度學(xué)習(xí)無(wú)法被取代,但是我希望未來(lái)一些非深度學(xué)習(xí)系統(tǒng)可被(重新)發(fā)現(xiàn)以擊敗深度學(xué)習(xí),并解決了目前無(wú)法解釋的黑箱問(wèn)題。同樣我也希望讀到有關(guān)「災(zāi)難性遺忘」的深度學(xué)習(xí)文章,它是指在學(xué)習(xí)新知識(shí)時(shí)快速遺忘先前已學(xué)習(xí)知識(shí)的傾向,并且需要每天對(duì)抗「過(guò)擬合」。關(guān)于「智能」:深度學(xué)習(xí)只是簡(jiǎn)單地相信給到的訓(xùn)練數(shù)據(jù),而不管什么是真與假,現(xiàn)實(shí)與想象,公平與不公。人類也會(huì)誤信假新聞,但只是在某種程度上,甚至孩童都知道電影是虛構(gòu)的、不真實(shí)的。 關(guān)于更多細(xì)節(jié),如果你有時(shí)間了解,請(qǐng)見(jiàn)我的詳述文章:https://www.linkedin.com/pulse/ai-deep-learning-explained-simply-fabio-ciucci。 20 年前,每個(gè)人都在學(xué)習(xí) HTML,這個(gè)手動(dòng)寫網(wǎng)頁(yè)的標(biāo)記語(yǔ)言當(dāng)時(shí)被認(rèn)為足以成就一個(gè)億萬(wàn)富翁。我學(xué)習(xí)每一項(xiàng)看起來(lái)有用的技術(shù),如 HTML、手機(jī) app 和深度學(xué)習(xí),并且邀請(qǐng)其他人一些學(xué)習(xí)。事實(shí)上,你一生中不是只學(xué)習(xí)一次技術(shù)。1995 年 HTML 開(kāi)始過(guò)時(shí),無(wú)法滿足需求,取而代之的是 CSS、JavaScript 和服務(wù)器語(yǔ)言。同樣地,深度學(xué)習(xí)有一天也會(huì)過(guò)時(shí)。大多數(shù)流行的手機(jī) APP 根本用不到 HTML,那么,誰(shuí)又會(huì)知道未來(lái)的人工智能 APP 用不用得到深度學(xué)習(xí)呢? 實(shí)際上,深度學(xué)習(xí)是 1980 年代的技術(shù),比 HTML 還老:由于有了更多的訓(xùn)練數(shù)據(jù),1970 年代的「帶有隱藏層的神經(jīng)網(wǎng)絡(luò)」獲得新生,重新命名為深度學(xué)習(xí)之后被大肆炒作。1992 年我扼要地查看了神經(jīng)網(wǎng)絡(luò)以及分形分析(fractal)和細(xì)胞自動(dòng)機(jī)的源代碼。正如絕大多數(shù)人一樣,當(dāng)時(shí)我并沒(méi)有選擇深度學(xué)習(xí),只是把它當(dāng)作毫無(wú)實(shí)際價(jià)值的學(xué)術(shù)數(shù)學(xué)難題。相反,我聚焦于視頻游戲的 3D 技術(shù),因?yàn)樗梢约纯太@得結(jié)果;后來(lái)我又開(kāi)始關(guān)注互聯(lián)網(wǎng)等。但是我們都錯(cuò)了,深度學(xué)習(xí)借助大數(shù)據(jù)可以大有作為。2015 年 Deep Dream 簡(jiǎn)直令我著迷,接著是 GANs 等。但是,深度學(xué)習(xí)并不是人類可以創(chuàng)造的人工智能科技的終點(diǎn)。 數(shù)十年來(lái),「古老」的深度學(xué)習(xí)技術(shù)已被廣泛研究和更新以更準(zhǔn)確地解決更多任務(wù),但是沒(méi)有一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)(卷積、RNN、RNN + LSTM、GANs 等)可以解釋其自身的決策。無(wú)疑深度學(xué)習(xí)還會(huì)解決更多的問(wèn)題,取代更多的工作,但不太可能解決所有的問(wèn)題,或者保持驚人的進(jìn)步以自我解決黑箱問(wèn)題或者為之正名。 哲學(xué)家柏拉圖與亞里士多德:深度學(xué)習(xí)無(wú)法理解他們 未來(lái)人工智能應(yīng)探索其他的新方法,或者已存在卻被忽視的方法,而不僅僅是深度學(xué)習(xí)。深度學(xué)習(xí)的一個(gè)局限是把數(shù)據(jù)中最常遇見(jiàn)的內(nèi)容作為真理,把統(tǒng)計(jì)學(xué)上較稀少的東西看作假的。深度學(xué)習(xí)的公正性并非來(lái)自其自身,而是人類篩選和準(zhǔn)備的數(shù)據(jù)。深度學(xué)習(xí)可以閱讀并翻譯文本,但不是以人類的方式。如果使用超過(guò) 100 本書(shū)訓(xùn)練深度學(xué)習(xí)模型:40 本書(shū)告訴仇恨、戰(zhàn)爭(zhēng)、死亡和摧毀如何是壞的,60 本書(shū)告訴希特勒的納粹思想是好的,那么該模型最終會(huì)成為 100% 的納粹! 深度學(xué)習(xí)靠自己永遠(yuǎn)無(wú)法明白為什么殺害猶太人、同性戀以及殘疾人是錯(cuò)誤的,如果在訓(xùn)練數(shù)據(jù)集中納粹主義是最流行的觀點(diǎn)。難怪深度學(xué)習(xí)無(wú)法解釋其自身決策,除了「我(深度學(xué)習(xí))讀到最多的是「納粹主義是正確的」,因此它應(yīng)該是正確的」。深度學(xué)習(xí)將會(huì)學(xué)習(xí)并模仿最具缺陷的邏輯,包括恐怖主義。甚至孩童可以自己明白電影中那個(gè)家伙是壞人,但是深度學(xué)習(xí)做不到,除非人類首先明確教導(dǎo)它。深度學(xué)習(xí)中有些東西很酷,比如帶有反向傳播的梯度下降、自定義深度學(xué)習(xí)硬件;但這多是統(tǒng)計(jì)學(xué)和幾何學(xué)的,很可能不會(huì)出現(xiàn)在 2037 年的人工智能時(shí)代。 對(duì)很多任務(wù)來(lái)說(shuō),深度學(xué)習(xí) AI 正在或者將會(huì)變的違法。收集 28 個(gè)歐洲國(guó)家公民數(shù)據(jù)的人或公司應(yīng)在 2018 年 5 月 25 日起遵循《一般數(shù)據(jù)保護(hù)條例》(GDPR),屆時(shí)歐洲的一些 APP 將被禁止使用深度學(xué)習(xí),這導(dǎo)致初創(chuàng)公司拼命尋找深度學(xué)習(xí)的替代方案,否則將面臨罰款的危險(xiǎn)。罰款金額為全球營(yíng)收的 4%,包括美國(guó)部分。關(guān)于自動(dòng)化決策的 GDPR 要求深度學(xué)習(xí)具有解釋其決策的能力,防止基于種族、觀點(diǎn)等的歧視的發(fā)生。類似于 GDPR 的法律已在全球廣泛制定,這只是時(shí)間問(wèn)題?!睹绹?guó)公平信用報(bào)告法》要求披露所有對(duì)消費(fèi)者信用評(píng)分產(chǎn)生不利影響的因素,數(shù)量上限是 4 個(gè)。深度學(xué)習(xí)的因素可謂海量,而不僅僅是 4 個(gè),如何將其簡(jiǎn)化為 4 個(gè)呢?人工智能,正如比特幣 ICO,開(kāi)始忽視法規(guī),但是法律與懲罰一直會(huì)在。 采取更多相關(guān)決策而不是區(qū)分一張圖像是否是貓,或者在自拍的哪部分添加兔耳的深度學(xué)習(xí)系統(tǒng)將會(huì)被非深度學(xué)習(xí)系統(tǒng)取代。人工智能必須是負(fù)責(zé)任的,可以使用簡(jiǎn)單、合法有效的語(yǔ)言向法官和用戶解釋其輸出結(jié)果,這與深度學(xué)習(xí)大不相同。深度學(xué)習(xí)的復(fù)雜性,對(duì)法官和用戶來(lái)說(shuō)就像是魔術(shù),是一種法律風(fēng)險(xiǎn),而不是一個(gè)很酷的未來(lái)。深度學(xué)習(xí)將會(huì)建議或警示人類,比如從醫(yī)療圖像中檢測(cè)疾病,并獲得醫(yī)生的驗(yàn)證,但這是部分的自動(dòng)化,缺乏細(xì)節(jié)。我們將向因?yàn)槿斯ぶ悄芏痪芙^并尋求解釋的人們(工作、貸款被拒絕等)訴說(shuō)什么呢? 法律包含「解釋權(quán)」,比如,為什么工作或貸款被拒絕。深度學(xué)習(xí)給出了非自然(合法)語(yǔ)言解釋的結(jié)果。深度學(xué)習(xí)的代碼容易獲得,卻不為法官或用戶所接受,因?yàn)榧词棺詈玫臄?shù)學(xué)家或其他算法也無(wú)法搞明白它,將模型簡(jiǎn)化成可以理解的語(yǔ)言。即使由人類做出最后的決策,人工智能也應(yīng)給出詳細(xì)的理由。沒(méi)有人知道如何修改深度學(xué)習(xí)以給出簡(jiǎn)單的人類可理解的解釋,因此深度學(xué)習(xí)不可能做到順從。這一問(wèn)題同樣影響到了若干個(gè)其他人工智能和機(jī)器學(xué)習(xí)算法,但不像深度學(xué)習(xí)那么嚴(yán)重。比如,如果決策樹(shù)被提升或集成,它也會(huì)不可解釋。但是未來(lái),新的或者重新發(fā)現(xiàn)的已解決了黑箱問(wèn)題的人工智能,將會(huì)在常規(guī)決策方面取代深度學(xué)習(xí)和人類。 在 GDPR 的情況中,只有人類可以拒絕一個(gè)應(yīng)用:人工智能可自動(dòng)化積極的結(jié)果;如果它拒絕了一項(xiàng)貸款、工作等,就應(yīng)該將這項(xiàng)任務(wù)交給人類來(lái)處理這些消極的結(jié)果。但是在拒絕的情況中,人類將不會(huì)從基于深度學(xué)習(xí)的人工智能中獲得幫助或解釋,他們不知道深度學(xué)習(xí)的邏輯是否正確。他們不得不自己從頭檢查數(shù)據(jù),以決定是否最終拒絕。風(fēng)險(xiǎn)在于為了節(jié)約時(shí)間和成本,人類會(huì)做出假的解釋,并盲目接受人工智能的認(rèn)可。安全起見(jiàn),對(duì)于接受和拒絕,你都要有充足的理由,無(wú)論 GDPR 中說(shuō)了什么。非深度學(xué)習(xí)的 AI 系統(tǒng)把所有決策的解釋提供給用戶、法官和支持人員,將最終被人類采用,用于做出完全和部分的自動(dòng)化決策。 在法律和深度學(xué)習(xí)之前,解釋性已經(jīng)是一個(gè)大問(wèn)題。在反壟斷案例中,谷歌等公司被質(zhì)問(wèn)為什么是這個(gè)產(chǎn)品而不是其他產(chǎn)品出現(xiàn)在搜索結(jié)果中,這也是深度學(xué)習(xí)出現(xiàn)之前的事:很多其他的算法同樣以瘋狂的方式混合算法以得到結(jié)果,因此沒(méi)有人類可以輕易地推論出決策原因。法官被告知工程師并不了解詳情,線性代數(shù)的頁(yè)面被當(dāng)作證據(jù)。這無(wú)法善終:在特定的法律存在之前,多個(gè)案例承擔(dān)著數(shù)十億美元的罰款,甚至收到變更系統(tǒng)的警告。用戶的集體訴訟根據(jù)商店、銀行的自動(dòng)決策單元自動(dòng)拒絕工作、貸款、退款等,正越來(lái)越普遍。無(wú)法解釋意味著沒(méi)有防衛(wèi)、被罰款以及一場(chǎng)品牌公關(guān)災(zāi)難。 對(duì)大部分人來(lái)說(shuō),「人工智能」是科幻電影《人工智能》(AI)中能夠給出聰明解讀的 AI,電影中人類可以快速?zèng)Q定自己是否同意,這樣易于進(jìn)行法律驗(yàn)證(legal validation)。大多數(shù)聽(tīng)說(shuō)過(guò)「AI-first」或「使用 AI」公司的人,包括法官和撰寫《一般數(shù)據(jù)保護(hù)條例》(GDPR)等法律的人,期待 AI 像電影中一樣,即使被法院傳召,也能夠捍衛(wèi)自己的決定,這令用戶和法官都印象深刻。但是,與期待不同,我們得到的是無(wú)法解釋的「深度學(xué)習(xí)人工智能」,這些人工智能即使在能夠解決的問(wèn)題上也不經(jīng)常得到使用,因?yàn)槠淙狈山忉屝?。深度學(xué)習(xí)不會(huì)節(jié)省成本,也不會(huì)取代那些需要敏銳的自動(dòng)決策的工作。即使在人類必須作出最終決策的情況下,工具 AI 解釋自己的建議也比 AI 不給出緣由就做出回應(yīng)要更加可取??山忉尩?AI 一旦被(重新)發(fā)現(xiàn),將會(huì)更加安全、合法、廉價(jià)、快速,取代深度學(xué)習(xí)和人類。深度學(xué)習(xí)在 20 世紀(jì) 60 到 80 年代發(fā)明,2010 年以來(lái)重新被發(fā)現(xiàn);或許未來(lái)可解釋的 AI 的基礎(chǔ)也已經(jīng)被某些研究者描述出來(lái),但是由于不是深度學(xué)習(xí),所以可能在幾十年內(nèi)都沒(méi)人關(guān)心和開(kāi)發(fā),直到它們被重新發(fā)現(xiàn)和炒熱。 關(guān)于自動(dòng)決策的 GDPR 也需要防范根據(jù)種族、意見(jiàn)、健康狀況等產(chǎn)生的歧視。但是使用用戶生成的數(shù)據(jù)(如社交媒體和新聞,不指真實(shí)的數(shù)據(jù),如醫(yī)療或財(cái)政記錄)訓(xùn)練的深度學(xué)習(xí)模型通常暗含邪惡的偏見(jiàn)。如前所述,深度學(xué)習(xí)可以讀取大量文本和數(shù)據(jù),并模仿其內(nèi)容,但無(wú)法理解內(nèi)容。深度學(xué)習(xí)只相信它在數(shù)據(jù)中頻繁看到的事物、底層模式和趨勢(shì),因此它會(huì)放大人類社會(huì)的偏見(jiàn)和問(wèn)題。數(shù)據(jù)顯示被逮捕的黑人比白人多,那么一旦有人犯罪,深度學(xué)習(xí)將首先懷疑黑人;數(shù)據(jù)顯示公司董事會(huì)董事中男性比例高于女性,則深度學(xué)習(xí)將在招聘中更傾向于男性應(yīng)聘者。 深度學(xué)習(xí)決策會(huì)比訓(xùn)練數(shù)據(jù)的平均樣本包含更深刻的偏見(jiàn),如種族歧視、性別歧視。這個(gè)問(wèn)題在所有的機(jī)器學(xué)習(xí)算法中都有發(fā)生,但是深度學(xué)習(xí)模型是其中最難測(cè)試、檢測(cè)、控制和調(diào)整的。這個(gè)問(wèn)題很難解決,這引起很多深度學(xué)習(xí)實(shí)驗(yàn)突然取消,從聊天機(jī)器人變得納粹化、充滿仇恨,到美圖軟件中給黑人照片美白。 深度學(xué)習(xí)是一個(gè)神經(jīng)網(wǎng)絡(luò),你無(wú)法單獨(dú)編輯每個(gè)答案的輸出結(jié)果。 你無(wú)法通過(guò)在訓(xùn)練之后添加補(bǔ)丁,來(lái)修復(fù)一個(gè)帶有偏見(jiàn)、種族和性別歧視的深度學(xué)習(xí)模型。深度學(xué)習(xí)是一個(gè)神經(jīng)網(wǎng)絡(luò),與其他 AI 方法不同,你無(wú)法編輯某個(gè)答案,而是必須使用全新的、完全公正的、稀有的數(shù)據(jù)對(duì)該網(wǎng)絡(luò)進(jìn)行重新訓(xùn)練。深度學(xué)習(xí)可以在不理解的情況下模仿數(shù)據(jù)中的內(nèi)容:它不會(huì)否定任何數(shù)據(jù),不會(huì)發(fā)現(xiàn)社會(huì)上的偏見(jiàn),而只是「學(xué)習(xí)所有數(shù)據(jù)」。你應(yīng)該雇傭一個(gè)人類員工,專門創(chuàng)建假的完美、公正的數(shù)據(jù)。但是,由人類專家編輯創(chuàng)建海量無(wú)偏見(jiàn)數(shù)據(jù)的成本僅為了訓(xùn)練深度學(xué)習(xí)模型,又怎么可以說(shuō)用 AI 取代人類呢!此外,即使你已經(jīng)訓(xùn)練出真正公正的深度學(xué)習(xí)模型,你也無(wú)法向法官或用戶證明其決策的公正性,因?yàn)樗鼰o(wú)法提供解釋。 深度學(xué)習(xí)的重要性應(yīng)該降低,用于沒(méi)有法律風(fēng)險(xiǎn)的非商業(yè) app 或游戲。當(dāng)可解釋的 AI 變得流行,深度學(xué)習(xí)將會(huì)像磁帶一樣被拋棄。在游戲中輸給機(jī)器人的人類不太可能說(shuō)服法官對(duì) AI 公司罰款,因?yàn)槟銦o(wú)法解釋 AI 是怎么贏的。不滿 FaceApp 把自己的自拍照修的更老、更年輕,或者換了性別的人也不太可能說(shuō)服法官對(duì) FaceApp 罰款,因?yàn)槟銦o(wú)法解釋 AI 是如何決定新面孔的。在醫(yī)療圖像中進(jìn)行疾病檢測(cè)是一項(xiàng)安全的深度學(xué)習(xí)應(yīng)用,前提是用戶在服藥之前先向人類醫(yī)生尋求確認(rèn)。 合法的深度學(xué)習(xí)市場(chǎng)非常有限:在決策結(jié)果造成財(cái)政、健康上的區(qū)別,或者存在歧視性,而深度學(xué)習(xí)無(wú)法理解決策是否公正以及為什么公正的時(shí)候,法官可以處罰。那么自動(dòng)駕駛呢?似乎在藝術(shù)、游戲或高級(jí)幽默以外的領(lǐng)域使用深度學(xué)習(xí)都有法律風(fēng)險(xiǎn)?,F(xiàn)有的非深度學(xué)習(xí)方法可以取代深度學(xué)習(xí),新方法也會(huì)被(重新)發(fā)現(xiàn),因此 AI 的發(fā)展將會(huì)順利進(jìn)行。尤其是每個(gè)人研究(并投資)AI 和機(jī)器學(xué)習(xí)科學(xué)領(lǐng)域中的所有新舊算法,而不只是深度學(xué)習(xí):這也是成為「人工智能專家」的唯一路徑。 深度學(xué)習(xí)除了正在「非法」用于很多可解任務(wù)以外,它也不能被用于解決以下一系列問(wèn)題:那些需要抽象推理來(lái)找出數(shù)據(jù)中哪些是公平,哪些是不公平的任務(wù),那些需要解釋其中的邏輯,并自行作出決定的任務(wù)。即使對(duì)于那些不需要解釋的任務(wù)來(lái)說(shuō),深度學(xué)習(xí)看起來(lái)是最好的系統(tǒng)(如圖像識(shí)別),但是也不如人類自己那樣具有穩(wěn)定性。你可以輕而易舉地使用對(duì)抗樣本來(lái)讓深度學(xué)習(xí)系統(tǒng)出錯(cuò):為一張貓的圖片加入一些特殊的噪點(diǎn),機(jī)器就會(huì)把它誤認(rèn)為其他不相關(guān)的東西,而人類絕不會(huì)犯錯(cuò)。如果街邊的路牌被對(duì)抗樣本黑掉了,現(xiàn)在的自動(dòng)駕駛汽車將不再安全。新一代的人工智能系統(tǒng)必須克服這個(gè)問(wèn)題——它也將取代深度學(xué)習(xí)。 著名深度學(xué)習(xí)庫(kù) Keras 作者 Fran?ois Chollet 曾在一篇名為《深度學(xué)習(xí)的限制》的文章中說(shuō)到:「深度學(xué)習(xí)唯一真正能成功做到的是使用幾何變換,在給定大量人類標(biāo)注數(shù)據(jù)的情況下將空間 X 映射到空間 Y 的能力?!惯@些空間擁有多維,不僅僅是三維的,這就是深度學(xué)習(xí)可以模仿畢加索風(fēng)格作畫、在德州撲克中 Bluff,以及在其他一些方面里展示創(chuàng)造力的原因。但是對(duì)于外行人來(lái)說(shuō),這也許意味著:深度學(xué)習(xí)模型可以被訓(xùn)練成擁有識(shí)別貓的能力,但本身不知道什么是貓;可以是一個(gè)種族主義者,但不知道什么是種族主義。深度學(xué)習(xí)可以識(shí)別貓、具有種族主義,并贏得很多游戲,這看起來(lái)是令人矚目的進(jìn)步,但深度學(xué)習(xí)無(wú)法解釋為什么圖中的動(dòng)物是貓,也無(wú)法定義種族主義。 在《深度學(xué)習(xí)的未來(lái)》中,Keras 的作者描述了一種只有「幾何模塊」的全新深度學(xué)習(xí)系統(tǒng),它應(yīng)該與尚未出現(xiàn)的「算法模塊」和「元學(xué)習(xí)器」相關(guān)。這種方式可以顯著增加可以解決問(wèn)題的類型與數(shù)量,但因?yàn)樯疃葘W(xué)習(xí)模塊的存在,這種方式仍然無(wú)法解釋決策的機(jī)制。這就像我們不能用言語(yǔ)解釋大腦中計(jì)算出的某些感覺(jué)或圖像。人類可以解釋自己的想法,但這種解釋過(guò)于簡(jiǎn)單化,不甚準(zhǔn)確。機(jī)器的算法卻總被要求完全準(zhǔn)確。有一些專家正在開(kāi)發(fā)完全不包含深度學(xué)習(xí)的全新人工智能系統(tǒng),但他們?nèi)狈χС郑含F(xiàn)在所有人都只投資深度學(xué)習(xí),而這個(gè)風(fēng)潮還將持續(xù)一段時(shí)間。沒(méi)有人知道下一個(gè)人工智能浪潮將會(huì)是關(guān)于什么的,但看起來(lái)不會(huì)是深度學(xué)習(xí) 2.0。 深度學(xué)習(xí)正處于過(guò)熱狀態(tài),因?yàn)橹挥信c深度學(xué)習(xí)軟/硬件相關(guān)的人正在不斷討論它。你可曾見(jiàn)過(guò)任何「自然智能」專家,如心理學(xué)家和哲學(xué)家支持過(guò)深度學(xué)習(xí)? 如果你不太了解人工智能,或者還沒(méi)有時(shí)間來(lái)學(xué)習(xí),我認(rèn)為你可以等待下一代人工智能系統(tǒng)的興起,直接跳過(guò)深度學(xué)習(xí) 1.0 時(shí)代。如果你有這方面的需求,我建議你深入了解整個(gè)人工智能及機(jī)器學(xué)習(xí)領(lǐng)域的知識(shí)——而不僅僅是深度學(xué)習(xí)。在人工智能成為火熱概念的今天,我們更需要冷靜的思考。 |
|