來源:非正式組織 概要:在Yann LeCun、Yoshua Bengio和Geoffrey Hinton三巨頭nature深度學習綜述《deep learning》文章中提到,這段期間神經(jīng)網(wǎng)絡(luò)模型被主流的計算機視覺和學術(shù)界所拋棄。 一、前言 深度學習的發(fā)展大致分為這么幾個學期:
萌芽期 在Yann LeCun、Yoshua Bengio和Geoffrey Hinton三巨頭nature深度學習綜述《deep learning》文章中提到,這段期間神經(jīng)網(wǎng)絡(luò)模型被主流的計算機視覺和學術(shù)界所拋棄。 這期間,學者們試圖用有監(jiān)督學習的方式訓練深度神經(jīng)網(wǎng)絡(luò),然而方法不是十分奏效,陷入了困境,在Andrew的教程中可以找到大概這幾點原因:數(shù)據(jù)獲取
因為一直沒有找到有效的解決這些問題的方法,這期間,深度神經(jīng)網(wǎng)絡(luò)的發(fā)展一直不溫不火?;蛘哒f在2001年Hochreiter的Gradient flow in recurrent nets: the difficulty of learning long-term dependencies(好像是這篇)提出了神經(jīng)網(wǎng)絡(luò)存在的幾個問題后,在接下來的幾年內(nèi)神經(jīng)網(wǎng)絡(luò)的發(fā)展陷入了低谷。而那幾年流行的機器學習算法是SVM和集成模型(隨機森林、adaboost等)。 迅速發(fā)展期 2006年hinton在nature上發(fā)表了一篇文章Reducing the dimensionality of data with neural networks,針對上面提到的三個深度學習的問題,提出了棧式自編碼器+BP微調(diào)的解決方案。在一定程度上解決了上面的三個問題。
從此,深度學習開啟嶄新的浪潮。 爆發(fā)期 在12年的ILSVRC競賽中,Hinton團隊的Alexnet模型Imagenet classification with deep convolutional neural networks將1000類分類的top-5誤差率降低到了15.3%,碾壓了第二名使用SVM算法的26.2%,開啟了深度學習的革命,從此之后,深度學習走上了指數(shù)式的發(fā)展道路。 回到Hilton團隊的Alexnet模型上,僅僅使用了有監(jiān)督的訓練,貌似沒涉及無監(jiān)督的預訓練。不是在之前說有監(jiān)督的深度學習訓練存在很多問題嗎,大概是因為這幾條原因,導致了有監(jiān)督訓練的可行:
總結(jié) 對于06-12年期間的深度神經(jīng)網(wǎng)絡(luò)主要以無監(jiān)督預訓練為主流,從12年以后,這時數(shù)據(jù)庫足夠大(上萬級別),模型足夠先進(ReLU激活函數(shù),dropout等等),同時計算速度足夠快(GPU)加速,使得無監(jiān)督預訓練(自編碼神經(jīng)網(wǎng)絡(luò))在很多應(yīng)用場景中失去了存在的價值,有監(jiān)督訓練已經(jīng)足夠完成任務(wù)。 一句話總結(jié),06年的無監(jiān)督預訓練開啟了深度學習的紀元,在之后深度學習快速發(fā)展的過程中,大數(shù)據(jù)的獲取、計算機硬件的發(fā)展以及深度模型的升級使得有監(jiān)督訓練重新走上舞臺,無監(jiān)督訓練也算是完成了歷史使命。 那么預訓練還有用嗎?答案是肯定的,比如我們有一個分類任務(wù),數(shù)據(jù)庫很小,這時還是需要通過預訓練來避免過擬合的問題,只不過預訓練是通過在一個大的數(shù)據(jù)庫上,通過有監(jiān)督來完成的,這種有監(jiān)督預訓加小的數(shù)據(jù)庫上的微調(diào)的模型稱為Transfer learning。 未來智能實驗室致力于研究互聯(lián)網(wǎng)與人工智能未來發(fā)展趨勢,觀察評估人工智能發(fā)展水平,由互聯(lián)網(wǎng)進化論作者,計算機博士劉鋒與中國科學院虛擬經(jīng)濟與數(shù)據(jù)科學研究中心石勇、劉穎教授創(chuàng)建。 未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯(lián)網(wǎng)(城市)云腦研究計劃,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。 |
|
來自: 快讀書館 > 《信息技術(shù)》