小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

讓你了解卷積神經(jīng)網(wǎng)絡(luò)

 beginnow1 2020-03-17

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種前饋型的神經(jīng)網(wǎng)絡(luò),其在大型圖像處理方面有出色的表現(xiàn),目前已經(jīng)被大范圍使用到圖像分類、定位等領(lǐng)域中。相比于其他神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),卷積神經(jīng)網(wǎng)絡(luò)需要的參數(shù)相對較少,使的其能夠廣泛應(yīng)用。

本節(jié)打算先介紹背景和簡單的基本概念術(shù)語,然后詳細(xì)介紹LeNet-5網(wǎng)絡(luò),其工作流程大家需要先搞清楚,學(xué)習(xí)原理其實(shí)是基于BP學(xué)習(xí)原理的,只是稍微有點(diǎn)麻煩點(diǎn),這個(gè)在后面會單獨(dú)講,希望先從定性的角度去學(xué)習(xí)他,然后在定量的分析其學(xué)習(xí)過程,這樣更容易接受,掌握這些以后再看hintion的學(xué)生的一篇論文深度卷積神經(jīng)網(wǎng)絡(luò)《ImageNet Classification with Deep Convolutional  Neural Networks》,在后面會詳細(xì)探討這個(gè)神經(jīng)網(wǎng)絡(luò)優(yōu)化方面的思想和手段,因此這將是一個(gè)很長的學(xué)習(xí)過程,要研究咱就把他研究透,只有這樣你才有可能具有創(chuàng)造性解決問題的能力。當(dāng)然,有前面的那么多的知識的鋪墊,理解這里的就不會太困難了,好,廢話不多說,下面開始:

發(fā)展背景和基本概念

        卷積神經(jīng)網(wǎng)絡(luò)是目前深度學(xué)習(xí)技術(shù)領(lǐng)域中非常具有代表性的神經(jīng)網(wǎng)絡(luò)之一,在圖像分析和處理領(lǐng)域取得了眾多突破性的進(jìn)展,在學(xué)術(shù)界常用的標(biāo)準(zhǔn)圖像標(biāo)注集ImageNet上,基于卷積神經(jīng)網(wǎng)絡(luò)取得了很多成就,包括圖像特征提取分類、場景識別等。卷積神經(jīng)網(wǎng)絡(luò)相較于傳統(tǒng)的圖像處理算法的優(yōu)點(diǎn)之一在于避免了對圖像復(fù)雜的前期預(yù)處理過程,尤其是人工參與圖像預(yù)處理過程,卷積神經(jīng)網(wǎng)絡(luò)可以直接輸入原始圖像進(jìn)行一系列工作,至今己經(jīng)廣泛應(yīng)用于各類圖像相關(guān)的應(yīng)用中。
       從卷積神經(jīng)網(wǎng)絡(luò)的提出到目前的廣泛應(yīng)用,大致經(jīng)歷了理論萌芽階段、實(shí)驗(yàn)發(fā)展階段以及大規(guī)模應(yīng)用和深入研究階段。
(1)理論萌芽階段。1962年Hubel以及Wiesel通過生物學(xué)研究表明,從視網(wǎng)膜傳遞腦中的視覺信息是通過多層次的感受野(Receptive Field)激發(fā)完成的,并首先提出了感受野的概念。1980年日本學(xué)者Fukushima在基于感受野的概念基礎(chǔ)之上,提出了神經(jīng)認(rèn)知機(jī)(Neocognitron)。神經(jīng)認(rèn)知機(jī)是一個(gè)自組織的多層神經(jīng)網(wǎng)絡(luò)模型,每一層的響應(yīng)都由上一層的局部感受野激發(fā)得到,對于模式的識別不受位置、較小形狀變化以及尺度大小的影響。神經(jīng)認(rèn)知機(jī)可以理解為卷積神經(jīng)網(wǎng)絡(luò)的第一版,核心點(diǎn)在于將視覺系統(tǒng)模型化,并且不受視覺中的位置和大小等影響。 

(2)實(shí)驗(yàn)發(fā)展階段。1998年計(jì)算機(jī)科學(xué)家Yann LeCun等提出的LeNet5采用了基于梯度的反向傳播算法對網(wǎng)絡(luò)進(jìn)行有監(jiān)督的訓(xùn)練,Yann LeCun在機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺等都有杰出貢獻(xiàn),被譽(yù)為卷積神經(jīng)網(wǎng)絡(luò)之父。LeNet5網(wǎng)絡(luò)通過交替連接的卷積層和下采樣層,將原始圖像逐漸轉(zhuǎn)換為一系列的特征圖,并且將這些特征傳遞給全連接的神經(jīng)網(wǎng)絡(luò),以根據(jù)圖像的特征對圖像進(jìn)行分類。感受野是卷積神經(jīng)網(wǎng)絡(luò)的核心,卷積神經(jīng)網(wǎng)絡(luò)的卷積核則是感受野概念的結(jié)構(gòu)表現(xiàn)。學(xué)術(shù)界對于卷積神經(jīng)網(wǎng)絡(luò)的關(guān)注,也正是開始于LeNet5網(wǎng)絡(luò)的提出,并成功應(yīng)用于手寫體識別。同時(shí),卷積神經(jīng)網(wǎng)絡(luò)在語音識別、物體檢測、人臉識別等應(yīng)用領(lǐng)域的研究也逐漸開展起來。
(3)大規(guī)模應(yīng)用和深入研究階段。在LeNet5網(wǎng)絡(luò)之后,卷積神經(jīng)網(wǎng)絡(luò)一直處于實(shí)驗(yàn)發(fā)展階段。直到2012年AlexNet網(wǎng)絡(luò)的提出才奠定了卷積神經(jīng)網(wǎng)絡(luò)在深度學(xué)習(xí)應(yīng)用中的地位,Krizhevsky(他是hintion的學(xué)生對應(yīng)的論文就是剛開始提到的深度卷積神經(jīng)網(wǎng)絡(luò))等提出的卷積神經(jīng)網(wǎng)絡(luò)AlexNet在ImageNet的訓(xùn)練集上取得了圖像分類的冠軍,使得卷積神經(jīng)網(wǎng)絡(luò)成為計(jì)算機(jī)視覺中的重點(diǎn)研究對象,并且不斷深入。在AlexNet之后,不斷有新的卷積神經(jīng)網(wǎng)絡(luò)提出,包括牛津大學(xué)的VGG網(wǎng)絡(luò)、微軟的ResNet網(wǎng)絡(luò)、谷歌的GoogLeNet網(wǎng)絡(luò)等,這些網(wǎng)絡(luò)的提出使得卷積神經(jīng)網(wǎng)絡(luò)逐步開始走向商業(yè)化應(yīng)用,幾乎只要是存在圖像的地方,就會有卷積神經(jīng)網(wǎng)絡(luò)的身影。
       從目前的發(fā)展趨勢而言,卷積神經(jīng)網(wǎng)絡(luò)將依然會持續(xù)發(fā)展,并且會產(chǎn)生適合各類應(yīng)用場景的卷積神經(jīng)網(wǎng)絡(luò),例如,面向視頻理解的3D卷積神經(jīng)網(wǎng)絡(luò)等。值得說明的是,卷積神經(jīng)網(wǎng)絡(luò)不僅僅應(yīng)用于圖像相關(guān)的網(wǎng)絡(luò),還包括與圖像相似的網(wǎng)絡(luò),例如,在圍棋中分析棋盤等。

基本概念

 卷積神經(jīng)網(wǎng)絡(luò)中有三個(gè)基本的概念:局部感受野(Local Receptive Fields)、共享權(quán)值(Shared Weights)、池化(Pooling)。
(1)局部感受野。對于一般的深度神經(jīng)網(wǎng)絡(luò),往往會把圖像的每一個(gè)像素點(diǎn)連接到全連接的每一個(gè)神經(jīng)元中,而卷積神經(jīng)網(wǎng)絡(luò)則是把每一個(gè)隱藏節(jié)點(diǎn)只連接到圖像的某個(gè)局部區(qū)域,從而減少參數(shù)訓(xùn)練的數(shù)量。例如,一張1024×720的圖像,使用9×9的感受野,則只需要81個(gè)權(quán)值參數(shù)。對于一般的視覺也是如此,當(dāng)觀看一張圖像時(shí),更多的時(shí)候關(guān)注的是局部。
(2)共享權(quán)值。在卷積神經(jīng)網(wǎng)絡(luò)的卷積層中,神經(jīng)元對應(yīng)的權(quán)值是相同的,由于權(quán)值相同,因此可以減少訓(xùn)練的參數(shù)量。共享的權(quán)值和偏置也被稱作卷積核或?yàn)V汲器。
(3)池化。由于待處理的圖像往往都比較大,而在實(shí)際過程中,沒有必要對原圖進(jìn)行分析,能夠有效獲得圖像的特征才是最主要的,因此可以采用類似于圖像壓縮的思想,對圖像進(jìn)行卷積之后,通過一個(gè)下采樣過程,來調(diào)整圖像的大小。

LeNet-5網(wǎng)絡(luò)

本網(wǎng)絡(luò)的的講解主要參考1998年計(jì)算機(jī)科學(xué)家Yann LeCun發(fā)布的一篇論文《Gradient based learning applied to document-recognition》大家可以找到這篇論文結(jié)合學(xué)習(xí),針對該網(wǎng)絡(luò),首先大家需要了解一下圖像中的常用操作卷積,卷積這個(gè)詞是信號處理領(lǐng)域的詞,表示一個(gè)系統(tǒng)多數(shù)據(jù)處理的過程,在圖像處理中的卷積,其實(shí)就是濾波器。下面先簡要介紹一下卷積核的概念,這個(gè)不能細(xì)說,因?yàn)橄胍钊肜斫饩矸e需要很多知識,這里只給大家一個(gè)直觀的概念,隨著我們后面的不斷深入,在優(yōu)化時(shí)在討論卷積核如何設(shè)置。

開始前先普及一下基礎(chǔ)知識,我們所知說的圖片是通過像素來定義的,即每個(gè)像素點(diǎn)的顏色不同,其對應(yīng)的顏色值不同,例如黑白圖片的顏色值為0到255,手寫體字符,白色的地方為0,黑色為1,如下圖,也就是說我們平常說的像素其實(shí)就是圖片的最小組成,黑白只是0-255,彩色其實(shí)就是RGB即三層基色合成的,就可以通過三層下圖數(shù)值代表即可。

image

卷積核

大家可以簡單理解,卷積核的的目的就是提取特征,那什么是特征呢?這篇文章我講解了什么是特征。如果大家對卷積核感興趣可以搜索一下看看,本人本科是電子信息工程的,所有這些概念我都已經(jīng)深入理解了。下面看看卷積對圖像到底做了哪些事:

??1    ?μ?é

如何達(dá)到上面的效果呢?我們看看下圖:

 中間那個(gè)就是卷積核了,其實(shí)就是3x3的方格,里面填一些數(shù)字,然后和原始圖像進(jìn)行相乘求和,這樣就可以達(dá)到上面的效果。

通過卷積核就可以提取圖片的特征和壓縮圖片了,其實(shí)卷積核就是一個(gè)二維的濾波器,下面再給一個(gè)大家到處能看到的動(dòng)態(tài)卷積圖:

?·?§ˉ?¥??????

大家先感性的這里理解,等深入知道CNN后再仔細(xì)研究也不遲,下面我們就正式開始講解 LeNet5網(wǎng)絡(luò)。

 

因?yàn)槲覀儜?yīng)對的領(lǐng)域是圖像識別的領(lǐng)域同時(shí)網(wǎng)絡(luò)的類型是基于BP的,因此針對這個(gè)領(lǐng)域先看看BP的缺點(diǎn),我們知道BP網(wǎng)絡(luò)是全連接的,對于圖片的識別,我們不用提取特征,一般一層提取特征的效果并不是很好,因此我們需要很多層,如果按照BP進(jìn)行全連接,會使得權(quán)值數(shù)量急劇增加,想要訓(xùn)練這么多的權(quán)值,樣本必須足夠的才行,即使樣本數(shù)量夠,但是計(jì)算量也會急劇增加,而且還有面臨梯度消失的情況,因此需要改進(jìn)連接的方式即采用局部連接和權(quán)值共享,如下圖:

假如一張圖片的像素點(diǎn)為4x4的,上圖的左邊圖W為全連接,一個(gè)神經(jīng)元就有16個(gè)連接 ,每個(gè)連接的權(quán)值不同,因此如果有n個(gè)神經(jīng)元?jiǎng)t有16n個(gè)權(quán)值,左圖就是局部連接,此時(shí)加入四個(gè)像素點(diǎn)連接一個(gè)神經(jīng)元,則需要四個(gè),但是如果像素很多的情況下,權(quán)值還是很多,此時(shí)是按照每個(gè)神經(jīng)元的連接權(quán)值如上圖的w_1,w_2,w_3,w_4是其中一個(gè)神經(jīng)元的是4個(gè)權(quán)值,所謂權(quán)值共享,就是其他神經(jīng)元的權(quán)值也使用這四個(gè)值,此時(shí)的位置和數(shù)值都是這樣對應(yīng)的,這里大家需要理解。即四個(gè)神經(jīng)元只有四個(gè)不同的權(quán)值,現(xiàn)在我們來算算,按照右邊的計(jì)算:

 全連接的權(quán)值數(shù):4x4x4=64(前面兩是像素點(diǎn),后面的4是神經(jīng)元,這里先不考慮偏置值) ,

局部連接的權(quán)值:4x4=16(4個(gè)神經(jīng)元,每個(gè)神經(jīng)元4個(gè)權(quán)值)

局部連接和權(quán)值共享: 4

 因此權(quán)值的數(shù)量就降低了,這就是通過局部連接和權(quán)值共享來解決BP的存在的問題,這里的理論依據(jù)就是根據(jù)上面說的感受野進(jìn)行簡化的,但是按照上圖的局部連接存在一個(gè)問題就是邊緣過度不平滑,會出現(xiàn)邊緣效應(yīng),為了解決這個(gè)問題引入了采樣窗口法使其彼此重疊,因?yàn)檫@樣做和卷積很類似,因此采樣窗口就稱為卷積核了,我們看這個(gè)窗口是怎么重疊的;

 

 假如采樣窗口為2x2,所謂重疊,我們每次左移一個(gè)像素點(diǎn)送給神經(jīng)元,往下移動(dòng)時(shí)也是這樣的,這樣就避免了邊緣效應(yīng)了

到這里基本上知道由來了,下面我們就正式介紹 LeNet5網(wǎng)絡(luò)

我們就按照這個(gè)圖詳細(xì)介紹CNN,首先需要說明的是,這里先不介紹該網(wǎng)絡(luò)的學(xué)習(xí)過程,先介紹網(wǎng)絡(luò)的整體架構(gòu),解釋每層的作用,后面再單獨(dú)介紹CNN的學(xué)習(xí)算法和學(xué)習(xí)過程。

 上圖包含輸入層總共8層網(wǎng)絡(luò),分別為:

輸入層(INPUT)、卷積層(Convolutions,C1)、池化層(Subsampling,S2)、卷積層(C3)、池化層(Subsampling,S4)、卷積層(C5)、全連接層(F6)、輸出層(徑向基層)

輸入層(INPUT):

輸入的手寫體是32x32像素的圖片,在論文里說輸入像素的值背景層(白色)的corresp值為-0.1,前景層(黑色)的corresp值              為 1.175。這使得平均輸入大約為0,而方差大約為1,從而加速了學(xué)習(xí),要求手寫體應(yīng)該在中心,即20x20以內(nèi)。

卷積層(Convolutions,C1): 提取特征

我們從上圖可以看到這里有6個(gè)特征平面(這里不應(yīng)該稱為卷積核,卷積核是滑動(dòng)窗口,通過卷積核提取特征的結(jié)果叫特            征平面),得到的每個(gè)特征平面使用的一個(gè)5x5的卷積核(這里說明窗口滑動(dòng)的權(quán)值就是卷積核的內(nèi)容,這里需要注意的是特征平面有6個(gè)說明有6個(gè)不同的卷積核,因此每個(gè)特征平面所使用的權(quán)值都是一樣的,這樣就得到了特征平面。那么特征平面有多少神經(jīng)元呢?如下圖,32x32通過一個(gè)5x5的卷積核運(yùn)算,根據(jù)局部連接和平滑,需要每次移動(dòng)1,因此從左移動(dòng)到右時(shí)是28,因此特征平面是28x28的,即每個(gè)特征平面有28x28個(gè)神經(jīng)元。如下圖,權(quán)值共享就是右邊的神經(jīng)元的權(quán)值都是w,這里大家需要好好理解,還是在解釋一下,6個(gè)特征平面對應(yīng)6個(gè)不同的卷積核或者6個(gè)濾波器,每個(gè)濾波器的參數(shù)值也就是權(quán)值都是一樣的,下圖就是卷積對應(yīng)的一個(gè)特征平面,這樣的平面有6個(gè),即卷積層有6個(gè)特征平面。

現(xiàn)在我們計(jì)算一下該層總共有多少個(gè)連接,有多少個(gè)待訓(xùn)練的權(quán)值呢?

連接數(shù),首先每個(gè)卷積核是5x5的,每個(gè)特征平面有28x28的神經(jīng)元(每個(gè)神經(jīng)元對應(yīng)一個(gè)偏置值),總共有6個(gè)特征平                面,因此連接數(shù)為:(5x5+1)x28x28x6 = 122304。

權(quán)值數(shù),首先每個(gè)特征平面神經(jīng)元共用一套權(quán)值,而每套權(quán)值取決于卷積核的大小,因此權(quán)值數(shù)為:(5x5+1)x6 = 156個(gè)

池化層(Subsampling,S2): 降低數(shù)據(jù)維度

池化層又叫下采樣層,目的是壓縮數(shù)據(jù),降低數(shù)據(jù)維度,如下圖所示,他和卷積有明顯的區(qū)別,這里采樣2x2的選擇框進(jìn) 行壓縮,如何壓縮呢,通過選擇框的數(shù)據(jù)求和再取平均值然后在乘上一個(gè)權(quán)值和加上一個(gè)偏置值,組成一個(gè)新的圖片,每個(gè)特征平面采樣的權(quán)值和偏置值都是一樣的,因此每個(gè)特征平面對應(yīng)的采樣層只兩個(gè)待訓(xùn)練的參數(shù)。如下圖4x4的圖片經(jīng)過采樣后還剩2x2,直接壓縮了4倍。本層具有激活函數(shù),為sigmod函數(shù),而卷積層沒有激活函數(shù)。

那我們看看S2層,他是使用2x2進(jìn)行采樣,原來是28x28的,采樣后就是14x14,總共有6張采樣平面,即每個(gè)特征平面對           應(yīng)一個(gè)采樣層的一個(gè)平面,總共的待訓(xùn)練的權(quán)值為:2x6=12

卷積層(C3):

這一層也是卷積層,和C2不同的是這一層有16個(gè)特征平面,那么16個(gè)特征平面是如何和上一層池化層是如何對應(yīng)的呢?這里的16個(gè)特征平面是這樣對應(yīng)的,每個(gè)特征平面對應(yīng)的卷積核,和池化層的多個(gè)平面進(jìn)行卷積。這里把C3的卷積層特征平面編號即0,1,2,...,15,把池化層S2也編號為0,1,2,3,4,5.這兩層具體如何對應(yīng)呢?如下圖

上面說了,C3層和S2的對應(yīng)關(guān)系和前面不一樣,主要體現(xiàn)在C3的每一個(gè)特征平面是對應(yīng)多個(gè)池化層的采樣數(shù)據(jù),如上圖,橫向的數(shù)表示卷積層C3的特征平面,縱向表示池化層的6個(gè)采樣平面,我們以卷積層C3的第0號特征平面為例,它對應(yīng)了池化層的前三個(gè)采樣平面即0,1,2,三個(gè)平面使用的是三個(gè)卷積核(每個(gè)采樣平面是卷積核相同,權(quán)值相等,大小為5x5),既然對應(yīng)三個(gè)池化層平面,那么也就是說有5x5x3個(gè)連接到卷積層特征平面的一個(gè)神經(jīng)元,因?yàn)槌鼗瘜铀械臉颖揪鶠?4x14的,而卷積窗口為5x5的,因此卷積特征平面為10x10(大家可按照第一個(gè)卷積計(jì)算求的)。只是這里的卷積操作要更復(fù)雜,他不是所有的都是特征平面對應(yīng)三個(gè)池化層平面,而是變化的,從上圖我們可以清楚的看到前6個(gè)特征平面對應(yīng)池化層的三個(gè)平面即0,1,2,3,4,5 , 而6~14每張?zhí)卣髌矫鎸?yīng)4個(gè)卷積層,此時(shí)每個(gè)特征平面的一個(gè)神經(jīng)元的連接數(shù)為5x5x4,最后一個(gè)特征平面是對應(yīng)池化層所有的樣本平面,這里大家好好理解。我們來計(jì)算一下連接數(shù)和待訓(xùn)練權(quán)值個(gè)數(shù):

連接數(shù): (5x5x3+1)x10x10x6+(5x5x4+1)x10x10x9+(5x5x6+1)x10x10 = 45600+90900+15100=151600

權(quán)值數(shù): (5x5x3+1)x6 + (5x5x4+1)x9 + 5x5x6+1  = 456 + 909+151 = 1516

這一層為什么要這樣做呢?為什么不和前面的一樣進(jìn)行卷積呢?Lecon的論文說,主要是為了打破對稱性,提取深層特征,因?yàn)樘卣鞑皇菍ΨQ的,因此需要打破這種對稱,以提取到更重要的特征,這樣設(shè)計(jì)的目的就是這個(gè)原因,大家好好體會,我們繼續(xù)往下看。

池化層(S4):

這一層采樣和前面的采樣是一樣的,使用的采樣窗口為2x2的,對C3層進(jìn)行采樣,得到16個(gè)采樣平面,此時(shí)的采樣平面為5x5的,這里不細(xì)講了,另外本層存在激活函數(shù),為sigmod函數(shù)。大家上面理解的話,這里還是很簡單的。我們繼續(xù)看下一層:

卷積層(C5):

這一層還是卷積層,且這一層的特征平面有120個(gè),每個(gè)特征平面是5x5的,而上一層的池化層S2只有16個(gè)平面且每個(gè)平面為5x5,本層使用的卷積核為5x5,因此和池化層正好匹配,那么怎么連接呢?很簡單就是這里每個(gè)特征平面連接池化層的所有的采樣層。這里稱呼特征平面已經(jīng)不合適了,因?yàn)槊總€(gè)卷積核只對應(yīng)一個(gè)神經(jīng)元了,因此本層只有120個(gè)神經(jīng)元并列排列,每個(gè)神經(jīng)元連接池化層的所有層。C5層的每個(gè)神經(jīng)元的連接數(shù)為5x5x16+1,因此總共的連接數(shù)為:(5x5x16+1)x120=48120,而這一層的權(quán)值和連接數(shù)一樣,因此也有48120個(gè)待訓(xùn)練權(quán)值。結(jié)合下面的圖看:

全連接層(F6):

這一層其實(shí)就是BP網(wǎng)絡(luò)的隱層,且為全連接層,即這一層有84個(gè)神經(jīng)元,每一個(gè)神經(jīng)元都和上一次的120個(gè)神經(jīng)元相連接,那么連接數(shù)為(120+1)x84 = 10164,因?yàn)闄?quán)值不共享,隱層權(quán)值數(shù)也是10164,至于為什么隱層是84個(gè)神經(jīng)元稍后解釋,本層的輸出有激活函數(shù),激活函數(shù)為雙曲正切函數(shù):                           

 根據(jù)論文解釋:A的幅值,S是原點(diǎn)處的傾斜率,A的經(jīng)驗(yàn)值是1.7159,原因沒說。

輸出層:該層有十個(gè)神經(jīng)元,可以理解這是對于手寫體10個(gè)數(shù),那個(gè)輸出的數(shù)大,那個(gè)神經(jīng)元代表的數(shù)字就是輸出,下面我們看看他是和F6層是如何連接的,他不在是BP的神經(jīng)輸出層,而是基于徑向基神經(jīng)網(wǎng)絡(luò)的輸出層,徑向基神經(jīng)網(wǎng)絡(luò)在上一節(jié)我們詳細(xì)探討了,上一節(jié)我們主要說了是關(guān)于高斯徑向基,這里使用的是更簡單的歐幾里得徑向基函數(shù),如下:

這公式是什么意思呢?

首先大家應(yīng)該明白什么是徑向基神經(jīng)網(wǎng)絡(luò),他基于距離進(jìn)行衡量兩個(gè)數(shù)據(jù)的相近程度的,RBF網(wǎng)最顯著的特點(diǎn)是隱節(jié)點(diǎn)采用輸人模式與中心向量的距離(如歐氏距離)作為函數(shù)的自變量,并使用徑向基函數(shù)(如函數(shù))作為激活函數(shù)。徑向基函數(shù)關(guān)于N維空間的一個(gè)中心點(diǎn)具有徑向?qū)ΨQ性,而且神經(jīng)元的輸人離該中心點(diǎn)越遠(yuǎn),神經(jīng)元的激活程度就越低。上式是基于歐幾里得距離,怎么理解那個(gè)式子呢?就是說F6層為84個(gè)輸入用x_j表示,而輸出有10個(gè)用y_i表示,而權(quán)值 使用w_{ji},上式說明所有輸入和權(quán)值的距離平方和為依據(jù)判斷,如果越相近距離越小,輸出越小則去哪個(gè),如果我們存儲的到w_{ji}的值為標(biāo)準(zhǔn)的輸出,如標(biāo)準(zhǔn)的手寫體0,1,2,3等,那么最后一層就說明。F6層和標(biāo)準(zhǔn)的作比較,和標(biāo)準(zhǔn)的那個(gè)圖形越相似就說明就越是那個(gè)字符的可能性更大。我們看看標(biāo)準(zhǔn)的是什么樣的:

 這里標(biāo)準(zhǔn)的每個(gè)字符都是像素都是12x7=84.這就是解釋了為什么F6層的神經(jīng)元為84個(gè),因?yàn)樗阉邢袼攸c(diǎn)和標(biāo)準(zhǔn)的比較在進(jìn)行判斷,因此從這里也可以看出,這里不僅僅可以訓(xùn)練手寫體數(shù)字,也可以識別其他字符,取決于w_{ji}和網(wǎng)絡(luò)的設(shè)計(jì),這些可以認(rèn)為修改的。例如我們讓他識別可打印的ASCII碼,把小圖片添加到這里就可以了,同時(shí)增加輸出的神經(jīng)元個(gè)數(shù)就可以完成了。再給出另外一個(gè)詳細(xì)的圖:

到這里本節(jié)就結(jié)束了,下一節(jié)我們將解釋該網(wǎng)絡(luò)的學(xué)習(xí)過程和權(quán)值更新是如何進(jìn)行的。

    本站是提供個(gè)人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多