小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

用Java開源項目JOONE實現(xiàn)人工智能編程...

 accesine 2005-09-08
用Java開源項目JOONE實現(xiàn)人工智能編程
                                           簡介

  很少有程序員不對這里或者那里所包含的人工智能編程所吸引,然而,許多對AI感興趣的程序員很快就因其中包含的算法的復(fù)雜性而退卻。在本文中,我們將討論一個能大大簡化這種復(fù)雜性的Java開源工程。

  Java面向?qū)ο蟮纳窠?jīng)網(wǎng)絡(luò)(JOONE)是一開源工程,它提供給Java程序員一個高適應(yīng)性的神經(jīng)網(wǎng)絡(luò)。該JOONE工程源代碼由LGPL所保護。簡言之,這意味著源代碼是可自由使用的而且你不需要支付版稅就可以使用JOONE。JOONE可以從http://joone./處下載。

    JOONE能允許你輕易地從一個Java程序中創(chuàng)建神經(jīng)網(wǎng)絡(luò)。JOONE支持許多特征,如多線程和分布式處理。這意味著JOONE能利用多處理機計算機和多臺計算機的優(yōu)勢來進行分布式處理。

  神經(jīng)網(wǎng)絡(luò)

  JOONE用Java實現(xiàn)了一個人工神經(jīng)網(wǎng)絡(luò)。一個人工神經(jīng)網(wǎng)絡(luò)試圖仿效生物學(xué)神經(jīng)網(wǎng)絡(luò)的功能--神經(jīng)網(wǎng)絡(luò)組成今天在地球上幾乎所有高等生命的大腦形式。神經(jīng)網(wǎng)絡(luò)由神經(jīng)原組成。

     

    從圖1中你可以看出,神經(jīng)原由一個內(nèi)核細(xì)胞和幾個長長的稱為觸角的連接器組成。神經(jīng)原之間依靠這些觸角進行連接。無論是生物學(xué)的還是人工的神經(jīng)網(wǎng)絡(luò),都通過觸角把信號從一個神經(jīng)原傳遞到另一個神經(jīng)原來工作。

  使用JOONE

  在這篇文章中,你將看到一個簡單的怎樣使用JOONE的實例。神經(jīng)網(wǎng)絡(luò)題目涉及廣泛并覆蓋許多不同的應(yīng)用領(lǐng)域。在本文中,我們將展示給你怎樣使用JOONE來解決一個很簡單的模式識別問題。模式識別是神經(jīng)網(wǎng)絡(luò)中的最普遍的應(yīng)用之一。

  模式識別提供給神經(jīng)網(wǎng)絡(luò)一種模式,判斷是否該神經(jīng)網(wǎng)絡(luò)能夠識別出該模式。這種模式應(yīng)該能夠在某種程度上被扭曲而該神經(jīng)網(wǎng)絡(luò)仍然能夠識別它。這很像人類識別東西(如一個交通標(biāo)志)的能力。人類應(yīng)該能夠識別在下雨天,晴天或者晚上的交通標(biāo)志。即使這些圖像看上去可能相當(dāng)不同,但人類的大腦仍能夠判斷出它們是一樣的圖像。

  當(dāng)進行JOONE編程時,你一般要使用兩種類型的對象。你要使用神經(jīng)原層對象,用于描述一層的一個或多個的具有相似特征的神經(jīng)原。神經(jīng)網(wǎng)絡(luò)經(jīng)常有一層或兩層神經(jīng)元。這些神經(jīng)元層通過觸角聯(lián)系在一起。這些觸角把這種待識別的模式,從一個神經(jīng)元層傳輸?shù)搅硪粋€神經(jīng)元層。

  觸角不僅把這種模式從一個神經(jīng)元層傳輸?shù)搅硪粋€神經(jīng)元層。觸角還將生成一些指向這種模式的元素的斜線。這些斜線將導(dǎo)致這種模式的某些元素在被傳輸?shù)较乱粋€神經(jīng)元層時不如通過其它方式傳遞更有效些。這些斜線通常稱為權(quán)重,它們形成神經(jīng)網(wǎng)絡(luò)的存儲系統(tǒng)。通過調(diào)整存儲在觸角中的這些權(quán)重,可以更改神經(jīng)網(wǎng)絡(luò)的行為。

  觸角在JOONE中還承擔(dān)著另外一個角色。在JOONE中,可以把觸角看作是數(shù)據(jù)導(dǎo)管。正如觸角把模式從一個神經(jīng)元層傳輸?shù)搅硪粋€神經(jīng)元層,指定版本的觸角用于把模式傳入和傳出神經(jīng)網(wǎng)絡(luò)。下面將給你展示一個簡單的單層的神經(jīng)網(wǎng)絡(luò)是怎樣被構(gòu)建并進行模式識別的。

       訓(xùn)練神經(jīng)網(wǎng)絡(luò)

  為實現(xiàn)本文的目的,我們將指導(dǎo)JOONE去識別一個很簡單的模式。在這種模式中,我們將考察一個二進制的布爾操作,例如XOR。這個XOR操作的真值表列舉如下:

X
Y
X XOR Y
0 0 0
0 1 1
1 0 1
1 1 0

  正如你從上表中看到的,XOR運算的結(jié)果是只有當(dāng)X和Y具有不同值時,結(jié)果才為真(1)。其它情況下,XOR運算結(jié)果均為假(0)。默認(rèn)地,JOONE從存儲在你的系統(tǒng)中的文本文件中取得輸入。這些文本文件通過使用一種稱為FileInputSynapse的特殊觸角來讀取。為了訓(xùn)練XOR運算問題,你必須建立一個輸入文件-該文件包含上面顯示的數(shù)據(jù)。該文件顯示在列表1中。

  列表1:為解決XOR問題的輸入文件的內(nèi)容

0.0;0.0;0.0
0.0;1.0;1.0
1.0;0.0;1.0
1.0;1.0;0.0

  我們現(xiàn)在分析一個簡單的程序,它指導(dǎo)JOONE來識別XOR運算并產(chǎn)生正確的結(jié)果。我們現(xiàn)在分析訓(xùn)練該神經(jīng)網(wǎng)絡(luò)必須被處理的過程。訓(xùn)練過程包括把XOR問題提交給神經(jīng)網(wǎng)絡(luò),然后觀察結(jié)果。如果這個結(jié)果不是所預(yù)期的,該訓(xùn)練算法將調(diào)整存儲在觸角中的重量。在神經(jīng)網(wǎng)絡(luò)的實際輸出和預(yù)料的輸出之間的差距稱為誤差。訓(xùn)練將繼續(xù)到誤差小于一個可接受值為止。這個級別通常是一個百分?jǐn)?shù),如10%。我們現(xiàn)在分析必須用于訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)的代碼。

  訓(xùn)練過程通過建立神經(jīng)網(wǎng)絡(luò)開始,同時也必須創(chuàng)建隱蔽的輸入層和輸出層。

// 首先,創(chuàng)造這三個層
input = new SigmoidLayer();
hidden = new SigmoidLayer();
output = new SigmoidLayer();

  每個層被使用JOONE對象SigmoidLayer創(chuàng)建。Sigmoidlayer基于自然對數(shù)生成一個輸出。JOONE還包含另外的層,而不是你可能選擇使用的S形的層類型。

  下一步,每一層被賦于一個名字。這些名字將有助于后面在調(diào)試期間識別該層。

input.setLayerName("input");
hidden.setLayerName("hidden");
output.setLayerName("output");

  現(xiàn)在必須定義每個層。我們將指定在每一層中的"行"號。該"行"號對應(yīng)于這一層中的神經(jīng)原的數(shù)目。

input.setRows(2);
hidden.setRows(3);
output.setRows(1);

  從上面的代碼看出,輸入層有兩個神經(jīng)原,隱蔽層有三個隱蔽神經(jīng)原,輸出層包含一個神經(jīng)原。這對于神經(jīng)網(wǎng)絡(luò)包含兩個輸入神經(jīng)原和一個輸出神經(jīng)原是具有重要意義的,因為XOR運算符接收兩個參數(shù)而產(chǎn)生一個結(jié)果。

  為使用該神經(jīng)原層,我們也必須創(chuàng)建觸角。在本例中,我們要使用多個觸角。這些觸角用下面的代碼實現(xiàn)。

// 輸入-> 隱蔽的連接。
FullSynapse synapse_IH = new FullSynapse();
// 隱蔽-> 輸出連接。
FullSynapse synapse_HO = new FullSynapse();

  就象神經(jīng)原層的情況一樣,觸角也可能命名以有助于程序的調(diào)試。下面的代碼命名新建的觸角。

synapse_IH.setName("IH");
synapse_HO.setName("HO");

  最后,我們必須把觸角聯(lián)接到適當(dāng)神經(jīng)原層。下面的代碼實現(xiàn)這一點。

// 聯(lián)接輸入層到隱蔽層
input.addOutputSynapse(synapse_IH);
hidden.addInputSynapse(synapse_IH);
// 聯(lián)接隱蔽層到輸出層
hidden.addOutputSynapse(synapse_HO);
output.addInputSynapse(synapse_HO);

  現(xiàn)在既然神經(jīng)網(wǎng)絡(luò)已被創(chuàng)建,我們必須創(chuàng)建一個用于調(diào)節(jié)該神經(jīng)網(wǎng)絡(luò)的監(jiān)視器對象。下面的代碼創(chuàng)建監(jiān)視器對象。

//創(chuàng)建監(jiān)視器對象并且設(shè)置學(xué)習(xí)參數(shù)
monitor = new Monitor();
monitor.setLearningRate(0.8);
monitor.setMomentum(0.3);

  學(xué)習(xí)速度和動力作為參數(shù)以用于指定訓(xùn)練的產(chǎn)生方式。JOONE利用backpropagation學(xué)習(xí)算法。要更多了解關(guān)于學(xué)習(xí)速度或者動力的信息,你應(yīng)該參考backpropagation算法。

  這個監(jiān)視器對象應(yīng)該被賦值給每一個神經(jīng)原層。下面的代碼實現(xiàn)這一點。

input.setMonitor(monitor);
hidden.setMonitor(monitor);
output.setMonitor(monitor);

  就象許多Java對象本身一樣,JOONE監(jiān)視器允許聽者可以添加到它上面去。隨著訓(xùn)練的進行,JOONE將通知聽者有關(guān)訓(xùn)練進程的信息。在這個簡單的例子中,我們使用:

monitor.addNeuralNetListener(this);

  我們現(xiàn)在必須建立輸入觸角。如前所述,我們將使用一個FileInputSynapse來讀取一個磁盤文件。磁盤文件不是JOONE唯一能夠接受的輸入種類。JOONE對于不同的輸入源具有很強的靈活性。為使JOONE能夠接收其它輸入類型,你只需創(chuàng)建一個新的觸角來接受輸入。在本例中,我們將簡單地使用FileInputSynapse。FileInputSynapse首先被實例化。

inputStream = new FileInputSynapse();

  然后,必須通知FileInputSynapse要使用哪些列。列表1中顯示的文件使用了輸入數(shù)據(jù)的前兩列。下面代碼建立起前兩列用于輸入到神經(jīng)網(wǎng)絡(luò)。

// 前兩列包含輸入值
inputStream.setFirstCol(1);
inputStream.setLastCol(2);

  然后,我們必須提供輸入文件的名字,這個名字直接來源于用戶接口。然后,提供一個編輯控件用于收集輸入文件的名字。下面代碼為FileInputSynapse設(shè)置文件名。

// 這是包含輸入數(shù)據(jù)的文件名
inputStream.setFileName(inputFile.getText());

  如前所述,一個觸角僅是一個神經(jīng)原層之間的數(shù)據(jù)導(dǎo)管。FileInputSynapse正是這里的數(shù)據(jù)導(dǎo)管,通過它數(shù)據(jù)進入到神經(jīng)網(wǎng)絡(luò)。為了更容易實現(xiàn)這點,我們必須要把FileInputSynapse加到神經(jīng)網(wǎng)絡(luò)的輸入層。這由下面一行實現(xiàn)。

input.addInputSynapse(inputStream);

  現(xiàn)在既然已經(jīng)建立起神經(jīng)網(wǎng)絡(luò),我們必須創(chuàng)建一個訓(xùn)練員和一個監(jiān)視器。訓(xùn)練員用于訓(xùn)練該神經(jīng)網(wǎng)絡(luò),因為該監(jiān)視器通過一個事先設(shè)置好的訓(xùn)練重復(fù)數(shù)來運行這個神經(jīng)網(wǎng)絡(luò)。對于每一次訓(xùn)練重復(fù),數(shù)據(jù)被提供到神經(jīng)網(wǎng)絡(luò),然后就可以觀察到結(jié)果。該神經(jīng)網(wǎng)絡(luò)的權(quán)重(存儲在穿梭在神經(jīng)原層之間的觸角連接中)將根據(jù)誤差作適當(dāng)調(diào)整。隨著訓(xùn)練的進行,誤差級將下降。下列代碼建立訓(xùn)練員并把它依附到監(jiān)視器。

trainer = new TeachingSynapse();
trainer.setMonitor(monitor);

  你會記得列表1中提供的輸入文件包含三個列。到目前為止,我們僅僅使用了第一、二列,它們指定了到神經(jīng)網(wǎng)絡(luò)的輸入。第三列包含當(dāng)提供給神經(jīng)網(wǎng)絡(luò)第一列中的數(shù)字時的期盼的輸出值。我們必須使得訓(xùn)練員能夠存取該列以便能確定誤差。該錯誤是神經(jīng)網(wǎng)絡(luò)的實際輸出和期盼的輸出之間的差距。下列代碼創(chuàng)建另外一個FileInputSynapse并作好準(zhǔn)備以讀取與前面相同的輸入文件。

// 設(shè)置包含期望的響應(yīng)值的文件,這由FileInputSynapse來提供
samples = new FileInputSynapse();
samples.setFileName(inputFile.getText());

  這時,我們想指向在第三列的FileInputSynapse。下列代碼實現(xiàn)了這一點,然后讓訓(xùn)練員使用這個FileInputSynapse。

//輸出值在文件中的第三列上
samples.setFirstCol(3);
samples.setLastCol(3);
trainer.setDesired(samples);

  最后,訓(xùn)練員被連結(jié)到神經(jīng)網(wǎng)絡(luò)輸出層,這將使訓(xùn)練員接收神經(jīng)網(wǎng)絡(luò)的輸出。

// 連接訓(xùn)練員到網(wǎng)絡(luò)的最后一層
output.addOutputSynapse(trainer);

  我們現(xiàn)在已為所有的層準(zhǔn)備好后臺線程,包括訓(xùn)練員。

input.start();
hidden.start();
output.start();
trainer.start();

  最后,我們?yōu)橛?xùn)練設(shè)置一些參數(shù)。我們指定在輸入文件中共有四行,而且想訓(xùn)練20,000個周期,而且還在不段學(xué)習(xí)。如果你設(shè)置學(xué)習(xí)參數(shù)為false,該神經(jīng)網(wǎng)絡(luò)將簡單地處理輸入并不進行學(xué)習(xí)。我們將在下一節(jié)討論輸入處理。

monitor.setPatterns(4);
monitor.setTotCicles(20000);
monitor.setLearning(true);

  現(xiàn)在我們已經(jīng)為訓(xùn)練過程作好準(zhǔn)備。調(diào)用監(jiān)視器的Go方法將在后臺啟動訓(xùn)練過程。

monitor.Go();

  神經(jīng)網(wǎng)絡(luò)現(xiàn)在將要被訓(xùn)練20,000個周期。當(dāng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成,誤差層應(yīng)該在一個合理的低級別上。一般低于10%的誤差級是可接受的。

       訓(xùn)練神經(jīng)網(wǎng)絡(luò)

  為實現(xiàn)本文的目的,我們將指導(dǎo)JOONE去識別一個很簡單的模式。在這種模式中,我們將考察一個二進制的布爾操作,例如XOR。這個XOR操作的真值表列舉如下:

X
Y
X XOR Y
0 0 0
0 1 1
1 0 1
1 1 0

  正如你從上表中看到的,XOR運算的結(jié)果是只有當(dāng)X和Y具有不同值時,結(jié)果才為真(1)。其它情況下,XOR運算結(jié)果均為假(0)。默認(rèn)地,JOONE從存儲在你的系統(tǒng)中的文本文件中取得輸入。這些文本文件通過使用一種稱為FileInputSynapse的特殊觸角來讀取。為了訓(xùn)練XOR運算問題,你必須建立一個輸入文件-該文件包含上面顯示的數(shù)據(jù)。該文件顯示在列表1中。

  列表1:為解決XOR問題的輸入文件的內(nèi)容

0.0;0.0;0.0
0.0;1.0;1.0
1.0;0.0;1.0
1.0;1.0;0.0

  我們現(xiàn)在分析一個簡單的程序,它指導(dǎo)JOONE來識別XOR運算并產(chǎn)生正確的結(jié)果。我們現(xiàn)在分析訓(xùn)練該神經(jīng)網(wǎng)絡(luò)必須被處理的過程。訓(xùn)練過程包括把XOR問題提交給神經(jīng)網(wǎng)絡(luò),然后觀察結(jié)果。如果這個結(jié)果不是所預(yù)期的,該訓(xùn)練算法將調(diào)整存儲在觸角中的重量。在神經(jīng)網(wǎng)絡(luò)的實際輸出和預(yù)料的輸出之間的差距稱為誤差。訓(xùn)練將繼續(xù)到誤差小于一個可接受值為止。這個級別通常是一個百分?jǐn)?shù),如10%。我們現(xiàn)在分析必須用于訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)的代碼。

  訓(xùn)練過程通過建立神經(jīng)網(wǎng)絡(luò)開始,同時也必須創(chuàng)建隱蔽的輸入層和輸出層。

// 首先,創(chuàng)造這三個層
input = new SigmoidLayer();
hidden = new SigmoidLayer();
output = new SigmoidLayer();

  每個層被使用JOONE對象SigmoidLayer創(chuàng)建。Sigmoidlayer基于自然對數(shù)生成一個輸出。JOONE還包含另外的層,而不是你可能選擇使用的S形的層類型。

  下一步,每一層被賦于一個名字。這些名字將有助于后面在調(diào)試期間識別該層。

input.setLayerName("input");
hidden.setLayerName("hidden");
output.setLayerName("output");

  現(xiàn)在必須定義每個層。我們將指定在每一層中的"行"號。該"行"號對應(yīng)于這一層中的神經(jīng)原的數(shù)目。

input.setRows(2);
hidden.setRows(3);
output.setRows(1);

  從上面的代碼看出,輸入層有兩個神經(jīng)原,隱蔽層有三個隱蔽神經(jīng)原,輸出層包含一個神經(jīng)原。這對于神經(jīng)網(wǎng)絡(luò)包含兩個輸入神經(jīng)原和一個輸出神經(jīng)原是具有重要意義的,因為XOR運算符接收兩個參數(shù)而產(chǎn)生一個結(jié)果。

  為使用該神經(jīng)原層,我們也必須創(chuàng)建觸角。在本例中,我們要使用多個觸角。這些觸角用下面的代碼實現(xiàn)。

// 輸入-> 隱蔽的連接。
FullSynapse synapse_IH = new FullSynapse();
// 隱蔽-> 輸出連接。
FullSynapse synapse_HO = new FullSynapse();

  就象神經(jīng)原層的情況一樣,觸角也可能命名以有助于程序的調(diào)試。下面的代碼命名新建的觸角。

synapse_IH.setName("IH");
synapse_HO.setName("HO");

  最后,我們必須把觸角聯(lián)接到適當(dāng)神經(jīng)原層。下面的代碼實現(xiàn)這一點。

// 聯(lián)接輸入層到隱蔽層
input.addOutputSynapse(synapse_IH);
hidden.addInputSynapse(synapse_IH);
// 聯(lián)接隱蔽層到輸出層
hidden.addOutputSynapse(synapse_HO);
output.addInputSynapse(synapse_HO);

  現(xiàn)在既然神經(jīng)網(wǎng)絡(luò)已被創(chuàng)建,我們必須創(chuàng)建一個用于調(diào)節(jié)該神經(jīng)網(wǎng)絡(luò)的監(jiān)視器對象。下面的代碼創(chuàng)建監(jiān)視器對象。

//創(chuàng)建監(jiān)視器對象并且設(shè)置學(xué)習(xí)參數(shù)
monitor = new Monitor();
monitor.setLearningRate(0.8);
monitor.setMomentum(0.3);

  學(xué)習(xí)速度和動力作為參數(shù)以用于指定訓(xùn)練的產(chǎn)生方式。JOONE利用backpropagation學(xué)習(xí)算法。要更多了解關(guān)于學(xué)習(xí)速度或者動力的信息,你應(yīng)該參考backpropagation算法。

  這個監(jiān)視器對象應(yīng)該被賦值給每一個神經(jīng)原層。下面的代碼實現(xiàn)這一點。

input.setMonitor(monitor);
hidden.setMonitor(monitor);
output.setMonitor(monitor);

  就象許多Java對象本身一樣,JOONE監(jiān)視器允許聽者可以添加到它上面去。隨著訓(xùn)練的進行,JOONE將通知聽者有關(guān)訓(xùn)練進程的信息。在這個簡單的例子中,我們使用:

monitor.addNeuralNetListener(this);

  我們現(xiàn)在必須建立輸入觸角。如前所述,我們將使用一個FileInputSynapse來讀取一個磁盤文件。磁盤文件不是JOONE唯一能夠接受的輸入種類。JOONE對于不同的輸入源具有很強的靈活性。為使JOONE能夠接收其它輸入類型,你只需創(chuàng)建一個新的觸角來接受輸入。在本例中,我們將簡單地使用FileInputSynapse。FileInputSynapse首先被實例化。

inputStream = new FileInputSynapse();

  然后,必須通知FileInputSynapse要使用哪些列。列表1中顯示的文件使用了輸入數(shù)據(jù)的前兩列。下面代碼建立起前兩列用于輸入到神經(jīng)網(wǎng)絡(luò)。

// 前兩列包含輸入值
inputStream.setFirstCol(1);
inputStream.setLastCol(2);

  然后,我們必須提供輸入文件的名字,這個名字直接來源于用戶接口。然后,提供一個編輯控件用于收集輸入文件的名字。下面代碼為FileInputSynapse設(shè)置文件名。

// 這是包含輸入數(shù)據(jù)的文件名
inputStream.setFileName(inputFile.getText());

  如前所述,一個觸角僅是一個神經(jīng)原層之間的數(shù)據(jù)導(dǎo)管。FileInputSynapse正是這里的數(shù)據(jù)導(dǎo)管,通過它數(shù)據(jù)進入到神經(jīng)網(wǎng)絡(luò)。為了更容易實現(xiàn)這點,我們必須要把FileInputSynapse加到神經(jīng)網(wǎng)絡(luò)的輸入層。這由下面一行實現(xiàn)。

input.addInputSynapse(inputStream);

  現(xiàn)在既然已經(jīng)建立起神經(jīng)網(wǎng)絡(luò),我們必須創(chuàng)建一個訓(xùn)練員和一個監(jiān)視器。訓(xùn)練員用于訓(xùn)練該神經(jīng)網(wǎng)絡(luò),因為該監(jiān)視器通過一個事先設(shè)置好的訓(xùn)練重復(fù)數(shù)來運行這個神經(jīng)網(wǎng)絡(luò)。對于每一次訓(xùn)練重復(fù),數(shù)據(jù)被提供到神經(jīng)網(wǎng)絡(luò),然后就可以觀察到結(jié)果。該神經(jīng)網(wǎng)絡(luò)的權(quán)重(存儲在穿梭在神經(jīng)原層之間的觸角連接中)將根據(jù)誤差作適當(dāng)調(diào)整。隨著訓(xùn)練的進行,誤差級將下降。下列代碼建立訓(xùn)練員并把它依附到監(jiān)視器。

trainer = new TeachingSynapse();
trainer.setMonitor(monitor);

  你會記得列表1中提供的輸入文件包含三個列。到目前為止,我們僅僅使用了第一、二列,它們指定了到神經(jīng)網(wǎng)絡(luò)的輸入。第三列包含當(dāng)提供給神經(jīng)網(wǎng)絡(luò)第一列中的數(shù)字時的期盼的輸出值。我們必須使得訓(xùn)練員能夠存取該列以便能確定誤差。該錯誤是神經(jīng)網(wǎng)絡(luò)的實際輸出和期盼的輸出之間的差距。下列代碼創(chuàng)建另外一個FileInputSynapse并作好準(zhǔn)備以讀取與前面相同的輸入文件。

// 設(shè)置包含期望的響應(yīng)值的文件,這由FileInputSynapse來提供
samples = new FileInputSynapse();
samples.setFileName(inputFile.getText());

  這時,我們想指向在第三列的FileInputSynapse。下列代碼實現(xiàn)了這一點,然后讓訓(xùn)練員使用這個FileInputSynapse。

//輸出值在文件中的第三列上
samples.setFirstCol(3);
samples.setLastCol(3);
trainer.setDesired(samples);

  最后,訓(xùn)練員被連結(jié)到神經(jīng)網(wǎng)絡(luò)輸出層,這將使訓(xùn)練員接收神經(jīng)網(wǎng)絡(luò)的輸出。

// 連接訓(xùn)練員到網(wǎng)絡(luò)的最后一層
output.addOutputSynapse(trainer);

  我們現(xiàn)在已為所有的層準(zhǔn)備好后臺線程,包括訓(xùn)練員。

input.start();
hidden.start();
output.start();
trainer.start();

  最后,我們?yōu)橛?xùn)練設(shè)置一些參數(shù)。我們指定在輸入文件中共有四行,而且想訓(xùn)練20,000個周期,而且還在不段學(xué)習(xí)。如果你設(shè)置學(xué)習(xí)參數(shù)為false,該神經(jīng)網(wǎng)絡(luò)將簡單地處理輸入并不進行學(xué)習(xí)。我們將在下一節(jié)討論輸入處理。

monitor.setPatterns(4);
monitor.setTotCicles(20000);
monitor.setLearning(true);

  現(xiàn)在我們已經(jīng)為訓(xùn)練過程作好準(zhǔn)備。調(diào)用監(jiān)視器的Go方法將在后臺啟動訓(xùn)練過程。

monitor.Go();

  神經(jīng)網(wǎng)絡(luò)現(xiàn)在將要被訓(xùn)練20,000個周期。當(dāng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成,誤差層應(yīng)該在一個合理的低級別上。一般低于10%的誤差級是可接受的。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多