小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

K Nearest Neighbor 算法 | 酷殼

 ShangShujie 2012-09-04

K Nearest Neighbor 算法

2012年8月17日 發(fā)表評論 閱讀評論 4,091 人閱讀    

K Nearest Neighbor算法又叫KNN算法,這個算法是機器學(xué)習(xí)里面一個比較經(jīng)典的算法, 總體來說KNN算法是相對比較容易理解的算法。其中的K表示最接近自己的K個數(shù)據(jù)樣本。KNN算法和K-Means算法不同的是,K-Means算法用來聚類,用來判斷哪些東西是一個比較相近的類型,而KNN算法是用來做歸類的,也就是說,有一個樣本空間里的樣本分成很幾個類型,然后,給定一個待分類的數(shù)據(jù),通過計算接近自己最近的K個樣本來判斷這個待分類數(shù)據(jù)屬于哪個分類。你可以簡單的理解為由那離自己最近的K個點來投票決定待分類數(shù)據(jù)歸為哪一類。

Wikipedia上的KNN詞條中有一個比較經(jīng)典的圖如下:

從上圖中我們可以看到,圖中的有兩個類型的樣本數(shù)據(jù),一類是藍色的正方形,另一類是紅色的三角形。而那個綠色的圓形是我們待分類的數(shù)據(jù)。

  • 如果K=3,那么離綠色點最近的有2個紅色三角形和1個藍色的正方形,這3個點投票,于是綠色的這個待分類點屬于紅色的三角形。
  • 如果K=5,那么離綠色點最近的有2個紅色三角形和3個藍色的正方形,這5個點投票,于是綠色的這個待分類點屬于藍色的正方形。

我們可以看到,機器學(xué)習(xí)的本質(zhì)——是基于一種數(shù)據(jù)統(tǒng)計的方法!那么,這個算法有什么用呢?我們來看幾個示例。

產(chǎn)品質(zhì)量判斷

假設(shè)我們需要判斷紙巾的品質(zhì)好壞,紙巾的品質(zhì)好壞可以抽像出兩個向量,一個是“酸腐蝕的時間”,一個是“能承受的壓強”。如果我們的樣本空間如下:(所謂樣本空間,又叫Training Data,也就是用于機器學(xué)習(xí)的數(shù)據(jù))

向量X1

耐酸時間(秒)

向量X2

圧強(公斤/平方米)

品質(zhì)Y

7

7

7

4

3

4

1

4

那么,如果 X1 = 3 和 X2 = 7, 這個毛巾的品質(zhì)是什么呢?這里就可以用到KNN算法來判斷了。

假設(shè)K=3,K應(yīng)該是一個奇數(shù),這樣可以保證不會有平票,下面是我們計算(3,7)到所有點的距離。(關(guān)于那些距離公式,可以參看K-Means算法中的距離公式

向量X1

耐酸時間(秒)

向量X2

圧強(公斤/平方米)

計算到 (3, 7)的距離

向量Y

7

7

 壞

7

4

 N/A

3

4

 好

1

4

 好

所以,最后的投票,好的有2票,壞的有1票,最終需要測試的(3,7)是合格品。(當然,你還可以使用權(quán)重——可以把距離值做為權(quán)重,越近的權(quán)重越大,這樣可能會更準確一些)

注:示例來自這里K-NearestNeighbors Excel表格下載

預(yù)測

假設(shè)我們有下面一組數(shù)據(jù),假設(shè)X是流逝的秒數(shù),Y值是隨時間變換的一個數(shù)值(你可以想像是股票值)

那么,當時間是6.5秒的時候,Y值會是多少呢?我們可以用KNN算法來預(yù)測之。

這里,讓我們假設(shè)K=2,于是我們可以計算所有X點到6.5的距離,如:X=5.1,距離是 | 6.5 – 5.1 | = 1.4, X = 1.2 那么距離是 | 6.5 – 1.2 | = 5.3 。于是我們得到下面的表:

注意,上圖中因為K=2,所以得到X=4 和 X =5.1的點最近,得到的Y的值分別為27和8,在這種情況下,我們可以簡單的使用平均值來計算:

于是,最終預(yù)測的數(shù)值為:17.5

注:示例來自這里KNN_TimeSeries Excel表格下載

插值,平滑曲線

KNN算法還可以用來做平滑曲線用,這個用法比較另類。假如我們的樣本數(shù)據(jù)如下(和上面的一樣):

要平滑這些點,我們需要在其中插入一些值,比如我們用步長為0.1開始插值,從0到6開始,計算到所有X點的距離(絕對值),下圖給出了從0到0.5 的數(shù)據(jù):

下圖給出了從2.5到3.5插入的11個值,然后計算他們到各個X的距離,假值K=4,那么我們就用最近4個X的Y值,然后求平均值,得到下面的表:

于是可以從0.0, 0.1, 0.2, 0.3 …. 1.1, 1.2, 1.3…..3.1, 3.2…..5.8, 5.9, 6.0 一個大表,跟據(jù)K的取值不同,得到下面的圖:

注:示例來自這里KNN_Smoothing Excel表格下載

后記

最后,我想再多說兩個事,

1) 一個是機器學(xué)習(xí),算法基本上都比較簡單,最難的是數(shù)學(xué)建模,把那些業(yè)務(wù)中的特性抽象成向量的過程,另一個是選取適合模型的數(shù)據(jù)樣本。這兩個事都不是簡單的事。算法反而是比較簡單的事。

2)對于KNN算法中找到離自己最近的K個點,是一個很經(jīng)典的算法面試題,需要使用到的數(shù)據(jù)結(jié)構(gòu)是“最大堆——Max Heap”,一種二叉樹。你可以看看相關(guān)的算法。

(全文完)

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多