算法,可以說(shuō)是很多技術(shù)的核心,而數(shù)據(jù)挖掘也是這樣的。數(shù)據(jù)挖掘中有很多的算法,正是這些算法的存在,我們的數(shù)據(jù)挖掘才能夠解決更多的問(wèn)題。如果我們掌握了這些算法,我們就能夠順利地進(jìn)行數(shù)據(jù)挖掘工作,在這篇文章我們就給大家簡(jiǎn)單介紹一下數(shù)據(jù)挖掘的經(jīng)典算法,希望能夠給大家?guī)?lái)幫助。 1.KNN算法 KNN算法的全名稱(chēng)叫做k-nearest neighbor classification,也就是K最近鄰,簡(jiǎn)稱(chēng)為KNN算法,這種分類(lèi)算法,是一個(gè)理論上比較成熟的方法,也是最簡(jiǎn)單的機(jī)器學(xué)習(xí)算法之一。該方法的思路是:如果一個(gè)樣本在特征空間中的k個(gè)最相似,即特征空間中最鄰近的樣本中的大多數(shù)屬于某一個(gè)類(lèi)別,則該樣本也屬于這個(gè)類(lèi)別。KNN算法常用于數(shù)據(jù)挖掘中的分類(lèi),起到了至關(guān)重要的作用。 2.Naive Bayes算法 在眾多的分類(lèi)模型中,應(yīng)用最為廣泛的兩種分類(lèi)模型是決策樹(shù)模型(Decision Tree Model)和樸素貝葉斯模型(Naive Bayesian Model,NBC)。樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類(lèi)效率。同時(shí),NBC模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡(jiǎn)單。理論上,NBC模型與其他分類(lèi)方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,這給NBC模型的正確分類(lèi)帶來(lái)了一定影響。在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),NBC模型的分類(lèi)效率比不上決策樹(shù)模型。而在屬性相關(guān)性較小時(shí),NBC模型的性能最為良好。這種算法在數(shù)據(jù)挖掘工作使用率還是挺高的,一名優(yōu)秀的數(shù)據(jù)挖掘師一定懂得使用這一種算法。 3.CART算法 CART, 也就是Classification and Regression Trees。就是我們常見(jiàn)的分類(lèi)與回歸樹(shù),在分類(lèi)樹(shù)下面有兩個(gè)關(guān)鍵的思想。第一個(gè)是關(guān)于遞歸地劃分自變量空間的想法;第二個(gè)想法是用驗(yàn)證數(shù)據(jù)進(jìn)行剪枝。這兩個(gè)思想也就決定了這種算法的地位。 在這篇文章中我們給大家介紹了關(guān)于KNN算法、Naive Bayes算法、CART算法的相關(guān)知識(shí),其實(shí)這三種算法在數(shù)據(jù)挖掘中占據(jù)著很高的地位,所以說(shuō)如果要從事數(shù)據(jù)挖掘行業(yè)一定不能忽略這些算法的學(xué)習(xí)。 |
|
來(lái)自: CDA數(shù)據(jù)分析師 > 《待分類(lèi)》