發(fā)文章
發(fā)文工具
撰寫
網(wǎng)文摘手
文檔
視頻
思維導(dǎo)圖
隨筆
相冊(cè)
原創(chuàng)同步助手
其他工具
圖片轉(zhuǎn)文字
文件清理
AI助手
留言交流
目錄:
第1章機(jī)器學(xué)習(xí)概述1.1什么是機(jī)器學(xué)習(xí)1.2機(jī)器學(xué)習(xí)的分類1.2.1基本分類1.2.2監(jiān)督學(xué)習(xí)及其功能分類1.3構(gòu)建機(jī)器學(xué)習(xí)系統(tǒng)1.3.1機(jī)器學(xué)習(xí)的基本元素1.3.2機(jī)器學(xué)習(xí)的一些基本概念1.3.3機(jī)器學(xué)習(xí)模型的性能評(píng)估1.4通過簡(jiǎn)單示例理解機(jī)器學(xué)習(xí)1.4.1一個(gè)簡(jiǎn)單的回歸示例1.4.2一個(gè)簡(jiǎn)單的分類示例1.5訓(xùn)練、驗(yàn)證與測(cè)試1.6深度學(xué)習(xí)簡(jiǎn)介1.7本章小結(jié)習(xí)題第2章統(tǒng)計(jì)與優(yōu)化基礎(chǔ)2.1概率基礎(chǔ)2.1.1離散隨機(jī)變量 2.1.2連續(xù)隨機(jī)變量 2.1.3隨機(jī)變量的基本特征2.1.4隨機(jī)特征的蒙特卡洛逼近2.2概率實(shí)例2.2.1離散隨機(jī)變量示例2.2.2高斯分布2.2.3指數(shù)族2.2.4混合高斯過程2.2.5馬爾可夫過程2.3似然估計(jì)2.4貝葉斯估計(jì)——后驗(yàn)估計(jì)2.5隨機(jī)變量的熵特征2.5.1熵的定義和基本性質(zhì)2.5.2KL散度、互信息和負(fù)熵2.6非參數(shù)方法2.7優(yōu)化技術(shù)概述2.7.1基本優(yōu)化算法2.7.2拉格朗日方法2.8本章小結(jié)習(xí)題第3章貝葉斯決策3.1機(jī)器學(xué)習(xí)中的決策3.2分類的決策3.2.1加權(quán)錯(cuò)誤率準(zhǔn)則3.2.2拒絕判決3.3回歸的決策3.4高斯情況下的分類決策3.4.1相同協(xié)方差矩陣情況的二分類3.4.2不同協(xié)方差矩陣情況的二分類3.4.3多分類情況3.5KNN方法*3.6概率圖模型概述3.6.1貝葉斯網(wǎng)絡(luò)3.6.2無向圖模型3.6.3圖模型的學(xué)習(xí)與推斷3.7本章小結(jié)習(xí)題第4章基本回歸算法4.1線性回歸4.1.1基本線性回歸4.1.2線性回歸的遞推學(xué)習(xí)4.1.3正則化線性回歸4.1.4多輸出線性回歸*4.2稀疏線性回歸Lasso4.2.1Lasso的循環(huán)坐標(biāo)下降算法4.2.2Lasso的LAR算法4.3線性基函數(shù)回歸*4.4奇異值分解4.5回歸學(xué)習(xí)的誤差分解4.6本章小結(jié)習(xí)題第5章基本分類學(xué)習(xí)5.1基本分類問題5.2線性判別函數(shù)模型5.2.1Fisher線性判別分析*5.2.2感知機(jī)5.3邏輯回歸5.3.1二分類問題的邏輯回歸5.3.2多分類問題的邏輯回歸5.4樸素貝葉斯方法*5.5機(jī)器學(xué)習(xí)理論簡(jiǎn)介5.5.1假設(shè)空間有限時(shí)的泛化誤差界5.5.2假設(shè)空間無限時(shí)的泛化誤差界5.6本章小結(jié)習(xí)題第6章支持向量機(jī)與核函數(shù)方法6.1線性支持向量機(jī)6.1.1不等式約束的優(yōu)化6.1.2線性可分情況的SVM6.1.3不可分情況的SVM6.1.4合頁損失函數(shù)6.1.5SVM用于多分類問題6.2非線性支持向量機(jī)6.2.1SVM分類算法小結(jié)*6.2.2SMO算法6.3支持向量回歸*6.4核函數(shù)方法6.5本章小結(jié)習(xí)題第7章決策樹7.1基本決策樹算法7.1.1決策樹的基本結(jié)構(gòu)7.1.2信息增益和ID3算法7.1.3信息增益率和C4.5算法7.2CART算法7.2.1分類樹7.2.2回歸樹7.3決策樹的一些實(shí)際問題7.3.1連續(xù)數(shù)值變量7.3.2正則化和剪枝技術(shù)7.3.3缺失屬性的訓(xùn)練樣本問題7.4本章小結(jié)習(xí)題第8章集成學(xué)習(xí)8.1Bagging和隨機(jī)森林8.1.1自助采樣和Bagging算法8.1.2隨機(jī)森林算法8.2提升和AdaBoost算法8.2.1AdaBoost算法介紹*8.2.2AdaBoost算法分析8.3提升樹算法8.3.1加法模型和提升樹8.3.2梯度提升樹8.4本章小結(jié)習(xí)題第9章神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之一: 基礎(chǔ)9.1神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)9.1.1神經(jīng)元結(jié)構(gòu)9.1.2多層神經(jīng)網(wǎng)絡(luò)解決異或問題9.1.3多層感知機(jī)9.1.4神經(jīng)網(wǎng)絡(luò)的逼近定理9.2神經(jīng)網(wǎng)絡(luò)的目標(biāo)函數(shù)和優(yōu)化9.2.1神經(jīng)網(wǎng)絡(luò)的目標(biāo)函數(shù)9.2.2神經(jīng)網(wǎng)絡(luò)的優(yōu)化9.3誤差反向傳播算法9.3.1反向傳播算法的推導(dǎo)9.3.2反向傳播算法的向量形式9.3.3反向傳播算法的擴(kuò)展9.4神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中的一些問題9.4.1初始化9.4.2正則化9.4.3幾類等價(jià)正則化技術(shù)9.5本章小結(jié)習(xí)題第10章神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之二: 結(jié)構(gòu)10.1卷積神經(jīng)網(wǎng)絡(luò)10.1.1卷積運(yùn)算及其物理意義10.1.2基本CNN的結(jié)構(gòu)10.1.3CNN的參數(shù)學(xué)習(xí)*10.1.4卷積的一些擴(kuò)展結(jié)構(gòu)*10.1.5CNN示例介紹10.2循環(huán)神經(jīng)網(wǎng)絡(luò)10.2.1基本RNN10.2.2RNN的計(jì)算和訓(xùn)練*10.2.3長(zhǎng)短期記憶模型*10.2.4門控循環(huán)單元10.3本章小結(jié)習(xí)題第11章神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之三: 技術(shù)和應(yīng)用11.1深度學(xué)習(xí)中的優(yōu)化算法11.1.1小批量SGD算法11.1.2動(dòng)量SGD算法11.1.3自適應(yīng)學(xué)習(xí)率算法11.2深度學(xué)習(xí)訓(xùn)練的正則化技術(shù)11.2.1Dropout技術(shù)11.2.2批歸一化*11.2.3層歸一化*11.3對(duì)抗訓(xùn)練*11.4自編碼器11.4.1自編碼器的基本結(jié)構(gòu)11.4.2自編碼器的一些擴(kuò)展*11.5生成對(duì)抗網(wǎng)絡(luò)*11.6注意力機(jī)制和Transformer11.6.1注意力機(jī)制11.6.2序列到序列模型11.6.3Transformer11.7本章小結(jié)第12章聚類和EM算法12.1聚類算法12.1.1K均值聚類算法12.1.2DBSCAN聚類算法12.1.3其他度量和聚類算法12.2EM算法12.2.1EM算法的隱變量形式12.2.2獨(dú)立同分布情況*12.2.3EM算法擴(kuò)展到MAP估計(jì)*12.2.4通過KL散度對(duì)EM算法的解釋12.3基于EM算法的高斯混合模型參數(shù)估計(jì)12.3.1GMM參數(shù)估計(jì)12.3.2GMM的軟聚類12.4本章小結(jié)習(xí)題第13章降維和連續(xù)隱變量學(xué)習(xí)13.1主分量分析13.1.1主分量分析原理13.1.2廣義Hebb算法*13.2樣本向量的白化和正交化13.2.1樣本向量的白化13.2.2向量集的正交化*13.3獨(dú)立分量分析13.3.1獨(dú)立分量分析的原理和目標(biāo)函數(shù)13.3.2不動(dòng)點(diǎn)算法FastICA13.3.3自然梯度算法13.3.4仿真實(shí)驗(yàn)舉例13.4本章小結(jié)習(xí)題第14章強(qiáng)化學(xué)習(xí)之一: 經(jīng)典方法14.1強(qiáng)化學(xué)習(xí)的基本問題14.2馬爾可夫決策過程14.2.1MDP的定義14.2.2貝爾曼方程14.2.3策略14.2.4強(qiáng)化學(xué)習(xí)的類型14.2.5探索與利用14.3動(dòng)態(tài)規(guī)劃14.3.1策略迭代方法14.3.2值函數(shù)迭代方法14.4強(qiáng)化學(xué)習(xí)的蒙特卡洛方法14.4.1MC部分策略評(píng)估14.4.2MC策略改進(jìn)14.4.3在軌策略和離軌策略14.5強(qiáng)化學(xué)習(xí)的時(shí)序差分方法14.5.1基本時(shí)序差分學(xué)習(xí)和Sarsa算法14.5.2離軌策略和Q學(xué)習(xí)14.5.3DP、MC和TD算法的簡(jiǎn)單比較*14.5.4多步時(shí)序差分學(xué)習(xí)和資格跡算法*14.6多臂賭博機(jī)14.7本章小結(jié)習(xí)題第15章強(qiáng)化學(xué)習(xí)之二: 深度強(qiáng)化學(xué)習(xí)15.1強(qiáng)化學(xué)習(xí)的值函數(shù)逼近15.1.1基本線性值函數(shù)逼近*15.1.2線性值函數(shù)逼近的小二乘策略迭代算法15.1.3深度Q網(wǎng)絡(luò)15.2策略梯度方法15.2.1MC策略梯度算法Reinforce15.2.2行動(dòng)器評(píng)判器方法*15.3連續(xù)動(dòng)作確定性策略梯度方法15.3.1DPG算法15.3.2DDPG算法15.3.3連續(xù)動(dòng)作DRL的一些進(jìn)展概述15.4本章小結(jié)習(xí)題附錄A課程的實(shí)踐型作業(yè)實(shí)例A.1第1次實(shí)踐作業(yè)A.2第2次實(shí)踐作業(yè)A.3第3次實(shí)踐作業(yè)附錄B函數(shù)對(duì)向量和矩陣的求導(dǎo)術(shù)語表參考文獻(xiàn)
來自: 讀書人心系天下 > 《精品課程》
0條評(píng)論
發(fā)表
請(qǐng)遵守用戶 評(píng)論公約
Python+pandas爬取網(wǎng)頁中的表格保存為Excel文件
Python+pandas爬取網(wǎng)頁中的表格保存為Excel文件推薦教材:本章習(xí)題17.本章習(xí)題37.8.7.1 支持向量機(jī)算法基本原理與sklearn實(shí)現(xiàn)178.8.8.1...
機(jī)器學(xué)習(xí)
機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)系列:(十)從感知器到人工神經(jīng)網(wǎng)絡(luò) 從感知器到人工神經(jīng)網(wǎng)絡(luò)在第8章,感知器里,我們介紹了感知器,一種線性模型用來做二元分類。通過對(duì)特征進(jìn)行合理的組合,我們建立了高...
模式識(shí)別試題及總結(jié)
式(1-1)的分子為判別函數(shù)絕對(duì)值,上式表明,的值 的距離,正比于到超平面一個(gè)特征矢量代入判別函數(shù)后所得值的絕對(duì)值越大表明該特征點(diǎn)距判別界面越遠(yuǎn)。3. 線性分類器三種最優(yōu)準(zhǔn)則:感知準(zhǔn)則函數(shù):準(zhǔn)則...
《深度學(xué)習(xí),統(tǒng)計(jì)學(xué)習(xí),數(shù)學(xué)基礎(chǔ)》AI算法工程師手冊(cè):50章一網(wǎng)打盡
《深度學(xué)習(xí),統(tǒng)計(jì)學(xué)習(xí),數(shù)學(xué)基礎(chǔ)》AI算法工程師手冊(cè):50章一網(wǎng)打盡。那么有沒有,面向算法工程師(程序員)人群的,面向有一定數(shù)學(xué)基礎(chǔ)...
常見面試之機(jī)器學(xué)習(xí)算法思想簡(jiǎn)單梳理
SVM算法優(yōu)點(diǎn):書中(machinelearning in action)假設(shè)的是5個(gè)訓(xùn)練樣本,每個(gè)訓(xùn)練樣本的維度為2,在訓(xùn)練第一個(gè)分類器時(shí)5個(gè)樣本的權(quán)重各為...
機(jī)器學(xué)習(xí)的分類與主要算法對(duì)比
很多時(shí)候困惑人們都是,很多算法是一類算法,而有些算法又是從其他算法中延伸出來的。根據(jù)算法的功能和形式的類似性,我們可以把算法分...
基于詞袋模型的圖像分類算法
基于內(nèi)容的圖像分類技術(shù)不需要進(jìn)行人工標(biāo)注的語義信息,而是直接對(duì)圖像所包含的信息進(jìn)行處理和分析,利用圖像底層視覺特征來進(jìn)行圖像分...
如果你想轉(zhuǎn)型數(shù)據(jù)科學(xué)家,可能要掌握這幾個(gè)統(tǒng)計(jì)學(xué)技術(shù)
與PCR一樣,PLS是 一種 降 維 方法,它首先識(shí)別一組新的較小的特征,這些特征是原始特征的線性組合,然后通過最小二乘法擬合一個(gè)線性模...
常用的機(jī)器學(xué)習(xí)&數(shù)據(jù)挖掘知識(shí)(點(diǎn))
ContinuousDistribution (連續(xù)型分布):Uniform Distribution(均勻分布),Normal Distribution/GaussianDistribution(正態(tài)分布/高斯分布),Exponential Distribution(指數(shù)分布),Lognormal Distributio...
微信掃碼,在手機(jī)上查看選中內(nèi)容