本課程特點(diǎn)是從數(shù)學(xué)層面推導(dǎo)最經(jīng)典的機(jī)器學(xué)習(xí)算法,以及每種算法的示例和代碼實(shí)現(xiàn)(Python)、如何做算法的參數(shù)調(diào)試、機(jī)器學(xué)習(xí)算法的應(yīng)用場景介紹等。
【課程內(nèi)容】
數(shù)學(xué)基礎(chǔ)1 – 數(shù)學(xué)分析
機(jī)器學(xué)習(xí)的角度看數(shù)學(xué)
復(fù)習(xí)數(shù)學(xué)分析
直觀解釋常數(shù)e
導(dǎo)數(shù)/梯度與SGD
Taylor展式
凸函數(shù)
概率論基礎(chǔ)
古典概型
貝葉斯公式
常見概率分布
數(shù)學(xué)基礎(chǔ)2 – 數(shù)理統(tǒng)計(jì)與參數(shù)估計(jì)
統(tǒng)計(jì)量
期望/方差/偏度/峰度
協(xié)方差(矩陣)和相關(guān)系數(shù)
獨(dú)立和不相關(guān)
大數(shù)定律
中心極限定理
中心矩/原點(diǎn)矩/矩估計(jì)
深刻理解最大似然估計(jì)
過擬合的數(shù)學(xué)原理
偏差方差二難
數(shù)學(xué)基礎(chǔ)3 – 矩陣和線性代數(shù)
線性代數(shù)是有用的:以SVD為例
馬爾科夫模型和矩陣乘法、狀態(tài)轉(zhuǎn)移矩陣
矩陣和向量組
特征值和特征向量
對稱陣、正交陣、正定陣
數(shù)據(jù)白化及其應(yīng)用
向量對向量求導(dǎo)
標(biāo)量對向量求導(dǎo)
標(biāo)量對矩陣求導(dǎo)
數(shù)學(xué)基礎(chǔ)4 – 凸優(yōu)化
凸集的嚴(yán)格數(shù)學(xué)表達(dá)
凸集保凸運(yùn)算
分割超平面/支撐超平面
凸函數(shù)/上境圖
Jensen不等式
Fenchel不等式
K-L散度
凸優(yōu)化
共軛函數(shù)和對偶函數(shù)
鞍點(diǎn)解釋
用對偶方法求解最小二乘問題
強(qiáng)對偶KKT條件
Python基礎(chǔ)及其數(shù)學(xué)庫的使用
解釋器Python2.7與IDE:Anaconda/Pycharm
Python基礎(chǔ):列表/元組/字典/類/文件
numpy/scipy/matplotlib/panda的介紹和典型使用
典型圖像處理
Python基礎(chǔ)及其機(jī)器學(xué)習(xí)庫的使用
scikit-learn的介紹和典型使用
損失函數(shù)的繪制
多種數(shù)學(xué)曲線
多項(xiàng)式擬合
股票數(shù)據(jù)分析、卷積、(指數(shù))移動(dòng)平均線
回歸
線性回歸
高斯分布
Logistic回歸
最大似然估計(jì)
梯度下降算法:BGD與SGD
特征選擇與過擬合
回歸實(shí)踐
機(jī)器學(xué)習(xí)sklearn庫介紹
Ridge回歸、LASSO
Logistic/Softmax回歸
回歸代碼實(shí)現(xiàn)和調(diào)參
交叉驗(yàn)證
數(shù)據(jù)可視化
決策樹和隨機(jī)森林
熵、聯(lián)合熵、條件熵、KL散度、互信息
最大似然估計(jì)與最大熵模型
ID3、C4.5、CART詳解
決策樹的評(píng)價(jià)
預(yù)剪枝和后剪枝
隨機(jī)森林
隨機(jī)森林實(shí)踐
手寫隨機(jī)森林實(shí)踐
調(diào)用開源庫函數(shù)完成隨機(jī)森林
數(shù)據(jù)結(jié)構(gòu)的綜合使用
gini系數(shù)
提升
提升為什么有效
Adaboost算法
加法模型與指數(shù)損失
梯度提升決策樹GBDT
自己動(dòng)手實(shí)現(xiàn)GBDT
XGBoost庫介紹
Taylor展式與學(xué)習(xí)算法
KAGGLE簡介
泰坦尼克乘客存活率估計(jì)
線性可分支持向量機(jī)
軟間隔的改進(jìn)
損失函數(shù)的理解
核函數(shù)的原理和選擇
SMO算法
支持向量回歸SVR
SVM實(shí)踐
libSVM代碼庫介紹
原始數(shù)據(jù)和特征提取
調(diào)用開源庫函數(shù)完成SVM
SVR用于時(shí)間序列曲線預(yù)測
SVM、Logistic回歸、隨機(jī)森林三者的橫向比較
聚類
各種相似度度量及其相互關(guān)系
Jaccard相似度和準(zhǔn)確率、召回率
Pearson相關(guān)系數(shù)與余弦相似度
K-means與K-Medoids及變種
AP算法(Sci07)/LPA算法及其應(yīng)用
密度聚類DBSCAN/DensityPeak(Sci14)
譜聚類SC
聚類評(píng)價(jià)和結(jié)果指標(biāo)
聚類實(shí)踐
K-Means++算法原理和實(shí)現(xiàn)
向量量化VQ及圖像近似
并查集的實(shí)踐應(yīng)用
密度聚類的代碼實(shí)現(xiàn)
譜聚類用于圖片分割
EM算法
最大似然估計(jì)
Jensen不等式
樸素理解EM算法
精確推導(dǎo)EM算法
EM算法的深入理解
混合高斯分布
主題模型pLSA
EM算法實(shí)踐
多元高斯分布的EM實(shí)現(xiàn)
分類結(jié)果的數(shù)據(jù)可視化
EM與聚類的比較
Dirichlet過程EM
三維及等高線等圖件的繪制
主題模型pLSA與EM算法
貝葉斯網(wǎng)絡(luò)
樸素貝葉斯
貝葉斯網(wǎng)絡(luò)的表達(dá)
條件概率表參數(shù)個(gè)數(shù)分析
馬爾科夫模型
條件獨(dú)立的三種類型
混合(離散+連續(xù))網(wǎng)絡(luò):線性高斯模型
Chow-Liu算法:最大權(quán)生成樹MSWT
樸素貝葉斯實(shí)踐
樸素貝葉斯用于鳶尾花數(shù)據(jù)
樸素貝葉斯用于路透社新聞文本分類
主題模型LDA
貝葉斯學(xué)派的模型認(rèn)識(shí)
共軛先驗(yàn)分布
Dirichlet分布
Laplace平滑
Gibbs采樣詳解
LDA實(shí)踐
網(wǎng)絡(luò)爬蟲的原理和代碼實(shí)現(xiàn)
停止詞和高頻詞
動(dòng)手自己實(shí)現(xiàn)LDA
LDA開源包的使用和過程分析
Metropolis-Hastings算法
LDA與word2vec的比較
隱馬爾科夫模型HMM
概率計(jì)算問題
前向/后向算法
HMM的參數(shù)學(xué)習(xí)
Baum-Welch算法詳解
Viterbi算法詳解
HMM實(shí)踐
動(dòng)手自己實(shí)現(xiàn)HMM用于中文分詞
多個(gè)語言分詞開源包的使用和過程分析
文件數(shù)據(jù)格式UFT-8、Unicode
停止詞和標(biāo)點(diǎn)符號(hào)對分詞的影響
前向后向算法計(jì)算概率溢出的解決方案
發(fā)現(xiàn)新詞和分詞效果分析
高斯混合模型HMM
GMM-HMM用于股票數(shù)據(jù)特征提取
【下載地址】