人工智能之?dāng)?shù)據(jù)挖掘與機(jī)器學(xué)習(xí)
講師:葉梓 瀏覽次數(shù):2551
課程描述INTRODUCTION
數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)課程
日程安排SCHEDULE
課程大綱Syllabus
數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)課程
課程大綱
一、概述
1、 概念與術(shù)語(人工智能、數(shù)據(jù)挖掘、機(jī)器學(xué)習(xí)…)
2、 數(shù)據(jù)挖掘的對(duì)象
3、 數(shù)據(jù)挖掘的關(guān)鍵技術(shù)
4、 知識(shí)的表達(dá)
二、數(shù)據(jù)預(yù)處理
1、 變量類型
2、 數(shù)據(jù)清理
3、 數(shù)據(jù)集成和變換
4、 數(shù)據(jù)倉庫與數(shù)據(jù)方(OLAP)
5、 規(guī)范化
6、 數(shù)據(jù)壓縮(DCT、小波變換)
三、降維與維度歸約
1、 無標(biāo)簽時(shí):PCA
2、 有標(biāo)簽時(shí):Fisher線性判別(第一個(gè)“LDA”)
3、 知識(shí)的約簡(jiǎn)
4、 決策表的約簡(jiǎn)
5、 粗糙集
四、回歸與時(shí)序分析
1、 線性回歸
2、 非線性回歸
3、 logistics回歸
4、 平穩(wěn)性、截尾與拖尾
5、 ARIMA
五、決策樹
1、 分類和預(yù)測(cè)
2、 熵減過程與貪心法
3、 ID3
4、 C4.5
5、 其他改進(jìn)方法
6、 決策樹剪枝
7、 歸納學(xué)習(xí)
六、聚類
1、 監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)
2、 K-means與k-medoids
3、 層次的方法
4、 基于密度的方法
5、 基于網(wǎng)格的方法
6、 孤立點(diǎn)分析
7、 案例:鳶尾花數(shù)據(jù)的聚類
七、關(guān)聯(lián)規(guī)則與序列挖掘
1、 頻繁項(xiàng)集
2、 支持度與置信度
3、 Apriori性質(zhì)
4、 連接與剪枝
5、 總有“啤酒與尿布”以外的案例吧?
6、 序列挖掘
八、惰性學(xué)習(xí)
1、 迫切學(xué)習(xí)與惰性學(xué)習(xí)
2、 K-NN分類算法
3、 基于案例的推理
九、機(jī)器學(xué)習(xí)中性能評(píng)價(jià)指標(biāo)
1、 準(zhǔn)確率;*率、召回率;F1
2、 真陽性率、假陽性率
3、 混淆矩陣
4、 ROC與AUC
5、 對(duì)數(shù)損失
6、 Kappa系數(shù)
7、 回歸:平均*誤差、平均平方誤差
8、 聚類:蘭德指數(shù)、互信息
十、樸素貝葉斯與貝葉斯網(wǎng)絡(luò)
1、 概率論基礎(chǔ):條件概率、聯(lián)合概率、分布、共軛先驗(yàn)。
2、 “概率派”與“貝葉斯派”
3、 樸素貝葉斯模型
4、 貝葉斯信念網(wǎng)絡(luò)
5、 應(yīng)用案例介紹
十一、 極大似然估計(jì)與EM算法
1、 極大似然估計(jì)
2、 半監(jiān)督學(xué)習(xí)
3、 EM算法
4、 EM算法應(yīng)用:貝葉斯線性回歸
十二、 支持向量機(jī)
1、 統(tǒng)計(jì)學(xué)習(xí)問題
2、 結(jié)構(gòu)風(fēng)險(xiǎn)最小歸納原理
3、 支持向量機(jī)
4、 核函數(shù)
5、 多分類的支持向量機(jī)
6、 用于連續(xù)值預(yù)測(cè)的支持向量機(jī)
7、 小案例:“拆蚊香”
十三、 BP神經(jīng)網(wǎng)絡(luò)
1、 人工神經(jīng)元及感知機(jī)模型
2、 前向神經(jīng)網(wǎng)絡(luò)
3、 sigmoid
4、 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)
5、 誤差反向傳播
十四、 其他神經(jīng)網(wǎng)絡(luò)
1、 hopfield網(wǎng)絡(luò)
2、 自組織特征映射神經(jīng)網(wǎng)絡(luò)
3、 受限布爾茲曼機(jī)
4、 神經(jīng)網(wǎng)絡(luò)的應(yīng)用案例介紹
十五、 機(jī)器學(xué)習(xí)中的最優(yōu)化方法
1、 參數(shù)學(xué)習(xí)方法
2、 損失函數(shù)(或目標(biāo)函數(shù))
3、 梯度下降
4、 隨機(jī)梯度下降
5、 牛頓法
6、 擬牛頓法
7、 蠻力法也算嗎?
十六、 遺傳算法
1、 交叉、選擇、變異
2、 基本算法
3、 神經(jīng)網(wǎng)絡(luò)與遺傳算法結(jié)合的案例:井字棋
十七、 隱馬爾科夫模型
1、 馬爾科夫過程
2、 隱馬爾科夫模型
3、 三個(gè)基本問題(評(píng)估、解碼、學(xué)習(xí))
4、 前向-后向算法
5、 Viterbi算法
6、 Baum-Welch算法
十八、 條件隨機(jī)場(chǎng)
1、 *熵理論
2、 無向圖模型與MRF
3、 CRF與MRF的關(guān)系
4、 *團(tuán)與勢(shì)函數(shù)
5、 CRF的三個(gè)問題(概率計(jì)算、參數(shù)學(xué)習(xí)、預(yù)測(cè))
6、 CRF進(jìn)行詞性標(biāo)注的案例
十九、 文本挖掘
1、文本分析功能
2、文本特征的提取
4、文本分類
5、文本聚類
6、文本摘要
二十、 Monte-Carlo法
1、 扔飛鏢計(jì)算圓周率
2、 Monte-Carlo積分
3、 接受-拒絕采樣
4、 重要性采樣
5、 MCMC方法的基本思路
6、 Metropolis-Hastings算法
7、 Gibbs采樣
二十一、從LSA到LDA
1、 LSA(潛在語義分析)
2、 pLSA
3、 第二個(gè)“LDA”(潛在狄利克雷分布)
二十二、網(wǎng)頁排序與商品推薦
1、 page rank
2、 基于人口統(tǒng)計(jì)學(xué)的推薦
3、 基于內(nèi)容的推薦
4、 協(xié)同過濾
5、 基于關(guān)聯(lián)規(guī)則推薦
6、 組合推薦
二十三、組合的模型
1、 bagging
2、 co-training
3、 adaboost
4、 隨機(jī)森林
5、 GBDT
二十四、強(qiáng)化學(xué)習(xí)
1、 MDPs中的agent的屬性
2、 exploration and exploitation
3、 Bellman期望方程
4、 最優(yōu)策略
5、 策略迭代與價(jià)值迭代
6、 Q學(xué)習(xí)算法
7、 DQN
二十五、綜合案例
1、 如何教電腦玩“flappy
bird”
2、 待定
數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)課程
轉(zhuǎn)載:http://szsxbj.com/gkk_detail/65681.html