人工智能之數據挖掘與機器學習
2025-06-04 06:44:48
講師(shi):葉梓 瀏覽次數(shu):3026
課程(cheng)描(miao)述INTRODUCTION
數據挖掘(jue)與機(ji)器(qi)學習課程
日程安(an)排SCHEDULE
課程(cheng)大(da)綱(gang)Syllabus
數據挖掘與機器學習課程
課程(cheng)大綱
一、概述(shu)
1、 概(gai)念與(yu)術語(人工智能、數據挖掘、機(ji)器學習…)
2、 數據挖(wa)掘的對象
3、 數據挖掘的(de)關鍵技術
4、 知(zhi)識的表達
二、數(shu)據預處理
1、 變量類型
2、 數據(ju)清理
3、 數(shu)據(ju)集成(cheng)和(he)變(bian)換(huan)
4、 數據倉(cang)庫與數據方(fang)(OLAP)
5、 規范(fan)化
6、 數(shu)據壓縮(DCT、小波變換)
三(san)、降維與維度歸約
1、 無標簽時(shi):PCA
2、 有標簽(qian)時:Fisher線性判別(第一個“LDA”)
3、 知識的(de)約簡(jian)
4、 決策表的約簡(jian)
5、 粗糙集
四、回歸與時序分(fen)析
1、 線性回(hui)歸
2、 非(fei)線性回歸
3、 logistics回歸(gui)
4、 平(ping)穩性、截尾與拖尾
5、 ARIMA
五、決策樹(shu)
1、 分類和預測
2、 熵減(jian)過程與(yu)貪心法
3、 ID3
4、 C4.5
5、 其他改進方法
6、 決策樹(shu)剪(jian)枝
7、 歸納學習
六、聚類
1、 監(jian)督(du)學(xue)習(xi)與無監(jian)督(du)學(xue)習(xi)
2、 K-means與k-medoids
3、 層次的方法(fa)
4、 基(ji)于(yu)密度的方法
5、 基(ji)于(yu)網格的方法
6、 孤立(li)點(dian)分析(xi)
7、 案例:鳶尾花數據的聚類
七、關聯規則與序列(lie)挖掘
1、 頻(pin)繁(fan)項集(ji)
2、 支持度(du)與置信度(du)
3、 Apriori性(xing)質
4、 連接與剪枝
5、 總有“啤酒與尿布”以(yi)外的(de)案例吧?
6、 序(xu)列(lie)挖掘
八(ba)、惰性學(xue)習
1、 迫切學習(xi)(xi)與惰性學習(xi)(xi)
2、 K-NN分類算法(fa)
3、 基于案例的推理
九、機器學習中性能評價指標
1、 準確率(lv);*率(lv)、召回(hui)率(lv);F1
2、 真陽(yang)性率、假陽(yang)性率
3、 混(hun)淆(xiao)矩陣
4、 ROC與AUC
5、 對數損失(shi)
6、 Kappa系數
7、 回歸:平均*誤(wu)差(cha)、平均平方誤(wu)差(cha)
8、 聚(ju)類:蘭德指數、互(hu)信(xin)息
十(shi)、樸素貝葉(xie)斯與貝葉(xie)斯網絡
1、 概率論基礎:條件概率、聯合概率、分布、共軛先驗。
2、 “概率(lv)派(pai)”與“貝(bei)葉斯派(pai)”
3、 樸素貝葉斯模型
4、 貝葉斯(si)信念網絡
5、 應(ying)用案例介紹
十一(yi)、 極大似然估計(ji)與EM算法(fa)
1、 極(ji)大似然估計
2、 半監督學習
3、 EM算法
4、 EM算法應用:貝葉斯線性回(hui)歸
十二(er)、 支持向量機
1、 統計學習問題
2、 結構風險最小歸納原理
3、 支持向量機
4、 核函數
5、 多(duo)分類(lei)的(de)支持(chi)向量機
6、 用于連續值預(yu)測的(de)支持向量機
7、 小案例:“拆蚊香”
十三、 BP神經(jing)網絡
1、 人(ren)工神經元及感知機模型
2、 前向神經網絡
3、 sigmoid
4、 徑向(xiang)基函數神經網絡(luo)
5、 誤差反向(xiang)傳(chuan)播
十四、 其他(ta)神經網(wang)絡(luo)
1、 hopfield網絡
2、 自組(zu)織特征映射神經網(wang)絡(luo)
3、 受(shou)限(xian)布爾(er)茲曼(man)機
4、 神經網絡的應用案例(li)介紹
十五、 機器學習(xi)中的最優化方(fang)法
1、 參數學習方法
2、 損失函(han)(han)數(或目標函(han)(han)數)
3、 梯度下降
4、 隨機梯(ti)度(du)下降
5、 牛頓法(fa)
6、 擬牛頓法(fa)
7、 蠻力法(fa)也算嗎?
十六、 遺傳算法(fa)
1、 交叉(cha)、選擇、變(bian)異
2、 基(ji)本算法
3、 神(shen)經網絡與(yu)遺(yi)傳算(suan)法結合(he)的案例:井字(zi)棋(qi)
十七、 隱馬(ma)爾科夫模型
1、 馬爾科(ke)夫過程(cheng)
2、 隱馬爾科夫模型
3、 三個基(ji)本(ben)問題(評(ping)估(gu)、解碼、學習)
4、 前向(xiang)-后向(xiang)算法
5、 Viterbi算法
6、 Baum-Welch算法
十八、 條件(jian)隨機場
1、 *熵理論(lun)
2、 無向圖(tu)模型與MRF
3、 CRF與(yu)MRF的關系
4、 *團(tuan)與勢函數
5、 CRF的(de)三個問題(概率計(ji)算、參數學習、預(yu)測)
6、 CRF進行詞性標注(zhu)的案例
十九、 文本挖掘
1、文本(ben)分析功能(neng)
2、文(wen)本(ben)特征的提取
4、文本(ben)分類
5、文本聚類(lei)
6、文本(ben)摘(zhai)要
二十、 Monte-Carlo法
1、 扔飛鏢計算圓周率(lv)
2、 Monte-Carlo積分
3、 接受(shou)-拒絕采樣
4、 重要(yao)性(xing)采(cai)樣(yang)
5、 MCMC方法(fa)的基本思路
6、 Metropolis-Hastings算法(fa)
7、 Gibbs采樣
二十(shi)一、從LSA到LDA
1、 LSA(潛(qian)在語義(yi)分析(xi))
2、 pLSA
3、 第二個(ge)“LDA”(潛在狄利(li)克雷(lei)分布)
二(er)十二(er)、網頁排序與商品推薦
1、 page rank
2、 基于(yu)人口(kou)統計(ji)學(xue)的推薦
3、 基于內(nei)容的推(tui)薦
4、 協(xie)同(tong)過濾
5、 基于關(guan)聯規則(ze)推薦
6、 組合(he)推薦
二十三(san)、組合的模型
1、 bagging
2、 co-training
3、 adaboost
4、 隨機森林
5、 GBDT
二十四、強化學習
1、 MDPs中的agent的屬性
2、 exploration and exploitation
3、 Bellman期望方(fang)程
4、 最(zui)優策略(lve)
5、 策(ce)略迭(die)(die)代與價值迭(die)(die)代
6、 Q學(xue)習算(suan)法
7、 DQN
二十五、綜合案例
1、 如何教電腦玩“flappy
bird”
2、 待定
數據挖掘與機器學習課程
轉載://bamboo-vinegar.cn/gkk_detail/65681.html
已開課時間Have start time
- 葉梓
[僅限會員]
人工智能公開培訓班
- 工業4.0 智能制造 張小(xiao)強
- 企業數字化運營變革 汪老師
- MES項目經理 講師團
- 數字化工廠規劃師 講師團
- 中國制造2025和工業4. 辛玉軍
- Python-機器學習、深 講師(shi)團
- 企業智能化工廠導入之中國制 沈(shen)懷金
- 數字制造技術在工廠的應用 李東
- 咨詢式人力資源管理的五定- 葛老(lao)師
- 經典實驗設計與大數據建模 講(jiang)師團
- 企業數據化管理--大數據人 趙翰(han)文
- “互聯網+”時代下的工業4 齊振宏
人工智能內訓
- DeepSeek+AI賦能 趙(zhao)保恒
- 運用DeepSeek與 A 張曉如
- 運用DeepSeek與 A 張(zhang)曉如
- AI前沿趨勢.實戰工具和應 李(li)家貴
- DeepSeek與 AIG 張曉如
- DeepSeek+HR應用 蘇運
- 運用DeepSeek與 A 張曉如
- 運用DeepSeek與 A 張曉如
- AI全場景實戰應用:AI高 張曉如
- 運用DeepSeek與 A 張曉(xiao)如
- DeepSeek賦能增效十 柯(ke)雨金(jin)
- DeepSeek辦公效能提 柯雨(yu)金