人工智能之數據挖掘與機器學習
講師:葉梓(zi) 瀏覽(lan)次(ci)數:2561
課(ke)程描述INTRODUCTION
數據挖(wa)掘(jue)與機器學習課程
日程(cheng)安排SCHEDULE
課程(cheng)大綱(gang)Syllabus
數據挖掘與機器學習課程
課(ke)程大(da)綱
一、概(gai)述(shu)
1、 概念與術語(人(ren)工(gong)智(zhi)能(neng)、數據(ju)挖掘、機器學習…)
2、 數據挖掘(jue)的對象
3、 數據挖掘的關鍵技術(shu)
4、 知識的表達
二、數據預處理
1、 變量類型
2、 數據清理(li)
3、 數(shu)據(ju)集(ji)成和變(bian)換
4、 數(shu)據(ju)倉庫(ku)與數(shu)據(ju)方(OLAP)
5、 規(gui)范(fan)化
6、 數(shu)據壓縮(DCT、小波變換)
三(san)、降維(wei)與維(wei)度歸約
1、 無標簽時:PCA
2、 有標簽(qian)時:Fisher線性判別(第一個“LDA”)
3、 知識的約簡
4、 決策表的約簡
5、 粗糙集
四、回歸(gui)與時序分析
1、 線性回歸
2、 非線性回(hui)歸
3、 logistics回歸
4、 平穩性(xing)、截尾與拖尾
5、 ARIMA
五、決策樹
1、 分類(lei)和預(yu)測
2、 熵減(jian)過程與貪心法
3、 ID3
4、 C4.5
5、 其他改進方法
6、 決策樹(shu)剪枝
7、 歸(gui)納(na)學(xue)習
六(liu)、聚類
1、 監(jian)督學習(xi)與(yu)無監(jian)督學習(xi)
2、 K-means與k-medoids
3、 層(ceng)次的(de)方法
4、 基于密度的方法
5、 基于網格的(de)方法
6、 孤立點(dian)分析
7、 案例:鳶尾花(hua)數據的聚類
七、關聯(lian)規則與序列挖掘
1、 頻繁(fan)項集(ji)
2、 支持度與置(zhi)信度
3、 Apriori性質
4、 連接與剪(jian)枝
5、 總有“啤酒與尿布”以外(wai)的案(an)例吧?
6、 序列挖掘(jue)
八、惰性學習(xi)
1、 迫切學(xue)習與惰性(xing)學(xue)習
2、 K-NN分(fen)類算法
3、 基(ji)于案例的推理
九、機器(qi)學習中性(xing)能評價(jia)指標
1、 準確率;*率、召回率;F1
2、 真(zhen)陽(yang)性率(lv)、假陽(yang)性率(lv)
3、 混淆矩陣
4、 ROC與AUC
5、 對(dui)數損(sun)失
6、 Kappa系數(shu)
7、 回歸(gui):平均*誤差、平均平方(fang)誤差
8、 聚類:蘭德指(zhi)數、互信息
十、樸(pu)素貝葉斯(si)與貝葉斯(si)網(wang)絡
1、 概(gai)率(lv)論基礎(chu):條件概(gai)率(lv)、聯(lian)合(he)概(gai)率(lv)、分布、共(gong)軛先(xian)驗。
2、 “概(gai)率(lv)派”與“貝葉斯派”
3、 樸素貝葉斯模(mo)型
4、 貝葉(xie)斯信念網絡(luo)
5、 應用(yong)案例介紹
十一(yi)、 極(ji)大似然估計與EM算(suan)法
1、 極大似然估計
2、 半(ban)監督(du)學習
3、 EM算(suan)法
4、 EM算法應用(yong):貝(bei)葉(xie)斯線(xian)性回歸(gui)
十二、 支持向量機
1、 統計(ji)學習問題(ti)
2、 結(jie)構風險最小歸(gui)納原理
3、 支持向量機
4、 核函(han)數
5、 多分類的支(zhi)持向量機(ji)
6、 用于連續(xu)值預測的支持(chi)向量(liang)機
7、 小案例:“拆蚊香(xiang)”
十三、 BP神經(jing)網絡
1、 人(ren)工神(shen)經(jing)元及感知機模型
2、 前向神(shen)經(jing)網絡
3、 sigmoid
4、 徑向基函數神(shen)經網絡
5、 誤差(cha)反向傳播
十四、 其(qi)他神經網絡
1、 hopfield網絡
2、 自(zi)組織特征映射神經網絡
3、 受限布(bu)爾茲曼機
4、 神經網絡的(de)應用案(an)例介(jie)紹
十五、 機器學習中的最優(you)化方法
1、 參(can)數(shu)學習(xi)方法(fa)
2、 損失(shi)函(han)數(shu)(或目(mu)標函(han)數(shu))
3、 梯(ti)度下(xia)降(jiang)
4、 隨(sui)機(ji)梯度下降(jiang)
5、 牛頓法
6、 擬(ni)牛頓法
7、 蠻力法(fa)也算(suan)嗎?
十六、 遺傳算(suan)法
1、 交叉(cha)、選擇、變(bian)異
2、 基本算法
3、 神經網絡(luo)與(yu)遺(yi)傳算法(fa)結合的案(an)例:井字棋
十七、 隱馬爾科夫模(mo)型
1、 馬爾科夫(fu)過程
2、 隱馬爾科(ke)夫(fu)模(mo)型
3、 三個基本問題(ti)(評估、解碼、學習)
4、 前向-后向算法(fa)
5、 Viterbi算法
6、 Baum-Welch算法
十八、 條件(jian)隨機場
1、 *熵理論
2、 無向(xiang)圖模型(xing)與MRF
3、 CRF與MRF的(de)關系
4、 *團(tuan)與勢函(han)數
5、 CRF的(de)三個(ge)問題(概率計算(suan)、參數(shu)學習、預測)
6、 CRF進(jin)行(xing)詞性(xing)標注的案例
十(shi)九(jiu)、 文本挖掘
1、文本分析功(gong)能(neng)
2、文本特征的提取
4、文本分類
5、文(wen)本(ben)聚類
6、文本摘要
二十、 Monte-Carlo法(fa)
1、 扔飛(fei)鏢(biao)計算圓周率
2、 Monte-Carlo積分
3、 接(jie)受-拒絕(jue)采樣
4、 重要性采樣(yang)
5、 MCMC方法(fa)的基本思路
6、 Metropolis-Hastings算法
7、 Gibbs采樣
二十一、從LSA到LDA
1、 LSA(潛在語義分析)
2、 pLSA
3、 第二(er)個(ge)“LDA”(潛(qian)在狄利克(ke)雷分布)
二(er)(er)十二(er)(er)、網頁排序與商品推薦
1、 page rank
2、 基于人口統計學的推(tui)薦
3、 基于內容的推薦(jian)
4、 協同過濾
5、 基(ji)于關聯規則推薦(jian)
6、 組合推薦
二十(shi)三、組合的模型
1、 bagging
2、 co-training
3、 adaboost
4、 隨機森林(lin)
5、 GBDT
二十四、強化學習
1、 MDPs中的agent的屬性
2、 exploration and exploitation
3、 Bellman期望方程
4、 最優策略
5、 策略迭代與價值迭代
6、 Q學習算法
7、 DQN
二十(shi)五、綜合案例
1、 如何(he)教電腦(nao)玩“flappy
bird”
2、 待定(ding)
數據挖掘與機器學習課程
轉載://citymember.cn/gkk_detail/65681.html
已(yi)開課(ke)時間(jian)Have start time
- 葉梓
[僅限會員]
人工智能內訓
- AI商用訓練營——增加工作 武建偉
- 《人工智能如何落地汽車行業 王明(ming)哲
- 5G、物聯網、數字化轉型等 胡國慶
- 信用卡直播,結合人工智能 武(wu)建偉(wei)
- 數智賦能—走在 AI 浪潮
- 《鄉村振興金融新思維——A 武建偉
- 《游戲規則改變--當制藥業 王(wang)明(ming)哲
- 《數字化轉型中的仿真》 王(wang)明哲
- AI賦能企業增長的新紀元—
- 數智賦能—走在 AI 浪潮
- 《未來管理革新:ChatG 武建(jian)偉
- 《AI領導力思維》 武建偉