国产极品粉嫩福利姬萌白酱_伊人WWW22综合色_久久精品a一国产成人免费网站_法国啄木乌AV片在线播放

全國 [城市選擇] [會員登錄] [講師注冊] [機構注冊] [助教注冊]  
中國企業培訓講師
人工智能之數據挖掘與機器學習
 
講師:葉梓(zi) 瀏覽(lan)次(ci)數:2561

課(ke)程描述INTRODUCTION

數據挖(wa)掘(jue)與機器學習課程

· IT人士· 其他人員

培訓講師:葉梓    課程價格:¥元/人    培訓天數:2天   

日程(cheng)安排SCHEDULE



課程(cheng)大綱(gang)Syllabus

數據挖掘與機器學習課程

課(ke)程大(da)綱
一、概(gai)述(shu)
1、  概念與術語(人(ren)工(gong)智(zhi)能(neng)、數據(ju)挖掘、機器學習…)
2、  數據挖掘(jue)的對象
3、  數據挖掘的關鍵技術(shu)
4、  知識的表達
二、數據預處理
1、  變量類型
2、  數據清理(li)
3、  數(shu)據(ju)集(ji)成和變(bian)換
4、  數(shu)據(ju)倉庫(ku)與數(shu)據(ju)方(OLAP)
5、  規(gui)范(fan)化
6、  數(shu)據壓縮(DCT、小波變換)
三(san)、降維(wei)與維(wei)度歸約
1、  無標簽時:PCA
2、  有標簽(qian)時:Fisher線性判別(第一個“LDA”)
3、  知識的約簡
4、  決策表的約簡
5、  粗糙集
四、回歸(gui)與時序分析
1、  線性回歸
2、  非線性回(hui)歸
3、  logistics回歸
4、  平穩性(xing)、截尾與拖尾
5、  ARIMA
 
五、決策樹
1、  分類(lei)和預(yu)測
2、  熵減(jian)過程與貪心法
3、  ID3
4、  C4.5
5、  其他改進方法
6、  決策樹(shu)剪枝
7、  歸(gui)納(na)學(xue)習
六(liu)、聚類
1、  監(jian)督學習(xi)與(yu)無監(jian)督學習(xi)
2、  K-means與k-medoids
3、  層(ceng)次的(de)方法
4、  基于密度的方法
5、  基于網格的(de)方法
6、  孤立點(dian)分析
7、  案例:鳶尾花(hua)數據的聚類
七、關聯(lian)規則與序列挖掘
1、  頻繁(fan)項集(ji)
2、  支持度與置(zhi)信度
3、  Apriori性質
4、  連接與剪(jian)枝
5、  總有“啤酒與尿布”以外(wai)的案(an)例吧?
6、  序列挖掘(jue)
八、惰性學習(xi)
1、  迫切學(xue)習與惰性(xing)學(xue)習
2、  K-NN分(fen)類算法
3、  基(ji)于案例的推理
 
九、機器(qi)學習中性(xing)能評價(jia)指標
1、  準確率;*率、召回率;F1
2、  真(zhen)陽(yang)性率(lv)、假陽(yang)性率(lv)
3、  混淆矩陣
4、  ROC與AUC
5、  對(dui)數損(sun)失
6、  Kappa系數(shu)
7、  回歸(gui):平均*誤差、平均平方(fang)誤差
8、  聚類:蘭德指(zhi)數、互信息
十、樸(pu)素貝葉斯(si)與貝葉斯(si)網(wang)絡
1、  概(gai)率(lv)論基礎(chu):條件概(gai)率(lv)、聯(lian)合(he)概(gai)率(lv)、分布、共(gong)軛先(xian)驗。
2、  “概(gai)率(lv)派”與“貝葉斯派”
3、  樸素貝葉斯模(mo)型
4、  貝葉(xie)斯信念網絡(luo)
5、  應用(yong)案例介紹
十一(yi)、       極(ji)大似然估計與EM算(suan)法
1、  極大似然估計
2、  半(ban)監督(du)學習
3、  EM算(suan)法
4、  EM算法應用(yong):貝(bei)葉(xie)斯線(xian)性回歸(gui)
十二、       支持向量機
1、  統計(ji)學習問題(ti)
2、  結(jie)構風險最小歸(gui)納原理
3、  支持向量機
4、  核函(han)數
5、  多分類的支(zhi)持向量機(ji)
6、  用于連續(xu)值預測的支持(chi)向量(liang)機
7、  小案例:“拆蚊香(xiang)”
 
十三、       BP神經(jing)網絡
1、  人(ren)工神(shen)經(jing)元及感知機模型
2、  前向神(shen)經(jing)網絡
3、  sigmoid
4、  徑向基函數神(shen)經網絡
5、  誤差(cha)反向傳播
十四、       其(qi)他神經網絡
1、  hopfield網絡
2、  自(zi)組織特征映射神經網絡
3、  受限布(bu)爾茲曼機
4、  神經網絡的(de)應用案(an)例介(jie)紹
十五、       機器學習中的最優(you)化方法
1、  參(can)數(shu)學習(xi)方法(fa)
2、  損失(shi)函(han)數(shu)(或目(mu)標函(han)數(shu))
3、  梯(ti)度下(xia)降(jiang)
4、  隨(sui)機(ji)梯度下降(jiang)
5、  牛頓法
6、  擬(ni)牛頓法
7、  蠻力法(fa)也算(suan)嗎?
十六、       遺傳算(suan)法
1、  交叉(cha)、選擇、變(bian)異
2、  基本算法
3、  神經網絡(luo)與(yu)遺(yi)傳算法(fa)結合的案(an)例:井字棋
 
十七、       隱馬爾科夫模(mo)型
1、  馬爾科夫(fu)過程
2、  隱馬爾科(ke)夫(fu)模(mo)型
3、  三個基本問題(ti)(評估、解碼、學習)
4、  前向-后向算法(fa)
5、  Viterbi算法
6、  Baum-Welch算法
十八、       條件(jian)隨機場
1、  *熵理論
2、  無向(xiang)圖模型(xing)與MRF
3、  CRF與MRF的(de)關系
4、  *團(tuan)與勢函(han)數
5、  CRF的(de)三個(ge)問題(概率計算(suan)、參數(shu)學習、預測)
6、  CRF進(jin)行(xing)詞性(xing)標注的案例
十(shi)九(jiu)、       文本挖掘
1、文本分析功(gong)能(neng)
2、文本特征的提取
4、文本分類
5、文(wen)本(ben)聚類
6、文本摘要
二十、       Monte-Carlo法(fa)
1、  扔飛(fei)鏢(biao)計算圓周率
2、  Monte-Carlo積分
3、  接(jie)受-拒絕(jue)采樣
4、  重要性采樣(yang)
5、  MCMC方法(fa)的基本思路
6、  Metropolis-Hastings算法
7、  Gibbs采樣
 
二十一、從LSA到LDA
1、  LSA(潛在語義分析)
2、  pLSA
3、  第二(er)個(ge)“LDA”(潛(qian)在狄利克(ke)雷分布)
二(er)(er)十二(er)(er)、網頁排序與商品推薦
1、  page rank
2、  基于人口統計學的推(tui)薦
3、  基于內容的推薦(jian)
4、  協同過濾
5、  基(ji)于關聯規則推薦(jian)
6、  組合推薦
二十(shi)三、組合的模型
1、  bagging
2、  co-training
3、  adaboost
4、  隨機森林(lin)
5、  GBDT
二十四、強化學習
1、  MDPs中的agent的屬性
2、  exploration and exploitation
3、  Bellman期望方程
4、  最優策略
5、  策略迭代與價值迭代
6、  Q學習算法
7、  DQN
二十(shi)五、綜合案例
1、  如何(he)教電腦(nao)玩“flappy
bird”
2、  待定(ding)

數據挖掘與機器學習課程


轉載://citymember.cn/gkk_detail/65681.html

已(yi)開課(ke)時間(jian)Have start time

在線報(bao)名(ming)Online registration

    參加(jia)課程:人工智能之數據挖掘與機器學習

    單位(wei)名稱(cheng):

  • 參加日期:
  • 聯(lian)系人:
  • 手機(ji)號碼:
  • 座機電話:
  • QQ或(huo)微信:
  • 參(can)加(jia)人數:
  • 開票信息(xi):
  • 輸入(ru)驗證:  看不清楚?點擊驗證碼刷新
付款信息:
開戶名:上海投智企業管理咨詢有限公司
開戶行:中國銀行股份有限公司上海市長壽支行
帳號:454 665 731 584
葉梓
[僅限會員]

預約1小時微咨詢式培訓