人工智能出版工程 人工智能:機器學習理論與方法(精裝版)
定 價:89 元
叢書名:人工智能出版工程
當前圖書已被 44 所學校薦購過!
查看明細
- 作者:李侃 著
- 出版時間:2020/8/1
- ISBN:9787121391408
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP18
- 頁碼:328
- 紙張:
- 版次:01
- 開本:16開
本書全面系統(tǒng)地講解了機器學習的理論與方法,內(nèi)容主要包括高斯混合模型和EM算法、主題模型、非參數(shù)貝葉斯模型、聚類分析、圖模型、支持向量機、矩陣分解、深度學習及強化學習。本書旨在使讀者了解機器學習的發(fā)展,理解和掌握它的基本原理、方法與主要應用。本書內(nèi)容豐富,著重機器學習理論的推導與證明,并通過實例進行方法的分析與比較。同時,本書強調(diào)機器學習的系統(tǒng)性、完整性和時效性,可讀性強。
李侃,教授,博士生導師,副所長。國家重點研發(fā)計劃評審專家、國家863項目評審專家,北京市自然科學基金/重點基金評審專家、博士點基金/博士后基金評審專家,國際期刊NLPR主編,以及其它期刊的編委。在澳大利亞、加拿大、中國香港等國家、地區(qū)任職或?qū)W術(shù)研究。目前主要從事機器學習、模式識別及大數(shù)據(jù)分析方面的研究。主持了國家重點研發(fā)專項課題、國家973課題、863重大和和國家自然科學基金等多項***和部級項目,獲得了多項國防科技進步獎和?萍汲晒坏泉劦瓤蒲歇剟。在TKDE等國內(nèi)外期刊、IJCAI、ACM MM等學術(shù)會議上發(fā)表SCI/EI檢索論文近百篇,發(fā)明專利20余項。出版了教育部和北京市精品教材、獲得了全國高校人工智能與大數(shù)據(jù)教學創(chuàng)新獎、T-more優(yōu)秀教師獎、迪文優(yōu)秀教師獎、教學成果獎一等獎等教學獎勵。
第1章緒論
1.1機器學習的定義
1.2機器學習的發(fā)展歷史
1.3機器學習的分類
1.3.1基于學習系統(tǒng)的反饋分類
1.3.2基于所獲取知識的表示形式分類
1.3.3按應用領(lǐng)域分類
1.3.4綜合分類
1.4性能度量
1.4.1數(shù)據(jù)集
1.4.2誤差
1.4.3過擬合與欠擬合
1.4.4評估方法
1.4.5性能度量指標
1.5本章小結(jié)
第2章EM算法和高斯模型
2.1EM算法
2.1.1極大似然估計
2.1.2EM算法的引入
2.1.3EM算法的推導
2.1.4EM算法的步驟
2.1.5EM算法的收斂性
2.2高斯模型
2.2.1單高斯模型
2.2.2高斯混合模型
2.2.3GMM參數(shù)估計
2.3本章小結(jié)
第3章主題模型
3.1傳統(tǒng)的主題模型
3.1.1VSM模型
3.1.2LSI模型
3.2概率主題模型
3.2.1LDA主題模型
3.2.2HDP-LDA主題模型
3.3具有zipf定律性質(zhì)的主題模型
3.3.1PY過程
3.3.2PHTM主題模型
3.4PHTM推理算法
3.4.1算法描述
3.4.2實驗
3.5本章小結(jié)
第4章抽樣與非參數(shù)貝葉斯方法
4.1單個隨機變量抽樣
4.1.1通過逆累積分布函數(shù)抽樣
4.1.2拒絕抽樣(Rejection Sampling)
4.1.3重要性抽樣(Importance Sampling)
4.2序列隨機變量抽樣與馬爾可夫鏈蒙特卡洛
4.2.1MH算法
4.2.2吉布斯抽樣
4.2.3切片抽樣(Slice Sampling)
4.3非參數(shù)貝葉斯模型與狄利克雷過程
4.3.1非參數(shù)貝葉斯模型
4.3.2狄利克雷過程
4.4狄利克雷過程的構(gòu)造方式
4.4.1波利亞壇子過程
4.4.2折棍子過程
4.4.3中餐館過程
4.5本章小結(jié)
第5章聚類分析
5.1數(shù)據(jù)相似性度量
5.2經(jīng)典聚類算法
5.2.1劃分算法
5.2.2層次聚類算法
5.2.3基于密度的聚類算法
5.2.4基于網(wǎng)格的聚類算法
5.2.5基于模型的聚類算法
5.3K均值算法、K中心點算法及其改進算法
5.3.1K均值算法
5.3.2K中心點算法
5.3.3核K均值算法
5.3.4EM聚類
5.3.5基于隨機搜索應用于大型應用的聚類算法CLARANS
5.4譜聚類
5.4.1相似圖
5.4.2拉普拉斯矩陣
5.4.3譜聚類算法
5.5基于約束的聚類
5.5.1含有障礙物的對象聚類
5.5.2用戶約束的聚類分析
5.5.3半監(jiān)督聚類分析
5.6在線聚類
5.7聚類與降維
5.8本章小結(jié)
第6章支持向量機
6.1統(tǒng)計學習理論
6.1.1經(jīng)驗風險最小化
6.1.2VC維
6.1.3結(jié)構(gòu)風險最小化
6.2支持向量機的基本原理
6.3支持向量機分類器
6.3.1線性支持向量機分類器
6.3.2非線性可分的支持向量機分類器
6.3.3一類分類
6.3.4多類分類
6.4核函數(shù)
6.4.1核函數(shù)的定義
6.4.2核函數(shù)的構(gòu)造
6.4.3幾種常用的核函數(shù)
6.5支持向量回歸機
6.6支持向量機的應用實例
6.6.1圖像分類
6.6.2其他應用
6.7本章小結(jié)
第7章概率無向圖模型
7.1概率無向圖模型概述
7.2邏輯斯諦回歸模型
7.2.1邏輯斯諦函數(shù)與分布
7.2.2極大似然估計模型參數(shù)
7.3最大熵模型
7.3.1最大熵原理
7.3.2最大熵模型概述
7.4條件隨機場
7.4.1模型
7.4.2條件隨機場的關(guān)鍵問題
7.5本章小結(jié)
第8章概率有向圖模型
8.1概率有向圖模型概述
8.2貝葉斯網(wǎng)絡(luò)
8.2.1貝葉斯定理
8.2.2有向分離
8.2.3貝葉斯網(wǎng)絡(luò)構(gòu)造
8.2.4貝葉斯網(wǎng)絡(luò)學習
8.3隱馬爾可夫模型
8.3.1隱馬爾可夫模型描述
8.3.2隱馬爾可夫模型的三個基本問題
8.4本章小結(jié)
第9章矩陣與張量分解
9.1等值與低軼矩陣分解
9.2非負矩陣分解
9.3矩陣分解與推薦系統(tǒng)
9.4張量分解
9.5非負張量分解
9.6本章小結(jié)
第10章多層感知機
10.1感知機
10.2多層感知機概述
10.2.1誤差反傳算法
10.2.2多層感知機的優(yōu)勢和局限性
10.2.3BP算法的改進
10.3本章小結(jié)
第11章卷積神經(jīng)網(wǎng)絡(luò)
11.1卷積神經(jīng)網(wǎng)絡(luò)的生物學基礎(chǔ)
11.2卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)元件
11.2.1卷積層
11.2.2池化層
11.2.3激活層
11.2.4全連接層
11.3典型的卷積神經(jīng)網(wǎng)絡(luò)
11.3.1AlexNet
11.3.2VGG
11.3.3GoogLeNet
11.3.4ResNet
11.3.5DenseNet
11.4卷積神經(jīng)網(wǎng)絡(luò)的訓練技巧
11.4.1批歸一化
11.4.2隨機失活
11.5本章小結(jié)
第12章循環(huán)神經(jīng)網(wǎng)絡(luò)
12.1循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
12.2循環(huán)神經(jīng)網(wǎng)絡(luò)的訓練
12.2.1損失函數(shù)
12.2.2時間反向傳播算法
12.2.3梯度消失與梯度爆炸
12.3雙向循環(huán)神經(jīng)網(wǎng)絡(luò)與深度循環(huán)神經(jīng)網(wǎng)絡(luò)
12.4長短期記憶網(wǎng)絡(luò)
12.4.1LSTM記憶單元
12.4.2LSTM 記憶方式
12.5門控循環(huán)單元
12.6本章小結(jié)
第13章強化學習
13.1強化學習模型及基本要素
13.1.1強化學習模型
13.1.2強化學習基本要素
13.2馬爾可夫決策過程
13.2.1馬爾可夫過程
13.2.2馬爾可夫決策過程概述
13.3部分可觀測的馬爾可夫決策過程
13.4模型已知的強化學習
13.4.1線性規(guī)劃
13.4.2策略迭代
13.4.3值迭代
13.4.4廣義策略迭代
13.5模型未知的強化學習
13.5.1蒙特卡洛方法
13.5.2時間差分法
13.5.3Q學習與SARSA學習
13.5.4Actor-Critic學習
13.6基于逼近方法的強化學習
13.6.1值函數(shù)逼近的TD學習
13.6.2近似值迭代方法
13.6.3近似策略迭代
13.7深度強化學習
13.7.1深度Q學習(Deep Q-learning)
13.7.2深度雙Q學習
13.7.3異步深度Q學習
13.7.4其他深度強化學習
13.8本章小結(jié)
參考文獻