Python機(jī)器學(xué)習(xí)與深度學(xué)習(xí)
定 價(jià):149 元
- 作者:王娟
- 出版時間:2025/6/1
- ISBN:9787030817501
- 出 版 社:科學(xué)出版社
- 中圖法分類:TP312.8,TP181
- 頁碼:615
- 紙張:
- 版次:1
- 開本:B5
讀者對象:數(shù)學(xué)與應(yīng)用數(shù)學(xué)、信息與計(jì)算科學(xué)、統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)與技術(shù)等理工科專業(yè)的高年級本科生, 作為機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí)的理論教材或?qū)嶒?yàn)實(shí)踐配套教材(加 * 的內(nèi)容可供學(xué)生自主學(xué)習(xí)),人工智能領(lǐng)域或相關(guān)研究領(lǐng)域的研究生,對人工智能感興趣的工程技術(shù)人員
本書堅(jiān)持理論教學(xué)環(huán)節(jié)與實(shí)驗(yàn)實(shí)踐教學(xué)環(huán)節(jié)并重的教育理念, 不僅詳細(xì)探討了機(jī)器學(xué)習(xí)和深度學(xué)習(xí)原理, 即“模型、學(xué)習(xí)準(zhǔn)則和優(yōu)化算法”, 而且對每一個模型均輔以 Python “自編碼”算法設(shè)計(jì), 詳細(xì)再現(xiàn)了從原理分析到算法設(shè)計(jì)與應(yīng)用的過程和思想, 使理論分析、優(yōu)化計(jì)算與算法設(shè)計(jì)三者交互映襯, 便于讀者學(xué)習(xí)掌握.
本書共包含 16 章, 既涵蓋了經(jīng)典的機(jī)器學(xué)習(xí)模型, 如線性模型、k-近鄰、支持向量機(jī)、決策樹、貝葉斯模型、集成學(xué)習(xí)、聚類等, 又涵蓋了深度學(xué)習(xí)領(lǐng)域新興優(yōu)秀的學(xué)習(xí)模型, 如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自然語言處理和生成式深度學(xué)習(xí)等.
更多科學(xué)出版社服務(wù),請掃碼獲取。
王娟,博士,教授,碩士生導(dǎo)師,國家級一流本科專業(yè)負(fù)責(zé)人,國家級一流本科課程負(fù)責(zé)人,中原領(lǐng)軍人才,中原教學(xué)名師,河南省高等學(xué)校教學(xué)名師,河南省教育廳學(xué)術(shù)技術(shù)帶頭人,河南省高校青年骨干教師,信陽師范大學(xué)第一屆校長教學(xué)質(zhì)量獎獲得者。2003.06在信陽師范大學(xué)數(shù)學(xué)系獲學(xué)士學(xué)位, 2009.07在鄭州大學(xué)數(shù)學(xué)與統(tǒng)計(jì)學(xué)院獲碩士學(xué)位,2012.07在北京信息控制研究所獲博士學(xué)位。2012年獲首屆全國青年教師教學(xué)大獎賽理科組一等獎,同年獲河南省教育系統(tǒng)教學(xué)技能競賽特等獎,并被授予“河南省教學(xué)標(biāo)兵”稱號,2013年被授予河南省“五一勞動獎?wù)隆薄ⅰ昂幽鲜“倜毠ぜ夹g(shù)英杰”,2015年被評為河南省“文明教師”,2019年獲河南省先進(jìn)工作者。主要從事生物數(shù)學(xué)、控制理論與應(yīng)用以及數(shù)學(xué)教育等方面的研究。主要從事生物數(shù)學(xué)、控制理論與應(yīng)用以及數(shù)學(xué)教育等方面的研究。近年來,主持完成國家自然科學(xué)基金項(xiàng)目1項(xiàng)、省部級項(xiàng)目2項(xiàng)等
目錄
前言
第1章Python與機(jī)器學(xué)習(xí)基礎(chǔ)1
1.1Python語言及其基本語法2
1.1.1Python語言與開發(fā)環(huán)境2
1.1.2Python語法與面向數(shù)組計(jì)算4
1.2Python模塊化設(shè)計(jì)與感知機(jī)10
1.2.1Python模塊化設(shè)計(jì)10
1.2.2感知機(jī)模型13
1.2.3感知機(jī)的算法設(shè)計(jì)16
1.3機(jī)器學(xué)習(xí)與深度學(xué)習(xí)基礎(chǔ)25
1.3.1機(jī)器學(xué)習(xí)簡述25
1.3.2機(jī)器學(xué)習(xí)的類型29
1.3.3深度學(xué)習(xí)簡述31
1.4過擬合與泛化性能33
1.4.1過擬合33
1.4.2偏差與方差37
1.5習(xí)題與實(shí)驗(yàn)40
1.6本章小結(jié)41
1.7參考文獻(xiàn)41
第2章模型評估與多分類學(xué)習(xí)43
2.1評估方法43
2.1.1留出法44
2.1.2k折交叉驗(yàn)證法45
2.1.3自助法47
2.1.4調(diào)參與最終模型49
2.1.5Hyperopt自動化超參數(shù)調(diào)優(yōu)51
2.2性能度量55
2.2.1性能度量指標(biāo)55
2.2.2P-R曲線57
2.2.3ROC曲線60
2.2.4代價(jià)敏感錯誤率與代價(jià)曲線62
2.2.5性能度量算法設(shè)計(jì)64
2.3多分類學(xué)習(xí)73
2.3.1多分類學(xué)習(xí)策略73
2.3.2多分類學(xué)習(xí)的算法設(shè)計(jì)74
2.4習(xí)題與實(shí)驗(yàn)79
2.5本章小結(jié)79
2.6參考文獻(xiàn)80
第3章線性回歸81
3.1線性回歸模型的閉式解82
3.1.1學(xué)習(xí)準(zhǔn)則與閉式解82
3.1.2可決系數(shù)84
3.1.3算法設(shè)計(jì)與應(yīng)用85
3.2梯度下降法迭代優(yōu)化91
3.2.1梯度下降法與參數(shù)更新公式91
3.2.2算法設(shè)計(jì)與應(yīng)用93
3.3多項(xiàng)式回歸98
3.3.1模型建立與算法設(shè)計(jì)98
3.3.2學(xué)習(xí)曲線101
3.4線性回歸的正則化方法104
3.4.1Ridge回歸及其算法設(shè)計(jì)106
3.4.2LASSO回歸及其算法設(shè)計(jì)110
3.4.3ElasticNet回歸及其算法設(shè)計(jì)121
3.5習(xí)題與實(shí)驗(yàn)124
3.6本章小結(jié)125
3.7參考文獻(xiàn)126
第4章邏輯回歸127
4.1二分類學(xué)習(xí)任務(wù)127
4.1.1邏輯回歸模型與交叉熵?fù)p失函數(shù).127
4.1.2梯度下降法及其加速算法130
4.1.3線性收斂的隨機(jī)優(yōu)化算法133
4.1.4二階優(yōu)化的擬牛頓算法135
4.1.5二分類算法設(shè)計(jì)與應(yīng)用139
4.2多分類學(xué)習(xí)任務(wù)154
4.2.1Softmax回歸和學(xué)習(xí)策略155
4.2.2多分類算法設(shè)計(jì)與實(shí)現(xiàn)158
4.3習(xí)題與實(shí)驗(yàn)165
4.4本章小結(jié)165
4.5參考文獻(xiàn)166
第5章判別分析與主成分分析167
5.1LDA二分類問題167
5.1.1廣義瑞利商和LDA模型求解168
5.1.2LDA二分類問題算法171
5.2LDA多分類任務(wù)的降維與預(yù)測174
5.2.1LDA多分類模型建立和求解174
5.2.2LDA多分類任務(wù)的降維與預(yù)測算法177
5.3二次判別分析182
5.4主成分分析184
5.4.1主成分分析原理184
5.4.2QR正交分解法求實(shí)對稱矩陣特征值與特征向量188
5.4.3主成分分析算法設(shè)計(jì)191
5.5核主成分分析195
5.6習(xí)題與實(shí)驗(yàn)199
5.7本章小結(jié)200
5.8參考文獻(xiàn)201
第6章決策樹202
6.1特征劃分選擇與連續(xù)值處理202
6.1.1信息熵203
6.1.2離散特征變量的劃分標(biāo)準(zhǔn)204
6.1.3連續(xù)特征變量的劃分標(biāo)準(zhǔn)與分箱處理209
6.1.4特征劃分選擇標(biāo)準(zhǔn)的算法設(shè)計(jì)213
6.2決策樹算法設(shè)計(jì)217
6.3剪枝處理226
6.4基于CART的回歸樹231
6.5習(xí)題與實(shí)驗(yàn)239
6.6本章小結(jié)241
6.7參考文獻(xiàn)242
第7章k-近鄰243
7.1距離度量245
7.2kd樹的建立與搜索246
7.3k-近鄰算法設(shè)計(jì)249
7.4習(xí)題與實(shí)驗(yàn)259
7.5本章小結(jié)260
7.6參考文獻(xiàn)261
第8章貝葉斯分類器262
8.1樸素貝葉斯分類器263
8.1.1樸素貝葉斯分類器原理263
8.1.2樸素貝葉斯分類器算法設(shè)計(jì)266
8.2半樸素貝葉斯分類器273
8.2.1半樸素貝葉斯分類器原理273
8.2.2基于AODE算法的半樸素貝葉斯算法設(shè)計(jì)275
8.3習(xí)題與實(shí)驗(yàn)280
8.4本章小結(jié)281
8.5參考文獻(xiàn)281
第9章支持向量機(jī)282
9.1線性可分支持向量機(jī)282
9.1.1間隔與支持向量282
9.1.2對偶問題與KKT條件284
9.1.3線性可分支持向量機(jī)模型286
9.2軟間隔與線性支持向量機(jī)288
9.3核函數(shù)與非線性支持向量機(jī)290
9.4SMO與Pegasos優(yōu)化算法291
9.4.1SMO算法291
9.4.2Pegasos算法295
9.5支持向量機(jī)的算法設(shè)計(jì)296
9.6支持向量機(jī)回歸310
9.6.1SVR模型與學(xué)習(xí)310
9.6.2SVR算法設(shè)計(jì)313
9.7習(xí)題與實(shí)驗(yàn)321
9.8本章小結(jié)321
9.9參考文獻(xiàn)322
第10章集成學(xué)習(xí)324
10.1Boosting族算法326
10.1.1AdaBoost分類及其變體算法326
10.1.2AdaBoost回歸336
10.1.3回歸問題的提升樹與GBDT算法340
10.1.4分類問題的GBDT算法346
10.2Bagging與隨機(jī)森林350
10.2.1Bagging350
10.2.2隨機(jī)森林356
10.3XGBoost364
10.3.1XGBoost模型與學(xué)習(xí)364
10.3.2XGBoost分類與回歸算法.369
10.4習(xí)題與實(shí)驗(yàn).377
10.5本章小結(jié)377
10.6參考文獻(xiàn)378
第11章聚類379
11.1聚類的性能度量和距離度量379
11.2原型聚類385
11.2.1k-means聚類386
11.2.2學(xué)習(xí)向量量化394
11.2.3高斯混合聚類398
11.3密度聚類405
11.4層次聚類410
11.5習(xí)題與實(shí)驗(yàn)415
11.6本章小結(jié)415
11.7參考文獻(xiàn)416
第12章前饋神經(jīng)網(wǎng)絡(luò)417
12.1單層神經(jīng)網(wǎng)絡(luò)419
12.2BP神經(jīng)網(wǎng)絡(luò)423
12.2.1BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練原理423
12.2.2Affine層設(shè)計(jì)430
12.2.3BP神經(jīng)網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)431
12.2.4加速優(yōu)化學(xué)習(xí)方法440
12.2.5基于優(yōu)化學(xué)習(xí)方法的BP神經(jīng)網(wǎng)絡(luò)算法設(shè)計(jì)446
12.3神經(jīng)網(wǎng)絡(luò)多分類問題449
12.4深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)453
12.4.1梯度消失和激活函數(shù)454
12.4.2網(wǎng)絡(luò)權(quán)重初始化方法458
12.4.3過擬合和節(jié)點(diǎn)丟棄460
12.4.4批歸一化465
12.5徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)472
12.6習(xí)題與實(shí)驗(yàn)477
12.7本章小結(jié)479
12.8參考文獻(xiàn)479
第13章卷積神經(jīng)網(wǎng)絡(luò)481
13.1卷積層482
13.2池化層488
13.3卷積神經(jīng)網(wǎng)絡(luò)的算法設(shè)計(jì)490
13.3.1卷積層的算法設(shè)計(jì)490
13.3.2池化層的算法設(shè)計(jì)492
13.3.3CNN算法設(shè)計(jì)架構(gòu)494
13.4習(xí)題與實(shí)驗(yàn)503
13.5本章小結(jié)505
13.6參考文獻(xiàn)505
第14章循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語言處理506
14.1簡單循環(huán)神經(jīng)網(wǎng)絡(luò)模型506
14.1.1S-RNN模型與學(xué)習(xí)506
14.1.2S-RNN算法設(shè)計(jì)511
14.2長短期記憶網(wǎng)絡(luò)520
14.2.1LSTM模型與學(xué)習(xí)520
14.2.2LSTM算法設(shè)計(jì)523
14.3門控循環(huán)單元網(wǎng)絡(luò)530
14.3.1GRU模型與學(xué)習(xí)530
14.3.2GRU算法設(shè)計(jì)532
14.4自然語言處理537
14.4.1word2vec模型537
14.4.2Seq2Seq模型541
14.4.3Attention機(jī)制551
14.5習(xí)題與實(shí)驗(yàn)561
14.6本章小結(jié)561
14.7參考文獻(xiàn)562
第15章自組織映射神經(jīng)網(wǎng)絡(luò)563
15.1SOM網(wǎng)絡(luò)模型和學(xué)習(xí)564
15.2SOM算法設(shè)計(jì)566
15.3習(xí)題與實(shí)驗(yàn)575
15.4本章小結(jié)576
15.5參考文獻(xiàn)576
第16章生成式深度學(xué)習(xí)577
16.1變分自編碼器577
16.1.1VAE模型和學(xué)習(xí)578
16.1.2VAE算法設(shè)計(jì)583
16.2生成式對抗網(wǎng)絡(luò)593
16.2.1GAN模型和學(xué)習(xí)594
16.2.2GAN算法設(shè)計(jì)596
16.3深度卷積生成式對抗網(wǎng)絡(luò)DCGAN607
16.4習(xí)題與實(shí)驗(yàn)613
16.5本章小結(jié)613
16.6參考文獻(xiàn)614