![]() ![]() |
深度學(xué)習(xí)500問(wèn)——AI工程師面試寶典 讀者對(duì)象:深度學(xué)習(xí)相關(guān)工程師、研究者 ![]()
本書(shū)系統(tǒng)地描述了深度學(xué)習(xí)的基本理論算法及應(yīng)用。全書(shū)共14章,第1~3章論述了數(shù)學(xué)基礎(chǔ)、機(jī)器學(xué)習(xí)基礎(chǔ)和深度學(xué)習(xí)基礎(chǔ);第4~7章介紹了一些經(jīng)典網(wǎng)絡(luò)及計(jì)算機(jī)視覺(jué)領(lǐng)域中常用的CNN、RNN、GAN等網(wǎng)絡(luò)結(jié)構(gòu)技術(shù);第8~9章介紹了深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的目標(biāo)檢測(cè)及圖像分割兩大應(yīng)用;第10~14章介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域主要的優(yōu)化方法及思路等,包括遷移學(xué)習(xí)、網(wǎng)絡(luò)架構(gòu)及訓(xùn)練、網(wǎng)絡(luò)優(yōu)化技巧、超參數(shù)調(diào)整及模型的壓縮和加速等。本書(shū)凝聚了眾多一線(xiàn)科研人員及工程師的經(jīng)驗(yàn),旨在培養(yǎng)讀者發(fā)現(xiàn)問(wèn)題、解決問(wèn)題、擴(kuò)展問(wèn)題的能力。本書(shū)內(nèi)容取材于編者在日常學(xué)習(xí)過(guò)程中總結(jié)的知識(shí)點(diǎn)及各大公司常見(jiàn)的筆試、面試題。本書(shū)可為高等院校計(jì)算機(jī)科學(xué)、信息科學(xué)、人工智能、控制科學(xué)與工程、電子科學(xué)與技術(shù)等領(lǐng)域的研究及教學(xué)人員提供參考,也可為相關(guān)專(zhuān)業(yè)本科生及研究生提供思考方向,還可為深度學(xué)習(xí)及計(jì)算機(jī)視覺(jué)領(lǐng)域的初、中級(jí)研究人員和工程技術(shù)人員提供參考,尤其適合需要查漏補(bǔ)缺的應(yīng)聘者及提供相關(guān)崗位的面試官閱讀。
談繼勇 主編南方科技大學(xué)和哈爾濱工業(yè)大學(xué)聯(lián)合培養(yǎng)博士(在讀),現(xiàn)任瀚維智能醫(yī)療技術(shù)總監(jiān),深圳工信局專(zhuān)家?guī)鞂?zhuān)家,兼任南方科技大學(xué)、四川大學(xué)研究生企業(yè)導(dǎo)師,南方科技大學(xué)和瀚維智能醫(yī)療聯(lián)合實(shí)驗(yàn)室副主任,北京探工所特聘技術(shù)專(zhuān)家,曾先后在中科院信工所、香港中文大學(xué)(深圳)、FOXCONN機(jī)器人與人工智能實(shí)驗(yàn)室、順豐科技等單位任職。主要專(zhuān)注于智能感知與控制、實(shí)時(shí)智能與計(jì)算機(jī)視覺(jué)方向的研究,主持/主研國(guó)家自然科學(xué)基金、省重點(diǎn)研發(fā)計(jì)劃、深圳戰(zhàn)略性新興產(chǎn)業(yè)計(jì)劃等項(xiàng)目20余項(xiàng),發(fā)表SCI/EI論文20余篇,申請(qǐng)發(fā)明專(zhuān)利40余項(xiàng),獲全國(guó)發(fā)明金獎(jiǎng)。郭子釗 副主編四川大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)博士,碩士畢業(yè)于四川大學(xué)自動(dòng)化系,主要從事AI芯片、深度學(xué)習(xí)、行為檢測(cè)識(shí)別、人臉檢測(cè)識(shí)別等相關(guān)研究工作。李劍 副主編同濟(jì)大學(xué)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)博士,浙江農(nóng)林大學(xué)副教授、碩士生導(dǎo)師,主要從事推薦系統(tǒng)、排序?qū)W習(xí)、凸優(yōu)化等機(jī)器學(xué)習(xí)領(lǐng)域的科研和教學(xué)工作,發(fā)表SCI論文10余篇,曾獲浙江省科技進(jìn)步二等獎(jiǎng)等多項(xiàng)省部級(jí)獎(jiǎng)項(xiàng)。佃松宜 副主編日本東北大學(xué)博士,四川大學(xué)電氣工程學(xué)院教授、自動(dòng)化系系主任,四川省信息與自動(dòng)化技術(shù)重點(diǎn)實(shí)驗(yàn)室主任。主要專(zhuān)注于先進(jìn)控制理論與人工智能算法研究、嵌入式計(jì)算與實(shí)時(shí)智能系統(tǒng)的研究與開(kāi)發(fā)、機(jī)器人與智能裝備的智能感知與控制技術(shù)的研究、工業(yè)測(cè)控與智能物聯(lián)的研究。近5年來(lái)主持包括國(guó)家重點(diǎn)研發(fā)計(jì)劃、基金、國(guó)網(wǎng)總部項(xiàng)目等各類(lèi)科研項(xiàng)目近30項(xiàng),累計(jì)總經(jīng)費(fèi)近2200萬(wàn)元;發(fā)表論文100多篇,其中SCI/EI檢索近40篇,ESI高引論文1篇。參與編撰專(zhuān)著3部(其中英文專(zhuān)著1部),參編國(guó)家九五規(guī)劃教材1部。王晉東 特邀編委中科院計(jì)算所博士,微軟亞洲研究院機(jī)器學(xué)習(xí)研究員,主要從事遷移學(xué)習(xí)和機(jī)器學(xué)習(xí)方向的研究工作,在IJCAI、CVPR、ICDM、UbiComp、ACMMM、PERCOM、IJCNN、PRICAI、IEEE TNNLS、NEUNET、PRL、PMCJ、IMWUT、IJMLC、ICME、ACM TIST等國(guó)際權(quán)威期刊和會(huì)議上發(fā)表論文20余篇,多次獲得“最佳論文”獎(jiǎng)。作品有《遷移學(xué)習(xí)簡(jiǎn)明手冊(cè)》等。王超鋒上海大學(xué)碩士,百度計(jì)算機(jī)視覺(jué)算法工程師,主研圖像處理,深度學(xué)習(xí)等方向。曾多次在國(guó)內(nèi)外各類(lèi)知名計(jì)算機(jī)視覺(jué)挑戰(zhàn)賽中獲得優(yōu)異成績(jī)。郭曉鋒中國(guó)科學(xué)院碩士,愛(ài)奇藝算法工程師,主要從事圖像處理、深度學(xué)習(xí)等方向的研究,曾獲“2017華為軟件精英挑戰(zhàn)賽”復(fù)賽第6名。黃偉華南理工大學(xué)碩士,順豐科技機(jī)器人算法工程師,主要從事計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理方向的研究。曾在相關(guān)領(lǐng)域國(guó)際期刊、會(huì)議上發(fā)表論文,并在相關(guān)競(jìng)賽中獲得優(yōu)異成績(jī)。陳方杰(Amusi)上海大學(xué)碩士,CVer(計(jì)算機(jī)視覺(jué)知識(shí)分享和學(xué)習(xí)交流平臺(tái))創(chuàng)始人。李元偉國(guó)防科技大學(xué)碩士,深圳瀚維智能醫(yī)療科技公司高級(jí)算法工程師,南方科技大學(xué)和瀚維智能醫(yī)療聯(lián)合實(shí)驗(yàn)室委員,主要從事機(jī)器視覺(jué)、圖像處理及深度學(xué)習(xí)方向的研究工作,參編普通高等教育十三五規(guī)劃教材《圖像通信基礎(chǔ)》,在IEEE TCSVT、COGN COMPUT等發(fā)表學(xué)術(shù)論文多篇,曾獲湖南省/全軍優(yōu)秀碩士論文。陳琳北京航空航天大學(xué)博士(在讀),研究方向?yàn)闊o(wú)人機(jī)智能控制與決策、仿生智能計(jì)算。
第1章 數(shù)學(xué)基礎(chǔ) 1
1.1 向量和矩陣 1 1.1.1 標(biāo)量、向量、矩陣和張量 1 1.1.2 張量與矩陣的區(qū)別 2 1.1.3 矩陣和向量相乘的結(jié)果 2 1.1.4 向量和矩陣的范數(shù)歸納 2 1.1.5 判斷一個(gè)矩陣是否為正定矩陣 4 1.2 導(dǎo)數(shù)和偏導(dǎo)數(shù) 5 1.2.1 導(dǎo)數(shù)偏導(dǎo)計(jì)算 5 1.2.2 導(dǎo)數(shù)和偏導(dǎo)數(shù)的區(qū)別 6 1.3 特征值和特征向量 6 1.3.1 特征值分解 6 1.3.2 奇異值和特征值的關(guān)系 6 1.4 概率分布與隨機(jī)變量 7 1.4.1 機(jī)器學(xué)習(xí)為什么要使用概率 7 1.4.2 變量與隨機(jī)變量的區(qū)別 7 1.4.3 隨機(jī)變量與概率分布的聯(lián)系 8 1.4.4 離散型隨機(jī)變量和概率質(zhì)量函數(shù) 8 1.4.5 連續(xù)型隨機(jī)變量和概率密度函數(shù) 8 1.4.6 舉例理解條件概率 9 1.4.7 聯(lián)合概率與邊緣概率的區(qū)別和聯(lián)系 9 1.4.8 條件概率的鏈?zhǔn)椒▌t 10 1.4.9 獨(dú)立性和條件獨(dú)立性 10 1.5 常見(jiàn)概率分布 11 1.5.1 伯努利分布 11 1.5.2 高斯分布 11 1.5.3 何時(shí)采用正態(tài)分布 12 1.5.4 指數(shù)分布 12 1.5.5 Laplace分布 13 1.5.6 Dirac分布和經(jīng)驗(yàn)分布 13 1.6 期望、方差、協(xié)方差、相關(guān)系數(shù) 13 1.6.1 期望 13 1.6.2 方差 14 1.6.3 協(xié)方差 14 1.6.4 相關(guān)系數(shù) 15 第2章 機(jī)器學(xué)習(xí)基礎(chǔ) 16 2.1 基本概念 16 2.1.1 大話(huà)機(jī)器學(xué)習(xí)本質(zhì) 16 2.1.2 什么是神經(jīng)網(wǎng)絡(luò) 16 2.1.3 各種常見(jiàn)算法圖示 17 2.1.4 計(jì)算圖的導(dǎo)數(shù)計(jì)算 17 2.1.5 理解局部最優(yōu)與全局最優(yōu) 18 2.1.6 大數(shù)據(jù)與深度學(xué)習(xí)之間的關(guān)系 19 2.2 機(jī)器學(xué)習(xí)的學(xué)習(xí)方式 20 2.2.1 監(jiān)督學(xué)習(xí) 20 2.2.2 非監(jiān)督學(xué)習(xí) 20 2.2.3 半監(jiān)督學(xué)習(xí) 20 2.2.4 弱監(jiān)督學(xué)習(xí) 20 2.2.5 監(jiān)督學(xué)習(xí)模型的搭建步驟 21 2.3 分類(lèi)算法 22 2.3.1 常用分類(lèi)算法的優(yōu)缺點(diǎn) 22 2.3.2 分類(lèi)算法的評(píng)估方法 23 2.3.3 正確率能否很好地評(píng)估分類(lèi)算法 25 2.3.4 什么樣的分類(lèi)器是最好的 26 2.4 邏輯回歸 26 2.4.1 回歸的種類(lèi) 26 2.4.2 邏輯回歸適用性 27 2.4.3 邏輯回歸與樸素貝葉斯的區(qū)別 27 2.4.4 線(xiàn)性回歸與邏輯回歸的區(qū)別 27 2.5 代價(jià)函數(shù) 28 2.5.1 為什么需要代價(jià)函數(shù) 28 2.5.2 代價(jià)函數(shù)作用原理 28 2.5.3 常見(jiàn)代價(jià)函數(shù) 30 2.5.4 為什么代價(jià)函數(shù)要非負(fù) 31 2.5.5 為什么用交叉熵代替二次代價(jià)函數(shù) 31 2.6 損失函數(shù) 32 2.6.1 什么是損失函數(shù) 32 2.6.2 常見(jiàn)的損失函數(shù) 32 2.6.3 邏輯回歸為什么使用對(duì)數(shù)損失函數(shù) 34 2.6.4 對(duì)數(shù)損失函數(shù)如何度量損失 34 2.7 梯度下降法 35 2.7.1 梯度下降法的作用 36 2.7.2 梯度下降法的直觀(guān)理解 36 2.7.3 梯度下降法算法描述 37 2.7.4 梯度下降法的缺點(diǎn) 38 2.7.5 如何對(duì)梯度下降法進(jìn)行調(diào)優(yōu) 38 2.7.6 隨機(jī)梯度下降和批量梯度下降的區(qū)別 38 2.7.7 各種梯度下降法性能比較 40 2.8 線(xiàn)性判別分析 40 2.8.1 LDA思想總結(jié) 40 2.8.2 圖解LDA核心思想 41 2.8.3 二類(lèi)LDA算法原理 41 2.8.4 LDA算法流程總結(jié) 42 2.8.5 LDA和PCA的異同 43 2.8.6 LDA的優(yōu)缺點(diǎn) 43 2.9 主成分分析 43 2.9.1 圖解PCA核心思想 43 2.9.2 PCA算法推理 44 2.9.3 PCA算法流程總結(jié) 45 2.9.4 PCA思想總結(jié) 46 2.9.5 PCA算法的優(yōu)缺點(diǎn) 46 2.9.6 降維的必要性及目的 46 2.9.7 KPCA與PCA的區(qū)別 47 2.10 模型評(píng)估 47 2.10.1 模型評(píng)估常用方法 48 2.10.2 誤差、偏差和方差的區(qū)別和聯(lián)系 48 2.10.3 為什么使用標(biāo)準(zhǔn)差 49 2.10.4 經(jīng)驗(yàn)誤差與泛化誤差 50 2.10.5 圖解欠擬合與過(guò)擬合 50 2.10.6 如何解決欠擬合與過(guò)擬合 52 2.10.7 交叉驗(yàn)證的主要作用 52 2.10.8 理解K折交叉驗(yàn)證 53 2.10.9 理解混淆矩陣 53 2.10.10 理解查準(zhǔn)率與查全率 53 2.10.11 理解ROC與AUC 54 2.10.12 如何繪制ROC曲線(xiàn) 55 2.10.13 如何計(jì)算TPR和FPR 56 2.10.14 如何計(jì)算AUC 58 2.10.15 直觀(guān)理解AUC 58 2.10.16 ROC評(píng)估分類(lèi)器 60 2.10.17 代價(jià)敏感錯(cuò)誤率與代價(jià)曲線(xiàn) 60 2.10.18 比較檢驗(yàn)方法 61 2.11 決策樹(shù) 61 2.11.1 決策樹(shù)的基本原理 62 2.11.2 決策樹(shù)的生成過(guò)程 62 2.11.3 決策樹(shù)學(xué)習(xí)基本算法步驟 62 2.11.4 決策樹(shù)算法的優(yōu)缺點(diǎn) 63 2.11.5 決策樹(shù)和熵的聯(lián)系 63 2.11.6 熵的概念及定義 63 2.11.7 理解信息增益 64 2.11.8 決策樹(shù)中熵、條件熵和信息增益的聯(lián)系 64 2.11.9 決策樹(shù)算法中剪枝的作用及策略 65 2.12 支持向量機(jī)(SVM) 65 2.12.1 什么是SVM 65 2.12.2 SVM能解決的問(wèn)題 66 2.12.3 核函數(shù)特點(diǎn)及其作用 67 2.12.4 SVM為什么引入對(duì)偶問(wèn)題 67 2.12.5 如何理解SVM中的對(duì)偶問(wèn)題 67 2.12.6 常見(jiàn)的核函數(shù) 69 2.12.7 SVM的主要特點(diǎn) 69 2.12.8 SVM的主要缺點(diǎn) 70 2.12.9 邏輯回歸與SVM的異同 70 2.13 貝葉斯分類(lèi)器 72 2.13.1 貝葉斯分類(lèi)器的基本原理 72 2.13.2 樸素貝葉斯分類(lèi)器 72 2.13.3 舉例理解樸素貝葉斯分類(lèi)器 73 2.13.4 半樸素貝葉斯分類(lèi)器 75 2.13.5 極大似然估計(jì)和貝葉斯估計(jì)的聯(lián)系與區(qū)別 75 2.13.6 極大似然估計(jì)原理 76 2.13.7 圖解極大似然估計(jì) 76 2.14 EM算法 77 2.14.1 EM算法的基本思想 77 2.14.2 EM算法推導(dǎo) 77 2.14.3 圖解EM算法 78 2.14.4 EM算法流程 79 2.15 降維和聚類(lèi) 79 2.15.1 圖解為什么會(huì)產(chǎn)生維數(shù)災(zāi)難 79 2.15.2 怎樣避免維數(shù)災(zāi)難 83 2.15.3 聚類(lèi)和降維 83 2.15.4 聚類(lèi)算法優(yōu)劣的衡量標(biāo)準(zhǔn) 84 2.15.5 聚類(lèi)和分類(lèi) 85 2.15.6 聚類(lèi)算法的性能比較 85 2.15.7 4種常用聚類(lèi)方法比較 85 第3章 深度學(xué)習(xí)基礎(chǔ) 89 3.1 基本概念 89 3.1.1 神經(jīng)網(wǎng)絡(luò)的類(lèi)型 89 3.1.2 神經(jīng)網(wǎng)絡(luò)的常用模型結(jié)構(gòu) 92 3.1.3 深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的區(qū)別與聯(lián)系 93 3.1.4 為什么使用深層表示 93 3.1.5 深度學(xué)習(xí)架構(gòu)分類(lèi) 94 3.1.6 如何選擇深度學(xué)習(xí)開(kāi)發(fā)平臺(tái) 94 3.2 神經(jīng)網(wǎng)絡(luò)計(jì)算 95 3.2.1 前向傳播和反向傳播 95 3.2.2 如何計(jì)算神經(jīng)網(wǎng)絡(luò)的輸出 96 3.2.3 如何計(jì)算卷積神經(jīng)網(wǎng)絡(luò)輸出值 97 3.2.4 如何計(jì)算池化層輸出值 100 3.2.5 反向傳播實(shí)例 101 3.2.6 神經(jīng)網(wǎng)絡(luò)更“深”的意義 104 3.3 激活函數(shù) 104 3.3.1 為什么需要激活函數(shù) 104 3.3.2 為什么激活函數(shù)需要非線(xiàn)性函數(shù) 105 3.3.3 常見(jiàn)的激活函數(shù)及其圖像 105 3.3.4 常見(jiàn)激活函數(shù)的導(dǎo)數(shù)計(jì)算 107 3.3.5 激活函數(shù)有哪些性質(zhì) 108 3.3.6 如何選擇激活函數(shù) 108 3.3.7 為什么tanh收斂速度比sigmoid快 109 3.3.8 Relu激活函數(shù)的優(yōu)點(diǎn) 109 3.3.9 理解Relu激活函數(shù)的稀疏激活性 109 3.3.10 什么時(shí)候可以用線(xiàn)性激活函數(shù) 109 3.3.11 softmax函數(shù)的定義及作用 110 3.3.12 softmax函數(shù)如何應(yīng)用于多分類(lèi) 110 3.4 BATCH SIZE 112 3.4.1 為什么需要Batch Size 112 3.4.2 如何選擇Batch Size值 112 3.4.3 調(diào)節(jié)Batch Size對(duì)訓(xùn)練效果的影響 113 3.4.4 在合理范圍內(nèi)增大Batch Size的好處 113 3.4.5 盲目增大Batch Size的壞處 114 3.5 歸一化 114 3.5.1 理解歸一化含義 114 3.5.2 歸一化和標(biāo)準(zhǔn)化的聯(lián)系與區(qū)別 114 3.5.3 為什么要?dú)w一化或標(biāo)準(zhǔn)化 115 3.5.4 圖解為什么要?dú)w一化 115 3.5.5 為什么歸一化能提高求最優(yōu)解速度 115 3.5.6 歸一化有哪些類(lèi)型 116 3.5.7 局部響應(yīng)歸一化作用 116 3.5.8 局部響應(yīng)歸一化原理 117 3.5.9 什么是批歸一化 118 3.5.10 批歸一化的優(yōu)點(diǎn) 118 3.5.11 批歸一化算法流程 118 3.5.12 批歸一化和組歸一化比較 119 3.5.13 權(quán)重歸一化和批歸一化比較 119 3.5.14 批歸一化適用范圍 120 3.5.15 BN、LN、IN和GN的對(duì)比 120 3.6 參數(shù)初始化 121 3.6.1 參數(shù)初始化應(yīng)滿(mǎn)足的條件 121 3.6.2 常用的幾種初始化方式 121 3.6.3 全0初始化帶來(lái)的問(wèn)題 121 3.6.4 全都初始化為同樣的值 122 3.6.5 初始化為小的隨機(jī)數(shù) 123 3.6.6 用 校準(zhǔn)方差 123 3.7 預(yù)訓(xùn)練與微調(diào) 123 3.7.1 什么是預(yù)訓(xùn)練和微調(diào) 123 3.7.2 預(yù)訓(xùn)練和微調(diào)的作用 124 3.7.3 預(yù)訓(xùn)練模型的復(fù)用 124 3.7.4 預(yù)訓(xùn)練和遷移學(xué)習(xí) 125 3.7.5 微調(diào)時(shí)網(wǎng)絡(luò)參數(shù)是否更新 125 3.7.6 微調(diào)模型的三種狀態(tài) 125 3.7.7 為什么深層神經(jīng)網(wǎng)絡(luò)難以訓(xùn)練 125 3.8 超參數(shù) 127 3.8.1 超參數(shù)有哪些 127 3.8.2 參數(shù)和模型的關(guān)系 127 3.8.3 參數(shù)和超參數(shù)的區(qū)別 127 3.8.4 如何尋找超參數(shù)的最優(yōu)值 128 3.8.5 超參數(shù)搜索的一般過(guò)程 128 3.9 學(xué)習(xí)率 129 3.9.1 學(xué)習(xí)率的作用 129 3.9.2 學(xué)習(xí)率衰減的常用參數(shù) 129 3.9.3 常用的學(xué)習(xí)率衰減方法 129 3.10 正則化 133 3.10.1 為什么要正則化 133 3.10.2 常見(jiàn)正則化方法 133 3.10.3 圖解L1和L2正則化 134 3.10.4 Dropout具體工作流程 135 3.10.5 為什么Dropout可以解決過(guò)擬合問(wèn)題 137 3.10.6 Dropout的缺點(diǎn) 137 第4章 卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典網(wǎng)絡(luò) 138 4.1 LENET-5 138 4.1.1 模型介紹 138 4.1.2 模型結(jié)構(gòu) 138 4.1.3 模型特性 139 4.2 ALEXNET 140 4.2.1 模型介紹 140 4.2.2 模型結(jié)構(gòu) 140 4.2.3 模型特性 141 4.3 ZFNET 142 4.3.1 模型介紹 142 4.3.2 模型結(jié)構(gòu) 142 4.3.3 模型特性 143 4.4 NIN 144 4.4.1 模型介紹 144 4.4.2 模型結(jié)構(gòu) 144 4.4.3 模型特點(diǎn) 145 4.5 VGGNET 145 4.5.1 模型介紹 145 4.5.2 模型結(jié)構(gòu) 146 4.5.3 模型特性 147 4.6 GOOGLENET 147 4.6.1 模型介紹 147 4.6.2 模型結(jié)構(gòu) 148 4.6.3 模型特性 152 4.7 RESNET 152 4.7.1 模型介紹 152 4.7.2 模型結(jié)構(gòu) 152 4.7.3 模型特性 154 4.8 DENSENET 155 4.8.1 模型介紹 155 4.8.2 模型結(jié)構(gòu) 156 4.8.3 模型特性 157 4.9 CNN模型在GOOGLENET、VGGNET或ALEXNET上調(diào)整的原因 157 第5章 卷積神經(jīng)網(wǎng)絡(luò) 159 5.1 CNN的結(jié)構(gòu) 159 5.1.1 CNN和人類(lèi)視覺(jué)的關(guān)系 159 5.1.2 CNN的結(jié)構(gòu)組成 160 5.2 輸入層 160 5.2.1 輸入層作用 160 5.2.2 數(shù)據(jù)預(yù)處理 160 5.3 卷積層 161 5.3.1 卷積原理 161 5.3.2 卷積在圖像中的作用 162 5.3.3 卷積層的基本參數(shù) 163 5.3.4 卷積核的類(lèi)型 164 5.3.5 1×1卷積的作用 165 5.3.6 卷積核是否越大越好 166 5.3.7 每層卷積是否只能用一種尺寸的卷積核 167 5.3.8 如何減少卷積層參數(shù)量 167 5.3.9 在標(biāo)準(zhǔn)卷積中同時(shí)考慮通道和區(qū)域的優(yōu)缺點(diǎn) 167 5.3.10 采用寬卷積的好處 169 5.4 激活層 169 5.4.1 激活層的作用 169 5.4.2 BN層和激活層的位置順序選擇 170 5.5 池化層 170 5.5.1 池化層作用 170 5.5.2 池化方法 171 5.5.3 卷積層和池化層的區(qū)別 171 5.5.4 NetVLAD池化 172 5.6 全連接層 172 5.6.1 全連接如何把二維特征圖轉(zhuǎn)化成一個(gè)一維向量 172 5.6.2 全卷積神經(jīng)網(wǎng)絡(luò)取代全連接層 173 5.6.3 圖像分類(lèi)中全連接層對(duì)卷積神經(jīng)網(wǎng)絡(luò)性能的影響 173 5.7 二維卷積與三維卷積 174 5.7.1 二維卷積與三維卷積的區(qū)別 174 5.7.2 圖解三維卷積 175 5.7.3 RGB圖不使用三維卷積的原因 176 5.8 理解轉(zhuǎn)置卷積與棋盤(pán)效應(yīng) 176 5.8.1 標(biāo)準(zhǔn)卷積 176 5.8.2 轉(zhuǎn)置卷積 177 5.8.3 棋盤(pán)效應(yīng) 178 5.9 卷積神經(jīng)網(wǎng)絡(luò)凸顯共性的方法 179 5.9.1 局部連接 179 5.9.2 權(quán)重共享 180 5.9.3 池化操作 181 5.10 局部卷積 181 5.10.1 全連接、局部連接、全卷積與局部卷積對(duì)比 182 5.10.2 局部卷積的應(yīng)用 182 5.11 CNN可視化 183 5.11.1 特征層學(xué)到了什么 183 5.11.2 特征層隨訓(xùn)練而演化 184 5.11.3 消融分析 185 5.11.4 常見(jiàn)的網(wǎng)絡(luò)可視化方法 185 5.12 卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)化及應(yīng)用 186 5.12.1 卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)設(shè)置 186 5.12.2 如何提高卷積神經(jīng)網(wǎng)絡(luò)的泛化能力 186 5.12.3 卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域不變性和組合性 187 5.12.4 卷積神經(jīng)網(wǎng)絡(luò)在不同領(lǐng)域的應(yīng)用 188 第6章 循環(huán)神經(jīng)網(wǎng)絡(luò) 189 6.1 為什么需要RNN 189 6.2 圖解RNN基本結(jié)構(gòu) 189 6.2.1 基本的單層網(wǎng)絡(luò)結(jié)構(gòu) 189 6.2.2 圖解經(jīng)典RNN結(jié)構(gòu) 190 6.2.3 Vector-to-Sequence結(jié)構(gòu) 191 6.2.4 Sequence-to-Vector結(jié)構(gòu) 192 6.2.5 Encoder-Decoder結(jié)構(gòu) 192 6.2.6 3種基本結(jié)構(gòu)的應(yīng)用場(chǎng)景 193 6.2.7 圖解RNN中的注意機(jī)制 194 6.3 RNN的性質(zhì) 195 6.3.1 RNN的典型特點(diǎn) 195 6.3.2 CNN和RNN的區(qū)別 196 6.3.3 RNN和FNN的異同 196 6.3.4 為什么RNN訓(xùn)練的時(shí)候損失值波動(dòng)很大 197 6.4 RNN的后向傳播 197 6.4.1 BPTT算法推導(dǎo) 197 6.4.2 RNN中為什么會(huì)出現(xiàn)梯度消失 198 6.4.3 如何解決RNN中的梯度消失問(wèn)題 199 6.5 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM) 199 6.5.1 LSTM的產(chǎn)生原因 199 6.5.2 標(biāo)準(zhǔn)的RNN和LSTM的區(qū)別 199 6.5.3 LSTM核心思想 200 6.5.4 LSTM流行的變體 203 6.5.5 LSTM與GRU的區(qū)別 204 6.6 常見(jiàn)的RNN結(jié)構(gòu)上的擴(kuò)展和改進(jìn) 205 6.6.1 簡(jiǎn)單循環(huán)神經(jīng)網(wǎng)絡(luò)(SRN) 205 6.6.2 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN) 205 6.6.3 深度循環(huán)神經(jīng)網(wǎng)絡(luò)(Deep RNN) 206 6.6.4 回聲狀態(tài)網(wǎng)絡(luò)(ESN) 206 6.6.5 時(shí)鐘頻率驅(qū)動(dòng) RNN(CW-RNN) 207 6.6.6 包含時(shí)間間隔的RNN 208 6.7 RNN在NLP中的典型應(yīng)用舉例 209 6.8 RNN與圖像領(lǐng)域的結(jié)合舉例 210 6.8.1 卷積循環(huán)神經(jīng)網(wǎng)絡(luò) 210 6.8.2 網(wǎng)格循環(huán)神經(jīng)網(wǎng)絡(luò) 211 6.8.3 像素循環(huán)神經(jīng)網(wǎng)絡(luò) 211 6.9 RNN與條件隨機(jī)場(chǎng)的結(jié)合 212 第7章 生成對(duì)抗網(wǎng)絡(luò) 213 7.1 GAN的基本概念 213 7.1.1 如何通俗地理解GAN 213 7.1.2 GAN的形式化表達(dá) 213 7.1.3 GAN的目標(biāo)函數(shù) 214 7.1.4 GAN的目標(biāo)函數(shù)和交叉熵?fù)p失的聯(lián)系和區(qū)別 214 7.1.5 GAN的損失值為什么降不下去 215 7.1.6 生成式模型和判別式模型的區(qū)別 215 7.1.7 模式崩塌和模式丟棄 216 7.1.8 為什么會(huì)出現(xiàn)模式崩塌 217 7.1.9 如何解決模式崩塌問(wèn)題 217 7.2 GAN的生成模型評(píng)價(jià) 219 7.2.1 Inception Score 219 7.2.2 Mode Score 220 7.2.3 Kernel MMD 220 7.2.4 Wasserstein Distance 220 7.2.5 Fréchet Inception Distance(FID) 221 7.2.6 1-NN分類(lèi)器(1-Nearest Neighbor Classifier) 221 7.2.7 其他評(píng)價(jià)方法 221 7.3 其他常見(jiàn)的生成模型 221 7.3.1 自回歸模型:pixelRNN與pixelCNN 221 7.3.2 變分自動(dòng)編碼器(VAE)原理 222 7.4 GAN的改進(jìn)與優(yōu)化 223 7.4.1 如何生成指定類(lèi)型的圖像(CGAN) 223 7.4.2 CNN與GAN的結(jié)合(DCGAN) 224 7.4.3 GAN為什么容易訓(xùn)練崩潰 224 7.4.4 WGAN如何解決訓(xùn)練崩潰問(wèn)題 225 7.4.5 帶有梯度正則的WGAN(WGAN-GP) 225 7.4.6 最小二乘GAN(LSGAN) 226 7.4.7 如何盡量避免GAN的訓(xùn)練崩潰問(wèn)題 227 7.5 GAN的應(yīng)用:圖像翻譯 227 7.5.1 什么是圖像翻譯 227 7.5.2 有監(jiān)督圖像翻譯(pix2pix) 228 7.5.3 有監(jiān)督圖像翻譯的缺點(diǎn) 229 7.5.4 無(wú)監(jiān)督圖像翻譯(CycleGAN) 230 7.5.5 多領(lǐng)域的無(wú)監(jiān)督圖像翻譯(StarGAN) 231 7.6 GAN的應(yīng)用:文本生成 232 7.6.1 傳統(tǒng)GAN為什么不適合文本任務(wù) 232 7.6.2 SeqGAN用于文本生成 232 7.7 GAN在其他領(lǐng)域的應(yīng)用 233 7.7.1 數(shù)據(jù)增廣 233 7.7.2 圖像超分辨與圖像補(bǔ)全 234 7.7.3 語(yǔ)音領(lǐng)域 234 第8章 目標(biāo)檢測(cè) 235 8.1 基本概念 235 8.1.1 目標(biāo)檢測(cè) 235 8.1.2 目標(biāo)檢測(cè)要解決的核心問(wèn)題 236 8.1.3 目標(biāo)檢測(cè)的算法分類(lèi) 236 8.1.4 目標(biāo)檢測(cè)的應(yīng)用領(lǐng)域 237 8.2 TWO-STAGE目標(biāo)檢測(cè)算法 237 8.2.1 R-CNN 237 8.2.2 Fast R-CNN 239 8.2.3 Faster R-CNN 242 8.2.4 R-FCN 245 8.2.5 FPN 248 8.2.6 Mask R-CNN 251 8.3 ONE-STAGE目標(biāo)檢測(cè)算法 254 8.3.1 YOLO 254 8.3.2 YOLOv2 257 8.3.3 YOLO9000 261 8.3.4 YOLOv3 262 8.3.5 YOLOv4 263 8.3.6 SSD 264 8.3.7 DSSD 267 8.3.8 RetinaNet 269 8.3.9 RFBNet 271 8.3.10 M2Det 273 8.4 目標(biāo)檢測(cè)的常用數(shù)據(jù)集 275 8.4.1 PASCAL VOC 275 8.4.2 Microsoft COCO 275 8.4.3 谷歌Open Image 276 8.4.4 ImageNet 276 8.5 目標(biāo)檢測(cè)常用標(biāo)注工具 276 8.5.1 LabelImg 276 8.5.2 LabelMe 276 8.5.3 Labelbox 277 8.5.4 RectLabel 277 8.5.5 CVAT 277 8.5.6 VIA 277 8.5.7 其他標(biāo)注工具 278 第9章 圖像分割 279 9.1 常見(jiàn)的圖像分割算法 279 9.1.1 基于閾值的分割算法 279 9.1.2 基于邊緣檢測(cè)的分割算法 279 9.1.3 基于區(qū)域的分割算法 280 9.1.4 基于神經(jīng)網(wǎng)絡(luò)技術(shù)的圖像分割算法 280 9.1.5 基于深度學(xué)習(xí)的圖像分割算法分類(lèi) 280 9.1.6 常見(jiàn)的深度學(xué)習(xí)圖像分割算法 281 9.2 FCN 282 9.2.1 為什么CNN對(duì)像素級(jí)別的分類(lèi)很難 282 9.2.2 FCN有哪些改變 282 9.2.3 FCN的結(jié)構(gòu) 283 9.2.4 全連接層和卷積層如何相互轉(zhuǎn)化 283 9.2.5 為什么傳統(tǒng)CNN的輸入圖片大小是固定的 284 9.2.6 把全連接層的權(quán)重重塑成卷積層的濾波器的好處 284 9.2.7 FCN如何進(jìn)行逐個(gè)像素點(diǎn)預(yù)測(cè)分類(lèi) 285 9.2.8 反卷積層理解 286 9.2.9 跳級(jí)(skip)結(jié)構(gòu) 288 9.2.10 模型訓(xùn)練 289 9.2.11 FCN的優(yōu)缺點(diǎn) 292 9.3 U-NET 292 9.4 U-NET++ 295 9.5 SEGNET 296 9.6 LINKNET 297 9.7 REFINENET 299 9.8 PSPNET 300 9.9 DEEPLAB系列 302 9.9.1 DeepLabv1 303 9.9.2 DeepLabv2 305 9.9.3 DeepLabv3 306 9.9.4 DeepLabv3+ 307 9.10 MASK R-CNN作為目標(biāo)分割的介紹 310 9.10.1 Mask R-CNN框架 310 9.10.2 Mask R-CNN損失函數(shù) 310 9.10.3 Mask R-CNN 算法步驟 311 9.10.4 RoI池化與RoI Align 311 9.10.5 Mask R-CNN代碼實(shí)現(xiàn)總體框架 311 9.10.6 Mask R-CNN訓(xùn)練和推導(dǎo)過(guò)程的區(qū)別 312 9.10.7 Mask R-CNN擴(kuò)展 312 9.11 基于弱監(jiān)督學(xué)習(xí)的圖像分割 313 9.11.1 涂鴉標(biāo)記(ScribbleSup) 314 9.11.2 圖像級(jí)別標(biāo)記(CCNN) 315 9.11.3 期望最大化估計(jì)像素類(lèi)別 316 9.11.4 圖像、邊框與涂鴉標(biāo)記融合框架 317 第10章 遷移學(xué)習(xí) 318 10.1 遷移學(xué)習(xí)基礎(chǔ)知識(shí) 318 10.1.1 什么是遷移學(xué)習(xí) 318 10.1.2 為什么需要遷移學(xué)習(xí) 319 10.1.3 遷移學(xué)習(xí)與已有學(xué)習(xí)方式的區(qū)別和聯(lián)系 320 10.1.4 負(fù)遷移 321 10.2 遷移學(xué)習(xí)的研究領(lǐng)域 322 10.2.1 按目標(biāo)域標(biāo)簽分類(lèi) 323 10.2.2 按學(xué)習(xí)方法分類(lèi) 323 10.2.3 按特征分類(lèi) 323 10.2.4 按離線(xiàn)與在線(xiàn)形式分類(lèi) 324 10.3 遷移學(xué)習(xí)的應(yīng)用 324 10.3.1 計(jì)算機(jī)視覺(jué) 325 10.3.2 文本分類(lèi) 325 10.3.3 時(shí)間序列 326 10.3.4 醫(yī)療健康 327 10.4 遷移學(xué)習(xí)的基本方法 327 10.4.1 基于實(shí)例的遷移學(xué)習(xí)方法 328 10.4.2 基于特征的遷移學(xué)習(xí)方法 328 10.4.3 基于模型的遷移學(xué)習(xí)方法 329 10.4.4 基于關(guān)系的遷移學(xué)習(xí)方法 330 10.5 分布對(duì)齊的常用方法 331 10.5.1 數(shù)據(jù)分布自適應(yīng)方法 331 10.5.2 特征選擇方法 333 10.5.3 子空間學(xué)習(xí)方法 334 10.6 深度遷移學(xué)習(xí)方法 338 10.6.1 深度網(wǎng)絡(luò)的可遷移性 338 10.6.2 微調(diào) 342 10.6.3 深度網(wǎng)絡(luò)自適應(yīng) 342 10.6.4 深度對(duì)抗網(wǎng)絡(luò)遷移 347 10.7 遷移學(xué)習(xí)研究前沿 350 10.7.1 機(jī)器智能與人類(lèi)經(jīng)驗(yàn)結(jié)合的遷移學(xué)習(xí) 350 10.7.2 傳遞遷移學(xué)習(xí) 350 10.7.3 終身遷移學(xué)習(xí) 351 10.7.4 在線(xiàn)遷移學(xué)習(xí) 352 10.7.5 遷移強(qiáng)化學(xué)習(xí) 353 10.7.6 遷移學(xué)習(xí)的可解釋性 353 第11章 網(wǎng)絡(luò)構(gòu)架介紹及訓(xùn)練 354 11.1 TENSORFLOW 354 11.1.1 TensorFlow的設(shè)計(jì)理念 354 11.1.2 TensorFlow的特點(diǎn) 355 11.1.3 TensorFlow的系統(tǒng)架構(gòu) 356 11.1.4 TensorFlow的編程模型 357 11.1.5 基于TensorFlow搭建VGG16 360 11.2 CAFFE 361 11.2.1 Caffe的特性 362 11.2.2 Caffe2的特性 362 11.2.3 Caffe2和PyTorch的區(qū)別 362 11.3 PYTORCH 362 11.3.1 為什么選擇PyTorch 363 11.3.2 PyTorch的架構(gòu) 363 11.3.3 PyTorch 1.0三大重要更新 364 11.4 常見(jiàn)的深度學(xué)習(xí)分布式框架 364 11.4.1 PaddlePaddle 365 11.4.2 Deeplearning4j 366 11.4.3 Mahout 367 11.4.4 Spark MLlib 368 11.4.5 Spark Stream 369 11.4.6 Ray 370 11.4.7 Horovod 370 11.4.8 BigDL 371 11.4.9 Petastorm 371 11.4.10 TensorFlowOnSpark 372 11.5 網(wǎng)絡(luò)搭建原則及訓(xùn)練技巧 372 11.5.1 網(wǎng)絡(luò)搭建原則 372 11.5.2 網(wǎng)絡(luò)訓(xùn)練技巧 373 第12章 網(wǎng)絡(luò)優(yōu)化技巧 376 12.1 數(shù)據(jù)集和樣本優(yōu)化 376 12.1.1 如何解決訓(xùn)練樣本少的問(wèn)題 376 12.1.2 深度學(xué)習(xí)能否勝任所有數(shù)據(jù)集 377 12.1.3 訓(xùn)練集、驗(yàn)證集、測(cè)試集的定義及劃分 377 12.1.4 類(lèi)別不平衡的產(chǎn)生原因 378 12.1.5 常見(jiàn)的類(lèi)別不平衡問(wèn)題的解決方法 378 12.1.6 常用的數(shù)據(jù)增強(qiáng)方法 379 12.2 數(shù)據(jù)不匹配問(wèn)題 380 12.2.1 如何定位數(shù)據(jù)不匹配問(wèn)題 380 12.2.2 常見(jiàn)的數(shù)據(jù)不匹配的場(chǎng)景 380 12.2.3 如何解決數(shù)據(jù)不匹配問(wèn)題 380 12.3 網(wǎng)絡(luò)構(gòu)建和初始化 381 12.3.1 權(quán)重的初始化方法 381 12.3.2 激活函數(shù)的特點(diǎn) 382 12.3.3 卷積核設(shè)計(jì)尺寸都是奇數(shù)的原因 383 12.3.4 在網(wǎng)絡(luò)設(shè)計(jì)中要權(quán)重共享的原因 383 12.4 特征選擇 383 12.4.1 特征的類(lèi)型 383 12.4.2 如何考慮特征選擇 384 12.4.3 特征選擇方法分類(lèi) 384 12.4.4 特征選擇的目的 384 12.5 梯度消失和梯度爆炸 384 12.5.1 使用梯度更新規(guī)則的原因 384 12.5.2 梯度消失和梯度爆炸產(chǎn)生的原因 385 12.5.3 如何解決梯度消失和梯度爆炸問(wèn)題 386 12.5.4 防止梯度下降陷入局部最優(yōu)困境 386 12.6 評(píng)價(jià)指標(biāo) 387 12.6.1 設(shè)置單一數(shù)字評(píng)價(jià)指標(biāo)的原因 387 12.6.2 Top5錯(cuò)誤率 387 12.6.3 理解泛化誤差、方差和偏差 388 12.7 模型和系統(tǒng)優(yōu)化 388 12.7.1 是否存在比已知算法更好的算法 388 12.7.2 判斷和解決共線(xiàn)性問(wèn)題 389 12.7.3 深度學(xué)習(xí)不用二階優(yōu)化的原因 389 12.7.4 提升模型的穩(wěn)定性 389 12.7.5 改善模型的思路 390 12.7.6 快速構(gòu)建有效初始模型 391 12.7.7 通過(guò)模型重新觀(guān)察數(shù)據(jù) 391 12.7.8 提高深度學(xué)習(xí)系統(tǒng)的性能 392 第13章 超參數(shù)調(diào)整 393 13.1 超參數(shù)的概念 393 13.1.1 參數(shù)和超參數(shù)的區(qū)別 393 13.1.2 超參數(shù)的類(lèi)別 393 13.1.3 進(jìn)行超參數(shù)調(diào)優(yōu)的原因 394 13.1.4 超參數(shù)的重要性排序 394 13.1.5 部分超參數(shù)如何影響模型性能 395 13.1.6 部分超參數(shù)的合適范圍 396 13.2 網(wǎng)絡(luò)訓(xùn)練中的超參數(shù)調(diào)整策略 397 13.2.1 超參數(shù)優(yōu)化的一般過(guò)程 397 13.2.2 如何調(diào)試模型 397 13.2.3 學(xué)習(xí)率調(diào)整的原因 398 13.2.4 學(xué)習(xí)率調(diào)整的策略 398 13.2.5 在極端批樣本數(shù)量下訓(xùn)練網(wǎng)絡(luò) 402 13.3 合理使用預(yù)訓(xùn)練網(wǎng)絡(luò) 403 13.3.1 什么是微調(diào) 403 13.3.2 微調(diào)的方式 403 13.3.3 微調(diào)先凍結(jié)底層而訓(xùn)練頂層的原因 404 13.3.4 在不同的數(shù)據(jù)集下如何進(jìn)行微調(diào) 404 13.3.5 在目標(biāo)檢測(cè)中使用預(yù)訓(xùn)練模型的優(yōu)劣 404 13.3.6 目標(biāo)檢測(cè)如何從零開(kāi)始訓(xùn)練 405 13.4 自動(dòng)化超參數(shù)搜索方法 405 13.4.1 網(wǎng)格搜索 405 13.4.2 隨機(jī)搜索 406 13.4.3 基于模型的超參數(shù)優(yōu)化 406 13.5 自動(dòng)機(jī)器學(xué)習(xí)AUTOML 406 13.5.1 為什么需要AutoML 406 13.5.2 AutoML的問(wèn)題構(gòu)成 407 13.5.3 常見(jiàn)的AutoML框架 407 13.5.4 神經(jīng)架構(gòu)搜索(NAS) 408 第14章 模型壓縮、加速和移動(dòng)端部署 410 14.1 模型壓縮 410 14.2 為什么需要模型壓縮和加速 410 14.3 模型壓縮方法 411 14.3.1 前端壓縮和后端壓縮對(duì)比 411 14.3.2 網(wǎng)絡(luò)剪枝 411 14.3.3 典型剪枝方法的對(duì)比 413 14.3.4 網(wǎng)絡(luò)蒸餾 413 14.3.5 前端壓縮 413 14.3.6 后端壓縮 414 14.3.7 低秩分解 416 14.3.8 總體壓縮效果評(píng)價(jià)指標(biāo) 416 14.4 網(wǎng)絡(luò)壓縮的未來(lái)研究方向 417 14.5 模型優(yōu)化加速方法 418 14.5.1 模型優(yōu)化加速方法類(lèi)別 418 14.5.2 TensorRT加速原理 418 14.5.3 TensorRT如何優(yōu)化重構(gòu)模型 420 14.5.4 TensorRT的加速效果 420 14.6 如何選擇壓縮和加速方法 420 14.7 高效CNN網(wǎng)絡(luò)設(shè)計(jì)的準(zhǔn)則 421 14.7.1 分組卷積 421 14.7.2 深度可分離卷積 422 14.7.3 當(dāng)輸入/輸出的通道數(shù)相等時(shí),MAC最小 424 14.7.4 減少分組卷積的數(shù)量 424 14.7.5 降低網(wǎng)絡(luò)碎片化程度(分支數(shù)量) 425 14.7.6 減少元素級(jí)操作 426 14.8 常用的輕量級(jí)網(wǎng)絡(luò) 426 14.8.1 SequeezeNet 426 14.8.2 MobileNet 429 14.8.3 MobileNet-v2 432 14.8.4 MobileNet-v1和MobileNet-v2微結(jié)構(gòu)比較 433 14.8.5 ResNet和MobileNet-v2微結(jié)構(gòu)比較 434 14.8.6 Xception 434 14.8.7 ShuffleNet-v1 436 14.8.8 ShuffleNet-v2 438 14.9 現(xiàn)有的移動(dòng)端開(kāi)源框架及其特點(diǎn) 440 14.9.1 NCNN 440 14.9.2 QNNPACK 441 14.9.3 Prestissimo 443 14.9.4 MDL 445 14.9.5 Paddle-Mobile 446 14.9.6 MACE 446 14.9.7 FeatherCNN 448 14.9.8 TensorFlow Lite 449 14.9.9 PocketFlow 450 14.9.10 MDL、NCNN和TFLite對(duì)比 452 14.10 移動(dòng)端開(kāi)源框架部署 453
你還可能感興趣
我要評(píng)論
|