深度學(xué)習(xí)基礎(chǔ)(第二版)
定 價(jià):128 元
- 作者:[美]尼欽 巴杜馬(Nithin Buduma),[美]尼基爾 巴杜馬(Nikhil Buduma),[美]喬 帕帕(Joe Papa)
- 出版時(shí)間:2024/5/1
- ISBN:9787519887742
- 出 版 社:中國(guó)電力出版社
- 中圖法分類(lèi):TP181
- 頁(yè)碼:
- 紙張:
- 版次:
- 開(kāi)本:
本書(shū)的主要內(nèi)容有:了解機(jī)器學(xué)習(xí)術(shù)語(yǔ)背后的數(shù)學(xué)知識(shí)。探究機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)。管理網(wǎng)絡(luò)加深過(guò)程出現(xiàn)的問(wèn)題。搭建神經(jīng)網(wǎng)絡(luò),分析復(fù)雜圖像。用自編碼器高效降維。深入序列分析,用其研究語(yǔ)言。探討復(fù)雜機(jī)器學(xué)習(xí)模型的解釋方法。收獲生成建模的理論和實(shí)用知識(shí)。理解強(qiáng)化學(xué)習(xí)的基礎(chǔ)。
Nithin Buduma是Cresta公司的機(jī)器學(xué)習(xí)科學(xué)家。該公司是客服中心智能這一領(lǐng)域的引領(lǐng)者。Nikhil Buduma是舊金山Remedy公司的合伙人和首席科學(xué)家。該公司為醫(yī)療保健服務(wù)開(kāi)發(fā)自主技術(shù)。Joe Papa是TeachMe.AI的創(chuàng)辦者,擁有25年以上的研究和開(kāi)發(fā)經(jīng)驗(yàn)。他在Booz Allen公司和Perspecta公司的研究部門(mén)帶過(guò)AI研究團(tuán)隊(duì),擁有豐富的PyTorch使用經(jīng)驗(yàn)。
目錄
前言 1
第1 章 深度學(xué)習(xí)線性代數(shù)入門(mén) 7
1.1 數(shù)據(jù)結(jié)構(gòu)和運(yùn)算 7
1.1.1 矩陣運(yùn)算 9
1.1.2 向量運(yùn)算 .12
1.1.3 矩陣—向量乘法 13
1.2 基本空間14
1.2.1 列空間 14
1.2.2 零空間 16
1.3 特征向量和特征值 19
1.4 小結(jié) .22
第2 章 概率論基礎(chǔ) 23
2.1 事件和概率 23
2.2 條件概率26
2.3 隨機(jī)變量28
2.4 期望 .30
2.5 方差 .32
2.6 貝葉斯定理 34
2.7 熵、交叉熵和KL 散度 35
2.8 連續(xù)概率分布 .39
2.9 小結(jié) .43
第3 章 神經(jīng)網(wǎng)絡(luò) 45
3.1 構(gòu)建智能體 45
3.2 傳統(tǒng)計(jì)算機(jī)程序的局限 .46
3.3 機(jī)器學(xué)習(xí)原理 .47
3.4 神經(jīng)元 51
3.5 用神經(jīng)元表示線性感知器 53
3.6 前饋神經(jīng)網(wǎng)絡(luò) .54
3.7 線性神經(jīng)元及其限制 57
3.8 sigmoid、Tanh 和ReLU 神經(jīng)元 58
3.9 softmax 輸出層 60
3.10 小結(jié) 60
第4 章 訓(xùn)練前饋神經(jīng)網(wǎng)絡(luò) .63
4.1 快餐問(wèn)題63
4.2 梯度下降65
4.3 Delta 法則和學(xué)習(xí)率 .66
4.4 sigmoid 神經(jīng)元的梯度下降 .68
4.5 反向傳播算法 .69
4.6 隨機(jī)和小批量梯度下降 .71
4.7 測(cè)試集、驗(yàn)證集和過(guò)擬合 73
4.8 深度神經(jīng)網(wǎng)絡(luò)防過(guò)擬合 .79
4.9 小結(jié) .84
第5 章 用PyTorch 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 85
5.1 PyTorch 簡(jiǎn)介 85
5.2 安裝PyTorch 85
5.3 PyTorch 張量 86
5.3.1 張量初始化 87
5.3.2 張量的屬性 87
5.3.3 張量運(yùn)算 .89
5.4 PyTorch 中的梯度 .92
5.5 PyTorch nn 模塊 93
5.6 PyTorch 數(shù)據(jù)集和數(shù)據(jù)加載器 97
5.7 用PyTorch 構(gòu)建MNIST 分類(lèi)器 99
5.8 小結(jié) 103
第6 章 超越梯度下降 105
6.1 梯度下降的挑戰(zhàn) .105
6.2 深度網(wǎng)絡(luò)誤差曲面的局部最小值 106
6.3 模型的可識(shí)別性 .107
6.4 深度網(wǎng)絡(luò)虛假局部最小值有多討厭? .108
6.5 誤差曲面的平緩區(qū)域 111
6.6 當(dāng)梯度指錯(cuò)方向 . 114
6.7 基于動(dòng)量的優(yōu)化 . 117
6.8 二階方法簡(jiǎn)述 120
6.9 學(xué)習(xí)率自適應(yīng) 121
6.9.1 AdaGrad 算法——累積歷史梯度 .121
6.9.2 RMSProp 算法——梯度的指數(shù)加權(quán)移動(dòng)平均 123
6.9.3 Adam 算法——整合動(dòng)量和RMSProp 算法 124
6.10 關(guān)于優(yōu)化器選擇的思考 126
6.11 小結(jié) 126
第7 章 卷積神經(jīng)網(wǎng)絡(luò) 127
7.1 人類(lèi)視覺(jué)神經(jīng)元 .127
7.2 特征選擇的不足 .128
7.3 原始深度神經(jīng)網(wǎng)絡(luò)無(wú)法擴(kuò)展 .130
7.4 濾波器和特征圖 .131
7.5 卷積層的完整描述 .136
7.6 最大匯聚.140
7.7 卷積網(wǎng)絡(luò)全架構(gòu) .141
7.8 用卷積網(wǎng)絡(luò)完成MNIST 示例 .142
7.9 圖像預(yù)處理流水線讓模型更健壯 145
7.10 用批量歸一化加速訓(xùn)練 146
7.11 組歸一化適用于內(nèi)存受限的學(xué)習(xí)任務(wù) 148
7.12 為CIFAR-10 構(gòu)建卷積網(wǎng)絡(luò) 150
7.13 可視化卷積網(wǎng)絡(luò)中的學(xué)習(xí)152
7.14 極深網(wǎng)絡(luò)的殘差學(xué)習(xí)和跳躍連接 156
7.15 構(gòu)造具有超人視覺(jué)的殘差網(wǎng)絡(luò) .158
7.16 利用卷積濾波器復(fù)制藝術(shù)風(fēng)格 .162
7.17 用卷積濾波器解決其他領(lǐng)域的問(wèn)題 163
7.18 小結(jié) 164
第8 章 嵌入和表示學(xué)習(xí) 165
8.1 學(xué)習(xí)低維表示 165
8.2 主成分分析 166
8.3 自編碼器架構(gòu)的動(dòng)機(jī) 168
8.4 用PyTorch 實(shí)現(xiàn)自編碼器 169
8.5 去噪讓表示更健壯 .178
8.6 自編碼器中的稀疏性問(wèn)題 .181
8.7 上下文比輸入向量包含更多信息 184
8.8 Word2Vec 框架 186
8.9 實(shí)現(xiàn)Skip-Gram 架構(gòu) 189
8.10 小結(jié) 196
第9 章 序列分析模型 197
9.1 分析不定長(zhǎng)輸入 .197
9.2 用神經(jīng)N-Grams 處理seq2seq 問(wèn)題 .198
9.3 實(shí)現(xiàn)詞性標(biāo)注器 .199
9.4 依存分析和SyntaxNet 框架 .205
9.5 束搜索和全局標(biāo)準(zhǔn)化 211
9.6 有狀態(tài)深度學(xué)習(xí)模型示例 .215
9.7 循環(huán)神經(jīng)網(wǎng)絡(luò) 216
9.8 梯度消失難題 218
9.9 長(zhǎng)短期記憶單元 .221
9.10 PyTorch 庫(kù)的RNN 模型基礎(chǔ)版 226
9.11 實(shí)現(xiàn)情感分析模型 227
9.12 用循環(huán)神經(jīng)網(wǎng)絡(luò)解決seq2seq 任務(wù) .233
9.13 用注意力增強(qiáng)循環(huán)網(wǎng)絡(luò) 236
9.14 神經(jīng)翻譯網(wǎng)絡(luò)剖析 238
9.15 自注意力機(jī)制和transformer 模型 249
9.16 小結(jié) 251
第10 章 生成模型 253
10.1 生成對(duì)抗網(wǎng)絡(luò) 253
10.2 變分自編碼器 259
10.3 實(shí)現(xiàn)VAE .269
10.4 基于分值的生成模型 .274
10.5 去噪自編碼器和分值匹配279
10.6 小結(jié) 284
第11 章 模型解釋方法 . 285
11.1 概覽 285
11.2 決策樹(shù)和基于樹(shù)的算法 286
11.3 線性回歸 289
11.4 評(píng)估特征重要性的方法 290
11.4.1 特征重要性排列 .290
11.4.2 部分依賴(lài)圖 291
11.5 根由萃取 293
11.6 LIME 方法 298
11.7 SHAP 方法 302
11.8 小結(jié) 307
第12 章 記憶增強(qiáng)神經(jīng)網(wǎng)絡(luò) 309
12.1 神經(jīng)圖靈機(jī) .309
12.2 基于注意力的存儲(chǔ)訪問(wèn) 311
12.3 NTM 存儲(chǔ)尋址機(jī)制 313
12.4 可微分神經(jīng)計(jì)算機(jī) 317
12.5 DNC 免沖突寫(xiě)入機(jī)制 319
12.6 DNC 存儲(chǔ)重用 320
12.7 DNC 寫(xiě)入的臨時(shí)連接 321
12.8 理解DNC 讀取頭 322
12.9 DNC 控制器網(wǎng)絡(luò) .323
12.10 DNC 可視化實(shí)踐 325
12.11 用PyTorch 實(shí)現(xiàn)DNC .327
12.12 教DNC 閱讀和理解 331
12.13 小結(jié) .334
第13 章 深度強(qiáng)化學(xué)習(xí) . 335
13.1 深度強(qiáng)化學(xué)習(xí)掌握Atari 游戲玩法 .335
13.2 強(qiáng)化學(xué)習(xí)是什么? 336
13.3 馬爾科夫決策過(guò)程 338
13.3.1 策略 340
13.3.2 未來(lái)獎(jiǎng)賞 340
13.3.3 折扣未來(lái)獎(jiǎng)賞 341
13.4 探討還是利用 342
13.4.1 貪婪 .343
13.5 策略和價(jià)值學(xué)習(xí) 344
13.6 用策略梯度解決倒立擺平衡問(wèn)題 345
13.6.1 OpenAI Gym 工具集 345
13.6.2 創(chuàng)建智能體345
13.6.3 構(gòu)建模型和優(yōu)化器 347
13.6.4 采樣行動(dòng) 348
13.6.5 跟蹤歷史 348
13.6.6 策略梯度主函數(shù) .349
13.6.7 PGAgent 解決倒立擺平衡任務(wù)的性能 351
13.7 信賴(lài)域策略優(yōu)化 352
13.8 近端策略優(yōu)化 357
13.9 Q- 學(xué)習(xí)和深度Q 網(wǎng)絡(luò) 358
13.9.1 Bellman 等式 358
13.9.2 價(jià)值迭代問(wèn)題 359
13.9.3 近似Q 函數(shù) 360
13.9.4 Deep Q-Network .360
13.9.5 訓(xùn)練DQN 360
13.9.6 學(xué)習(xí)穩(wěn)定性361
13.9.7 目標(biāo)Q 網(wǎng)絡(luò) 361
13.9.8 經(jīng)驗(yàn)回放 361
13.9.9 從Q 函數(shù)到策略 362
13.9.10 DQN 和馬爾科夫假設(shè) 362
13.9.11 馬爾科夫假設(shè)的DQN 解決方案 .362
13.9.12 用DQN 玩Breakout 游戲 363
13.9.13 構(gòu)建架構(gòu) .366
13.9.14 堆疊幀 366
13.9.15 搭建訓(xùn)練操作流水線 .366
13.9.16 更新目標(biāo)Q 網(wǎng)絡(luò) .367
13.9.17 實(shí)現(xiàn)經(jīng)驗(yàn)回放 367
13.9.18 DQN 主循環(huán) 368
13.9.19 用DQNAgent 玩Breakout 游戲的結(jié)果分析370
13.10 改進(jìn)并超越DQN 371
13.10.1 深度循環(huán)Q 網(wǎng)絡(luò) .371
13.10.2 異步優(yōu)勢(shì)演員—評(píng)論員智能體 .372
13.10.3 無(wú)監(jiān)督強(qiáng)化學(xué)習(xí)和輔助學(xué)習(xí)373
13.11 小結(jié) .374