深度學(xué)習(xí) 人工智能算法,機器學(xué)習(xí)奠基之作,AI圣經(jīng)
定 價:168 元
- 作者:[美]Ian Goodfellow(伊恩·古德費洛)、[加]Yoshua Bengio(約書亞·本吉奧)、[加]Aaron Courville(亞倫·庫維爾)
- 出版時間:2017/8/1
- ISBN:9787115461476
- 出 版 社:人民郵電出版社
- 中圖法分類:TP181
- 頁碼:
- 紙張:膠版紙
- 版次:1
- 開本:16開
《深度學(xué)習(xí)》由全球知名的三位專家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰寫,是深度學(xué)習(xí)領(lǐng)域奠基性的經(jīng)典教材。全書的內(nèi)容包括3個部分:第1部分介紹基本的數(shù)學(xué)工具和機器學(xué)習(xí)的概念,它們是深度學(xué)習(xí)的預(yù)備知識;第2部分系統(tǒng)深入地講解現(xiàn)今已成熟的深度學(xué)習(xí)方法和技術(shù);第3部分討論某些具有前瞻性的方向和想法,它們被公認(rèn)為是深度學(xué)習(xí)未來的研究重點。
《深度學(xué)習(xí)》適合各類讀者閱讀,包括相關(guān)專業(yè)的大學(xué)生或研究生,以及不具有機器學(xué)習(xí)或統(tǒng)計背景、但是想要快速補充深度學(xué)習(xí)知識,以便在實際產(chǎn)品或平臺中應(yīng)用的軟件工程師。
AI圣經(jīng)!深度學(xué)習(xí)領(lǐng)域奠基性的經(jīng)典暢銷書!長期位居美國亞馬遜AI和機器學(xué)習(xí)類圖書榜首!所有數(shù)據(jù)科學(xué)家和機器學(xué)習(xí)從業(yè)者的必讀圖書!特斯拉CEO埃隆·馬斯克等國內(nèi)外眾多專家推薦!
深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它能夠使計算機通過層次概念來學(xué)習(xí)經(jīng)驗和理解世界。因為計算機能夠從經(jīng)驗中獲取知識,所以不需要人類來形式化地定義計算機需要的所有知識。層次概念允許計算機通過構(gòu)造簡單的概念來學(xué)習(xí)復(fù)雜的概念,而這些分層的圖結(jié)構(gòu)將具有很深的層次。本書會介紹深度學(xué)習(xí)領(lǐng)域的許多主題。
本書囊括了數(shù)學(xué)及相關(guān)概念的背景知識,包括線性代數(shù)、概率論、信息論、數(shù)值優(yōu)化以及機器學(xué)習(xí)中的相關(guān)內(nèi)容。同時,它還介紹了工業(yè)界中實踐者用到的深度學(xué)習(xí)技術(shù),包括深度前饋網(wǎng)絡(luò)、正則化、優(yōu)化算法、卷積網(wǎng)絡(luò)、序列建模和實踐方法等,并且調(diào)研了諸如自然語言處理、語音識別、計算機視覺、在線推薦系統(tǒng)、生物信息學(xué)以及視頻游戲方面的應(yīng)用。*后,本書還提供了一些研究方向,涵蓋的理論主題包括線性因子模型、自編碼器、表示學(xué)習(xí)、結(jié)構(gòu)化概率模型、蒙特卡羅方法、配分函數(shù)、近似推斷以及深度生成模型。
《深度學(xué)習(xí)》這本書既可以被本科生或研究生用于規(guī)劃其學(xué)術(shù)界或工業(yè)界生涯,也適用于希望在各種產(chǎn)品或平臺上開始使用深度學(xué)習(xí)技術(shù)的軟件工程師。作者在本書的配套網(wǎng)站上為讀者和教師提供了補充資料。中文版讀者可以訪問人民郵電出版社異步社區(qū)www.epubit.com.cn獲取相關(guān)信息。
封面特色:
由藝術(shù)家Daniel Ambrosi提供的中央公園杜鵑花步道夢幻景觀。在Ambrosi的億級像素全景圖上,應(yīng)用Joseph Smarr(Google)和Chirs Lamb(NVIDIA)修改后的Google DeepDream開源程序,創(chuàng)造了Daniel Ambrosi的幻景。
作者簡介
Ian Goodfellow,谷歌公司(Google) 的研究科學(xué)家,2014 年蒙特利爾大學(xué)機器學(xué)習(xí)博士。他的研究興趣涵蓋大多數(shù)深度學(xué)習(xí)主題,特別是生成模型以及機器學(xué)習(xí)的安全和隱私。Ian Goodfellow 在研究對抗樣本方面是一位有影響力的早期研究者,他發(fā)明了生成式對抗網(wǎng)絡(luò),在深度學(xué)習(xí)領(lǐng)域貢獻卓越。
Yoshua Bengio,蒙特利爾大學(xué)計算機科學(xué)與運籌學(xué)系(DIRO) 的教授,蒙特利爾學(xué)習(xí)算法研究所(MILA) 的負(fù)責(zé)人,CIFAR 項目的共同負(fù)責(zé)人,加拿大統(tǒng)計學(xué)習(xí)算法研究主席。Yoshua Bengio 的主要研究目標(biāo)是了解產(chǎn)生智力的學(xué)習(xí)原則。他還教授機器學(xué)習(xí)研究生課程(IFT6266),并培養(yǎng)了一大批研究生和博士后。
Aaron Courville,蒙特利爾大學(xué)計算機科學(xué)與運籌學(xué)系的助理教授,也是LISA 實驗室的成員。目前他的研究興趣集中在發(fā)展深度學(xué)習(xí)模型和方法,特別是開發(fā)概率模型和新穎的推斷方法。Aaron Courville 主要專注于計算機視覺應(yīng)用,在其他領(lǐng)域,如自然語言處理、音頻信號處理、語音理解和其他AI 相關(guān)任務(wù)方面也有所研究。
中文版審校者簡介
張志華,北京大學(xué)數(shù)學(xué)科學(xué)學(xué)院統(tǒng)計學(xué)教授,北京大學(xué)大數(shù)據(jù)研究中心和北京大數(shù)據(jù)研究院數(shù)據(jù)科學(xué)教授,主要從事機器學(xué)習(xí)和應(yīng)用統(tǒng)計學(xué)的教學(xué)與研究工作。
譯者簡介
趙申劍,上海交通大學(xué)計算機系碩士研究生,研究方向為數(shù)值優(yōu)化和自然語言處理。
黎彧君,上海交通大學(xué)計算機系博士研究生,研究方向為數(shù)值優(yōu)化和強化學(xué)習(xí)。
符天凡,上海交通大學(xué)計算機系碩士研究生,研究方向為貝葉斯推斷。
李凱,上海交通大學(xué)計算機系博士研究生,研究方向為博弈論和強化學(xué)習(xí)。
第1章引言1
1.1本書面向的讀者7
1.2深度學(xué)習(xí)的歷史趨勢8
1.2.1神經(jīng)網(wǎng)絡(luò)的眾多名稱和命運變遷8
1.2.2與日俱增的數(shù)據(jù)量12
1.2.3與日俱增的模型規(guī)模13
1.2.4與日俱增的精度、復(fù)雜度和對現(xiàn)實世界的沖擊15
第1部分應(yīng)用數(shù)學(xué)與機器學(xué)習(xí)基礎(chǔ)
第2章線性代數(shù)19
2.1標(biāo)量、向量、矩陣和張量19
2.2矩陣和向量相乘21
2.3單位矩陣和逆矩陣22
2.4線性相關(guān)和生成子空間23
2.5范數(shù)24
2.6特殊類型的矩陣和向量25
2.7特征分解26
2.8奇異值分解28
2.9Moore-Penrose偽逆28
2.10跡運算29
2.11行列式30
2.12實例:主成分分析.30
第3章概率與信息論.34
3.1為什么要使用概率34
3.2隨機變量35
3.3概率分布36
3.3.1離散型變量和概率質(zhì)量函數(shù)36
3.3.2連續(xù)型變量和概率密度函數(shù)36
3.4邊緣概率37
3.5條件概率37
3.6條件概率的鏈?zhǔn)椒▌t38
3.7獨立性和條件獨立性38
3.8期望、方差和協(xié)方差38
3.9常用概率分布39
3.9.1Bernoulli分布40
3.9.2Multinoulli分布40
3.9.3高斯分布40
3.9.4指數(shù)分布和Laplace分布41
3.9.5Dirac分布和經(jīng)驗分布42
3.9.6分布的混合42
3.10常用函數(shù)的有用性質(zhì)43
3.11貝葉斯規(guī)則45
3.12連續(xù)型變量的技術(shù)細(xì)節(jié)45
3.13信息論47
3.14結(jié)構(gòu)化概率模型49
第4章數(shù)值計算52
4.1上溢和下溢52
4.2病態(tài)條件53
4.3基于梯度的優(yōu)化方法53
4.3.1梯度之上:Jacobian和Hessian矩陣56
4.4約束優(yōu)化60
4.5實例:線性最小二乘61
第5章機器學(xué)習(xí)基礎(chǔ).63
5.1學(xué)習(xí)算法63
5.1.1任務(wù)T63
5.1.2性能度量P66
5.1.3經(jīng)驗E66
5.1.4示例:線性回歸68
5.2容量、過擬合和欠擬合70
5.2.1沒有免費午餐定理73
5.2.2正則化74
5.3超參數(shù)和驗證集76
5.3.1交叉驗證76
5.4估計、偏差和方差.77
5.4.1點估計77
5.4.2偏差78
5.4.3方差和標(biāo)準(zhǔn)差80
5.4.4權(quán)衡偏差和方差以最小化均方誤差81
5.4.5一致性82
5.5最大似然估計82
5.5.1條件對數(shù)似然和均方誤差84
5.5.2最大似然的性質(zhì)84
5.6貝葉斯統(tǒng)計85
5.6.1最大后驗(MAP)估計87
5.7監(jiān)督學(xué)習(xí)算法88
5.7.1概率監(jiān)督學(xué)習(xí)88
5.7.2支持向量機88
5.7.3其他簡單的監(jiān)督學(xué)習(xí)算法90
5.8無監(jiān)督學(xué)習(xí)算法91
5.8.1主成分分析92
5.8.2k-均值聚類.94
5.9隨機梯度下降94
5.10構(gòu)建機器學(xué)習(xí)算法96
5.11促使深度學(xué)習(xí)發(fā)展的挑戰(zhàn)96
5.11.1維數(shù)災(zāi)難97
5.11.2局部不變性和平滑正則化97
5.11.3流形學(xué)習(xí)99
第2部分深度網(wǎng)絡(luò):現(xiàn)代實踐
第6章深度前饋網(wǎng)絡(luò)105
6.1實例:學(xué)習(xí)XOR107
6.2基于梯度的學(xué)習(xí)110
6.2.1代價函數(shù)111
6.2.2輸出單元113
6.3隱藏單元119
6.3.1整流線性單元及其擴展120
6.3.2logisticsigmoid與雙曲正切函數(shù)121
6.3.3其他隱藏單元122
6.4架構(gòu)設(shè)計123
6.4.1萬能近似性質(zhì)和深度.123
6.4.2其他架構(gòu)上的考慮.126
6.5反向傳播和其他的微分算法.126
6.5.1計算圖127
6.5.2微積分中的鏈?zhǔn)椒▌t.128
6.5.3遞歸地使用鏈?zhǔn)椒▌t來實現(xiàn)反向傳播128
6.5.4全連接MLP中的反向傳播計算131
6.5.5符號到符號的導(dǎo)數(shù).131
6.5.6一般化的反向傳播.133
6.5.7實例:用于MLP訓(xùn)練的反向傳播.135
6.5.8復(fù)雜化137
6.5.9深度學(xué)習(xí)界以外的微分137
6.5.10高階微分138
6.6歷史小記139
第7章深度學(xué)習(xí)中的正則化141
7.1參數(shù)范數(shù)懲罰142
7.1.1L2參數(shù)正則化142
7.1.2L1正則化144
7.2作為約束的范數(shù)懲罰146
7.3正則化和欠約束問題147
7.4數(shù)據(jù)集增強148
7.5噪聲魯棒性149
7.5.1向輸出目標(biāo)注入噪聲.150
7.6半監(jiān)督學(xué)習(xí)150
7.7多任務(wù)學(xué)習(xí)150
7.8提前終止151
7.9參數(shù)綁定和參數(shù)共享156
7.9.1卷積神經(jīng)網(wǎng)絡(luò)156
7.10稀疏表示.157
7.11Bagging和其他集成方法.158
7.12Dropout159
7.13對抗訓(xùn)練.165
7.14切面距離、正切傳播和流形正切分類器167
第8章深度模型中的優(yōu)化.169
8.1學(xué)習(xí)和純優(yōu)化有什么不同169
8.1.1經(jīng)驗風(fēng)險最小化169
8.1.2代理損失函數(shù)和提前終止170
8.1.3批量算法和小批量算法170
8.2神經(jīng)網(wǎng)絡(luò)優(yōu)化中的挑戰(zhàn)173
8.2.1病態(tài)173
8.2.2局部極小值174
8.2.3高原、鞍點和其他平坦區(qū)域.175
8.2.4懸崖和梯度爆炸177
8.2.5長期依賴177
8.2.6非精確梯度178
8.2.7局部和全局結(jié)構(gòu)間的弱對應(yīng)178
8.2.8優(yōu)化的理論限制179
8.3基本算法180
8.3.1隨機梯度下降180
8.3.2動量181
8.3.3Nesterov動量.183
8.4參數(shù)初始化策略184
8.5自適應(yīng)學(xué)習(xí)率算法187
8.5.1AdaGrad187
8.5.2RMSProp188
8.5.3Adam189
8.5.4選擇正確的優(yōu)化算法.190
8.6二階近似方法190
8.6.1牛頓法190
8.6.2共軛梯度191
8.6.3BFGS193
8.7優(yōu)化策略和元算法194
8.7.1批標(biāo)準(zhǔn)化194
8.7.2坐標(biāo)下降196
8.7.3Polyak平均197
8.7.4監(jiān)督預(yù)訓(xùn)練197
8.7.5設(shè)計有助于優(yōu)化的模型199
8.7.6延拓法和課程學(xué)習(xí).199
第9章卷積網(wǎng)絡(luò)201
9.1卷積運算201
9.2動機203
9.3池化207
9.4卷積與池化作為一種無限強的先驗210
9.5基本卷積函數(shù)的變體211
9.6結(jié)構(gòu)化輸出218
9.7數(shù)據(jù)類型219
9.8高效的卷積算法220
9.9隨機或無監(jiān)督的特征220
9.10卷積網(wǎng)絡(luò)的神經(jīng)科學(xué)基礎(chǔ)221
9.11卷積網(wǎng)絡(luò)與深度學(xué)習(xí)的歷史226
第10章序列建模:循環(huán)和遞歸網(wǎng)絡(luò)227
10.1展開計算圖228
10.2循環(huán)神經(jīng)網(wǎng)絡(luò)230
10.2.1導(dǎo)師驅(qū)動過程和輸出循環(huán)網(wǎng)絡(luò)232
10.2.2計算循環(huán)神經(jīng)網(wǎng)絡(luò)的梯度233
10.2.3作為有向圖模型的循環(huán)網(wǎng)絡(luò)235
10.2.4基于上下文的RNN序列建模237
10.3雙向RNN239
10.4基于編碼-解碼的序列到序列架構(gòu)240
10.5深度循環(huán)網(wǎng)絡(luò)242
10.6遞歸神經(jīng)網(wǎng)絡(luò)243
10.7長期依賴的挑戰(zhàn)244
10.8回聲狀態(tài)網(wǎng)絡(luò)245
10.9滲漏單元和其他多時間尺度的策略247
10.9.1時間維度的跳躍連接.247
10.9.2滲漏單元和一系列不同時間尺度247
10.9.3刪除連接248
10.10長短期記憶和其他門控RNN248
10.10.1LSTM248
10.10.2其他門控RNN250
10.11優(yōu)化長期依賴.251
10.11.1截斷梯度251
10.11.2引導(dǎo)信息流的正則化252
10.12外顯記憶253
第11章實踐方法論256
11.1性能度量.256
11.2默認(rèn)的基準(zhǔn)模型258
11.3決定是否收集更多數(shù)據(jù)259
11.4選擇超參數(shù)259
11.4.1手動調(diào)整超參數(shù)259
11.4.2自動超參數(shù)優(yōu)化算法.262
11.4.3網(wǎng)格搜索262
11.4.4隨機搜索263
11.4.5基于模型的超參數(shù)優(yōu)化264
11.5調(diào)試策略.264
11.6示例:多位數(shù)字識別267
第12章應(yīng)用.269
12.1大規(guī)模深度學(xué)習(xí)269
12.1.1快速的CPU實現(xiàn)269
12.1.2GPU實現(xiàn)269
12.1.3大規(guī)模的分布式實現(xiàn).271
12.1.4模型壓縮271
12.1.5動態(tài)結(jié)構(gòu)272
12.1.6深度網(wǎng)絡(luò)的專用硬件實現(xiàn)273
12.2計算機視覺274
12.2.1預(yù)處理275
12.2.2數(shù)據(jù)集增強277
12.3語音識別.278
12.4自然語言處理279
12.4.1n-gram.280
12.4.2神經(jīng)語言模型281
12.4.3高維輸出282
12.4.4結(jié)合n-gram和神經(jīng)語言模型286
12.4.5神經(jīng)機器翻譯287
12.4.6歷史展望289
12.5其他應(yīng)用.290
12.5.1推薦系統(tǒng)290
12.5.2知識表示、推理和回答292
第3部分深度學(xué)習(xí)研究
第13章線性因子模型297
13.1概率PCA和因子分析297
13.2獨立成分分析298
13.3慢特征分析300
13.4稀疏編碼.301
13.5PCA的流形解釋304
第14章自編碼器306
14.1欠完備自編碼器306
14.2正則自編碼器307
14.2.1稀疏自編碼器307
14.2.2去噪自編碼器309
14.2.3懲罰導(dǎo)數(shù)作為正則.309
14.3表示能力、層的大小和深度310
14.4隨機編碼器和解碼器.310
14.5去噪自編碼器詳解311
14.5.1得分估計312
14.5.2歷史展望314
14.6使用自編碼器學(xué)習(xí)流形314
14.7收縮自編碼器317
14.8預(yù)測稀疏分解319
14.9自編碼器的應(yīng)用319
第15章表示學(xué)習(xí)321
15.1貪心逐層無監(jiān)督預(yù)訓(xùn)練322
15.1.1何時以及為何無監(jiān)督預(yù)訓(xùn)練有效有效323
15.2遷移學(xué)習(xí)和領(lǐng)域自適應(yīng)326
15.3半監(jiān)督解釋因果關(guān)系.329
15.4分布式表示332
15.5得益于深度的指數(shù)增益336
15.6提供發(fā)現(xiàn)潛在原因的線索337
第16章深度學(xué)習(xí)中的結(jié)構(gòu)化概率模型339
16.1非結(jié)構(gòu)化建模的挑戰(zhàn).339
16.2使用圖描述模型結(jié)構(gòu).342
16.2.1有向模型342
16.2.2無向模型344
16.2.3配分函數(shù)345
16.2.4基于能量的模型346
16.2.5分離和d-分離.347
16.2.6在有向模型和無向模型中轉(zhuǎn)換350
16.2.7因子圖352
16.3從圖模型中采樣353
16.4結(jié)構(gòu)化建模的優(yōu)勢353
16.5學(xué)習(xí)依賴關(guān)系354
16.6推斷和近似推斷354
16.7結(jié)構(gòu)化概率模型的深度學(xué)習(xí)方法.355
16.7.1實例:受限玻爾茲曼機356
第17章蒙特卡羅方法359
17.1采樣和蒙特卡羅方法.359
17.1.1為什么需要采樣359
17.1.2蒙特卡羅采樣的基礎(chǔ).359
17.2重要采樣.360
17.3馬爾可夫鏈蒙特卡羅方法362
17.4Gibbs采樣.365
17.5不同的峰值之間的混合挑戰(zhàn)365
17.5.1不同峰值之間通過回火來混合367
17.5.2深度也許會有助于混合368
第18章直面配分函數(shù)369
18.1對數(shù)似然梯度369
18.2隨機最大似然和對比散度370
18.3偽似然375
18.4得分匹配和比率匹配.376
18.5去噪得分匹配378
18.6噪聲對比估計378
18.7估計配分函數(shù)380
18.7.1退火重要采樣382
18.7.2橋式采樣384
第19章近似推斷385
19.1把推斷視作優(yōu)化問題.385
19.2期望最大化386
19.3最大后驗推斷和稀疏編碼387
19.4變分推斷和變分學(xué)習(xí).389
19.4.1離散型潛變量390
19.4.2變分法394
19.4.3連續(xù)型潛變量396
19.4.4學(xué)習(xí)和推斷之間的相互作用397
19.5學(xué)成近似推斷397
19.5.1醒眠算法398
19.5.2學(xué)成推斷的其他形式.398
第20章深度生成模型399
20.1玻爾茲曼機399
20.2受限玻爾茲曼機400
20.2.1條件分布401
20.2.2訓(xùn)練受限玻爾茲曼機.402
20.3深度信念網(wǎng)絡(luò)402
20.4深度玻爾茲曼機404
20.4.1有趣的性質(zhì)406
20.4.2DBM均勻場推斷406
20.4.3DBM的參數(shù)學(xué)習(xí)408
20.4.4逐層預(yù)訓(xùn)練408
20.4.5聯(lián)合訓(xùn)練深度玻爾茲曼機410
20.5實值數(shù)據(jù)上的玻爾茲曼機413
20.5.1Gaussian-BernoulliRBM413
20.5.2條件協(xié)方差的無向模型414
20.6卷積玻爾茲曼機417
20.7用于結(jié)構(gòu)化或序列輸出的玻爾茲曼機418
20.8其他玻爾茲曼機419
20.9通過隨機操作的反向傳播419
20.9.1通過離散隨機操作的反向傳播420
20.10有向生成網(wǎng)絡(luò).422
20.10.1sigmoid信念網(wǎng)絡(luò)422
20.10.2可微生成器網(wǎng)絡(luò).423
20.10.3變分自編碼器.425
20.10.4生成式對抗網(wǎng)絡(luò).427
20.10.5生成矩匹配網(wǎng)絡(luò).429
20.10.6卷積生成網(wǎng)絡(luò).430
20.10.7自回歸網(wǎng)絡(luò)430
20.10.8線性自回歸網(wǎng)絡(luò).430
20.10.9神經(jīng)自回歸網(wǎng)絡(luò).431
20.10.10NADE432
20.11從自編碼器采樣433
20.11.1與任意去噪自編碼器相關(guān)的馬爾可夫鏈434
20.11.2夾合與條件采樣.434
20.11.3回退訓(xùn)練過程.435
20.12生成隨機網(wǎng)絡(luò).435
20.12.1判別性GSN436
20.13其他生成方案.436
20.14評估生成模型.437
20.15結(jié)論438
參考文獻.439
索引486