Python深度學(xué)習(xí)實(shí)戰(zhàn)
定 價(jià):129 元
- 作者:(美)羅恩·克努斯(RonaldT.Kneusel)著
- 出版時(shí)間:2024/8/1
- ISBN:9787122449603
- 出 版 社:化學(xué)工業(yè)出版社
- 中圖法分類:TP181
- 頁碼:285頁
- 紙張:
- 版次:1
- 開本:26cm
本書適用于探索該領(lǐng)域的新手和業(yè)余愛好者。在沒有背景知識(shí)的前提下,本書從一開篇,便向讀者講述了如何建立一個(gè)數(shù)據(jù)集,并展示了如何使用該數(shù)據(jù)集訓(xùn)練一個(gè)成功的深度學(xué)習(xí)模型。此后,本書探討了經(jīng)典的機(jī)器學(xué)習(xí)算法,其目的是探討奠定深度學(xué)習(xí)革命的方法理論基礎(chǔ)。本書不僅為讀者提供扎實(shí)的概念基礎(chǔ),還為讀者設(shè)計(jì)自己的項(xiàng)目和解決方案提供了實(shí)用的指導(dǎo)。它解決了如何通過當(dāng)前實(shí)踐的標(biāo)準(zhǔn)來調(diào)整和評(píng)估機(jī)器學(xué)習(xí)模型的性能。本書還可以作為跳板,幫助讀者為探索更高級(jí)的方法和算法提供知識(shí)儲(chǔ)備。最后四章探討了卷積神經(jīng)網(wǎng)絡(luò),它是監(jiān)督深度學(xué)習(xí)的主力軍。書中涉及的實(shí)驗(yàn)使用的都是本領(lǐng)域研究人員熟悉的標(biāo)準(zhǔn)數(shù)據(jù)集。書中以案例研究出發(fā),講解如何從數(shù)據(jù)集到評(píng)估預(yù)測(cè)模型的方法。
簡(jiǎn)要目錄
第1章 開篇 001
第2章 使用Python 008
第3章 使用NumPy 021
第4章 使用數(shù)據(jù)工作 038
第5章 構(gòu)建數(shù)據(jù)集 060
第6章 經(jīng)典機(jī)器學(xué)習(xí) 077
第7章 經(jīng)典模型實(shí)驗(yàn) 091
第8章 神經(jīng)網(wǎng)絡(luò)介紹 120
第9章 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 132
第10章 神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn) 154
第11章 評(píng)價(jià)模型 174
第12章 卷積神經(jīng)網(wǎng)絡(luò)介紹 197
第13章 基于Keras和MNIST的實(shí)驗(yàn) 214
第14章 基于CIFAR-10的實(shí)驗(yàn) 235
第15章 實(shí)例研究:音頻數(shù)據(jù)分類 258
第16章 走向未來 282
詳細(xì)目錄
第1章 開篇 001
1.1 操作環(huán)境 001
1.1.1 NumPy 001
1.1.2 scikit學(xué)習(xí) 001
1.1.3 基于TensorFlow的Keras 001
1.2 安裝工具包 002
1.3 線性代數(shù)基礎(chǔ) 003
1.3.1 向量 003
1.3.2 矩陣 003
1.3.3 向量和矩陣相乘 004
1.4 統(tǒng)計(jì)和概率 005
1.4.1 描述性統(tǒng)計(jì) 005
1.4.2 概率分布 005
1.4.3 統(tǒng)計(jì)檢驗(yàn) 006
1.5 圖形處理單元 006
第2章 使用Python 008
2.1 Python解釋器 008
2.2 語句與空格 008
2.3 變量與基本數(shù)據(jù)結(jié)構(gòu) 009
2.3.1 數(shù)字表示 009
2.3.2 變量 010
2.3.3 字符串 010
2.3.4 列表 011
2.3.5 字典 013
2.4 控制結(jié)構(gòu) 014
2.4.1 if-elif-else 語句 014
2.4.2 for循環(huán) 014
2.4.3 while循環(huán) 016
2.4.4 break與continue語句 016
2.4.5 with語句 017
2.4.6 使用try-except塊處理錯(cuò)誤 017
2.5 函數(shù) 018
2.6 模塊 019
第3章 使用NumPy 021
3.1 為什么是NumPy? 021
3.1.1 數(shù)組對(duì)列表 021
3.1.2 測(cè)試數(shù)組與列表的速度 022
3.2 基本數(shù)組 024
3.2.1 使用np.array定義數(shù)組 024
3.2.2 用0和1定義數(shù)組 026
3.3 訪問數(shù)組中的元素 027
3.3.1 數(shù)組索引 027
3.3.2 數(shù)組切片 028
3.3.3 省略號(hào) 030
3.4 算子和廣播 031
3.5 數(shù)組的輸入與輸出 033
3.6 隨機(jī)數(shù) 035
3.7 NumPy和圖像 036
第4章 使用數(shù)據(jù)工作 038
4.1 分類與標(biāo)簽 038
4.2 特征與特征向量 039
4.2.1 特征的類型 039
4.2.2 特征選擇與維數(shù)災(zāi)難 040
4.3 優(yōu)秀數(shù)據(jù)集的特征 042
4.3.1 插值與外推 042
4.3.2 父分布 043
4.3.3 先驗(yàn)類概率 044
4.3.4 混淆 044
4.3.5 數(shù)據(jù)集規(guī)模 045
4.4 數(shù)據(jù)準(zhǔn)備 045
4.4.1 特征縮放 046
4.4.2 特征缺失 049
4.5 訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù) 050
4.5.1 三個(gè)子集 050
4.5.2 數(shù)據(jù)集劃區(qū) 050
4.5.3 k折交叉驗(yàn)證 054
4.6 看看你的數(shù)據(jù) 055
4.6.1 從數(shù)據(jù)中尋找問題 056
4.6.2 警示案例 058
第5章 構(gòu)建數(shù)據(jù)集 060
5.1 鳶尾花(irises)數(shù)據(jù)集 060
5.2 乳腺癌數(shù)據(jù)集 062
5.3 MNIST數(shù)據(jù)集 063
5.4 CIFAR-10數(shù)據(jù)集 065
5.5 數(shù)據(jù)增強(qiáng) 067
5.5.1 為什么要增強(qiáng)訓(xùn)練數(shù)據(jù)? 067
5.5.2 增強(qiáng)訓(xùn)練數(shù)據(jù)的方法 068
5.5.3 鳶尾花數(shù)據(jù)集的增強(qiáng) 069
5.5.4 CIFAR-10數(shù)據(jù)集的增強(qiáng) 073
第6章 經(jīng)典機(jī)器學(xué)習(xí) 077
6.1 最近質(zhì)心 077
6.2 k-最近鄰 080
6.3 樸素貝葉斯 081
6.4 決策樹與隨機(jī)森林 084
6.4.1 遞歸初步 085
6.4.2 構(gòu)建決策樹 086
6.4.3 隨機(jī)森林 087
6.5 支持向量機(jī) 088
6.5.1 邊距 088
6.5.2 支持向量 089
6.5.3 優(yōu)化 089
6.5.4 核 090
第7章 經(jīng)典模型實(shí)驗(yàn) 091
7.1 鳶尾花數(shù)據(jù)集實(shí)驗(yàn) 091
7.1.1 測(cè)試經(jīng)典模型 091
7.1.2 實(shí)現(xiàn)最近質(zhì)心分類器 094
7.2 乳腺癌數(shù)據(jù)集實(shí)驗(yàn) 095
7.2.1 兩次初始測(cè)試運(yùn)行 096
7.2.2 隨機(jī)拆分的影響 098
7.2.3 加入k折驗(yàn)證 099
7.2.4 搜索超參數(shù) 103
7.3 MNIST數(shù)據(jù)集實(shí)驗(yàn) 107
7.3.1 測(cè)試經(jīng)典模型 107
7.3.2 分析運(yùn)行時(shí)間 112
7.3.3 PCA主元的實(shí)驗(yàn) 113
7.3.4 擾動(dòng)我們的數(shù)據(jù)集 115
7.4 經(jīng)典模型小結(jié) 116
7.4.1 最近質(zhì)心 116
7.4.2 k-最近鄰(k-NN) 116
7.4.3 樸素貝葉斯 116
7.4.4 決策樹 117
7.4.5 隨機(jī)森林 117
7.4.6 支持向量機(jī) 117
7.5 使用經(jīng)典模型的時(shí)機(jī) 118
7.5.1 處理小數(shù)據(jù)集 118
7.5.2 處理計(jì)算要求不高的任務(wù) 118
7.5.3 可解釋的模型 118
7.5.4 以向量作為輸入的任務(wù) 118
第8章 神經(jīng)網(wǎng)絡(luò)介紹 120
8.1 神經(jīng)網(wǎng)絡(luò)剖析 120
8.1.1 神經(jīng)元 121
8.1.2 激活函數(shù) 122
8.1.3 網(wǎng)絡(luò)結(jié)構(gòu) 124
8.1.4 輸出層 125
8.1.5 權(quán)重和偏置的表示 126
8.2 一個(gè)簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 127
8.2.1 建立數(shù)據(jù)集 127
8.2.2 實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò) 128
8.2.3 訓(xùn)練和測(cè)試神經(jīng)網(wǎng)絡(luò) 130
第9章 訓(xùn)練神經(jīng)網(wǎng)絡(luò) 132
9.1 高層次的概述 132
9.2 梯度下降 133
9.2.1 找出最小值 134
9.2.2 更新權(quán)重 134
9.3 隨機(jī)梯度下降法 135
9.3.1 批次和小批次 135
9.3.2 凸函數(shù)與非凸函數(shù) 137
9.3.3 終止訓(xùn)練 138
9.3.4 更新學(xué)習(xí)率 138
9.3.5 動(dòng)量 139
9.4 反向傳播 139
9.4.1 反推第一步 140
9.4.2 反推第二步 142
9.5 損失函數(shù) 144
9.5.1 絕對(duì)損失和均方誤差損失 145
9.5.2 交叉熵?fù)p失 145
9.6 權(quán)重初始化 146
9.7 過擬合與正則化 147
9.7.1 理解過擬合 148
9.7.2 理解正則化 149
9.7.3 L2正則化 150
9.7.4 丟棄 151
第10章 神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn) 154
10.1 我們的數(shù)據(jù)集 154
10.2 多層感知機(jī)分類器 154
10.3 架構(gòu)和激活函數(shù) 155
10.3.1 代碼 155
10.3.2 結(jié)果 158
10.4 批次大小 161
10.5 基礎(chǔ)學(xué)習(xí)率 164
10.6 訓(xùn)練集大小 165
10.7 L2正則化 166
10.8 動(dòng)量 168
10.9 權(quán)重初始化 169
10.10 特征排序 172
第11章 評(píng)價(jià)模型 174
11.1 定義與假設(shè) 174
11.2 為什么僅有準(zhǔn)確性是不夠的 175
11.3 2×2混淆矩陣 176
11.4 從2×2混淆矩陣中導(dǎo)出度量指標(biāo) 178
11.4.1 從2×2表中導(dǎo)出度量指標(biāo) 178
11.4.2 使用我們的指標(biāo)來解釋模型 180
11.5 更多高級(jí)度量指標(biāo) 181
11.5.1 知情度與標(biāo)記度 182
11.5.2 F1得分 182
11.5.3 Cohen系數(shù)κ 182
11.5.4 馬修斯相關(guān)系數(shù) 183
11.5.5 實(shí)現(xiàn)我們的指標(biāo) 183
11.6 接收者操作特征曲線 184
11.6.1 集成我們的模型 184
11.6.2 繪制我們的指標(biāo) 186
11.6.3 探索ROC曲線 187
11.6.4 采用ROC分析對(duì)比模型 188
11.6.5 生成一條ROC曲線 190
11.6.6 精確度-召回率曲線 191
11.7 處理多個(gè)類 191
11.7.1 擴(kuò)展混淆矩陣 192
11.7.2 計(jì)算加權(quán)準(zhǔn)確率 194
11.7.3 多類馬修斯相關(guān)系數(shù) 195
第12章 卷積神經(jīng)網(wǎng)絡(luò)介紹 197
12.1 為什么是卷積神經(jīng)網(wǎng)絡(luò)? 197
12.2 卷積 198
12.2.1 用核進(jìn)行掃描 198
12.2.2 圖像處理中的卷積 200
12.3 卷積神經(jīng)網(wǎng)絡(luò)的剖析 200
12.3.1 不同類型的層 201
12.3.2 通過CNN傳遞數(shù)據(jù) 202
12.4 卷積層 203
12.4.1 卷積層如何工作 203
12.4.2 使用卷積層 205
12.4.3 多卷積層 207
12.4.4 初始化卷積層 207
12.5 池化層 208
12.6 全連接層 209
12.7 全卷積層 209
12.8 運(yùn)行情況分析 211
第13章 基于Keras和MNIST的實(shí)驗(yàn) 214
13.1 在Keras中構(gòu)建CNN 214
13.1.1 加載MNIST數(shù)據(jù) 214
13.1.2 建立我們的模型 216
13.1.3 訓(xùn)練和評(píng)價(jià)模型 217
13.1.4 繪制誤差 219
13.2 基礎(chǔ)實(shí)驗(yàn) 220
13.2.1 架構(gòu)實(shí)驗(yàn) 221
13.2.2 訓(xùn)練集尺寸、小批次和歷時(shí) 223
13.2.3 優(yōu)化器 225
13.3 全卷積網(wǎng)絡(luò) 226
13.3.1 構(gòu)建和訓(xùn)練模型 226
13.3.2 制作測(cè)試圖像 228
13.3.3 測(cè)試模型 229
13.4 加擾動(dòng)的MNIST數(shù)字 233
第14章 基于CIFAR-10的實(shí)驗(yàn) 235
14.1 CIFAR-10的復(fù)習(xí) 235
14.2 使用全部CIFAR-10數(shù)據(jù)集 236
14.2.1 構(gòu)建模型 236
14.2.2 分析模型 239
14.3 動(dòng)物還是車輛? 240
14.4 二元還是多分類? 244
14.5 遷移學(xué)習(xí) 247
14.6 微調(diào)模型 251
14.6.1 建立數(shù)據(jù)集 252
14.6.2 微調(diào)以適應(yīng)模型 254
14.6.3 測(cè)試我們的模型 256
第15章 實(shí)例研究:音頻數(shù)據(jù)分類 258
15.1 建立數(shù)據(jù)集 258
15.1.1 增強(qiáng)數(shù)據(jù)集 259
15.1.2 數(shù)據(jù)預(yù)處理 262
15.2 音頻特征分類 264
15.2.1 使用經(jīng)典模型 264
15.2.2 使用傳統(tǒng)神經(jīng)網(wǎng)絡(luò) 266
15.2.3 使用卷積神經(jīng)網(wǎng)絡(luò) 267
15.3 頻譜圖 271
15.4 頻譜圖分類 273
15.4.1 初始化、正則化、批次歸一化 275
15.4.2 檢查混淆矩陣 276
15.5 集成 277
第16章 走向未來 282
16.1 攜手卷積神經(jīng)網(wǎng)絡(luò)走向未來 282
16.2 強(qiáng)化學(xué)習(xí)與無監(jiān)督學(xué)習(xí) 283
16.3 生成對(duì)抗式網(wǎng)絡(luò) 283
16.4 循環(huán)神經(jīng)網(wǎng)絡(luò) 284
16.5 在線資源 284
16.6 會(huì)議 284
16.7 推薦書籍 285
16.8 再會(huì),謝謝 285