深入淺出神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
定 價(jià):89 元
- 作者:[澳] 邁克爾·尼爾森(Michael Nielsen)
- 出版時(shí)間:2020/8/1
- ISBN:9787115542090
- 出 版 社:人民郵電出版社
- 中圖法分類:TP183
- 頁碼:227
- 紙張:
- 版次:01
- 開本:16開
本書深入講解神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù),側(cè)重于闡釋深度學(xué)習(xí)的核心概念。作者以技術(shù)原理為導(dǎo)向,輔以貫穿全書的MNIST手寫數(shù)字識(shí)別項(xiàng)目示例,介紹神經(jīng)網(wǎng)絡(luò)架構(gòu)、反向傳播算法、過擬合解決方案、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容,以及如何利用這些知識(shí)改進(jìn)深度學(xué)習(xí)項(xiàng)目。學(xué)完本書后,讀者將能夠通過編寫Python代碼來解決復(fù)雜的模式識(shí)別問題。
1.以原理為導(dǎo)向:本書細(xì)致闡釋神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的核心概念,而不是籠統(tǒng)地羅列想法,帶領(lǐng)讀者掌握神經(jīng)網(wǎng)絡(luò)的工作原理,技術(shù)興衰起落,而原理是長久的;
2.注重實(shí)踐:本書通過解決具體問題——教計(jì)算機(jī)識(shí)別手寫數(shù)字——來介紹神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的核心理論;
3.Michael Nielsen高分深度學(xué)習(xí)入門講義正式版,本書基于Python語言編寫,新手也可以很快入門;
4.李航、馬少平、邱錫鵬等多位科學(xué)家重磅推薦;
5.配套動(dòng)態(tài)示例,有助于直觀理解神經(jīng)網(wǎng)絡(luò)輸出,提供源代碼。
【作者簡介】
邁克爾·尼爾森(Michael Nielsen)
計(jì)算機(jī)科學(xué)家、量子物理學(xué)家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大學(xué)、斯坦福大學(xué)、麻省理工學(xué)院、劍橋大學(xué)、牛津大學(xué)等高校以及谷歌和微軟等公司做主題演講,另著有高分作品《重塑發(fā)現(xiàn)》和《量子計(jì)算和量子信息》。
【譯者簡介】
朱小虎
University AI創(chuàng)始人兼首席科學(xué)家、Center for Safe AGI創(chuàng)始人、谷歌開發(fā)者機(jī)器學(xué)習(xí)專家、百度深度學(xué)習(xí)布道者。和團(tuán)隊(duì)核心成員一起創(chuàng)建了TASA、DL Center(深度學(xué)習(xí)知識(shí)中心全球價(jià)值網(wǎng)絡(luò))和AI Growth(行業(yè)智庫培訓(xùn))等。舉辦過多場國際性人工智能峰會(huì)和活動(dòng)。在多個(gè)技術(shù)平臺(tái)寫下了近百萬字的人工智能精品技術(shù)內(nèi)容。曾受邀為多所國內(nèi)高校制定人工智能學(xué)習(xí)規(guī)劃和教授人工智能前沿課程,也曾為多家世界500強(qiáng)企業(yè)提供人工智能方面的戰(zhàn)略布局建議及落地實(shí)施等方面的咨詢建議。
前言
第 1章 使用神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字 1
1.1 感知機(jī) 2
1.2 sigmoid神經(jīng)元 7
1.3 神經(jīng)網(wǎng)絡(luò)的架構(gòu) 11
1.4 一個(gè)簡單的神經(jīng)網(wǎng)絡(luò):分類手寫數(shù)字 13
1.5 利用梯度下降算法進(jìn)行學(xué)習(xí) 17
1.6 實(shí)現(xiàn)分類數(shù)字的神經(jīng)網(wǎng)絡(luò) 25
1.7 邁向深度學(xué)習(xí) 37
第 2章 反向傳播算法工作原理 41
2.1 熱身:使用矩陣快速計(jì)算輸出 41
2.2 關(guān)于代價(jià)函數(shù)的兩個(gè)假設(shè) 43
2.3 阿達(dá)馬積s⊙t 45
2.4 反向傳播的4個(gè)基本方程 45
2.5 基本方程的證明(選學(xué)) 50
2.6 反向傳播算法 51
2.7 反向傳播代碼 53
2.8 就何而言,反向傳播算快 55
2.9 反向傳播:全局觀 56
第3章 改進(jìn)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法 60
3.1 交叉熵代價(jià)函數(shù) 60
3.1.1 引入交叉熵代價(jià)函數(shù) 64
3.1.2 使用交叉熵來對MNIST數(shù)字進(jìn)行分類 71
3.1.3 交叉熵的含義與起源 72
3.1.4 softmax 74
3.2 過擬合和正則化 78
3.2.1 正則化 84
3.2.2 為何正則化有助于減輕過擬合 89
3.2.3 其他正則化技術(shù) 93
3.3 權(quán)重初始化 102
3.4 復(fù)探手寫識(shí)別問題:代碼 106
3.5 如何選擇神經(jīng)網(wǎng)絡(luò)的超參數(shù) 116
3.6 其他技術(shù) 126
3.6.1 隨機(jī)梯度下降算法的變化形式 126
3.6.2 其他人工神經(jīng)元模型 129
3.6.3 有關(guān)神經(jīng)網(wǎng)絡(luò)的故事 132
第4章 神經(jīng)網(wǎng)絡(luò)可以計(jì)算任何函數(shù)的可視化證明 134
4.1 兩個(gè)預(yù)先聲明 136
4.2 一個(gè)輸入和一個(gè)輸出的普遍性 137
4.3 多個(gè)輸入變量 146
4.4 不止sigmoid神經(jīng)元 154
4.5 修補(bǔ)階躍函數(shù) 156
4.6 小結(jié) 159
第5章 為何深度神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練 160
5.1 梯度消失問題 163
5.2 梯度消失的原因 168
5.2.1 為何出現(xiàn)梯度消失 170
5.2.2 梯度爆炸問題 171
5.2.3 梯度不穩(wěn)定問題 172
5.2.4 梯度消失問題普遍存在 172
5.3 復(fù)雜神經(jīng)網(wǎng)絡(luò)中的梯度不穩(wěn)定 173
5.4 深度學(xué)習(xí)的其他障礙 174
第6章 深度學(xué)習(xí) 175
6.1 卷積神經(jīng)網(wǎng)絡(luò)入門 176
6.1.1 局部感受野 178
6.1.2 共享權(quán)重和偏置 180
6.1.3 池化層 182
6.2 卷積神經(jīng)網(wǎng)絡(luò)的實(shí)際應(yīng)用 184
6.2.1 使用修正線性單元 188
6.2.2 擴(kuò)展訓(xùn)練數(shù)據(jù) 189
6.2.3 插入額外的全連接層 191
6.2.4 集成神經(jīng)網(wǎng)絡(luò) 192
6.3 卷積神經(jīng)網(wǎng)絡(luò)的代碼 195
6.4 圖像識(shí)別領(lǐng)域近期的進(jìn)展 208
6.4.1 2012年的LRMD論文 208
6.4.2 2012年的KSH論文 209
6.4.3 2014年的ILSVRC競賽 211
6.4.4 其他活動(dòng) 212
6.5 其他深度學(xué)習(xí)模型 214
6.5.1 循環(huán)神經(jīng)網(wǎng)絡(luò) 214
6.5.2 長短期記憶單元 216
6.5.3 深度信念網(wǎng)絡(luò)、生成模型和玻爾茲曼機(jī) 216
6.5.4 其他想法 217
6.6 神經(jīng)網(wǎng)絡(luò)的未來 217
6.6.1 意圖驅(qū)動(dòng)的用戶界面 217
6.6.2 機(jī)器學(xué)習(xí)、數(shù)據(jù)科學(xué)和創(chuàng)新的循環(huán) 218
6.6.3 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的作用 218
6.6.4 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)將主導(dǎo)人工智能 219
附錄 是否存在關(guān)于智能的簡單算法 222
版權(quán)聲明