《深度學(xué)習(xí)導(dǎo)論》講述了前饋神經(jīng)網(wǎng)絡(luò)、Tensorflow、卷積神經(jīng)網(wǎng)絡(luò)、詞嵌入與循環(huán)神經(jīng)網(wǎng)絡(luò)、序列到序列學(xué)習(xí)、深度強(qiáng)化學(xué)習(xí)、無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)模型等深度學(xué)習(xí)領(lǐng)域的基本概念和技術(shù),通過(guò)一系列的編程任務(wù),向讀者介紹了熱門的人工智能應(yīng)用,包括計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理等。
本書(shū)編寫(xiě)簡(jiǎn)明扼要,理論聯(lián)系實(shí)踐,每一章都包含習(xí)題以及補(bǔ)充閱讀的參考文獻(xiàn)。本書(shū)既可作為高校人工智能課程的教學(xué)用書(shū),也可供從業(yè)者入門參考。
本書(shū)要求讀者熟悉線性代數(shù)、多元微積分、概率論與數(shù)理統(tǒng)計(jì)知識(shí),另外需要讀者了解Python編程。
1.國(guó)內(nèi)知識(shí)圖譜界領(lǐng)軍人物、文因互聯(lián)CEO鮑捷作序。國(guó)內(nèi)外產(chǎn)業(yè)界和學(xué)術(shù)界大咖鼎力推薦
2.本書(shū)編寫(xiě)簡(jiǎn)明扼要,是美國(guó)常青藤名校布朗大學(xué)的教材。本書(shū)的每一章都包括了一個(gè)編程項(xiàng)目和一些書(shū)面練習(xí),并附上了參考資料,可供讀者進(jìn)一步閱讀。
3.人工智能經(jīng)典入門書(shū),基于Tensorflow編寫(xiě),以項(xiàng)目為導(dǎo)向,通過(guò)一系列的編程任務(wù),向讀者介紹了熱門的人工智能應(yīng)用,包括計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理和強(qiáng)化學(xué)習(xí)等。
4.做中學(xué)。作者在前言中寫(xiě)道:“對(duì)我而言,學(xué)習(xí)計(jì)算機(jī)科學(xué)的最好方法,就是坐下來(lái)寫(xiě)程序!北緯(shū)正是采用了這種方法。
作者簡(jiǎn)介
尤金·查爾尼克(Eugene Charniak),美國(guó)布朗大學(xué)計(jì)算機(jī)科學(xué)和認(rèn)知科學(xué)教授,博士畢業(yè)于MIT,博士導(dǎo)師是人工智能之父馬文·明斯基。他是國(guó)際知名的人工智能研究者,美國(guó)人工智能學(xué)會(huì)(AAAI)會(huì)士,2011年獲美國(guó)計(jì)算語(yǔ)言學(xué)會(huì)(ACL)終身成就獎(jiǎng)。除本書(shū)之外,他還撰寫(xiě)了《統(tǒng)計(jì)語(yǔ)言學(xué)習(xí)》《人工智能編程》等圖書(shū)。
譯者簡(jiǎn)介
沈磊,美國(guó)計(jì)算語(yǔ)言學(xué)會(huì)(ACL)會(huì)員,中國(guó)計(jì)算機(jī)學(xué)會(huì)(CCF)會(huì)員,博士畢業(yè)于北京航空航天大學(xué)計(jì)算機(jī)學(xué)院,博士研究方向?yàn)槿斯ぶ悄堋⒛J阶R(shí)別,現(xiàn)為vivo公司北京AI研究院NLP算法專家,主要方向?yàn)樽匀徽Z(yǔ)言理解和自動(dòng)問(wèn)答。她在自然語(yǔ)言處理及推薦算法方向發(fā)表了多篇學(xué)術(shù)論文,申請(qǐng)了5項(xiàng)專利。
鄭春萍,教育學(xué)博士,北京郵電大學(xué)人文學(xué)院副教授,主要研究方向?yàn)閼?yīng)用語(yǔ)言學(xué)與計(jì)算機(jī)輔助翻譯。她是美國(guó)國(guó)務(wù)院“英語(yǔ)語(yǔ)言學(xué)者項(xiàng)目”訪問(wèn)學(xué)者、英國(guó)曼徹斯特大學(xué)人文藝術(shù)學(xué)院訪問(wèn)學(xué)者,曾獲北京市高等教育教學(xué)成果一等獎(jiǎng)、北京市高校青年教學(xué)名師獎(jiǎng)、中央電視臺(tái)“希望之星”英語(yǔ)風(fēng)采大賽全國(guó)總決賽最佳指導(dǎo)教師獎(jiǎng)等獎(jiǎng)項(xiàng)。她主持了國(guó)家社科基金、教育部霍英東青年教師基金及教育部人文社科基金等省部級(jí)課題6項(xiàng),發(fā)表學(xué)術(shù)論文40余篇,主編教材2部,出版專著1部、譯著2部。
第 1章 前饋神經(jīng)網(wǎng)絡(luò) 1
1.1 感知機(jī) 3
1.2 神經(jīng)網(wǎng)絡(luò)的交叉熵?fù)p失函數(shù) 7
1.3 導(dǎo)數(shù)與隨機(jī)梯度下降 11
1.4 編寫(xiě)程序 15
1.5 神經(jīng)網(wǎng)絡(luò)的矩陣表示 17
1.6 數(shù)據(jù)獨(dú)立性 19
1.7 參考文獻(xiàn)和補(bǔ)充閱讀 20
1.8 習(xí)題 21
第 2章 Tensorflow 23
2.1 預(yù)備知識(shí) 23
2.2 TF程序 26
2.3 多層神經(jīng)網(wǎng)絡(luò) 31
2.4 其他方面 34
2.4.1 檢查點(diǎn) 34
2.4.2 tensordot 35
2.4.3 TF變量的初始化 37
2.4.4 TF圖創(chuàng)建的簡(jiǎn)化 39
2.5 參考文獻(xiàn)和補(bǔ)充閱讀 40
2.6 習(xí)題 40
第3章 卷積神經(jīng)網(wǎng)絡(luò) 43
3.1 濾波器、步長(zhǎng)和填充 43
3.2 一個(gè)簡(jiǎn)單的TF卷積例子 49
3.3 多層卷積 51
3.4 卷積細(xì)節(jié) 54
3.4.1 偏置 54
3.4.2 卷積層 55
3.4.3 池化運(yùn)算(pooling) 55
3.5 參考文獻(xiàn)和補(bǔ)充閱讀 56
3.6 習(xí)題 57
第4章 詞嵌入與循環(huán)神經(jīng)網(wǎng)絡(luò) 59
4.1 語(yǔ)言模型的詞嵌入 59
4.2 構(gòu)建前饋語(yǔ)言模型 63
4.3 改進(jìn)前饋語(yǔ)言模型 65
4.4 過(guò)擬合 66
4.5 循環(huán)網(wǎng)絡(luò) 69
4.6 長(zhǎng)短期記憶模型 75
4.7 參考文獻(xiàn)和補(bǔ)充閱讀 78
4.8 習(xí)題 78
第5章 序列到序列學(xué)習(xí) 81
5.1 seq2seq模型 82
5.2 編寫(xiě)一個(gè)seq2seq MT程序 84
5.3 seq2seq中的注意力機(jī)制 87
5.4 多長(zhǎng)度seq2seq 90
5.5 編程練習(xí) 91
5.6 參考文獻(xiàn)和補(bǔ)充閱讀 93
5.7 習(xí)題 94
第6章 深度強(qiáng)化學(xué)習(xí) 97
6.1 值迭代 98
6.2 Q學(xué)習(xí) 101
6.3 深度Q學(xué)習(xí)基礎(chǔ) 103
6.4 策略梯度法 106
6.5 行動(dòng)者-評(píng)論家方法 112
6.6 經(jīng)驗(yàn)回放 114
6.7 參考文獻(xiàn)和補(bǔ)充閱讀 115
6.8 習(xí)題 116
第7章 無(wú)監(jiān)督神經(jīng)網(wǎng)絡(luò)模型 119
7.1 基本自編碼 119
7.2 卷積自編碼 122
7.3 變分自編碼 126
7.4 生成式對(duì)抗網(wǎng)絡(luò) 132
7.5 參考文獻(xiàn)和補(bǔ)充閱讀 137
7.6 習(xí)題 137
附錄A 部分習(xí)題答案 139
附錄B 參考文獻(xiàn) 143
附錄C 索引 147
本書(shū)贊譽(yù) 151