關(guān)于我們
書單推薦
新書推薦
|
深度學(xué)習(xí)快速實踐:基于TensorFlow和Keras的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化與訓(xùn)練 讀者對象:想要獲得深度學(xué)習(xí)進階知識、強化學(xué)習(xí)技術(shù)及其應(yīng)用實踐的學(xué)生、從業(yè)者,特別是立志從事AI相關(guān)行業(yè)的人士等
本書內(nèi)容包括神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)、深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化和驗證、深度神經(jīng)網(wǎng)絡(luò)開發(fā)和訓(xùn)練環(huán)境的構(gòu)建、使用Tensor-Board進行網(wǎng)絡(luò)訓(xùn)練的監(jiān)控和模的超參數(shù)優(yōu)化。本書詳細(xì)介紹的深度學(xué)習(xí)問題,包括基本的回歸問題、二元分類問題和多元分類問題,還包括較為復(fù)雜的卷積神經(jīng)網(wǎng)絡(luò)對圖像的分類和使用預(yù)訓(xùn)練CNN進行的遷移學(xué)習(xí);使用遞歸神經(jīng)網(wǎng)絡(luò)進行時間序列預(yù)測、自然語言分類,以及通過sequence-to-sequence模型進行機器翻譯;深度強化學(xué)習(xí)的智能體構(gòu)建,以及生成對抗網(wǎng)絡(luò)的圖像生成。
原書前言
本書演示了使用深度學(xué)習(xí)的快速而實用的方法。它專注于現(xiàn)實生活中的問題,并且提供了足夠的理論和數(shù)據(jù),以加強讀者對該主題的理解。深度學(xué)習(xí)是一個令人興奮的、快速發(fā)展的機器學(xué)習(xí)分支,但它也是一個可以被再分割的領(lǐng)域。這是一個讓人無法抗拒的每天都在進行大量細(xì)致復(fù)雜研究的領(lǐng)域。在本書中,我將重點講授您在各種實際問題上應(yīng)用深度學(xué)習(xí)的技能。我對本書的最大希望在于它將可以為您提供使用深度學(xué)習(xí)技術(shù)解決機器學(xué)習(xí)問題所需的工具。 本書讀者 我是一名實踐數(shù)據(jù)科學(xué)家,我寫這本書去記錄其他實踐數(shù)據(jù)科學(xué)家和機器學(xué)習(xí)工程師的數(shù)據(jù)。如果您是應(yīng)用深度學(xué)習(xí)的軟件工程師,那么本書也適合您。如果您是一個深度學(xué)習(xí)的研究員,那么這本書也許并不適合您。但是,您也不妨也購買本書,以便對書中缺乏證據(jù)和數(shù)學(xué)嚴(yán)謹(jǐn)性的地方提出批評。 如果您是學(xué)術(shù)或教育工作者,那么本書絕對適合您。在過去的三年里,我在Illinois 大學(xué)Springfield 分校教過“數(shù)據(jù)科學(xué)的調(diào)查源”這門課程,在這樣做的過程中,我有機會激勵了許多未來的機器學(xué)習(xí)研究人員。這段經(jīng)歷激勵我創(chuàng)作本書。我認(rèn)為這樣一本書是幫助 學(xué)生建立一個非常復(fù)雜的主題的好方法。 本書主要內(nèi)容 第1章,深度學(xué)習(xí)的構(gòu)建模塊;仡櫽嘘P(guān)神經(jīng)網(wǎng)絡(luò)運行的一些基礎(chǔ)知識,對優(yōu)化算法和模型驗證進行簡單介紹,并構(gòu)建一種適合深度神經(jīng)網(wǎng)絡(luò)的開發(fā)環(huán)境。 第2章,用深度學(xué)習(xí)解決回歸問題。使您能夠通過構(gòu)建非常簡單的神經(jīng)網(wǎng)絡(luò)來解決回歸問題,并探討這些更深層次、更復(fù)雜模型對問題的影響。 第3章,用TensorBoard 監(jiān)控網(wǎng)絡(luò)訓(xùn)練。讓您立即著手使用TensorBoard,這是一個用于監(jiān)控和調(diào)試未來模型的絕佳應(yīng)用程序。 第4章,用深度學(xué)習(xí)解決二元分類問題。將幫助您使用深度學(xué)習(xí)解決二元分類問題。 第5章,用Keras 解決多元分類問題。帶您進行多元分類,并研究其中的誤差問題,還會討論過度擬合管理和最佳安全選擇。 第6章,超參數(shù)的優(yōu)化。給出兩種不同的模型調(diào)優(yōu)方法。一種是眾所周知的、經(jīng)過實戰(zhàn)測試的方法,另一種則是比較先進的方法。 第7章,從頭開始訓(xùn)練CNN。教您如何使用卷積網(wǎng)絡(luò)對圖像進行分類。 第8章,用預(yù)訓(xùn)練CNN 進行遷移學(xué)習(xí)。介紹如何在數(shù)據(jù)非常少的情況下應(yīng)用遷移學(xué)習(xí),使得圖像分類器具有驚人的性能。 第9章,從頭開始訓(xùn)練RNN。討論RNN 和LSTM 網(wǎng)絡(luò),以及如何將它們用于時間序列預(yù)測問題。 第10 章,從頭開始訓(xùn)練具有單詞嵌入的LSTM 網(wǎng)絡(luò)。進一步進行LSTM 網(wǎng)絡(luò)的介紹,并將其應(yīng)用于自然語言分類任務(wù)。 第11 章,訓(xùn)練Seq2Seq 模型。幫助我們使用sequence-to-sequence 模型進行機器翻譯。 第12 章,使用深度強化學(xué)習(xí)。介紹深度強化學(xué)習(xí),并構(gòu)建一個可以驅(qū)動一個自主智能體的Deep Q 網(wǎng)絡(luò)。 第13 章,生成對抗網(wǎng)絡(luò)。介紹如何使用生成對抗網(wǎng)絡(luò)來生成令人信服的圖像。 更好地利用本書 1)假設(shè)您已經(jīng)體驗過更傳統(tǒng)的數(shù)據(jù)科學(xué)和預(yù)測建模技術(shù),如線性/ 邏輯回歸和隨機森林算法。如果這是您第一次使用機器學(xué)習(xí),那么這對您來說可能有點困難。 2)還假設(shè)您至少有一些使用Python 編程的經(jīng)驗,或者至少有一些諸如Java 或C ++ 之類的其他編程語言的經(jīng)驗。 3)深度學(xué)習(xí)是計算密集型的,我們在這里構(gòu)建的一些模型需要NVIDIA GPU 才能在合理的時間內(nèi)運行。如果您沒有快速的GPU,那么您可以在Amazon Web Services 或GoogleCloud Platform 上,通過使用基于GPU 的云來實現(xiàn)。 原書序 我第一次見到Mike Bernico 是在我們成為一個財富50 強公司的新數(shù)據(jù)科學(xué)團隊的兩位創(chuàng)始成員的時候。然而,那時候是一個使人摸不著頭腦的時代,由于沒有正式的數(shù)據(jù)科學(xué)教育這樣的學(xué)科,所以我們都是自學(xué)成才。我們是一群具有冒險精神的人,并且各自有著不同的背景。之所以關(guān)注和學(xué)習(xí)數(shù)據(jù)科學(xué)和技術(shù),是因為需要通過它們來解決我們感興趣的問題。 正是以這種務(wù)實的精神,Mike 編寫了本書。深度學(xué)習(xí)通常被認(rèn)為是深奧而難懂的;然而,在本書中,Mike 對深度學(xué)習(xí)技術(shù)的主體內(nèi)容進行了分解,使其變得容易接近且便于應(yīng)用。通過本書,您可以快速上手,并以各種不同的形式和風(fēng)格,將深度學(xué)習(xí)應(yīng)用到您自己的項目中。 在該學(xué)科被命名之前,Mike 就一直從事數(shù)據(jù)科學(xué)的研究和實踐,還專門為大學(xué)生講授這門課程,并且已經(jīng)持續(xù)了三年時間。除此之外,他還是一位擁有多年工作經(jīng)驗的計算機科學(xué)家,是網(wǎng)絡(luò)和安全方面的專家,并且他還具有與人交流和與非專業(yè)人士溝通的技巧。他目前是一家大型金融服務(wù)公司的首席數(shù)據(jù)科學(xué)家,在那里他設(shè)計數(shù)據(jù)科學(xué)系統(tǒng),為直接應(yīng)用或?qū)W術(shù)研究建立機器學(xué)習(xí)模型,同時也是初級數(shù)據(jù)科學(xué)家的導(dǎo)師,并為相關(guān)人士講授數(shù)據(jù)科學(xué),他對自己的領(lǐng)域非常精通。 通過本書,您在與作者一起構(gòu)建示例網(wǎng)絡(luò)的同時,還可以從Mike 豐富的經(jīng)驗、幽默風(fēng)趣和切實可行的方法中受益。在讀完本書之后,無論是在樂趣還是在功能方面,您都將會有信心和知識來理解深度學(xué)習(xí),并將其應(yīng)用到您自己設(shè)計的項目中去。 J. Malia Andrus 博士 數(shù)據(jù)科學(xué)家 華盛頓州,西雅圖 譯者序 人工神經(jīng)網(wǎng)絡(luò)(Artifi cial Neural Network,ANN)是一種模仿動物神經(jīng)網(wǎng)絡(luò)行為特征,進行分布式并行信息處理的算法模型。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,從而達(dá)到處理信息的目的,并具有自學(xué)習(xí)和自適應(yīng)的能力。在工 程與學(xué)術(shù)界也常直接將人工神經(jīng)網(wǎng)絡(luò)簡稱為神經(jīng)網(wǎng)絡(luò)。 深度學(xué)習(xí)是機器學(xué)習(xí)研究中的一個活躍領(lǐng)域,其動機在于建立模擬人腦進行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機制來解釋諸如圖像、聲音和文本之類的數(shù)據(jù)。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,深度學(xué)習(xí)結(jié)構(gòu)含有多隱層的多層感知器,通過低層特征的組合形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布特征表示。由于其強大的功能、良好的適應(yīng)性,以及其結(jié)構(gòu)的相對規(guī)整和易構(gòu)性,目前在數(shù)據(jù)分析、圖像及語音識別、趨勢預(yù)測、機器翻譯、機器博弈等眾多領(lǐng)域均得到了廣泛應(yīng)用,并取得了令人矚目的表現(xiàn)。 本書的作者Mike Bernico 是一名資深的數(shù)據(jù)科學(xué)家和計算機科學(xué)家,在深度神經(jīng)網(wǎng)絡(luò)開發(fā)和應(yīng)用方面具有豐富的實踐經(jīng)驗。作者撰寫本書的目的是應(yīng)當(dāng)前深度機器學(xué)習(xí)研究和應(yīng)用的需要,將自己在該領(lǐng)域的相關(guān)理論積累以及從實踐中親手獲得的實際經(jīng)驗分享給讀者,使其能夠快速了解和掌握深度機器學(xué)習(xí)的全貌,并迅速著手進行基于TensorFlow 和Keras 的深度神經(jīng)網(wǎng)絡(luò)優(yōu)化與訓(xùn)練。 本書首先在有關(guān)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識的基礎(chǔ)上,介紹了深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法和模型驗證方法,并構(gòu)建了一種適合深度神經(jīng)網(wǎng)絡(luò)開發(fā)和訓(xùn)練的環(huán)境。結(jié)合深度學(xué)習(xí)問題,進一步介紹了使用TensorBoard 進行網(wǎng)絡(luò)訓(xùn)練的監(jiān)控,為讀者進行模型訓(xùn)練提供了監(jiān)控和調(diào)試的手段。本書還詳細(xì)討論了進行模型調(diào)優(yōu)的超參數(shù)優(yōu)化方法。關(guān)于深度學(xué)習(xí)的問題,本書所介紹的內(nèi)容包括基本的使用深度學(xué)習(xí)解決回歸問題、二元分類問題和多元分類問題;還包括較為復(fù)雜的使用卷積神經(jīng)網(wǎng)絡(luò)對圖像進行分類和使用預(yù)訓(xùn)練的CNN 進行遷移學(xué)習(xí),使 得所構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)即使在數(shù)據(jù)非常少的情況下也能使圖像分類器具有驚人的性能。 本書還詳細(xì)介紹了使用遞歸神經(jīng)網(wǎng)絡(luò)進行時間序列的預(yù)測、自然語言的分類,以及通過sequence-to-sequence 模型的訓(xùn)練進行機器翻譯。本書的內(nèi)容還有使用深度強化學(xué)習(xí)構(gòu)建一個自主智能體的方法,以及采用生成對抗網(wǎng)絡(luò)進行的學(xué)習(xí)圖像的生成。此外,本書還從實 踐的角度給出了許多諸如網(wǎng)絡(luò)過度擬合的解決方法,增強網(wǎng)絡(luò)穩(wěn)定性的解決方案等寶貴技巧和經(jīng)驗。 總之,盡管本書的宗旨不在于介紹深度機器學(xué)習(xí)理論,但也給出了相關(guān)的理論基礎(chǔ)和相關(guān)問題的完整信息,使得本書在注重實踐性的前提下,也保證了讀者學(xué)習(xí)的完整性。其所給出的深度神經(jīng)網(wǎng)絡(luò)的構(gòu)建方法、數(shù)據(jù)集的處理以及網(wǎng)絡(luò)訓(xùn)練的實施力圖詳盡,并給出了詳細(xì)代碼,為讀者進行深度神經(jīng)網(wǎng)絡(luò)的實際開發(fā)和應(yīng)用具有較高的指導(dǎo)和參考價值。對于一個初學(xué)者來說,本書的意義在于通過詳細(xì)的實施過程,使得讀者能夠透徹理解相應(yīng)的理論和模型,這對理論學(xué)習(xí)是非常重要的。對于具有較好理論基礎(chǔ)的讀者來說,本書的意義在于通過本書的內(nèi)容,使得讀者能夠直觀地觀察到相應(yīng)模型的表現(xiàn),這對模型的改進以及理論的創(chuàng)新具有啟發(fā)性。 本書由王衛(wèi)兵、田皓元、徐倩等翻譯,其中的譯者序、原書序、原書前言等部分由徐倩撰寫和翻譯,第1~4 章由田皓元翻譯,第5~13 章由王衛(wèi)兵翻譯。王卓、李想、萬文、張宏、張霽、郭文蘭、金勝利、盧江、張維波、代德偉參與了本書的翻譯工作。全書由王衛(wèi)兵統(tǒng)稿,并最終定稿。在本書的翻譯過程中,全體翻譯人員為了盡可能準(zhǔn)確地翻譯原書內(nèi)容,對書中的相關(guān)內(nèi)容進行了大量的查證和分析,以求做到準(zhǔn)確無誤。為方便讀者對相關(guān)文獻(xiàn)的查找和引用,在本書的翻譯過程中,本書保留了所有參考文獻(xiàn)的原文信息,并保留了所有引用的作者姓名的原文。對書中所應(yīng)用的專業(yè)術(shù)語采用了中英文對照的形式。對于本書的翻譯,全體翻譯人員均做出了巨大努力,付出了艱辛的努力,在此謹(jǐn)向他們表示誠摯的感謝。鑒于本書較強的專業(yè)性,并且具有一定的深度和難度,因此,翻譯中的不妥和失誤之處也在所難免,望廣大讀者予以批評指正。 譯 者 2019.11 于哈爾濱
目 錄
譯者序 原書序 原書前言 第1 章 深度學(xué)習(xí)的構(gòu)建模塊 // 1 1.1 深度神經(jīng)網(wǎng)絡(luò)的架構(gòu) // 1 1.1.1 神經(jīng)元 // 1 1.1.2 深度學(xué)習(xí)中的代價函數(shù)和成本函數(shù) // 4 1.1.3 前向傳播過程 // 5 1.1.4 反向傳播函數(shù) // 5 1.1.5 隨機和小批量梯度下降 // 6 1.2 深度學(xué)習(xí)的優(yōu)化算法 // 6 1.2.1 采用具有動量的梯度下降 // 6 1.2.2 RMSProp 算法 // 7 1.2.3 Adam 優(yōu)化器 // 7 1.3 深度學(xué)習(xí)平臺架構(gòu) // 7 1.3.1 什么是TensorFlow ? // 7 1.3.2 什么是Keras ? // 8 1.3.3 TensorFlow 的熱門替代品 // 8 1.3.4 TensorFlow 和Keras 對GPU的要求 // 8 1.3.5 安裝Nvidia CUDA Toolkit 和cuDNN // 9 1.3.6 安裝Python // 10 1.3.7 安裝TensorFlow 和Keras // 11 1.4 深度學(xué)習(xí)數(shù)據(jù)集的構(gòu)建 // 12 1.4.1 深度學(xué)習(xí)中的偏差和方差誤差 // 13 1.4.2 train、val 和test 數(shù)據(jù)集 // 13 1.4.3 深度神經(jīng)網(wǎng)絡(luò)中的偏差和方差管理 // 14 1.4.4 K-Fold 交叉驗證 // 14 1.5 小結(jié) // 15 第2 章 用深度學(xué)習(xí)解決回歸問題 // 16 2.1 回歸分析和深度神經(jīng)網(wǎng)絡(luò) // 16 2.1.1 使用神經(jīng)網(wǎng)絡(luò)進行回歸的好處 // 16 2.1.2 使用神經(jīng)網(wǎng)絡(luò)進行回歸時需要注意的問題 // 17 2.2 使用深度神經(jīng)網(wǎng)絡(luò)進行回歸 // 17 2.2.1 如何規(guī)劃機器學(xué)習(xí)問題 // 17 2.2.2 定義示例問題 // 17 2.2.3 加載數(shù)據(jù)集 // 18 2.2.4 定義成本函數(shù) // 19 2.3 在Keras 中建立MLP // 19 2.3.1 輸入層的構(gòu)形 // 20 2.3.2 隱藏層的構(gòu)形 // 20 2.3.3 輸出層的構(gòu)形 // 20 2.3.4 神經(jīng)網(wǎng)絡(luò)的架構(gòu) // 20 2.3.5 訓(xùn)練Keras 模型 // 21 2.3.6 評測模型的性能 // 22 2.4 在Keras 中建立深度神經(jīng)網(wǎng)絡(luò) // 22 2.4.1 評測深度神經(jīng)網(wǎng)絡(luò)的性能 // 24 2.4.2 模型超參數(shù)的調(diào)優(yōu) // 25 2.5 保存并加載經(jīng)過訓(xùn)練的Keras模型 // 25 2.6 小結(jié) // 25 第3 章 用TensorBoard 監(jiān)控網(wǎng)絡(luò)訓(xùn)練 // 27 3.1 TensorBoard 的概述 // 27 3.2 設(shè)置TensorBoard // 27 3.2.1 安裝TensorBoard // 28 3.2.2 TensorBoard 如何與Keras /TensorFlow 會話 // 28 3.2.3 運行TensorBoard // 28 3.3 將Keras 連接到TensorBoard // 29 3.3.1 Keras 回調(diào)簡介 // 29 3.3.2 創(chuàng)建TensorBoard 回調(diào)函數(shù) // 29 3.4 使用TensorBoard // 31 3.4.1 網(wǎng)絡(luò)訓(xùn)練的可視化 // 31 3.4.2 網(wǎng)絡(luò)結(jié)構(gòu)的可視化 // 32 3.4.3 網(wǎng)絡(luò)破碎的可視化 // 32 3.5 小結(jié) // 33 第4 章 用深度學(xué)習(xí)解決二元分類問題 // 34 4.1 二元分類和深度神經(jīng)網(wǎng)絡(luò) // 34 4.1.1 深度神經(jīng)網(wǎng)絡(luò)的優(yōu)點 // 34 4.1.2 深度神經(jīng)網(wǎng)絡(luò)的缺點 // 35 4.2 案例研究—癲癇發(fā)作識別 // 35 4.2.1 定義數(shù)據(jù)集 // 35 4.2.2 加載數(shù)據(jù) // 35 4.2.3 模型的輸入和輸出 // 36 4.2.4 成本函數(shù) // 36 4.2.5 性能評估所采用的度量指標(biāo) // 37 4.3 在Keras 中構(gòu)建二元分類器 // 37 4.3.1 輸入層 // 38 4.3.2 隱藏層 // 38 4.3.3 輸出層 // 39 4.3.4 網(wǎng)絡(luò)層的合并 // 39 4.3.5 訓(xùn)練模型 // 40 4.4 使用Keras 中的檢查點回調(diào)函數(shù) // 40 4.5 在自定義回調(diào)函數(shù)中測量ROC AUC // 41 4.6 精度、召回率和f1 積分的測量 // 42 4.7 小結(jié) // 43 第5 章 用Keras 解決多元分類問題 //44 5.1 多元分類和深度神經(jīng)網(wǎng)絡(luò) // 44 5.1.1 優(yōu)勢 // 44 5.1.2 缺點 // 45 5.2 案例研究—手寫數(shù)字的分類 // 45 5.2.1 問題定義 // 45 5.2.2 模型的輸入和輸出 // 45 5.2.3 成本函數(shù) // 46 5.2.4 度量 // 46 5.3 在Keras 中構(gòu)建多元分類器 // 47 5.3.1 加載MNIST // 47 5.3.2 輸入層 // 47 5.3.3 隱藏層 // 47 5.3.4 輸出層 // 48 5.3.5 網(wǎng)絡(luò)的總體結(jié)構(gòu) // 49 5.3.6 訓(xùn)練 // 49 5.3.7 多類模型中scikit-learn 度量指標(biāo)的應(yīng)用 // 50 5.4 通過Dropout 進行方差控制 // 51 5.5 采用正則化進行方差控制 // 54 5.6 小結(jié) // 55 第6 章 超參數(shù)的優(yōu)化 // 56 6.1 網(wǎng)絡(luò)體系結(jié)構(gòu)應(yīng)該被視為超參數(shù)嗎? // 56 6.1.1 站在巨人的肩膀上 // 56 6.1.2 添加至過度擬合,然后進行正則化 // 57 6.1.3 實用建議 // 57 6.2 應(yīng)該優(yōu)化哪些超參數(shù)? // 57 6.3 超參數(shù)優(yōu)化策略 // 58 6.3.1 常用的策略 // 58 6.3.2 通過scikit-learn 使用隨機搜索 // 59 6.3.3 Hyperband // 60 6.4 小結(jié) // 62 第7 章 從頭開始訓(xùn)練CNN // 63 7.1 卷積的引入 // 63 7.1.1 卷積層的工作原理 // 64 7.1.2 卷積層的好處 // 65 7.1.3 匯集層 // 66 7.1.4 批量正則化 // 67 7.2 在Keras 中訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò) // 67 7.2.1 輸入 // 67 7.2.2 輸出 // 67 7.2.3 成本函數(shù)和度量指標(biāo) // 67 7.2.4 卷積層 // 68 7.2.5 全相連層 // 68 7.2.6 Keras 中的多GPU 模型 // 69 7.2.7 訓(xùn)練 // 69 7.3 使用數(shù)據(jù)擴增 // 70 7.3.1 Keras 中的圖像數(shù)據(jù)擴增器(ImageDataGenerator 類) // 71 7.3.2 具有數(shù)據(jù)擴增的訓(xùn)練 // 72 7.4 小結(jié) // 72 第8 章 使用預(yù)訓(xùn)練CNN 進行 遷移學(xué)習(xí) // 73 8.1 遷移學(xué)習(xí)概述 // 73 8.2 何時使用遷移學(xué)習(xí) // 74 8.2.1 有限的數(shù)據(jù) // 74 8.2.2 公共問題域 // 74 8.3 源/ 目標(biāo)量和相似度的影響 // 75 8.3.1 更多的數(shù)據(jù)總是有益的 // 75 8.3.2 源/ 目標(biāo)域的相似度 // 75 8.4 在Keras 中進行遷移學(xué)習(xí) // 75 8.4.1 目標(biāo)域概述 // 76 8.4.2 源域概述 // 76 8.4.3 源網(wǎng)絡(luò)體系結(jié)構(gòu) // 76 8.4.4 網(wǎng)絡(luò)體系結(jié)構(gòu)的遷移 // 77 8.4.5 數(shù)據(jù)準(zhǔn)備 // 77 8.4.6 數(shù)據(jù)輸入 // 78 8.4.7 訓(xùn)練(特征提。 // 78 8.4.8 訓(xùn)練(調(diào)優(yōu)) // 80 8.5 小結(jié) // 81 第9 章 從頭開始訓(xùn)練RNN // 82 9.1 遞歸神經(jīng)網(wǎng)絡(luò)概述 // 82 9.1.1 如何讓神經(jīng)元進行遞歸? // 83 9.1.2 長短時間記憶網(wǎng)絡(luò) // 84 9.1.3 在時間上的反向傳播 // 86 9.2 重溫時間序列問題 // 86 9.2.1 存量和流量 // 87 9.2.2 ARIMA 和ARIMAX 預(yù)測 // 87 9.3 使用LSTM 網(wǎng)絡(luò)進行時間序列預(yù)測 // 88 9.3.1 數(shù)據(jù)準(zhǔn)備 // 89 9.3.2 網(wǎng)絡(luò)輸出 // 92 9.3.3 網(wǎng)絡(luò)體系結(jié)構(gòu) // 93 9.3.4 stateful 與stateless LSTM網(wǎng)絡(luò) // 93 9.3.5 訓(xùn)練 // 93 9.3.6 測量性能 // 94 9.4 小結(jié) // 96 第10 章 從頭開始訓(xùn)練具有單詞嵌入的LSTM 網(wǎng)絡(luò) // 97 10.1 自然語言處理簡介 // 97 10.1.1 語義分析 // 98 10.1.2 文檔分類 // 98 10.2 文本的矢量化 // 99 10.2.1 NLP 術(shù)語 // 99 10.2.2 Bag of Word 模型 // 99 10.2.3 詞干化、詞形歸并和停止詞 // 100 10.2.4 計數(shù)和TF-IDF 矢量化 // 100 10.3 單詞嵌入 // 101 10.3.1 一個簡單的例子 // 102 10.3.2 通過預(yù)測進行的單詞嵌入學(xué)習(xí) // 102 10.3.3 通過計數(shù)進行的單詞嵌入學(xué)習(xí) // 104 10.3.4 從單詞到文檔 // 104 10.4 Keras 嵌入層 // 105 10.5 用于自然語言處理的1D CNN // 105 10.6 文檔分類的案例研究 // 106 10.6.1 使用Keras 嵌入層和LSTM網(wǎng)絡(luò)進行情感分析 // 106 10.6.2 使用和不使用GloVe 的文檔分類 // 110 10.7 小結(jié) // 117 第11 章 訓(xùn)練sequence-tosequence模型 // 118 11.1 sequence-to-sequence 模型 // 118 11.1.1 sequence-to-sequence 模型的應(yīng)用 // 118 11.1.2 sequence-to-sequence 模型的體系結(jié)構(gòu) // 119 11.1.3 字符與單詞 // 120 11.1.4 Teacher forcing // 120 11.1.5 Attention // 121 11.1.6 翻譯的度量 // 121 11.2 機器翻譯 // 121 11.2.1 了解數(shù)據(jù)集 // 122 11.2.2 加載數(shù)據(jù) // 122 11.2.3 one hot 編碼 // 124 11.2.4 訓(xùn)練網(wǎng)絡(luò)體系結(jié)構(gòu) // 125 11.2.5 網(wǎng)絡(luò)體系結(jié)構(gòu)(用于推理) // 126 11.2.6 體系結(jié)構(gòu)的合并 // 127 11.2.7 訓(xùn)練 // 128 11.2.8 推理 // 129 11.3 小結(jié) // 133 第12 章 使用深度強化學(xué)習(xí) // 134 12.1 強化學(xué)習(xí)概述 // 134 12.1.1 Markov 決策過程 // 135 12.1.2 Q-learning // 136 12.1.3 無限的狀態(tài)空間 // 136 12.1.4 Deep Q 網(wǎng)絡(luò) // 137 12.1.5 守成與探索 // 138 12.1.6 DeepMind // 138 12.2 Keras 的強化學(xué)習(xí)平臺架構(gòu) // 139 12.2.1 安裝Keras-RL // 139 12.2.2 安裝OpenAI gym // 139 12.2.3 使用OpenAI gym // 139 12.3 在Keras 中構(gòu)建一個強化學(xué)習(xí)智能體 // 140 12.3.1 CartPole // 140 12.3.2 月球著陸器 // 143 12.4 小結(jié) // 145 第13 章 生成對抗網(wǎng)絡(luò) // 146 13.1 GAN 的概述 // 146 13.2 深度卷積GAN 的體系結(jié)構(gòu) // 147 13.2.1 對抗訓(xùn)練體系結(jié)構(gòu) // 147 13.2.2 生成器的體系結(jié)構(gòu) // 148 13.2.3 鑒別器的體系結(jié)構(gòu) // 149 13.2.4 堆訓(xùn)練 // 149 13.3 GAN 如何失效 // 151 13.3.1 穩(wěn)定性 // 151 13.3.2 模式塌縮 // 151 13.4 GAN 的安全選擇 // 151 13.5 使用Keras GAN 進行的MNIST圖像生成 // 152 13.5.1 加載數(shù)據(jù)集 // 152 13.5.2 構(gòu)建生成器 // 153 13.5.3 構(gòu)建鑒別器 // 153 13.5.4 堆疊模型的構(gòu)建 // 154 13.5.5 訓(xùn)練循環(huán) // 155 13.5.6 模型評估 // 157 13.6 使用Keras GAN 進行CIFAR-10圖像的生成 // 160 13.6.1 加載CIFAR-10 // 160 13.6.2 構(gòu)建生成器 // 160 13.6.3 構(gòu)建鑒別器 // 161 13.6.4 訓(xùn)練循環(huán) // 161 13.6.5 模型評估 // 161 13.7 小結(jié) // 162
你還可能感興趣
我要評論
|