基于TensorFlow的深度學(xué)習(xí):揭示數(shù)據(jù)隱含的奧秘
定 價(jià):39 元
- 作者:(美)丹?范?鮑克塞爾
- 出版時(shí)間:2018/4/1
- ISBN:9787111588733
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類(lèi):TP18
- 頁(yè)碼:
- 紙張:膠版紙
- 版次:1
- 開(kāi)本:16開(kāi)
本書(shū)主要介紹TensorFlow及其在各種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中的應(yīng)用。全書(shū)共5章,首先介紹了TensorFlow的入門(mén)知識(shí),包括其相關(guān)技術(shù)與模型以及安裝配置,然后分別介紹了TensorFlow在深度神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)中的應(yīng)用,并通過(guò)具體示例進(jìn)行了詳細(xì)分析與應(yīng)用。后,對(duì)上述TensorFlow模型進(jìn)行了總結(jié)分析,并核驗(yàn)了模型精度。
本書(shū)特色
本書(shū)是在作者Dan的TensorFlow暢銷(xiāo)視頻課程基礎(chǔ)上編著完成的。隨著深度學(xué)習(xí)逐步成為主流,使得利用深度神經(jīng)網(wǎng)絡(luò)來(lái)理解數(shù)據(jù)并得到準(zhǔn)確結(jié)果成為可能。Dan Van Boxel將引導(dǎo)讀者探索深度學(xué)習(xí)的可能,會(huì)讓讀者前所未有地了解數(shù)據(jù)。根據(jù)TensorFlow的高效性和簡(jiǎn)易性,讀者能夠處理數(shù)據(jù)并獲得改變對(duì)數(shù)據(jù)看法的新見(jiàn)解。
在作者的引導(dǎo)下,讀者將利用原始數(shù)據(jù)深入挖掘抽象的隱層。隨后作者介紹了各種復(fù)雜的深度學(xué)習(xí)算法以及各種深度神經(jīng)網(wǎng)絡(luò)的應(yīng)用案例。另外,讀者還將學(xué)習(xí)到如何訓(xùn)練所建立的模型來(lái)生成新的特征,從而了解更深層次的數(shù)據(jù)意義。
在本書(shū)中,作者分享了其寶貴的經(jīng)驗(yàn)和知識(shí),如邏輯回歸、卷積神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)、深度網(wǎng)絡(luò)訓(xùn)練、高級(jí)接口等內(nèi)容。在一些全新的實(shí)踐示例幫助下,讀者將成為在先進(jìn)多層神經(jīng)網(wǎng)絡(luò)、圖像識(shí)別以及其他方面的高手。
關(guān)于本書(shū)
閱讀本書(shū)將會(huì)學(xué)到的內(nèi)容:
配置計(jì)算環(huán)境和安裝TensorFlow;
構(gòu)建日常計(jì)算的簡(jiǎn)單TensorFlow圖;
基于TensorFlow的邏輯回歸分類(lèi)應(yīng)用;
利用TensorFlow設(shè)計(jì)和訓(xùn)練多層神經(jīng)網(wǎng)絡(luò);
直觀理解卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別中的應(yīng)用;
神經(jīng)網(wǎng)絡(luò)從簡(jiǎn)單模型到更精準(zhǔn)模型的改進(jìn);
TensorFlow在其他類(lèi)型神經(jīng)網(wǎng)絡(luò)中的應(yīng)用;
基于一種TensorFlow高級(jí)接口SciKit
Flow的神經(jīng)網(wǎng)絡(luò)編程。
TensorFlow是一種用于機(jī)器學(xué)習(xí)和訓(xùn)練神經(jīng)網(wǎng)絡(luò)的開(kāi)源軟件庫(kù)。 TensorFlow最初是由 Google公司開(kāi)發(fā),并于 2015年開(kāi)放源碼。
通過(guò)本書(shū),您將學(xué)習(xí)到如何使用 TensorFlow解決新的研究問(wèn)題。同時(shí),會(huì)利用其中一種基于 TensorFlow的最常用的機(jī)器學(xué)習(xí)方法和神經(jīng)網(wǎng)絡(luò)方法。本書(shū)的研究工作主要是致力于通過(guò)簡(jiǎn)單和深度神經(jīng)網(wǎng)絡(luò)來(lái)改進(jìn)模型。
在此,研究各種字體的字母和數(shù)字圖像,其目的是根據(jù)一個(gè)字母的特定圖像來(lái)識(shí)別字體。這是一個(gè)簡(jiǎn)單的分類(lèi)問(wèn)題。
不僅單個(gè)像素或位置,而且像素間的局部結(jié)構(gòu)也是非常重要的,這對(duì)于基于 TensorFlow的深度學(xué)習(xí)是一個(gè)理想問(wèn)題。盡管是從簡(jiǎn)單模型開(kāi)始,但將逐步介紹更加細(xì)微的方法,并逐行解釋代碼。在本書(shū)的結(jié)尾處,將可構(gòu)建出自己的字體識(shí)別先進(jìn)模型。
所以請(qǐng)準(zhǔn)備好:利用 TensorFlow深入挖掘數(shù)據(jù)資源。
本書(shū)主要內(nèi)容
第 1章入門(mén)知識(shí),介紹了使用 TensorFlow的技術(shù)和模型。在本章,將介紹在計(jì)算機(jī)上安裝 TensorFlow。經(jīng)過(guò)簡(jiǎn)單計(jì)算的一些步驟,將進(jìn)入機(jī)器學(xué)習(xí)問(wèn)題,并成功構(gòu)建包含邏輯回歸和幾行 TensorFlow代碼的適當(dāng)模型。
第 2章深度神經(jīng)網(wǎng)絡(luò),介紹了 TensorFlow在深度神經(jīng)網(wǎng)絡(luò)中的主要原理。在此,將學(xué)習(xí)單隱層和多隱層模型。同時(shí)還將了解不同類(lèi)型的神經(jīng)網(wǎng)絡(luò),并利用 TensorFlow構(gòu)建和訓(xùn)練第一個(gè)神經(jīng)網(wǎng)絡(luò)。
第 3章卷積神經(jīng)網(wǎng)絡(luò),闡述了深度學(xué)習(xí)方面最強(qiáng)大的發(fā)展?jié)摿Γ⒕矸e概念應(yīng)用于 TensorFlow的一個(gè)簡(jiǎn)單示例中。在此將著重處理卷積理解的實(shí)際問(wèn)題。另外,還通過(guò)一個(gè) TensorFlow示例解釋神經(jīng)網(wǎng)絡(luò)中的卷積層和池化層。
第 4章遞歸神經(jīng)網(wǎng)絡(luò),介紹了遞歸神經(jīng)網(wǎng)絡(luò)( RNN)模型的概念,及其在 TensorFlow中的實(shí)現(xiàn)。在此重點(diǎn)分析稱為 TensorFlow學(xué)習(xí)( TensorFlow learn)的一個(gè) TensorFlow的簡(jiǎn)單界面。另外,還簡(jiǎn)單演示了密集連接神經(jīng)網(wǎng)絡(luò)( DNN)以及卷積神經(jīng)網(wǎng)絡(luò)( CNN),并詳細(xì)介紹了提取權(quán)重過(guò)程。
第 5章總結(jié)整理,完成所考慮的 TensorFlow。重新分析字體分類(lèi)的 TensorFlow模型,并核驗(yàn)其模型精度。
學(xué)習(xí)本書(shū)所需的準(zhǔn)備工作
本書(shū)將介紹如何安裝 TensorFlow,因此需要準(zhǔn)備一些依賴軟件。至少需要一個(gè)最新版本的 Python2或 Python3以及
NumPy。為更好地學(xué)習(xí)本書(shū),還應(yīng)具有 Matplotlib和
IPython。
本書(shū)讀者對(duì)象
隨著深度學(xué)習(xí)逐漸成為主流,利用深度學(xué)習(xí)網(wǎng)絡(luò)獲取數(shù)據(jù)并得到準(zhǔn)確結(jié)果變得可能。 Dan Van Boxel可指導(dǎo)讀者探索深度學(xué)習(xí)中的各種可能性。它將使讀者能夠從未像過(guò)去那樣理解數(shù)據(jù)。依據(jù) TensorFlow的效率和簡(jiǎn)單性,讀者可以有效處理數(shù)據(jù),并獲得可改變看待數(shù)據(jù)的洞察力。
約定慣例
在本書(shū)中,讀者會(huì)發(fā)現(xiàn)許多可區(qū)分不同信息類(lèi)型的文本風(fēng)格。下面給出上述風(fēng)格的一些示例,并解釋其相應(yīng)的含義。
在文本、數(shù)據(jù)表名稱、文件夾名稱、文件名、文件擴(kuò)展名、路徑名稱、虛擬 URL、用戶輸入和 Twitter句柄等中的代碼如下所示:首先需要做的第一件事是下載本書(shū)的源碼包,并打開(kāi)
simple.py文件。
一段代碼設(shè)置如下:
import tensorflow as tf
# You can create constants in TF to hold specific values
a = tf.constant(1)
b = tf.constant(2)
若希望強(qiáng)調(diào)一段代碼中的特定部分,則設(shè)置相關(guān)的行或項(xiàng)為粗體:
import tensorflow as tf # You can create constants in TF to hold specific
values
a = tf.constant(1)
b = tf.constant(2)
任何命令行的輸入或輸出都如下:
sudo pip3 install ./tensorflow-1.2.1-cp35-cp35m-linux_x86_64.
Whl
新項(xiàng)和關(guān)鍵詞用黑體顯示。讀者在屏幕上看到的單詞,如菜單或?qū)υ捒蛑,?huì)顯示為如下文本格式:?jiǎn)螕? New創(chuàng)建一個(gè)新文件。在此將創(chuàng)建一個(gè) Jupyter筆記本。
提示和技巧會(huì)這樣顯示
讀者反饋
歡迎讀者反饋意見(jiàn)。讓作者了解讀者對(duì)本書(shū)的看法,喜歡什么或不喜歡什么。讀者反饋對(duì)于作者開(kāi)發(fā)真正讓讀者受益的主題非常重要。
若要給作者反饋意見(jiàn),只需發(fā)送郵件到 feedback@packtpub.com,并在郵件標(biāo)題中注明書(shū)名。
如果有讀者擅長(zhǎng)的主題或有興趣參與撰寫(xiě)或出版的書(shū),請(qǐng)查看 www.packtpub.com/ authors上的作者指南。
用戶支持
既然讀者購(gòu)買(mǎi)了 Packt出版社出版的書(shū),那么出版社將會(huì)幫助讀者獲得最大收益。
示例代碼下載
讀者可以在 http://www.packtpub.com上根據(jù)賬戶下載本書(shū)的示例代碼。如果想要購(gòu)買(mǎi)本書(shū)電子版,可以訪問(wèn) http://www.packtpub.com/support并注冊(cè),將直接通過(guò)電子郵件發(fā)送給讀者。
下載代碼文件步驟如下:
1
)通過(guò)郵件地址和密碼在網(wǎng)站上登錄或注冊(cè)。
2)鼠標(biāo)指向頂部的
SUPPORT選項(xiàng)。
3)單擊
Code Downloads & Errata。
4)在 Search框中輸入書(shū)名。
5
)選擇想要下載代碼文件的書(shū)。
6
)在下拉菜單中選擇購(gòu)買(mǎi)本書(shū)的方式。
7)單擊
Code Download。讀者也可以通過(guò)單擊 Packt出版社網(wǎng)站上本書(shū)網(wǎng)頁(yè)的 Code Files按鈕來(lái)下載代碼文件。
通過(guò)在 Search框中輸入書(shū)名來(lái)訪問(wèn)該頁(yè)面。需要注意的是,應(yīng)首先通過(guò) Packt賬戶登錄。下載完成后,請(qǐng)用以下軟件最新版本來(lái)解壓文件夾:
. WinRAR / 7-Zip for Windows。
. Zipeg / iZip / UnRarX for Mac。
. 7-Zip / PeaZip for Linux。
本書(shū)的代碼包還托管在 GitHub上,https://github.com/PacktPublishing/Hands-On-Deep-Learning-with-TensorFlow。另外在 https://github.com/PacktPublishing/上的大量圖書(shū)和視頻目錄中還有其他代碼包。請(qǐng)查閱!
下載本書(shū)彩頁(yè)
本書(shū)還提供了書(shū)中截圖 /圖表的彩色 PDF文件,這些彩頁(yè)將有助于讀者更好地理解輸出變化,可從 https://www.packtpub.com/sites/default/.les/HandsOnDeepLearningwithTensorFl
ow.pdf下載該文件。
勘誤
盡管已盡力確保內(nèi)容準(zhǔn)確,但仍然難免會(huì)有錯(cuò)誤。如果讀者在書(shū)中發(fā)現(xiàn)了錯(cuò)誤、文本或代碼錯(cuò)誤,如果能及時(shí)告知,將不勝感激。這樣會(huì)幫助其他讀者,并有助于在本書(shū)的后續(xù)版本中進(jìn)行完善。如果讀者發(fā)現(xiàn)任何錯(cuò)誤,請(qǐng)?jiān)L問(wèn) http://www.packtpub.com/submit-errata告知。首先選擇書(shū)名,點(diǎn)擊勘誤提交表單鏈接,然后輸入詳細(xì)的勘誤內(nèi)容。一旦通過(guò)驗(yàn)證,將會(huì)接受讀者的提交并將勘誤表上傳網(wǎng)站,或在該標(biāo)題的勘誤部分下添加到現(xiàn)有的勘誤表中。
若要查看已提交的勘誤表,請(qǐng)?jiān)L問(wèn)
https://www.packtpub.com/books/content/support,并在搜索欄中輸入書(shū)名。相關(guān)信息將會(huì)顯示在 Errata部分中。
版權(quán)保護(hù)
在互聯(lián)網(wǎng)上受版權(quán)保護(hù)的資料,涉及的盜版問(wèn)題是一個(gè)存在于所有媒體的嚴(yán)重問(wèn)題。 Packt出版社非常重視保護(hù)版權(quán)和許可。如果讀者在網(wǎng)上發(fā)現(xiàn)任何非法復(fù)制的作品,請(qǐng)立即提供地址和網(wǎng)址,以便追蹤索賠。請(qǐng)通過(guò) copyright@packtpub.com聯(lián)系我們,并提供疑似盜版材料的鏈接。非常感謝您在保護(hù)作者和為您提供寶貴內(nèi)容方面的幫助。
問(wèn)題
如果讀者對(duì)本書(shū)有任何問(wèn)題,請(qǐng)通過(guò) questions@packtpub.com聯(lián)系我們,我們將竭盡全力為讀者解決。
關(guān)于作者
Dan Van Boxel是一位擁有 10多年開(kāi)發(fā)經(jīng)驗(yàn)的數(shù)據(jù)分析師和機(jī)器學(xué)習(xí)工程師,其最具代表性的工作是 Dan Dose Data,這是一個(gè)在 YouTube上演示神經(jīng)網(wǎng)絡(luò)強(qiáng)大功能和缺陷的直播平臺(tái)。作者已開(kāi)發(fā)出多種有關(guān)機(jī)器學(xué)習(xí)的新統(tǒng)計(jì)模型,并應(yīng)用于高速運(yùn)輸貨車(chē)計(jì)費(fèi)、行程時(shí)間異常檢驗(yàn)等領(lǐng)域。另外,作者還在美國(guó)交通研究委員會(huì)和其他學(xué)術(shù)期刊上發(fā)表了學(xué)術(shù)論文并給出了研究結(jié)果。
www.PacktPub.com
電子書(shū)、折扣優(yōu)惠等
下載本書(shū)相關(guān)的文件資料,請(qǐng)?jiān)L問(wèn) www.PacktPub.com。
您是否知道 Packt出版社為每本出版發(fā)行的書(shū)都提供了電子書(shū)版本,其中包括 PDF和 ePub文件?您可以通過(guò)
www.PacktPub.com升級(jí)電子書(shū)版本,作為紙質(zhì)版用戶,還可以享受電子書(shū)的折扣。有關(guān)更多詳細(xì)信息,請(qǐng)通過(guò) customercare@packtpub.com與我們聯(lián)系。
在 www.PacktPub.com,讀者還可以閱讀免費(fèi)技術(shù)文章,訂閱一系列免費(fèi)時(shí)事通信,并獲得 Packt出版社紙制書(shū)和電子書(shū)的獨(dú)家折扣和優(yōu)惠。
使用 Mapt可獲得最需要的軟件技能。 Mapt可讓讀者充分訪問(wèn)所有 Packt出版社的圖書(shū)和視頻課程,以及行業(yè)領(lǐng)先的工具,幫助讀者規(guī)劃個(gè)人發(fā)展并推動(dòng)讀者的事業(yè)發(fā)展。
為什么訂閱?
. 可以在 Packt出版社發(fā)行的每本書(shū)中全面搜索。
. 復(fù)制、粘貼、打印和標(biāo)注內(nèi)容。
. 可通過(guò) web瀏覽器訪問(wèn)。
譯者簡(jiǎn)介:◆
連曉峰 已發(fā)表學(xué)術(shù)論文40余篇,其中被EI收錄20余篇;主持國(guó)家級(jí)項(xiàng)目子課題兩項(xiàng),省部級(jí)項(xiàng)目三項(xiàng),校級(jí)項(xiàng)目?jī)身?xiàng),參與完成國(guó)家級(jí)項(xiàng)目四項(xiàng),省部級(jí)項(xiàng)目六項(xiàng);出版教材兩部,專(zhuān)著兩部,譯著四十部;獲得國(guó)家發(fā)明專(zhuān)利兩項(xiàng),實(shí)用新型專(zhuān)利一項(xiàng);現(xiàn)為中國(guó)電子學(xué)會(huì)高級(jí)會(huì)員,系統(tǒng)仿真學(xué)會(huì)會(huì)員,北京高新技術(shù)企業(yè)認(rèn)定委員會(huì)專(zhuān)家?guī)鞂?zhuān)家,《機(jī)器人技術(shù)與應(yīng)用》雜志社理事,國(guó)家工信部工業(yè)和信息化科技人才專(zhuān)家?guī)鞂?zhuān)家。
譯者序
原書(shū)前言
第1 章 入門(mén)知識(shí) // 1
1.1 TensorFlow 安裝 // 1
1.1.1 TensorFlow- 主界面 // 1
1.1.2 TensorFlow- 安裝頁(yè)面 // 1
1.1.3 通過(guò)pip 安裝 // 1
1.1.4 通過(guò)CoCalc 安裝 // 4
1.2 簡(jiǎn)單計(jì)算 // 6
1.2.1 定義標(biāo)量和張量 // 6
1.2.2 張量計(jì)算 // 7
1.2.3 執(zhí)行計(jì)算 // 7
1.2.4 張量變量 // 8
1.2.5 查看和替換中間值 // 9
1.3 邏輯回歸模型建模 // 10
1.3.1 導(dǎo)入字體分類(lèi)數(shù)據(jù)集 // 11
1.3.2 邏輯回歸分析 // 13
1.3.3 數(shù)據(jù)準(zhǔn)備 // 13
1.3.4 構(gòu)建TensorFlow 模型 // 14
1.4 邏輯回歸模型訓(xùn)練 // 15
1.4.1 編寫(xiě)損失函數(shù) // 15
1.4.2 訓(xùn)練模型 // 16
1.4.3 評(píng)估模型精度 // 17
1.5 小結(jié) // 19
第2 章 深度神經(jīng)網(wǎng)絡(luò) // 20
2.1 基本神經(jīng)網(wǎng)絡(luò) // 20
2.1.1 log 函數(shù) // 21
2.1.2 sigmoid 函數(shù) // 22
2.2 單隱層模型 // 23
2.2.1 單隱層模型探討 // 24
2.2.2 反向傳播算法 // 25
2.3 單隱層模型解釋 // 26
2.3.1 理解模型權(quán)重 // 28
2.4 多隱層模型 // 29
2.4.1 多隱層模型探討 // 30
2.5 多隱層模型結(jié)果 // 32
2.5.1 多隱層模型圖理解 // 33
2.6 小結(jié) // 36
第3 章 卷積神經(jīng)網(wǎng)絡(luò) // 37
3.1 卷積層激勵(lì) // 37
3.1.1 多特征提取 // 40
3.2 卷積層應(yīng)用 // 41
3.2.1 卷積層探討 // 41
3.3 池化層激勵(lì) // 46
3.3.1 最大池化層 // 46
3.4 池化層應(yīng)用 // 49
3.5 深度卷積神經(jīng)網(wǎng)絡(luò) // 51
3.5.1 添加卷積層和池化層組合 // 51
3.5.2 應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行字體分類(lèi) // 53
3.6 更深度卷積神經(jīng)網(wǎng)絡(luò) // 57
3.6.1 對(duì)卷積神經(jīng)網(wǎng)絡(luò)中的一層添加另
一層 // 57
基于TensorFlow 的深度學(xué)習(xí):
揭示數(shù)據(jù)隱含的奧秘
X
3.7 整理總結(jié)深度卷積神經(jīng)網(wǎng)絡(luò) // 60
3.8 小結(jié) // 64
第4 章 遞歸神經(jīng)網(wǎng)絡(luò) // 65
4.1 遞歸神經(jīng)網(wǎng)絡(luò)探討 // 65
4.1.1 權(quán)重建模 // 66
4.1.2 遞歸神經(jīng)網(wǎng)絡(luò)理解 // 67
4.2 TensorFlow Learn // 70
4.2.1 設(shè)置 // 71
4.2.2 邏輯回歸 // 72
4.3 深度神經(jīng)網(wǎng)絡(luò) // 73
4.3.1 卷積神經(jīng)網(wǎng)絡(luò)在Learn 中的
應(yīng)用 // 74
4.3.2 權(quán)重提取 // 77
4.4 小結(jié) // 78
第5 章 總結(jié)整理 // 79
5.1 研究評(píng)價(jià) // 79
5.2 所有模型的快速回顧 // 80
5.2.1 邏輯回歸模型 // 80
5.2.2 單隱層神經(jīng)網(wǎng)絡(luò)模型 // 81
5.2.3 深度神經(jīng)網(wǎng)絡(luò) // 83
5.2.4 卷積神經(jīng)網(wǎng)絡(luò) // 84
5.2.5 深度卷積神經(jīng)網(wǎng)絡(luò) // 85
5.3 TensorFlow 的展望 // 87
5.3.1 一些TensorFlow 工程項(xiàng)目 // 88
5.4 小結(jié) // 90