機(jī)器學(xué)習(xí)與人工智能:從理論到實(shí)踐
定 價(jià):99 元
叢書名:智能科學(xué)與技術(shù)叢書
- 作者:[美]阿米特·V. 喬希(Ameet V Joshi)
- 出版時(shí)間:2021/8/1
- ISBN:9787111688129
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP18
- 頁(yè)碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
本書全面介紹了人工智能(AI)和機(jī)器學(xué)習(xí)(ML)的理論和應(yīng)用。與僅僅從理論或?qū)嵺`的角度來(lái)看待這個(gè)領(lǐng)域不同,本書將這兩個(gè)角度結(jié)合在了一起,給予全面的理解。第1部分介紹了人工智能和ML的概念以及它們的起源和現(xiàn)狀。第2和第3部分深入探討了靜態(tài)ML技術(shù)和動(dòng)態(tài)ML技術(shù)的概念和理論方面。第4部分描述了所提出的技術(shù)可以應(yīng)用的實(shí)際應(yīng)用。第5部分向用戶介紹了解決現(xiàn)實(shí)ML問題的一些實(shí)現(xiàn)策略。
有史以來(lái)偉大的物理學(xué)家之一、諾貝爾獎(jiǎng)獲得者理查德·費(fèi)曼(Richard Feynman)博士曾經(jīng)被他的同行要求解釋當(dāng)時(shí)剛剛發(fā)現(xiàn)的費(fèi)米狄拉克(Fermi-Dirac)統(tǒng)計(jì)的一個(gè)性質(zhì)。費(fèi)曼迅速說(shuō)道:
我不僅會(huì)向你們解釋它,而且還將為新手準(zhǔn)備一個(gè)關(guān)于它的講座。
然而,很不尋常的是,幾天后,他回來(lái)承認(rèn):
我做不到。我無(wú)法將解釋簡(jiǎn)化為新手水平。那意味著我們真的不理解它。
甚至連費(fèi)曼博士也說(shuō)出了這種言論。然而,除了費(fèi)米狄拉克統(tǒng)計(jì)本身的話題外,它還暗示著我們對(duì)一般事物理解的深刻思考。這里的新手水平基本上意味著可以直接使用數(shù)學(xué)或物理中的基本原理推導(dǎo)出來(lái)的東西。這種想法總是使我有意識(shí)地嘗試用基本原理來(lái)解釋我聲稱理解的所有事物,嘗試從概念上解釋所有事物,而不僅僅是使用復(fù)雜的方程組。
在過去的十年里,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域發(fā)展迅猛。隨著廣泛的普及,該領(lǐng)域的核心概念時(shí)而被淡化,時(shí)而被重新詮釋。隨著該領(lǐng)域的指數(shù)級(jí)增長(zhǎng),該領(lǐng)域的范圍也在不斷地增長(zhǎng)。這個(gè)領(lǐng)域的新手很快就會(huì)發(fā)現(xiàn)這個(gè)話題令人生畏和困惑。人們總是可以從網(wǎng)絡(luò)上搜索相關(guān)主題或者只是從維基百科開始了解相關(guān)內(nèi)容,但通常情況下,每一個(gè)主題都會(huì)給你帶來(lái)越來(lái)越多的新概念和未知的概念,很容易讓你迷失方向。而且,機(jī)器學(xué)習(xí)中的大多數(shù)概念都深深植根于數(shù)學(xué)和統(tǒng)計(jì)學(xué)中。沒有理論數(shù)學(xué)和統(tǒng)計(jì)學(xué)的扎實(shí)背景,定理和引理的復(fù)雜推導(dǎo)會(huì)使人們對(duì)該領(lǐng)域感到困惑和無(wú)趣。
我在這里嘗試介紹機(jī)器學(xué)習(xí)及其應(yīng)用中基本的主題,以直觀和概念性的方式構(gòu)建人工智能解決方案。有時(shí)會(huì)使用一些數(shù)學(xué)指導(dǎo),如果沒有這些指導(dǎo),概念就不夠清晰,但我已經(jīng)盡量避免復(fù)雜的推導(dǎo)和證明,以便讓那些不具有強(qiáng)大數(shù)學(xué)背景的讀者更容易理解書中的內(nèi)容。根據(jù)費(fèi)曼博士的說(shuō)法,在這個(gè)過程中,我還要確保自己理解了它們。就一般的數(shù)學(xué)和統(tǒng)計(jì)要求而言,我認(rèn)為一般的本科水平應(yīng)該足夠了。而且,隨著開源領(lǐng)域中機(jī)器學(xué)習(xí)庫(kù)的激增和標(biāo)準(zhǔn)化,人們不需要對(duì)該理論進(jìn)行多么深入的數(shù)學(xué)理解就可以實(shí)現(xiàn)的機(jī)器學(xué)習(xí)模型,從而得到的智能解決方案。
當(dāng)嘗試解決給定應(yīng)用程序中的問題時(shí),引起混亂的主要根源之一是算法的選擇。通常,這里介紹的每種算法都源自某個(gè)特定的問題,但是該算法通常不限于僅解決該問題。然而,即使對(duì)于一個(gè)具有強(qiáng)大數(shù)學(xué)背景的博士生來(lái)說(shuō),為給定的問題選擇正確的算法也并非易事。為了區(qū)分兩者,我已經(jīng)把這兩個(gè)方面分成了獨(dú)立的部分來(lái)介紹。這將使讀者更容易理解。
建議讀者從部分開始,然后根據(jù)需要選擇第二部分或第三部分。對(duì)于學(xué)生來(lái)說(shuō),按順序?qū)W習(xí)本書是理想的選擇,而具有專業(yè)背景的該領(lǐng)域的新手則更適合從第三部分開始,以便理解或?qū)W⒂谑诸^的精確應(yīng)用,然后根據(jù)需要在第二部分深入研究算法的理論細(xì)節(jié)。第四部分和第五部分應(yīng)隨后學(xué)習(xí)。我已經(jīng)在兩個(gè)部分之間添加了足夠的交叉引用,以使過渡平滑。
在我看來(lái),除非人們能看到模型在真實(shí)數(shù)據(jù)上的作用,否則就無(wú)法完全理解。因此,在詳細(xì)介紹算法和應(yīng)用程序之后,我添加了另一部分內(nèi)容,以介紹使用免費(fèi)和開源選項(xiàng)的模型的基本實(shí)現(xiàn)。完成這部分內(nèi)容的學(xué)習(xí)將使讀者能夠使用的機(jī)器學(xué)習(xí)技術(shù)解決人工智能中的現(xiàn)實(shí)問題!
Ameet Joshi
美國(guó)華盛頓州雷德蒙德
2019年3月
序
前言
致謝
部分 簡(jiǎn) 介
第1章 人工智能和機(jī)器學(xué)習(xí)簡(jiǎn)介2
1.1 引言2
1.2 什么是人工智能2
1.3 什么是機(jī)器學(xué)習(xí)3
1.4 本書的結(jié)構(gòu)3
1.4.1 簡(jiǎn)介4
1.4.2 機(jī)器學(xué)習(xí)4
1.4.3 構(gòu)建端到端管道4
1.4.4 人工智能4
1.4.5 實(shí)現(xiàn)5
1.4.6 結(jié)語(yǔ)5
第2章 人工智能和機(jī)器學(xué)習(xí)的基本概念6
2.1 引言6
2.2 大數(shù)據(jù)和非大數(shù)據(jù)6
2.2.1 什么是大數(shù)據(jù)6
2.2.2 為什么我們應(yīng)該區(qū)別對(duì)待大數(shù)據(jù)6
2.3 學(xué)習(xí)類型7
2.3.1 監(jiān)督學(xué)習(xí)7
2.3.2 無(wú)監(jiān)督學(xué)習(xí)7
2.3.3 強(qiáng)化學(xué)習(xí)8
2.4 基于時(shí)間的機(jī)器學(xué)習(xí)方法8
2.4.1 靜態(tài)學(xué)習(xí)8
2.4.2 動(dòng)態(tài)學(xué)習(xí)8
2.5 維數(shù)8
2.6 線性和非線性10
2.7 奧卡姆剃刀原理12
2.8 沒有免費(fèi)的午餐定理14
2.9 收益遞減規(guī)律14
2.10 機(jī)器學(xué)習(xí)的早期趨勢(shì)14
2.11 小結(jié)15
第3章 數(shù)據(jù)的理解、表示和可視化16
3.1 引言16
3.2 理解數(shù)據(jù)16
3.2.1 理解實(shí)體17
3.2.2 理解屬性17
3.2.3 理解數(shù)據(jù)類型18
3.3 數(shù)據(jù)的表示和可視化19
3.3.1 主成分分析19
3.3.2 線性判別分析21
3.4 小結(jié)22
第二部分 機(jī) 器 學(xué) 習(xí)
第4章 線性方法26
4.1 引言26
4.2 線性模型和廣義線性模型27
4.3 線性回歸27
4.3.1 定義問題27
4.3.2 解決問題27
4.4 正則化的線性回歸28
4.4.1 正則化28
4.4.2 嶺回歸29
4.4.3 Lasso回歸29
4.5 廣義線性模型30
4.6 k近鄰算法30
4.6.1 KNN的定義31
4.6.2 分類和回歸32
4.6.3 KNN的其他變體32
4.7 小結(jié)32
第5章 感知器和神經(jīng)網(wǎng)絡(luò)34
5.1 引言34
5.2 感知器34
5.3 多層感知器或人工神經(jīng)網(wǎng)絡(luò)35
5.3.1 前饋操作35
5.3.2 非線性多層感知器或非線性人工神經(jīng)網(wǎng)絡(luò)36
5.3.3 訓(xùn)練多層感知器36
5.3.4 隱藏層38
5.4 徑向基函數(shù)網(wǎng)絡(luò)38
5.5 過度擬合與正則化40
5.5.1 L1和L2正則化40
5.5.2 丟棄正則化41
5.6 小結(jié)41
第6章 決策樹42
6.1 引言42
6.2 為什么使用決策樹43
6.3 構(gòu)建決策樹的算法43
6.4 回歸樹44
6.5 分類樹45
6.6 決策指標(biāo)45
6.6.1 誤分類誤差46
6.6.2 基尼指數(shù)46
6.6.3 交叉熵或偏差46
6.7 卡方自動(dòng)交叉檢驗(yàn)47
6.8 訓(xùn)練決策樹47
6.9 集成決策樹48
6.10 Bagging集成樹48
6.11 隨機(jī)森林49
6.12 Boosted集成樹49
6.12.1 AdaBoost50
6.12.2 梯度提升50
6.13 小結(jié)50
第7章 支持向量機(jī)51
7.1 引言51
7.2 動(dòng)機(jī)和范圍51
7.2.1 擴(kuò)展到多元分類51
7.2.2 非線性情況的擴(kuò)展53
7.3 支持向量機(jī)理論53
7.4 可分離性和間隔54
7.4.1 正則化和軟間隔SVM54
7.4.2 松弛變量的使用54
7.5 非線性與核函數(shù)的使用55
7.5.1 徑向基函數(shù)55
7.5.2 多項(xiàng)式函數(shù)56
7.5.3 Sigmoid56
7.6 風(fēng)險(xiǎn)小化56
7.7 小結(jié)56
第8章 概率模型57
8.1 引言57
8.2 判別模型58
8.2.1 似然估計(jì)58
8.2.2 貝葉斯方法58
8.2.3 似然估計(jì)和貝葉斯方法的比較59
8.3 生成模型61
8.3.1 混合方法62
8.3.2 貝葉斯網(wǎng)絡(luò)62
8.4 一些有用的概率分布62
8.4.1 正態(tài)分布或高斯分布63
8.4.2 伯努利分布64
8.4.3 二項(xiàng)分布65
8.4.4 伽馬分布66
8.4.5 泊松分布67
8.5 小結(jié)70
第9章 動(dòng)態(tài)規(guī)劃和強(qiáng)化學(xué)習(xí)71
9.1 引言71
9.2 動(dòng)態(tài)規(guī)劃的基本方程71
9.3 動(dòng)態(tài)規(guī)劃下的問題類別72
9.4 強(qiáng)化學(xué)習(xí)73
9.4.1 強(qiáng)化學(xué)習(xí)的特點(diǎn)73
9.4.2 框架和算法73
9.5 探索和開發(fā)74
9.6 強(qiáng)化學(xué)習(xí)應(yīng)用示例75
9.7 強(qiáng)化學(xué)習(xí)理論76
9.8 小結(jié)77
第10章 演化算法78
10.1 引言78
10.2 傳統(tǒng)方法的瓶頸78
10.3 達(dá)爾文的進(jìn)化論80
10.4 遺傳規(guī)劃80
10.5 群體智能82
10.6 蟻群優(yōu)化83
10.7 模擬退火84
10.8 小結(jié)84
第11章 時(shí)間序列模型85
11.1 引言85
11.2 平穩(wěn)性85
11.3 自回歸和移動(dòng)平均模型87
11.3.1 自回歸過程87
11.3.2 移動(dòng)平均過程88
11.3.3 自回歸移動(dòng)平均過程88
11.4 差分自回歸移動(dòng)平均模型88
11.5 隱馬爾可夫模型89
11.6 條件隨機(jī)場(chǎng)91
11.7 小結(jié)92
第12章 深度學(xué)習(xí)93
12.1 引言93
12.2 現(xiàn)代深度學(xué)習(xí)的起源94
12.3 卷積神經(jīng)網(wǎng)絡(luò)95
12.3.1 一維卷積95
12.3.2 二維卷積95
12.3.3 CNN的架構(gòu)96
12.3.4 訓(xùn)練CNN98
12.4 循環(huán)神經(jīng)網(wǎng)絡(luò)98
12.4.1 RNN的局限性 99
12