本書是一本零基礎(chǔ)的Illustrator軟件的實戰(zhàn)教材,旨在介紹如何使用Illustrator軟件在平面設(shè)計領(lǐng)域的使用方法與技巧。本書首先介紹Illustrator軟件在平面領(lǐng)域中的主要應(yīng)用范圍和領(lǐng)域,然后逐步由淺入深的介紹如何使用軟件完成圖形的設(shè)計與編輯、路徑的繪制與編輯、圖形樣式的創(chuàng)建與編輯、文本與圖表的創(chuàng)建與編輯、圖層與蒙版的應(yīng)用、效果類應(yīng)用方法、混合與封套的應(yīng)用方法等。
書籍中所涉及的案例都是平面設(shè)計領(lǐng)域中最為常見與普及度比較廣泛的案例,讓讀者在熟悉和掌握Illustrator軟件的同時對平面設(shè)計中的規(guī)范有一個詳細并深入的了解。
1.針對零基礎(chǔ)。每個內(nèi)容以典型的例子說明算法的應(yīng)用環(huán)境、數(shù)據(jù)原理,公式的實現(xiàn)。
2.給方法有演練。不僅給出傳統(tǒng)的例子和代碼,還給出模型以下三方面的內(nèi)容:1)不同參數(shù)的結(jié)果,理解原理和模型的能力;2)公式的變種,達到舉一反三。3)給出方法的典型應(yīng)用。
3.通俗易懂。目標(biāo)是讓只有大學(xué)本科教育基礎(chǔ)的人,能在第一次閱讀能明白60%,第二次能明白90%。
4.資源豐富。教學(xué)PPT、源代碼、教學(xué)大綱、教案、習(xí)題解答,還有重要知識點的微課講解等。
龐俊彪 龐俊彪長期從事模式識別、機器學(xué)習(xí)等相關(guān)領(lǐng)域的科研研究,獲得國家自然科學(xué)基金面上項目和重點項目的支持,北京市自然科學(xué)基金面上等項目的支持,其學(xué)術(shù)成果發(fā)表30余篇IEEE 會刊和CCF推薦頂級論文。龐俊彪所帶領(lǐng)的實驗室的科研人員,長期從事與機器學(xué)習(xí)與多媒體技術(shù)相關(guān)領(lǐng)域的前沿項目研究,對于現(xiàn)有技術(shù)的發(fā)展可以做到準(zhǔn)確的把控,有豐富的實踐項目經(jīng)驗做支撐。
目錄 1
第 1章 機器學(xué)習(xí)引論 12
1.1 什么是人工智能 12
1.1.1 人工智能發(fā)展歷程 13
1.2 什么是機器學(xué)習(xí) 20
1.2.1 機器學(xué)習(xí)的定義 21
1.2.2 機器學(xué)習(xí)的分類 21
1.2.3 機器學(xué)習(xí)就是專門研究算法? 22
1.3 如何學(xué)習(xí)機器學(xué)習(xí) 25
1.3.1 編程能力與實踐 28
1.4 本章小結(jié) 31
1.5 習(xí)題 32
34
第 2章 概率密度估計 34
2.1 頻率學(xué)派與貝葉斯學(xué)派 34
2.1.1 頻率學(xué)派 34
2.1.2 貝葉斯學(xué)派 35
2.2 最大似然估計和最大后驗估計 36
2.2.1 最大似然估計 36
2.2.2 最大后驗估計 40
2.3 特殊先驗分布下的最大后驗估計 42
2.3.1 高斯先驗 42
2.3.2 拉普拉斯先驗 42
2.4 本章小結(jié) 43
2.5 習(xí)題 43
46
第3章 感知機 46
3.1 感知機模型 46
3.2 感知機的損失函數(shù) 48
3.3 感知機的學(xué)習(xí)算法 49
3.3.2 機器學(xué)習(xí)算法的一般編程模式 50
3.4 本章小結(jié) 59
3.5 習(xí)題 59
第4章 Logistic回歸 64
4.1 Logistic的物理含義 64
4.2 logistic回歸的參數(shù)估計 65
4.3 評價標(biāo)準(zhǔn) 72
4.4 多類分類和歸一化指數(shù)函數(shù)(Softmax函數(shù)) 75
4.5 本章小結(jié) 77
4.6 習(xí)題 78
82
第5章 支持向量機 82
5.1 從感知機到支持向量機 82
5.2 線性可分支持向量機 83
5.2.1 點到分類面的距離 83
5.2.2 最大間隔的目標(biāo)函數(shù) 84
5.2.3 支持向量與間隔最大化 85
5.2.4 支持向量機的對偶算法 87
5.2.5 用KKT條件解釋支持向量的稀疏性 90
5.3 線性不可分支持向量機 91
5.3.1 軟間隔 91
5.3.2 對偶算法 92
5.4 非線性可分支持向量機 94
5.4.1 非線性支持向量機 95
5.4.2 核技巧與計算復(fù)雜度 96
5.5 SVM優(yōu)化求解 98
5.5.1 非線性支持向量與SMO算法 98
5.5.2 線性支持向量機與Pegasos算法 99
5.6 支持向量回歸 100
5.7 本章小結(jié) 102
5.8 習(xí)題 103
第6章 決策樹 107
6.1 決策過程與決策樹 107
6.2 建立決策樹的基本原則 109
6.2.1 “純度”與特征選擇 110
6.2.2 信息增益 111
6.3 決策樹生成算法 112
6.3.1 ID3算法 112
6.3.2 C4.5算法 113
6.4 決策樹的剪枝 118
6.5分類回歸樹 128
6.6 本章小結(jié) 132
6.7 習(xí)題 132
136
第7章 集成學(xué)習(xí) 136
7.1 集成學(xué)習(xí)的原理 136
7.2 分類器優(yōu)劣與泛化誤差 136
7.3 Bagging算法 142
7.4 隨機森林 147
7.5 Boosting 148
7.6 本章小結(jié) 157
7.7 習(xí)題 158
164
第8章 無監(jiān)督學(xué)習(xí) 164
8.1 什么是無監(jiān)督學(xué)習(xí) 164
8.2 均值聚類 165
8.2.1 均值算法模型 165
8.2.2 均值優(yōu)化 166
8.2.3 均值的數(shù)據(jù)預(yù)處理 167
8.2.4 均值初始化 168
8.2.5 值大小的確定方法 169
8.3 基于密度的聚類 171
8.3.1 高斯混合模型的產(chǎn)生 171
8.3.2 高斯混合模型的梯度下降 172
8.3.3 高斯混合模型的期望最大化算法 174
8.3.4 一般情況下的期望最大化算法 176
8.3.5 majorize-minimize算法 177
8.3.6 高斯混合模型的MM算法求解 178
8.3.7 DBSCAN算法 180
8.4 層次聚類 183
8.4.1 凝聚式層次聚類 183
8.5 本章小結(jié) 184
8.6 習(xí)題 185
第 9章 降維分析 187
9.1 主成分分析 187
9.1.1 主成分分析目標(biāo)函數(shù)的化簡 188
9.1.2 主成分分析目標(biāo)函數(shù)的優(yōu)化 190
9.1.3 主成分分析的預(yù)處理 191
9.2 隱語義模型 192
9.2.1 一詞一義與詞頻-逆詞頻表示 192
9.2.2 隱語義模型 193
9.2.3 概率隱語義模型 196
9.2.4 非負矩陣分解 198
9.2.5 非負矩陣分解的乘法更新法則 198
9.2.6 非負矩陣分解的梯度投影 200
9.3 本章小節(jié) 201
9.4 習(xí)題 202
第 10章 神經(jīng)網(wǎng)絡(luò) 203
10.1 神經(jīng)元模型 204
10.2 多層前饋神經(jīng)網(wǎng)絡(luò) 206
10.3 本章小結(jié) 226
10.4 習(xí)題 226
第 11章 深度神經(jīng)網(wǎng)絡(luò) 227
11.1 卷積神經(jīng)網(wǎng)絡(luò) 227
11.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 233
11.3 生成對抗網(wǎng)絡(luò) 241
11.4 小結(jié) 251
11.5 習(xí)題 252