數(shù)據(jù)分析與數(shù)據(jù)挖掘?qū)嶒?yàn)指導(dǎo)書
定 價(jià):40 元
- 作者:郝文寧,靳大尉,程愷 編著
- 出版時(shí)間:2016/3/1
- ISBN:9787118107975
- 出 版 社:國(guó)防工業(yè)出版社
- 中圖法分類:C819
- 頁(yè)碼:172
- 紙張:膠版紙
- 版次:1
- 開(kāi)本:16開(kāi)
由郝文寧、靳大尉和程愷共同編*的這本教材《數(shù)據(jù)分析與數(shù)據(jù)挖掘?qū)嶒?yàn)指導(dǎo)書》是數(shù)據(jù)分析與數(shù)據(jù)挖掘課程的實(shí)驗(yàn)指導(dǎo)書,結(jié)合大量實(shí)例全面闡述了使用IBM SPSS系列軟件進(jìn)行數(shù)據(jù)分析與挖掘的原理、方法和步驟。緊密配合理論教學(xué),使學(xué)生在有限的實(shí)驗(yàn)課時(shí)中,加深對(duì)所學(xué)知識(shí)的理解和掌握。
全書分為兩個(gè)部分,**部分為數(shù)據(jù)分析實(shí)驗(yàn),主要介紹如何利用IBM SPSSStatistics軟件進(jìn)行統(tǒng)計(jì)分析,具體包括描述性統(tǒng)計(jì)、參數(shù)檢驗(yàn)、非參數(shù)檢驗(yàn)、相關(guān)分析、回歸分析和因子分析等七項(xiàng)實(shí)驗(yàn)科目,第二部分為數(shù)據(jù)挖掘?qū)嶒?yàn),主要介紹如何利用IBM SPSS Modeler軟件進(jìn)行數(shù)據(jù)挖掘,具體包括關(guān)聯(lián)規(guī)則挖掘、決策樹(shù)分類、人工神經(jīng)網(wǎng)絡(luò)分類、貝葉斯方法分類和聚類等七項(xiàng)實(shí)驗(yàn)科目。
本書可作為數(shù)據(jù)工程相關(guān)專業(yè)本科生教材,也可為從事各領(lǐng)域數(shù)據(jù)分析和數(shù)據(jù)挖掘的專業(yè)人員提供指導(dǎo)和幫助。
實(shí)驗(yàn)1 IBM SPSS Statistics軟件使用基礎(chǔ)
1.1 實(shí)驗(yàn)?zāi)康呐c要求
1.2 實(shí)驗(yàn)原理
1.3 實(shí)驗(yàn)內(nèi)容與步驟
1.3.1 安裝、啟動(dòng)與退出
1.3.2 定義變量
1.3.3 數(shù)據(jù)的輸入與保存
1.3.4 數(shù)據(jù)文件的編輯與轉(zhuǎn)換
1.4 思考題
實(shí)驗(yàn)2描述性統(tǒng)計(jì)
2.1 實(shí)驗(yàn)?zāi)康呐c要求
2.2 實(shí)驗(yàn)原理
2.3 實(shí)驗(yàn)內(nèi)容與步驟
2.3.1 中心、離散趨勢(shì)描述實(shí)驗(yàn)
2.3.2 頻數(shù)分布分析實(shí)驗(yàn)
2.4 思考題
實(shí)驗(yàn)3 參數(shù)檢驗(yàn)
3.1 實(shí)驗(yàn)?zāi)康呐c要求
3.2 實(shí)驗(yàn)原理
3.3 實(shí)驗(yàn)內(nèi)容與步驟
3.3.1 單樣本t檢驗(yàn)
3.3.2 兩獨(dú)立樣本t檢驗(yàn)
3.3.3 兩配對(duì)樣本t檢驗(yàn)
3.3.4 單因素完全隨機(jī)設(shè)計(jì)的方差分析SPSS過(guò)程
3.3.5 單因素重復(fù)測(cè)量設(shè)計(jì)的方差分析SPSS過(guò)程
3.3.6 多因素完全隨機(jī)設(shè)計(jì)方差分析的SPSS過(guò)程
3.4 思考題
實(shí)驗(yàn)4 非參數(shù)檢驗(yàn)
4.1 實(shí)驗(yàn)?zāi)康呐c要求
4.2 實(shí)驗(yàn)原理
4.3 實(shí)驗(yàn)內(nèi)容與步驟
4.3.1 單樣本二項(xiàng)分布檢驗(yàn)的SPSS過(guò)程
4.3.2 相關(guān)樣本二項(xiàng)分布檢驗(yàn)的SPSS過(guò)程
4.3.3 獨(dú)立樣本二項(xiàng)分布檢驗(yàn)的SPSS過(guò)程
4.3.4 適合性卡方檢驗(yàn)的SPSS過(guò)程
4.3.5 獨(dú)立性卡方檢驗(yàn)的SPSS過(guò)程
4.3.6 符號(hào)與符號(hào)秩次檢驗(yàn)的SPSS過(guò)程
4.3.7 秩和檢驗(yàn)(曼-惠特尼U檢驗(yàn))的SPSS過(guò)程
4.3.8 中位數(shù)檢驗(yàn)的SPSS過(guò)程
4.4 思考題
實(shí)驗(yàn)5 相關(guān)分析
5.1 實(shí)驗(yàn)?zāi)康呐c要求
5.2 實(shí)驗(yàn)原理
5.3 實(shí)驗(yàn)內(nèi)容與步驟
5.3.1 二元變量相關(guān)分析的SPSS過(guò)程
5.3.2 肯德?tīng)柡椭C系數(shù)計(jì)算的SPSS過(guò)程
5.3.3 偏相關(guān)分析的SPSS過(guò)程
5.4 思考題
實(shí)驗(yàn)6 回歸分析
6.1 實(shí)驗(yàn)?zāi)康呐c要求
6.2 實(shí)驗(yàn)原理
6.3 實(shí)驗(yàn)內(nèi)容與步驟
6.3.1 一元線性回歸分析的SPSS過(guò)程
6.3.2 多元線性回歸分析的SPSS過(guò)程
6.4 思考題
實(shí)驗(yàn)7 因子分析
7.1 實(shí)驗(yàn)?zāi)康呐c要求
7.2 實(shí)驗(yàn)原理
7.3 實(shí)驗(yàn)內(nèi)容與步驟
7.3.1 因子分析的SPSS過(guò)程
7.3.2 因素分析結(jié)果的讀取與解釋
7.4 思考題
實(shí)驗(yàn)8 IBM SPSS Modder軟件使用基礎(chǔ)
8.1 實(shí)驗(yàn)?zāi)康呐c要求
8.2 實(shí)驗(yàn)原理
8.2.1 IBM SPSS Modeler簡(jiǎn)介
8.2.2 數(shù)據(jù)挖掘的CRISP-DM模型
8.2.3 Modeler軟件使用的技巧
8.3 實(shí)驗(yàn)內(nèi)容與步驟
8.3.1 Modeler的啟動(dòng)和界面布局
8.3.2 完整建模流程的介紹
8.4 思考題
實(shí)驗(yàn)9 關(guān)聯(lián)規(guī)則挖掘?qū)嶒?yàn)
9.1 實(shí)驗(yàn)?zāi)康呐c要求
9.2 實(shí)驗(yàn)原理
9.2.1 關(guān)聯(lián)規(guī)則處理數(shù)據(jù)的兩種形式
9.2.2 關(guān)聯(lián)規(guī)則相關(guān)概念
9.3 實(shí)驗(yàn)內(nèi)容與步驟
9.3.1 Apriori算法應(yīng)用
9.3.2 序列關(guān)聯(lián)應(yīng)用
9.4 思考題
實(shí)驗(yàn)10 決策樹(shù)分類實(shí)驗(yàn)
10.1 實(shí)驗(yàn)?zāi)康呐c要求
10.2 實(shí)驗(yàn)原理
10.2.1 決策樹(shù)分類原理
10.2.2 決策樹(shù)分類常用算法
10.3 實(shí)驗(yàn)內(nèi)容與步驟
10.3.1 導(dǎo)入數(shù)據(jù)
10.3.2 數(shù)據(jù)認(rèn)識(shí)與處理
10.3.3 建立模型與評(píng)估
10.4 思考題
實(shí)驗(yàn)11 支持向量機(jī)SVM分類實(shí)驗(yàn)
11.1 實(shí)驗(yàn)?zāi)康呐c要求
11.2 實(shí)驗(yàn)原理
11.3 實(shí)驗(yàn)內(nèi)容與步驟
11.3.1 導(dǎo)入數(shù)據(jù)
11.3.2 建立模型
11.4 思考題
實(shí)驗(yàn)12 人工神經(jīng)網(wǎng)絡(luò)分類實(shí)驗(yàn)
12.1 實(shí)驗(yàn)?zāi)康呐c要求
12.2 實(shí)驗(yàn)原理
12.3 實(shí)驗(yàn)內(nèi)容與步驟
12.3.1 導(dǎo)入數(shù)據(jù)
12.3.2 模型建立
12.4 思考題
實(shí)驗(yàn)13貝葉斯方法分類實(shí)驗(yàn)
13.1 實(shí)驗(yàn)?zāi)康呐c要求
13.2 實(shí)驗(yàn)原理
12.2.1 貝葉斯定理和樸素貝葉斯
13.2.2 Modeler中的貝葉斯分類器
13.3 實(shí)驗(yàn)內(nèi)容與步驟
13.3.1 數(shù)據(jù)導(dǎo)入
13.3.2 貝葉斯網(wǎng)絡(luò)建模
13.4 思考題
實(shí)驗(yàn)14 K均值與二分法聚類實(shí)驗(yàn)
14.1 實(shí)驗(yàn)?zāi)康呐c要求
14.2 實(shí)驗(yàn)原理
14.2.1 聚類分析
14.2.2 K-Means聚類
14.2.3 兩步聚類
14.3 實(shí)驗(yàn)內(nèi)容與步驟
14.3.1 K均值聚類
14.3.2 兩步法類
14.4 思考題
參考文獻(xiàn)