定 價(jià):¥79.00
作 者: | 楊云,段宗濤 |
出版社: | 清華大學(xué)出版社 |
叢編項(xiàng): | 人工智能科學(xué)與技術(shù)叢書 |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787302550648 | 出版時(shí)間: | 2020-07-01 | 包裝: | |
開本: | 16開 | 頁數(shù): | 300 | 字?jǐn)?shù): |
目錄
第1章機(jī)器學(xué)習(xí)簡介
1.1什么是機(jī)器學(xué)習(xí)
1.2有監(jiān)督學(xué)習(xí)
1.3無監(jiān)督學(xué)習(xí)
1.4強(qiáng)化學(xué)習(xí)
1.5深度學(xué)習(xí)
1.6機(jī)器學(xué)習(xí)算法的應(yīng)用趨勢
1.6.1機(jī)器學(xué)習(xí)算法在物聯(lián)網(wǎng)的應(yīng)用
1.6.2機(jī)器學(xué)習(xí)算法在其他領(lǐng)域的應(yīng)用
1.7安裝MATLAB或Octave
1.8Python語言和C/C++語言簡介
1.8.1Python語言簡介
1.8.2C/C++語言簡介
1.9習(xí)題
第2章線性回歸
2.1線性回歸模型
2.2代價(jià)函數(shù)
2.3梯度下降法
2.4線性回歸中的梯度下降
2.5特征歸一化
2.6最小二乘正規(guī)方程
2.7線性回歸實(shí)例分析
2.7.1實(shí)例一: 一元線性回歸模型與代價(jià)函數(shù)理解
2.7.2實(shí)例二: 多元線性回歸模型與代價(jià)函數(shù)理解
2.8習(xí)題
第3章邏輯回歸
3.1邏輯回歸模型
3.2邏輯回歸的代價(jià)函數(shù)
3.3優(yōu)化函數(shù)
3.4邏輯回歸解決分類問題
3.4.1實(shí)例一: 牛頓法實(shí)現(xiàn)邏輯回歸模型
3.4.2實(shí)例二: 邏輯回歸解決二分類問題
3.5正則化
3.6正則化后的線性回歸和邏輯回歸模型實(shí)例分析
3.6.1實(shí)例一: 最小二乘正規(guī)方程法優(yōu)化正則化線性回歸模型
3.6.2實(shí)例二: 牛頓法優(yōu)化正則化邏輯回歸模型
3.6.3參考解決方案
3.7習(xí)題
第4章樸素貝葉斯
4.1數(shù)學(xué)基礎(chǔ)
4.2樸素貝葉斯分類
4.3樸素貝葉斯分類實(shí)例分析
4.3.1實(shí)例一: 多項(xiàng)式樸素貝葉斯用于郵件分類
4.3.2實(shí)例二: 樸素貝葉斯解決多分類問題
4.4習(xí)題
第5章支持向量機(jī)
5.1支持向量機(jī)模型
5.2支持向量機(jī)代價(jià)函數(shù)
5.3支持向量機(jī)實(shí)例分析
5.3.1實(shí)例一: SVM 解決線性可分問題
5.3.2實(shí)例二: SVM解決郵件分類問題
5.3.3實(shí)例三: 核函數(shù)SVM解決線性不可分問題
5.4習(xí)題
第6章神經(jīng)網(wǎng)絡(luò)
6.1神經(jīng)網(wǎng)絡(luò)模型
6.2反向傳播算法
6.3神經(jīng)網(wǎng)絡(luò)實(shí)例分析
6.3.1實(shí)例一: 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)簡單分類問題
6.3.2實(shí)例二: 神經(jīng)網(wǎng)絡(luò)解決預(yù)測問題
6.4習(xí)題
第7章K近鄰算法
7.1K近鄰算法原理
7.2K近鄰算法實(shí)例分析
7.2.1實(shí)例一: K近鄰算法解決二分類問題
7.2.2實(shí)例二: K近鄰算法解決多分類問題
7.3習(xí)題
第8章K均值算法
8.1K均值算法原理
8.2K均值算法實(shí)例分析
8.2.1實(shí)例一: K均值算法實(shí)現(xiàn)簡單聚類
8.2.2實(shí)例二: K均值算法解決病毒聚類問題
8.3習(xí)題
第9章高斯混合模型
9.1高斯混合模型原理
9.2最大期望算法
9.3高斯混合模型實(shí)例分析
9.3.1實(shí)例一: 高斯混合模型聚類原理分析
9.3.2實(shí)例二: 高斯混合模型實(shí)現(xiàn)鳶尾花數(shù)據(jù)聚類
9.4習(xí)題
第10章降維算法
10.1降維算法原理
10.2降維算法實(shí)例分析
10.2.1實(shí)例一: 線性判別分析(LDA)降維算法實(shí)現(xiàn)
10.2.2實(shí)例二: 主成分分析(PCA)降維算法實(shí)現(xiàn)
10.3線性判別分析與主成分分析對(duì)比
10.4習(xí)題
第11章隱馬爾可夫模型
11.1隱馬爾可夫模型定義
11.2隱馬爾可夫模型實(shí)例分析
11.2.1實(shí)例一: HMM實(shí)現(xiàn)簡單序列預(yù)測
11.2.2實(shí)例二: HMM 解決車流預(yù)測問題
11.3習(xí)題
第12章強(qiáng)化學(xué)習(xí)
12.1Qlearning強(qiáng)化學(xué)習(xí)算法原理
12.2Qlearning實(shí)例分析
12.2.1實(shí)例一: Qlearning解決走迷宮問題
12.2.2實(shí)例二: Qlearning解決小車爬坡問題
12.3習(xí)題
第13章決策樹
13.1決策樹構(gòu)造原理
13.2決策樹實(shí)例分析
13.2.1實(shí)例一: 應(yīng)用CART算法構(gòu)造決策樹
13.2.2實(shí)例二: 決策樹算法擬合曲線
13.3習(xí)題
第14章啟發(fā)式優(yōu)化算法
14.1遺傳算法原理
14.2優(yōu)化算法對(duì)比實(shí)例分析
14.2.1實(shí)例一: 粒子群(PSO)算法
14.2.2實(shí)例二: 差分進(jìn)化(DE)算法
14.2.3實(shí)例三: 人工蜂群(ABC)算法
14.2.4實(shí)例四: 對(duì)比粒子群、差分進(jìn)化和人工蜂群算法
14.3習(xí)題
第15章深度學(xué)習(xí)
15.1卷積神經(jīng)網(wǎng)絡(luò)
15.1.1卷積層
15.1.2池化層
15.1.3CNN模型
15.1.4實(shí)例一: CNN實(shí)現(xiàn)手寫數(shù)字識(shí)別
15.2循環(huán)神經(jīng)網(wǎng)絡(luò)
15.2.1RNN網(wǎng)絡(luò)概述
15.2.2LSTM網(wǎng)絡(luò)
15.2.3實(shí)例一: RNN實(shí)現(xiàn)時(shí)序數(shù)據(jù)預(yù)測
15.2.4實(shí)例二: LSTM預(yù)測交通流量
15.3深度學(xué)習(xí)算法物聯(lián)網(wǎng)硬件加速
15.3.1FPGA硬件平臺(tái)簡介
15.3.2開發(fā)軟件環(huán)境簡介
15.3.3實(shí)例一: RNN時(shí)序數(shù)據(jù)預(yù)測物聯(lián)網(wǎng)平臺(tái)實(shí)現(xiàn)
15.4習(xí)題
第16章集成學(xué)習(xí)
16.1集成學(xué)習(xí)算法
16.1.1隨機(jī)森林算法
16.1.2Adaboost算法
16.2集成學(xué)習(xí)算法實(shí)例分析
16.2.1實(shí)例一: 集成學(xué)習(xí)Stacking實(shí)現(xiàn)
16.2.2實(shí)例二: 集成學(xué)習(xí)解決預(yù)測問題
16.3習(xí)題
第17章推薦系統(tǒng)
17.1推薦算法原理
17.2知識(shí)圖譜與推薦系統(tǒng)
17.2.1知識(shí)圖譜定義
17.2.2知識(shí)圖譜特征學(xué)習(xí)
17.2.3知識(shí)圖譜用于推薦系統(tǒng)
17.3推薦系統(tǒng)實(shí)例分析
17.3.1實(shí)例一: 基于線性混合深度網(wǎng)絡(luò)的推薦系統(tǒng)實(shí)現(xiàn)
17.3.2實(shí)例二: 基于知識(shí)圖譜的多任務(wù)神經(jīng)網(wǎng)絡(luò)智能推薦系統(tǒng)
17.4習(xí)題
附錄A專用符號(hào)和名詞解釋
附錄B機(jī)器學(xué)習(xí)資源列表
附錄C數(shù)學(xué)推導(dǎo)BPTT算法
參考文獻(xiàn)