機器學習導論

機器學習導論

《機器學習導論》對機器學習的定義和套用實例進行了介紹,涵蓋了監督學習。貝葉斯決策理論。參數方法、多元方法、維度歸約、聚類、非參數方法、決策樹。線性判別式、多層感知器,局部模型、隱馬爾可夫模型。分類算法評估和比較,組合多學習器以及增強學習等。

基本信息

內容簡介

機器學習的目標是對計算機編程,以便使用樣本數據或以往的經驗來解決給定的問題。已經有許多機器學習的成功套用,包括分析以往銷售數據來預測客戶行為,人臉識別或語音識別,最佳化機器人行為以便使用最少的資源來完成任務,以及從生物信息數據中提取知識的各種系統。為了對機器學習問題和解進行統一的論述,《機器學習導論》討論了機器學習在統計學、模式識別、神經網路。人工智慧。信號處理、控制和數據挖掘等不同領域的套用。對所有學習算法都進行了解釋,以便讀者可以容易地將書中的公式轉變為電腦程式。《機器學習導論》可作為高等院校計算機相關專業高年級本科生和研究生的教材,也可供研究機器學習方法的技術人員參考。

作者簡介

Ethem Alpaydin,是土耳其伊斯坦堡博阿齊奇大學計算機工程系的教授。於1990年在洛桑聯邦理工學院獲博士學位,之後先後在美國麻省理工和伯克利大學工作和進行博士後研究。Ethem博士主要從事機器學習方面的研究,是劍橋大學的《The Computer Journal》雜誌編委和Elsevier的《Pattern Recognition》雜誌的副主編。2001年和2002年,Ethem博士先後獲得土耳其科學院青年科學家獎和土耳其科學與技術研究委員會科學獎。

圖書目錄

出版者的話

中文版序

譯者序

前言

致謝

符號表

第1章 緒論

1.1 什麼是機器學習

1.2 機器學習的套用實例

1.2.1 學習關聯性

1.2.2 分類

1.2.3 回歸

1.2.4 非監督學習

1.2.5 增強學習

1.3 注釋

1.4 相關資源

1.5 習題

1.6 參考文獻

第2章 監督學習

2.1 由實例學習類

2.2vc維

2.3 機率逼近正確學習

2.4 噪聲

2.5 學習多類

2.6 回歸

2.7 模型選擇與泛化

2.8 監督機器學習算法的維

2.9 注釋

2.10 習題

2.11 參考文獻

第3章 貝葉斯決策定理

3.1 引言

3.2 分類

3.3 損失與風險

3.4 判別式函式

3.5 效用理論

3.6 信息值

3.7 貝葉斯網路

3.8 影響圖

3.9 關聯規則

3.10 注釋

3.11 習題

3.12 參考文獻

第4章 參數方法

4.1 引言

4.2 最大似然估計

4.2.1 伯努利密度

4.2.2 多項密度

4.2.3 高斯(正態)密度

4.3 評價估計:偏倚和方差

4.4貝葉斯估計

4.5 參數分類

4.6 回歸

4.7 調整模型的複雜度:偏倚/方差兩難選擇

4.8 模型選擇過程

4.9 注釋

4.10 習題

4.11 參考文獻

第5章 多元方法

5.1 多元數據

5.2 參數估計

5.3缺失值估計

5.4 多元常態分配

5.5 多元分類

5.6 調整複雜度

5.7 離散特徵

5.8 多元回歸

5.9 注釋

5.10 習題

5.11 參考文獻

第6章 維度歸約

6.1 引言

6.2 子集選擇

6.3 主成分分析

6.4 因子分析

6.5 多維定標

6.6 線性判別分析

6.7 注釋

6.8 習題

6.9 參考文獻

第7章 聚類

7.1 引言

7.2 混合密度

7.3 平均值聚類

7.4期望最大化算法

7.5潛在變數混合模型

7.6 聚類後的監督學習

7.7 層次聚類

7.8 選擇簇個數

7.9 注釋

7.10 習題

7.11 參考文獻

第8章 非參數方法

8.1 引言

8.2 非參數密度估計

8.2.1 直方圖估計

8.2.2 核估計

8.2.3 %-最近鄰估計

8.3 到多變元數據的推廣

8.4 非參數分類

8.5 精簡的最近鄰

8.6 非參數回歸:光滑模型

8.6.1 移動均值光滑

8.6.2 核光滑

8.6.3 移動線光滑

8.7 如何選擇光滑參數

8.8 注釋

8.9 習題

8.10 參考文獻

第9章 決策樹

9.1 引言

9.2 單變數樹

9.2.1 分類樹

9.2.2 回歸樹

9.3 剪枝

9.4 由決策樹提取規則

9.5 由數據學習規則

9.6 多變數樹

9.7 注釋

9.8 習題

9.9 參考文獻

第10章 線性判別式

10.1 引言

10.2 推廣線性模型

10.3 線性判別式的幾何意義

10.3.1 兩類問題

10.3.2 多類問題

10.4 逐對分離

10.5 參數判別式的進一步討論

10.6 梯度下降

10.7 邏輯斯諦判別式

10.7.1 兩類問題

10.7.2 多類問題

10.8 回歸判別式

10.9 支持向量機

10.9.1 最佳分離超平面

10.9.2 不可分情況:軟邊緣超平面

10.9.3 核函式

10.9.4 用於回歸的支持向量機

10.10 注釋

10.11 習題

10.12 參考文獻

第11章多層感知器

11.1 引言

11.1.1 理解人腦

11.1.2 神經網路作為並行處理的典範

11.2 感知器

11.3 訓練感知器

11.4 學習布爾函式

11.5 多層感知器

11.6 MLP作為通用逼近器

11.7 後向傳播算法

11.7.1 非線性回歸

11.7.2 兩類判別式

11.7.3 多類判別式

11.7.4 多個隱藏層

11.8 訓練過程

11.8.1 改善收斂性

11.8.2 過分訓練

11.8.3 構造網路

11.8.4 線索

11.9 調整網路規模

11.10 學習的貝葉斯觀點

11.11 維度歸約

11.12 學習時間

11.12.1 時間延遲神經網路

11.12.2 遞歸網路

11.13 注釋

11.14 習題

11.15 參考文獻

第12章局部模型

12.1 引言

12.2 競爭學習

12.2.1 線上均值

12.2.2 自適應共鳴理論

12.2.3自組織映射

12.3徑向基函式

12.4.結合基於規則的知識

12.5 規範化基函式

12.6 競爭的基函式

12.7 學習向量量化

12.8 混合專家模型

12.8.1 協同專家模型

12.8.2 競爭專家模型

12.9 層次混合專家模型

12.10 注釋

12.11 習題

12.12 參考文獻

第13章 隱馬爾可夫模型

13.1 引言

13.2 離散馬爾可夫過程

13.3 隱馬爾可夫模型

13.4 HMM的三個基本問題

13.5 估值問題

13.6 尋找狀態序列

13.7 學習模型參數

13.8 連續觀測

13.9 帶輸入的HMM

13.10 HNMqItl的模型選擇

13.11 注釋

13.12 習題

13.13 參考文獻

第14章 分類算法評估和比較

14.1 引言

14.2 交叉確認和再抽樣方法

14.2.1 K.折交叉確認

14.2.2 5~2交叉確認

14.2.3 自助法

14.3 誤差度量

14.4 區間估計

14.5 假設檢驗

14.6 評估分類算法的性能

14.6.1 二項檢驗

14.6.2 近似正態檢驗

14.6.3 配對£檢驗

14.7 比較兩個分類算法

14.7.1 McNemar-檢驗

14.7.2 K-折交叉確認配對t檢驗

14.7.35X2交叉確認配對t檢驗

14.7.4 5x2交叉確認配對F檢驗

14.8 比較多個分類算法:方差分析

14.9 注釋

14.10 習題

14.11 參考文獻

第15章 組合多學習器

15.1 基本原理

15.2 投票法

15.3 糾錯輸出碼

15.4 裝袋

15.5 提升

15.6 重溫混合專家模型

15.7 層疊泛化

15.8 級聯

15.9 注釋

15.10 習題

15.11 參考文獻

第16章 增強學習

16.1 引言

16.2 單狀態情況:K臂賭博機問題

16.3 增強學習基礎

16.4 基於模型的學習

16.4.1 價值疊代

16.4.2 策略疊代

16.5 時間差分學習

16.5.1 探索策略

16.5.2 確定性獎勵和動作

16.5.3 確定性獎勵和動作

16.5.4 資格跡

16.6 推廣

16.7 部分可觀測狀態

16.8 注釋

16.9 習題

16.10 參考文獻

附錄A機率論

索引

……

相關搜尋

熱門詞條

聯絡我們