筆記:機器學習——吳恩達 序

前言

該筆記是參考其他人的筆記與資料,精煉出感覺對自己有用的,加上其他補充的擴展知識和自己的心得收穫,以方便自己以後回顧和學習。筆記按課程講解週數來進行劃分。

(在此十分感謝中國海洋大學 2014 級博士生黃海廣在網上分享提供的資料)

課程概述:

Machine Learning(機器學習)是研究計算機怎樣模擬或實現人類的學習行爲,以獲取新的知識或技能,重新組織已有的知識結構使之不斷改善自身的性能。它是人工智能的核心,是使計算機具有智能的根本途徑,其應用遍及人工智能的各個領域,它主要使用歸納、綜合而不是演譯。

本課程提供了一個廣泛的介紹機器學習、數據挖掘、統計模式識別的課程。主題包括:

(一)監督學習(參數/非參數算法,支持向量機,核函數,神經網絡)。

(二)無監督學習(聚類,降維,推薦系統,深入學習推薦)。

(三)在機器學習的最佳實踐(偏差/方差理論;在機器學習和人工智能創新過程)。

本課程還將使用大量的案例研究,您還將學習如何運用學習算法構建智能機器人(感知,控制),文本的理解(Web 搜索,反垃圾郵件),計算機視覺,醫療信息,音頻,數據挖掘,和其他領域。 

課程目錄:

一、 引言(Introduction)
1.1 歡迎
1.2 機器學習是什麼?
1.3 監督學習
1.4 無監督學習

二、單變量線性迴歸(Linear Regression with One Variable)
2.1 模型表示
2.2 代價函數
2.3 代價函數的直觀理解I
2.4 代價函數的直觀理解II
2.5 梯度下降
2.6 梯度下降的直觀理解
2.7 梯度下降的線性迴歸
2.8 接下來的內容

三、線性代數回顧(Linear Algebra Review)
3.1 矩陣和向量
3.2 加法和標量乘法
3.3 矩陣向量乘法
3.4 矩陣乘法
3.5 矩陣乘法的性質
3.6 逆、轉置

四、多變量線性迴歸(Linear Regression with Multiple Variables)
4.1 多維特徵
4.2 多變量梯度下降
4.3 梯度下降法實踐1-特徵縮放
4.4 梯度下降法實踐2-學習率
4.5 特徵和多項式迴歸
4.6 正規方程
4.7 正規方程及不可逆性(選修)

五、Octave教程(Octave Tutorial)
5.1 基本操作
5.2 移動數據
5.3 計算數據
5.4 繪圖數據
5.5 控制語句:for,while,if語句
5.6 向量化 88
5.7 工作和提交的編程練習

六、邏輯迴歸(Logistic Regression)
6.1 分類問題
6.2 假說表示
6.3 判定邊界
6.4 代價函數
6.5 簡化的成本函數和梯度下降
6.6 高級優化
6.7 多類別分類:一對多

七、正則化(Regularization)
7.1 過擬合的問題
7.2 代價函數
7.3 正則化線性迴歸
7.4 正則化的邏輯迴歸模型

第八、神經網絡:表述(Neural Networks: Representation)
8.1 非線性假設
8.2 神經元和大腦
8.3 模型表示1
8.4 模型表示2
8.5 樣本和直觀理解1
8.6 樣本和直觀理解II
8.7 多類分類

九、神經網絡的學習(Neural Networks: Learning)
9.1 代價函數
9.2 反向傳播算法
9.3 反向傳播算法的直觀理解
9.4 實現注意:展開參數
9.5 梯度檢驗
9.6 隨機初始化
9.7 綜合起來
9.8 自主駕駛

十、應用機器學習的建議(Advice for Applying Machine Learning)
10.1 決定下一步做什麼
10.2 評估一個假設
10.3 模型選擇和交叉驗證集
10.4 診斷偏差和方差
10.5 正則化和偏差/方差
10.6 學習曲線
10.7 決定下一步做什麼

十一、機器學習系統的設計(Machine Learning System Design)
11.1 首先要做什麼
11.2 誤差分析
11.3 類偏斜的誤差度量
11.4 查準率和查全率之間的權衡
11.5 機器學習的數據

十二、支持向量機(Support Vector Machines)
12.1 優化目標
12.2 大邊界的直觀理解
12.3 數學背後的大邊界分類(選修)
12.4 核函數1
12.5 核函數2
12.6 使用支持向量機

十三、聚類(Clustering)
13.1 無監督學習:簡介
13.2 K-均值算法
13.3 優化目標
13.4 隨機初始化
13.5 選擇聚類數

十四、降維(Dimensionality Reduction)
14.1 動機一:數據壓縮
14.2 動機二:數據可視化
14.3 主成分分析問題
14.4 主成分分析算法
14.5 選擇主成分的數量
14.6 重建的壓縮表示
14.7 主成分分析法的應用建議

十五、異常檢測(Anomaly Detection)
15.1 問題的動機
15.2 高斯分佈
15.3 算法
15.4 開發和評價一個異常檢測系統
15.5 異常檢測與監督學習對比
15.6 選擇特徵
15.7 多元高斯分佈(選修)
15.8 使用多元高斯分佈進行異常檢測(選修)

十六、推薦系統(Recommender Systems)
16.1 問題形式化
16.2 基於內容的推薦系統
16.3 協同過濾
16.4 協同過濾算法
16.5 向量化:低秩矩陣分解
16.6 推行工作上的細節:均值歸一化

十七、大規模機器學習(Large Scale Machine Learning)
17.1 大型數據集的學習
17.2 隨機梯度下降法
17.3 小批量梯度下降
17.4 隨機梯度下降收斂
17.5 在線學習
17.6 映射化簡和數據並行

十八、應用實例:圖片文字識別(Application Example: Photo OCR)
18.1 問題描述和流程圖
18.2 滑動窗口
18.3 獲取大量數據和人工數據
18.4 上限分析:哪部分管道的接下去做

十九、總結(Conclusion)


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章