原创 斯坦福大學機器學習第三課“多變量線性迴歸“

斯坦福大學機器學習第三課“多變量線性迴歸(Linear Regression with Multiple Variables)” 斯坦福大學機器學習第四課”多變量線性迴歸“學習筆記,本次課程主要包括7部分: 1) Mult

原创 正態分佈的前世今生(一)

                                               正態分佈的前世今生(一) 神說,要有正態分佈,就有了正態分佈。 神看正態分佈是好的,就讓隨機誤差就服從了正態分佈。 創世紀-數理統

原创 BP算法詳談

反向傳播BP模型 學習是神經網絡一種最重要也最令人注目的特點。在神經網絡的發展進程中,學習算法的研究有着十分重要的地位。目前,人們所提出的神經網絡模型都是和學習算法相應的。所以,有時人們並不去祈求對模型和算法進行嚴格的定義或區分。有

原创 Armijo線搜索

用“人話”解釋不精確線搜索中的Armijo-Goldstein準則及Wolfe-Powell準則 line search(一維搜索,或線搜索)是最優化(Optimization)算法中的一個基礎步驟/算法。它可以分爲精確的一維搜索以

原创 斯坦福大學機器學習第六課“神經網絡的表示(Neural Networks: Representation)”

斯坦福大學機器學習第六課“神經網絡的表示(Neural Networks: Representation)” 本次課程主要包括7部分: 1)  Non-linear hypotheses (非線性hypotheses) 2)  Neur

原创 深度學習概論

深度學習   一、深度學習出現的原因、時間及研究現狀 機器學習是人工智能的一個分支,而在很多時候幾乎成爲人工智能的代名詞。簡單來說,機器學習就是通過算法使得機器能從大量歷史數據中學習規律,從而對新的樣本做智能識別或對未來做預測。從20世紀

原创 BP神經網絡及matlab實現

本文主要內容包括: (1) 介紹神經網絡基本原理,(2) AForge.NET實現前向神經網絡的方法,(3) Matlab實現前向神經網絡的方法 。 第0節、引例         本文以Fisher的Iris數據集作爲神經網絡程

原创 線性代數導論3——乘法與逆矩陣

線性代數導論3——乘法與逆矩陣 本文是Gilbert Strang的線性代數導論課程筆記。課程地址:http://v.163.com/special/opencourse/daishu.html 第三課時:乘法與逆矩陣 本課時先講

原创 線性代數導論1——方程組的幾何解釋

  線性代數導論1——方程組的幾何解釋 本文是Gilbert Strang的線性代數導論課程筆記。課程地址:http://v.163.com/special/opencourse/daishu.html 第一課時:方程組的

原创 核PCA——從理論到實現

核PCA——從理論到實現 1. PCA方法: 設X=[x1,x2,…xN],x∈Rd,爲d維樣本空間的N個向量h=i。 協方差矩陣:C=1NXXT 可以做特徵值分解C=UΛUT,其中U爲特徵矩陣,Λ是特徵值矩陣。若只保留k個維度

原创 機器學習中有關數學的一些推薦書籍

                                      數學學習(林達華原著)   這裏說說幾本我看過後覺得不錯的數學教科書。 1. 線性代數 (Linear Algebra): 我想國內的大學生都會

原创 深度學習基礎1(神經網絡)

神經網絡 Contents   1 概述2 神經網絡模型3 中英文對照 概述 以監督學習爲例,假設我們有訓練樣本集  ,那麼神經網絡算法能夠提供一種複雜且非線性的假設模型  ,它具有參數  ,可以以此參數來擬合我們的數據

原创 SVM(三) SMO優化算法求解

SMO優化算法(Sequential minimal optimization) SMO算法由Microsoft Research的John C. Platt在1998年提出,併成爲最快的二次規劃優化算法,特別針對線性SVM和數據

原创 常用激活函數比較

常用激活函數比較 本文結構: 什麼是激活函數爲什麼要用都有什麼sigmoid ,ReLU, softmax 的比較如何選擇 1. 什麼是激活函數 如下圖,在神經元中,輸入的 inputs 通過加權,求和後,還被作用了一個函數

原创 卷積神經網絡(CNN)

CNN的引入 在人工的全連接神經網絡中,每相鄰兩層之間的每個神經元之間都是有邊相連的。當輸入層的特徵維度變得很高時,這時全連接網絡需要訓練的參數就會增大很多,計算速度就會變得很慢,例如一張黑白的  28×28 的手寫數字圖片,輸入層