原创 斯坦福大學《Machine Learning》第7周學習筆記

Support Vector Machines 支持向量機 Large Margin Classification大間距分類器 Optimization Objective優化目標 到目前爲止 你已經見過一系列不同的學習算法 在監督學習中

原创 斯坦福大學《Machine Learning》第5周學習筆記

Neural Networks: Learning神經網絡:學習 Cost Function and Backpropagation代價函數和反向傳播 Cost Function代價函數 假設我們有一個如左邊所示的 神經網絡結構 我用大

原创 深度學習之《線性代數》第一章

n階行列式主對角線以下(上)的元素都爲0的行列式叫做上(下)三角行列式,它的值與對角行列式一樣對換定理一 一個排列中的任意兩個元素對換 排列改變奇偶性推論 奇排列變成標準排列的對換次數爲奇數,偶排列變成標準排列的對換次數爲偶數.定理二 n

原创 《Effective Objective-C 2.0》讀書筆記---第七章

前言: 雖說不使用系統框架也能編寫OC代碼,但幾乎沒人這麼做,即便是NSObject這個標準的根類,也屬於Foundation框架,而非語言本身。若不使用Foundation,就必須自己編寫根類,同時還要自己來寫collect

原创 《Effective Objective-C 2.0》讀書筆記---第五章

前言: ARC幾乎把所有內存管理事宜都交由編譯器來決定,開發者只需專注於業務邏輯。 第29條:理解引用計數 引用計數機制通過可以遞增遞減的計數器來管理內存。對象創建好之後,其保留計數至少爲1.若保留計數爲正,則對象繼續

原创 反向傳播算法幾個重要公式的詳細推導

斯坦福大學《Machine Learning》第五週學習過程中,對反向傳播算法的幾個公式看得雲裏霧裏的,這裏做一個詳細的推導和總結 公式一: 公式二: 公式三: 首先已知,這個是我們定義的,不用推導,但是爲什麼要這樣定義呢? 我們給神經元

原创 斯坦福大學《Machine Learning》第3周學習筆記

Logistic Regression邏輯迴歸 邏輯迴歸是一種將數據分類爲離散結果的方法。 例如,我們可以使用邏輯迴歸將電子郵件分類爲垃圾郵件或非垃圾郵件。 在這個模塊中,我們介紹分類的概念,邏輯迴歸的代價函數,以及邏輯迴歸在多類分類中的

原创 斯坦福大學《Machine Learning》第8周學習筆記

Unsupervised Learning非監督學習 Clustering聚類 K-Means Algorithm K均值算法 在聚類問題中 我們有未加標籤的數據 我們希望有一個算法 能夠自動的 把這些數據分成 有緊密關係的子集或是簇 K

原创 斯坦福大學《Machine Learning》第9周學習筆記

Anomaly Detection異常檢測 Density Estimation密度估計 Problem Motivation問題動機 異常檢測(Anomaly detection)問題 是機器學習算法 的一個常見應用 這種算法的一個有趣

原创 梯度消失和梯度爆炸原因及其解決方案

當我們需要解決一個非常複雜的問題,例如在高分辨率圖像中檢測數百種類型的對象,我們可能需要訓練一個非常深的DNN,可能需要幾十層或者上百層,每層包含數百個神經元,通過成千上萬個連接進行連接,我們會遇到以下問題: 首先,梯度消失或梯度爆炸 其

原创 斯坦福大學《Machine Learning》第10周學習筆記

Large Scale Machine Learning大規模機器學習 Gradient Descent with Large Datasets具有大數據集的梯度下降 Learning With Large Datasets學習大型數據集

原创 爲什麼正則化能夠降低過擬合

我們通過實驗發現正則化能幫助減少過擬合。這是令人高興的事,然而不幸的是,我們沒有明顯的證據證明爲什麼正則化可以起到這個效果!一個大家經常說起的解釋是:在某種程度上,越小的權重複雜度越低,因此能夠更簡單且更有效地描繪數據,所以我們傾向於選擇

原创 斯坦福大學《Machine Learning》第6周學習筆記

Advice for Applying Machine Learning應用機器學習的建議 Evaluating a Learning Algorithm評估學習算法 Deciding What to Try Next 決定接下來要做什麼

原创 斯坦福大學《Machine Learning》第4周學習筆記

Neural Networks: Representation神經網絡:表示 Motivations激勵 Non-linear Hypotheses非線性假設 下面舉幾個例子闡述神經網絡算法的目的 這幾個問題的解決 都依賴於研究複雜的非線

原创 斯坦福大學《Machine Learning》第11周學習筆記

Application Example: Photo OCR Photo OCR Problem Description and Pipeline問題描述和流水線 機器學習的應用實例:照片OCR技術 第一  一個複雜的機器學習系統 是如何