[1] http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial
[2] http://www.deeplearningbook.org/
[3] http://neuralnetworksanddeeplearning.com/
[4] http://deeplearning.stanford.edu/tutorial/
持續更新中,假如您有更好的資料,請留言,謝謝~
一、模塊調用。 複雜的程序都是多模塊的,所謂的模塊,在Python中就是一個py文件,不同的模塊實現不同的功能。一個模塊要調用其他模塊裏的東西,包括函數、變量等,需要“先導入模塊”。這些模塊都存放在同一目錄下,才能在一個模塊中導入並調
1. Caffe Linux (For Ubuntu (>= 17.04)) Installing pre-compiled Caffesudo apt install caffe-cpu Installing Caffe f
支持向量機(Support Vector Machine, SVM)是一類按監督學習方式對數據進行二元分類的廣義線性分類器(generalized linear classifier),其決策邊界是對學習樣本求解的最大邊距超平面。
聚類是一個將數據集中在某些方面相似的數據成員進行分類組織的過程,聚類就是一種發現這種內在結構的技術,聚類技術經常被稱爲無監督學習。 k均值聚類是最著名的劃分聚類算法,由於簡潔和效率使得他成爲所有聚類算法中最廣泛使用的。給定一個數據
PCA算法思路: 首先利用樣本集及特徵構建一個樣本矩陣,然後利用樣本矩陣計算得到一個協方差矩陣,再計算協方差矩陣的特徵值和特徵向量,保留特徵值前k個大的對應的特徵向量作爲新的維度方向,再將原始樣本數據轉換到新的空間維度。(
爲什麼要用到SVD分解? 從特徵值和特徵向量說起: 首先回顧下特徵值和特徵向量的定義:其中A是一個m*m的實對稱矩陣,x是一個m維向量,則我們說λ是矩陣A的一個特徵值,而x是矩陣A的特徵值λ所對應的特徵向量。 求出特徵值和特徵向量有什麼好
因爲樣本個數和特徵維度的是不相等de,所以組成的矩陣不是方陣。 第一種方式:特徵分解思路 基於樣本特徵維度,先求協方差矩陣---->再特徵分解(因爲協方差矩陣是方陣,所以可以使用特徵分解的思路) 第二種方式:SVD分解 SVD理論:htt
1. linearRegCostFunction.m function [J, grad] = linearRegCostFunction(X, y, theta, lambda) %LINEARREGCOSTFUNCTION Comp
A Gentle Introduction to Machine Learning with Pythonand Scikit-learn 一篇基於pthon和scikt-learn的關於機器學習的介紹 GuillermoMon
機器學習,作爲門時髦、熱門的計算機應用技術,特別是隨着深度學習的流行,推動“大數據+深度模型”的模式,爲人工智能和人機交互的發展提供巨大的空間。 和數據挖掘一樣,利用大量的數據分析建立有效的模型以便提供分類或者決策支持,機
一. 進一步瞭解figure和axes 之前我在實驗樓中瞭解到,figure和axes相當於是畫畫的時候畫板和畫布的關係。一般而言,你只能創建一個畫板,但是一個畫板上可以有多個畫布。 此外還有一種理解方法,我們需要對axes這個對象做更加
k-means屬於聚類分析的其中一種算法,聚類分析在機器學習、數據挖掘、模式識別、決策支持和圖像分割中有廣泛的應用。聚類是無監督的分類方法,所謂無監督就是沒有給定訓練數據的標籤信息,所以聚類出來的結果的類別是未定義的,而分類
自編碼器是一個三層的feed-forward神經網絡模型,輸入層經過隱含層的特徵表示後再重構出跟輸入層逼近的輸出層,中間的隱含層是特徵表示層,表示對輸入層學習到的特徵,這些特徵可能更好地表示了數據,如果用學到的特徵來訓練數據分
一、PCA PCA即主成分分析(Principle Components Analysis),是統計機器學習、數據挖掘中對數據進行預處理的常用的一種方法。PCA的作用有2個,一個是數據降維,一個是數據的可視化。在實際應用數據中,
練習來自http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=MachineLearning&doc=exercises/ex6/ex6.htm