原创 極大似然估計、最小二乘法及樸素貝葉斯

極大似然估計、最小二乘法及樸素貝葉斯 1. 問題定義 樣本集DDD中的樣本都是獨立同分布,且樣本數爲mmm D={(X1,Y1),(X2,Y2),... ,(Xm,Ym)} D=\{(X_1, Y_1), (X_2, Y_2),

原创 設置PyCharm使用Anaconda的環境

設置PyCharm使用Anaconda的環境 PyCharm的安裝以及Anaconda的安裝和環境的新建這裏就不做贅述了。 爲每一個PyCharm中的project設置特定的編譯器及資源路徑 在PyCharm中新建一個projec

原创 Deep learning I - III Shallow Neural Network - Backpropagation intuition反向傳播算法啓發

Backpropagation intuition 簡單的2層淺神經網絡,第一層的activation function爲tanh(z)tanh(z),第二層的activation function爲sigmoid(z)sigm

原创 Deep learning I - III Shallow Neural Network - Derivatives of activation functions激勵函數導數推導

Derivatives of activation functions 激勵函數的導數 Derivatives of Sigmod sigmod=g(z)=11+e−z(1)(1)sigmod=g(z)=11+e−z g′(z

原创 Deep learning II - I Practical aspects of deep learning - Dropout regularization 隨機失活正則化

Dropout regularization 隨機失活正則化 在訓練神經網絡時,隨機在每層選擇一定數量的neuron關閉,從而達到減小過擬合的目的。看起來很瘋狂,但是很有效。 1. 對應每一層生成以個mask d

原创 Deep learning II - I Practical aspects of deep learning - 正則化如何較少過擬合

How regularization reduces overfitting? 解釋 1 通過regularization, 使得神經網絡各個層級的參數WW 都更小更趨近於零,從而使得一個複雜的神經網絡變得更像一個簡單的神經網

原创 CSDN Markdown 使用方法彙總

CSDN Markdown 使用方法彙總 Markdown 語法 Markdown 分段函數 Markdown 換行對齊 點贊 收藏 分享 文章舉報 dqhl199

原创 Deep learning I - III Shallow Neural Network - Random Initialization深度學習隨機初始化的必要性

Random Initialization 隨機初始化參數 W & b Reference:Thanks for Deep Learning from Coursera, especially Andrew Ng’s team

原创 Deep learning I - IV Deep Neural Network - why deep representations?爲什麼“深度”對神經網絡這麼重要?

Why deep representations? 爲啥深度能這麼有理? 如圖一,通過一層一層的layers,deep learning能夠通過初步的細節,一步一步提升其對數據的理解和表達 如圖二,一組數據的邏輯關係,在

原创 Deep learning I - III Shallow Neural Network - Activation functions深度學習常用激勵函數

Activation functions 激勵函數 Reference:Deep Learning from Coursera, especially Andrew Ng’s team 從前,使用sigmod functio

原创 支持向量機-Support Vector Machine

支持向量機-Support Vector Machine 將在SVM之前 初窺SVM,沒想到其涉及了諸多最優化問題的內容,特此在理解SVM的同時,整理了會用到的最優化相關知識,都在這裏了。 關於SVM的講解,我看到了兩種方法。一種是

原创 最優化之凸集、凸函數、上確界、Jensen不等式、共軛函數、Fenchel不等式、拉格朗日乘子法、KKT條件

最優化之凸集、凸函數、上確界、Jensen不等式、共軛函數、Fenchel不等式、拉格朗日乘子法、KKT條件、拉格朗日對偶 1.直線的向量表達 1.1 共線定理 對於任意兩個向量a⃗,b⃗\vec{a}, \vec{b}a,b且b⃗

原创 矩陣基礎概念之行列式與秩

矩陣基礎概念及運算 1. 矩陣的線性運算 性質 1.1 設矩陣A,B,C,DA,B,C,DA,B,C,D爲同型矩陣,OOO爲零矩陣,k,lk,lk,l爲任意常數,則有 A+B=B+AA+B = B+AA+B=B+A (交換律) (

原创 生存分析(Survival Analysis)、Cox風險比例迴歸模型(Cox proportional hazards model)及

生存分析(Survival Analysis)、Cox風險比例迴歸模型(Cox proportional hazards model)及C-index 1. 生存分析 生存分析指的是一系列用來探究所感興趣的事件的發生的時間的統計方法