原创 Coursera ML筆記 -----week3 Logistic Regression

歡迎點擊作者原文地址 Logistic Regression /Classification logistic regression和linear regression 並沒有什麼直接的聯繫,不要搞混淆了 問題是什麼 ? 希望

原创 Coursera ML筆記 -----week4 Neural Network -1

歡迎點擊作者原文地址 Neural Network 在實際的分類問題中,我們會碰到這樣子的一種情況: 我們所要求解的問題的特徵特別多,並且我們所做出的假設並不是一個線性的關係,而是一個複雜的高次方項的非線性問題。這個時候我們如果

原创 Coursera ML筆記 -----week5 Neural Network,Back Propagation

歡迎點擊作者原文地址 後向傳播算法 首先需要說明的是,在這一篇筆記中,我們的目的是:通過不斷地調整我們的參數,來更新cost function 以獲取其最小值。在實現的過程中,我們主要用到的方法主要是梯度下降法,可以參考邏輯迴歸章

原创 概率論2---參數估計

利用樣本的信息對總體做推斷 這裏的推斷是怎麼回事? 推斷包括了統計估計和假設檢驗兩部分 其中 統計估計 是估計總體的分佈或者數字特徵 這其實是要做兩件事情: 總體分佈未知,我要對它的分佈做估計,這叫做非參數估計總體分佈已知或者已經通過非參

原创 Coursera ML筆記 -----week9-1 異常檢測

歡迎點擊作者原文地址 Anormaly Detction/Density Estimation 如何建立模型來計算p\(x\) ? 考慮如何評估並且調整建立的模型和閾值ϵ 的選取? 異常檢測 v.s. 監督學習 特徵值的選取

原创 coursera ML筆記 ----week2 多變量的線性迴歸

歡迎點擊作者原文地址 2017/3/10 week2 多變量的線性迴歸 hθ(x)=ΘTX=θ0+θ1x1+θ2x2+...+θnxn cost function J(Θ)=12m∑i=1m(y^−yi)2=12m∑

原创 coursera 前三張公式速查

歡迎點擊作者原文地址 所有公式速查 注意:所有的公式優先以向量的形式表示,其中 θ=(θ0,θ1,...,θn)T X=⎡⎣⎢⎢⎢⎢⎢⋯(x(1))T⋯⋯(x(2))T⋯⋮⋯(x(n))T⋯⎤⎦⎥⎥⎥⎥⎥ x(i)=(x(

原创 概率論1

寫博客的目的是爲了幫自己理清楚在學習過程中的思路。 char1 基本概念與抽樣分佈 1.數理統計學是在做什麼? 研究如何有效地收集、整理和分析受隨機影響的數據,並對所考慮的問題作出推斷和預測,爲決策和行爲提供依據和建議。 數理統計學的

原创 Coursera ML筆記 --- week1:單變量的線性迴歸+梯度下降法

歡迎點擊作者原文地址 week1:單變量的線性迴歸+梯度下降法 2017/3/7 week1 supervise learing 監督學習分爲兩類:分類和迴歸 分類是將輸入變量(feature/attri

原创 每天學習計劃及進度彙總

2017/3/21 機器學習使用案例解析 預測網頁流量的例子+polynomial regression    √ coursera ML課程前三章

原创 Coursera ML筆記 -----week3 Regulariztion

歡迎點擊作者原文地址 2017/3/20 Regularization 正則化的目的是改善或者減少過擬合overfitting 什麼是overfitting? underfitting /high bias欠擬合,是指

原创 遺傳算法

目標:在解空間中儘可能地找到最優解,找不到最優解,就找比較好的解,希望能跳出局部最優解 步驟: 1.在解空間中選擇一部分的點來構成一個種羣,每個點都是一個解,每個點都應該用統一的編碼方式來進行編碼。於是,一個解可以類比成一個染色體,而經

原创 2017年3月份碰到的問題彙總

做項目的時候碰到的問題彙總: 2017/3/2  學習struts2 1.運行第一個struts2程序的時候一直報錯      原因:1.使用的jar包的版本問題,如果使用2.3的版本沒有什麼問題 ,但是2.5的版本就會出現各種各樣

原创 機器學習實用案例解析--讀書筆記

第五章 線性迴歸 對於一個給定的數據集,我們想用線性迴歸來進行預測 fitted.regression <- lm(y~x,datasource) 接下來要進行直線的位置參數的求解 [intercept slope] =

原创 Coursera ML筆記 -----week7 Support Vector Machine

歡迎點擊作者原文地址 本部分主要解釋這麼幾個問題: 1. 從logistic regression到SVM 2. SVM和Large Margin Classfier 3. SVM的hypothetsis (θTf≥0 ) 4.