原创 kaggle Titanic 分析

1、概述    正式入坑kaggle競賽,爲了學習,做了Titanic: Machine Learning from Disaster,原文地址:https://www.kaggle.com/c/titanic   經過一段時間的學習,對

原创 Keras學習小結

1、概述    Keras是一個高級神經網絡搭建工具,比TensorFlow更加高級,當然靈活性也就沒那麼高。Keras給出了各種深度學習結構的基礎部件,我們只需要定義每一個部件的參數,全部連起來即可,很多細節都可以跳過,從而使得構造網絡

原创 神經網絡之優化方法

1、前言    神經網絡的優化方法有很多,前面學習了神經網絡參數的初始化方法,好的初始化方法可以讓網絡訓練的更快,也可能讓網絡收斂的更好。同樣,好的優化方法同樣具有這樣的作用。注意:談論優化方法時候,並沒有修改損失函數,只是修改了網絡學習

原创 pycharm unresolved reference

如圖所示,文件都在同一個文件夾中,但是導入utils文件中的mr和IoU時候會報錯(正常運行似乎沒有問題,IDE會在這裏畫紅線),鼠標移過去,顯示的是 原因是:該目錄不是source目錄(source folder) 解決辦法:把該目

原创 PCA主成分分析

1、概述    PCA(principle component analysis),也就是主成分分析,其主要目的或者作用是,將原來的數據變換到一個新的空間中,得到數據更好的表達方式,去除影響較小的部分,簡化數據的維度。    在看《機器學

原创 邏輯迴歸-Logistic Regression

1、前言首先值得注意的是,邏輯迴歸(對數機率迴歸)雖然叫回歸,但其實是個分類器。前面學習了線性迴歸,是用線性方程逼近一個高維平面,如果對y增加函數,則表示用線性方程去逼近一個高維曲面(大概可以這麼理解吧),比如:就是意圖用線性方程逼近ln

原创 神經網絡之Initialization

1、前言    參考文獻:https://zhuanlan.zhihu.com/p/25110150    以及:https://arxiv.org/pdf/1702.08591.pdf   https://arxiv.org/pdf/1

原创 數據分析基礎筆記

1、概述    近來開始做kangle的項目,從Titanic開始,一個星期,不斷試驗,將很多之前學習過的東西都用起來了。這裏統一彙總一下,記錄下數據分析常用的一些函數、方法等。這些東西屬於數據分析的範疇,是特徵工程的基礎。    下面以

原创 線性迴歸

1、心路歷程  近來學習了感知器、線性迴歸、邏輯迴歸等,發現他們大體相似,線性迴歸其實是做數據擬合,而感知器可以認爲是將線性迴歸應用到分類去了,使用了符號函數來離散化結果,而邏輯迴歸本質上也是尋找一維矩陣,只是它對線性方程用了sigmod

原创 局部加權線性迴歸

1、方法論    局部加權線性迴歸(Local Weights Linear Regression)也是一種線性迴歸,不同的是,普通線性迴歸是全局線性迴歸,使用全部的樣本計算迴歸係數。而局部加權線性迴歸,通過引入權值(核函數),在預測的時

原创 神經網絡之L2正則化

1、前言                之前的BP神經網絡,訓練時候,算法會調整每層的參數w使得損失儘可能小,由於數據存在很多幹擾或者噪聲,容易產生過擬合現象,導致網絡對訓練數據預測的效果較好,而對測試和驗證數據的預測效果較差。過擬合的決

原创 L0、L1、L2範數及參數正則化

    在深度學習中,監督類學習問題其實就是在規則化參數同時最小化誤差。最小化誤差目的是讓模型擬合訓練數據,而規則化參數的目的是防止模型過分擬合訓練數據。參數太多,會導致模型複雜度上升,容易過擬合,也就是訓練誤差小,測試誤差大。因此,我們

原创 BP神經網絡小結

1、邏輯迴歸     理解邏輯迴歸是理解BP神經網絡的關鍵,邏輯迴歸相當於是BP神經網絡的最後一層,也就是輸出層(BP神經網絡用於二分類問題)。下面給出邏輯迴歸的簡單推導過程:公式中已經默認Z=WX+b,損失函數使用交叉熵損失函數修正:W

原创 89元之小度音箱測評

    作爲AI行業的渣渣,出於對技術的熱愛,搶了幾次,終於搶到了89元的小度音箱,說到搶,期間還有幾多曲折,這裏不細細展開了(之前看到過科大的阿爾法蛋,感覺貴,沒出手,看來是明智的)。記錄一下購買後遇到的一些坑和解決方法,也記錄一下初次

原创 Adaboost

1、方法論           adaboost(adaptive boosting, 自適應提升法)是用多個弱分類器組合成強分類器的一種算法,其中這些弱分類器只需要滿足分類效果比隨機猜測好即可(當然弱分類器越強,需要的弱分類器數量也越少