原创 paper之論文閱讀方法

1.論文分類 按類別分: 1.綜述論文:快速熟悉某領域現狀及子方向,瞭解基礎概念,適合入門; 2.專題論文:介紹具體算法,設計思路,實驗技巧,代碼實現等具體技術; 進入一個新領域,先閱讀綜述論文,再讀專題論文; 從論文質量角度:

原创 paper專區文章彙總

1.paper學習方法:https://blog.csdn.net/luteresa/article/details/106809035

原创 機器學習18:用Keras實現遷移學習方法,原理

遷移學習是指對提前訓練過的神經網絡進行調整,以用於新的不同數據集。 1.Keras實現遷移學習實例 先看個Keras實現的遷移學習案例 https://keras-cn.readthedocs.io/en/latest/other

原创 機器學習17:用Keras實現圖片數據增廣的方法和實踐

Keras圖片增強 CNN中圖片具有平移不變形,旋轉不變形,如下圖,而在實際應用中訓練數據常常不足, 或不均衡, 因此我們可以通過增強數據,擴展訓練集。 我們可以對現有的數據,進行平移、翻轉、旋轉、縮放、亮度增強等操作,以生成新

原创 機器學習7:樸素貝葉斯

我們的任務 垃圾郵件檢測是機器學習在現今互聯網領域的主要應用之一。幾乎所有大型電子郵箱服務提供商都內置了垃圾郵件檢測系統,能夠自動將此類郵件分類爲“垃圾郵件”。 在此項目中,我們將使用樸素貝葉斯算法創建一個模型,該模型會通過我們對

原创 機器學習14:用 Keras 構建神經網絡

Keras官網: https://keras.io/ Keras is a high-level neural networks API, written in Python and capable of running on t

原创 機器學習13:神經網絡的反向傳播實現

利用神經網絡來預測學生錄取情況 我們基於以下三條數據預測了加州大學洛杉磯分校 (UCLA) 的研究生錄取情況: GRE 分數(測試)即 GRE Scores (Test) GPA 分數(成績)即 GPA Scores (Grad

原创 機器學習12:用梯度下降法實現線性迴歸

梯度下降算法原理網上很多,我這裏只是作爲自己學習過程的札記,方便自己查看複習,因此不會那麼詳細,一般只記錄對自己有用的部分。 1.什麼是梯度? 可以簡單理解爲多變量函數的導數,即對每個變量單獨求偏導。 梯度是改變率或者斜度的另一個

原创 機器學習8:支持向量機(SVM)

支持向量機(support vector machines) 優點:泛化錯誤率低,計算開銷不大,結果易解釋 缺點: 對參數調節和核函數的選擇敏感,原始分類器不加修改僅適用於處理二分類問題。 適用數據類型: 數值型和標稱型數據。 是

原创 機器學習16:簡單, 直觀的方法理解CNN(卷積神經網絡)核心原理及實現

1.CNN(卷積神經網絡)的典型應用場景 1.1 WaveNet 模型: https://deepmind.com/blog/wavenet-generative-model-raw-audio/ 如果你能訓練人工智能機器人唱歌,

原创 機器學習15:神經網絡調試方法總結

1.過擬合問題 1.1早期停止法: 將每個epoch的誤差繪製成圖表,畫出訓練誤差和測試誤差的曲線 降低梯度,直到測試誤差停止降低並開始增大。這個臨界點就是最合適的epoch。這個方法廣泛用於訓練神經網絡。 1.2正則化 當用

原创 深度學習06: 常用激活函數總結(sigmod,tanh,Relu等)

深度學習中幾種常見的激活函數理解與總結 https://www.cnblogs.com/XDU-Lakers/p/10557496.html 神經網絡梯度消失和梯度爆炸及解決辦法 https://blog.csdn.net/pro

原创 機器學習6:決策樹相關的概念

先補充一個物理概念 熵 Entropy: 度量事物的不確定性,不確定性越高,熵就越大,反之越確定,熵越小; 隨機事件(多類別)的熵可以表示爲: entropy=−p1log2(p1)−p2log2(p2)−...−pnlog2(p

原创 PyTorch 02:通過 PyTorch 構建神經網絡

深度學習網絡一般量級都很大,包含數百個層級,這也是爲什麼叫“深度”學習網絡。你可以像在上個 notebook 展示的一樣,僅使用權重矩陣構建深度網絡,但是這通常很繁瑣並且不好實施。PyTorch 有一個很方便的模塊 nn,可以有效

原创 PyTorch 03: 訓練神經網絡

我們在上個部分構建的神經網絡其實不太成熟,它還不能識別任何數字。具有非線性激活函數的神經網絡就像通用函數逼近器一樣。某些函數會將輸入映射到輸出。例如,將手寫數字圖像映射到類別概率。神經網絡的強大之處是我們可以訓練網絡以逼近這個函數