原创 tensorflow小練手案例 RNN lstm 擬合 週期函數 sin

附上一個簡單lstm結構的網絡,麻雀雖小但是五臟俱全,其中包含了很多優化方法: 擬合sin函數 import tensorflow as tf import numpy as np steps = 32 batch_size =

原创 卷積神經網絡優化方向

1,去除更多的先驗,讓卷積網絡可以更加自主地優化更大比例的參數,例如:可變形卷積 2,增加更多的先驗,讓卷積網絡可以有更好的單位參數可辨識能力,例如:SE-net

原创 深度學習概述:當你沒有方向時的加油站

機器學習:一個老生常談的問題,在深度學習的出現下,機器學習開啓了一個新的時代,人工智能好像也離我們越來越近,大致梳理一下深度學習的內容,初學可以做知識網絡去學習,學會者可以用來查漏補缺。 深度學習是計算深度大於二的運算結構,計算深度在

原创 火災圖像識別 準確度提高的方法

具體方法可以私下交流。

原创 神經網絡可以訓練 但是誤差降爲0的問題

一般來說是初始化有問題,降低初始化函數的標準差即可,例如,卷積網絡取負的過濾層,將會導致這一現象。

原创 人工智能需要“睡覺”嗎?

人都是需要睡覺的,有些人甚至會做夢,這些在人工智能中有可能會存在嗎?如果存在其意義又是什麼? 很多人看到這樣的問題,肯定會說不會,機器又不需要休息,但是恰恰相反,人工智能也需要休息。 談及這個方面就要提到機器學習中的正相(positi

原创 數據挖掘的知識點總結

數據挖掘的步驟:需求->數據抓取->特徵選擇->模型選擇->驗證->應用 雖然步驟是靈活的,但是筆面試還是以這樣的過程爲基準的 分析步驟:首先要做技術評估 1, 數據抽取統計分析:對於數據特徵有一個初步的把握 2, 數據清洗 3, 數

原创 tensorflow小練手案例 RNN lstm 擬合 周期函數 sin

附上一個簡單lstm結構的網絡,麻雀雖小但是五臟俱全,其中包含了很多優化方法: 擬合sin函數 import tensorflow as tf import numpy as np steps = 32 batch_size = 3

原创 關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想

關於《深度學習》書中,第十一章中學習率過低會導致訓練誤差高位擾動的問題的猜想 首先,凸問題中不存在,證明在二階偏導的情況下,即數據中有一個明顯的誤差下降方向時,不會造成這種情況。 這裏就得到了兩個條件,非凸且學習率過低。 過低,低到什