原创 [深度學習] tensorflow1.x和tensorflow2.x對比與總結

tensorflow1.x和tensorflow2.x對比與總結1. 主要區別有如下幾點1.0. 易於使用(Ease of use)1.1. 使用Eager模式(Eager Execution)1.2. 建立模型和部署變得容易(M

原创 深度學習:優化方法——momentum、Nesterov Momentum、AdaGrad、Adadelta、RMSprop、Adam

深度學習:優化方法1. 指數加權平均(Exponentially weighted average)2. 帶偏差修正的指數加權平均(bias correction in exponentially weighted average

原创 神經網絡-損失函數是不是凸的

損失函數是不是凸的? 不是 全局最優不一定是好的解,局部最優不一定是差的解 NN中設計得激活函數是爲了引入非線性變換,凸不凸都可以 NN不凸,是多個隱藏層導致的,即使每一層激活函數都是凸的,目標函數依舊是非凸問題。 激

原创 神經網絡-損失函數-等高線理解

經常會有人用等高線理解一些事情,那麼什麼是等高線能 用程序畫出下面這個函數的損失函數的等高線 K是神經網絡一個神經元的權重W b是一個神經元的偏移值 Y=kx+b y 期望值 損失函數 Loss=1m(Y−y)2 Loss =\f

原创 神經網絡-卷積神經網絡

1. 全連接BP神經網絡的缺點​ 如果要用全連接BP神經網絡,我們把輸入的圖片“展平”了,“展平”是什麼意思呢?我們都知道,計算機存儲圖片,實際是存儲了一個W×H×DW\times H\times DW×H×D 的數組(W,H

原创 深度學習- 激活函數總結(Sigmoid, Tanh, Relu, leaky Relu, PReLU, Maxout, ELU, Softmax,交叉熵函數)

激活函數是用來加入非線性因素的,解決線性模型所不能解決的問題 1.Sigmoid 函數 Sigmoid函數由下列公式定義 Sigmoid函數的圖形如S曲線 其對x的導數可以用自身表示: Sigmoid導數的圖形如下 優點:

原创 深度學習-爲什麼用激勵函數

激活函數是用來加入非線性因素的,解決線性模型所不能解決的問題 首先我們有這個需求,就是二分類問題,如我要將下面的三角形和圓形點進行正確的分類,如下圖: 利用我們單層的感知機, 用它可以劃出一條線, 把平面分割開: 上圖直線是由

原创 JMS學習之ActiveMQ-簡單使用

1.下載 ActiveMQ 包在ActiveMQ 官網 下載可以去官網下載:http://activemq.apache.org/download.html 2、啓動ActiveMQ 啓動ActiveMQ非常的簡單。進入bin目錄

原创 深度學習-Tensorflow1.x-CNN中的padding參數

在深度學習的圖像識別領域中,我們經常使用卷積神經網絡CNN來對圖像進行特徵提取,當我們使用TensorFlow搭建自己的CNN時,一般會使用TensorFlow中的卷積函數和池化函數來對圖像進行卷積和池化操作,而這兩種函數中都存在

原创 TensorFlow 中 identity 函數理解

理解 identity: n.身份; 本身; 本體; 特徵; 特有的感覺(或信仰); 同一性; 相同; 一致; identity的意思是自身的意思,簡單說就是賦值。 x = tf.Variable(0.0) y=x 和下面的: x

原创 爲什麼深度學習 數據需要做中心化和標準化處理?

在迴歸問題和一些機器學習算法中,以及訓練神經網絡的過程中,通常需要對原始數據進行中心化(Zero-centered或者Mean-subtraction)處理和標準化(Standardization或Normalization)處理

原创 計算 期望與方差(mean and Variance)在 Tensorflow 與 Numpy 對比

計算 期望與方差(mean and Variance)在Tensorflow 與 Numpy 對比 Tensorlfow 裏 計算期望與方差是用 tf.nn.moments(img, axis) 函數 Numpy 裏 計算期望與