原创 python:數據類型

數值 type(1) <class 'int'> type(1.2) <class 'float'> type(1+2j) <class 'complex'> python支持任意大數字,受內存大小限制 提高可讀性,數值下可以

原创 Python

學習自《深度學習入門》 Python是一個簡單、易讀、易記的編程語言,而且是開源的,可以免費地自由使用 憑藉着 NumPy(Numerical Python)、SciPy等優秀的數值計算、統計分析庫,在數據科學領域佔有不可動搖的

原创 《深度學習入門》讀書筆記2:神經網絡

關於感知機,既有好消息,也有壞消息。好消息是,即便對於複雜的函數,感知機也隱含着能夠表示它的可能性。上一章已經介紹過,即便是計算機進行的複雜處理,感知機(理論上)也可以將其表示出來。壞消息是,設定權重的工作,即確定合適的、能符合

原创 《深度學習入門》讀書筆記5:卷積神經網絡

一丶一般的神經網絡與CNN CNN 中新增了 Convolution 層 和 Pooling 層。連接順序是“Convolution - ReLU -(Pooling)”(Pooling層有時會被省略),之前的“Affine

原创 安裝tensorflow

pip install tensorflow -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com

原创 《深度學習入門》讀書筆記1:感知機

感知機perceptron算法。感知機是由美國學者Frank Rosenblatt在1957年提出來的。爲何我們現在還要學習這一很久以前就有的算法呢?因爲感知機也是作爲神經網絡(深度學習)的起源的算法。因此,學習感知機的構造也就

原创 《深度學習入門》讀書筆記3:神經網絡的學習

神經網絡的特徵就是可以從數據中學習。所謂“從數據中學習”,是指可以由數據自動決定權重參數的值。這是非常了不起的事情!因爲如果所有的參數都需要人工決定的話,工作量就太大了。 代價函數 參數選得好不好,那就要看代價函數,我們通過不斷嘗

原创 《深度學習入門》讀書筆記4:誤差反向傳播法

數值微分計算了神經網絡的損失函數關於權重參數的梯度,數值微分雖然簡單,也容易實現,但缺點是計算上比較費時間 下面是一種高效計算權重參數的方法——誤差反向傳播法,原理是根據鏈式法則,倒着來,主要內容推各種激活函數,層的backwar

原创 《深度學習入門》讀書筆記3.1:Python實現導數

導數 導數表示的是某個瞬間的變化量: df(x)dx=lim⁡h→0f(x+h)−f(x)h\frac{df(x)}{dx}=\lim_{h \to0} \frac{f(x+h)-f(x)}{h}dxdf(x)​=h→0lim​h

原创 Python:Numpy—reshape、transpose、flatten

reshape 不改變原數據情況下修改形狀且創造一個新的np數組 numpy.reshape(a, newshape, order=‘C’) a:要修改形狀的數組 newshape:整數或者整數數組,新的形狀應當兼容原有形狀

原创 Python:Numpy—rand、randn

用法 參數 rand(d0, d1, …, dn) 產生均勻分佈的隨機數 dn爲第n維數據的維度 randn(d0, d1, …, dn) 產生標準正態分佈隨機數 dn爲第n維數據的維度 rand 返回一個或

原创 Dropout解決過擬合代碼

學習自《深度學習入門》 過擬合指的是隻能擬合訓練數據,但不能很好地擬合不包含在訓練數據中的其他數據的狀態。 發生過擬合的原因,主要有以下兩個。 模型擁有大量參數、表現力強。 訓練數據少 權值衰減是一直以來經常被使用的一種抑制過

原创 Python:Numpy—arange

從數值範圍創建數組 numpy.arange(start, stop, step, dtype) start :起始值,默認爲0 stop :終止值(不包含) step : 步長,默認爲1 dtype : 返回ndarr

原创 SGD、Momentum、AdaGrad、Adam

注:《深度學習應用》 WWW 表示需要更新的參數 ∂L∂W\frac{\partial L}{\partial W}∂W∂L​ 表示損失函數關於W的梯度 η\etaη 表示學習率 SGD Momentum

原创 矩陣解線性方程

學習自《linear algebra and its application》 二元線型方程 我們熟知的兩個未知數兩個方程組的解,等價於兩條直線的交點 可能交於一點(一個解),平行(無解),重合(兩條直線上每個點交點) 有交點