基於Tensorflow輕鬆實現XOR運算

對於“XOR”大家應該都不陌生,我們在各種課程中都會遇到,它是一個數學邏輯運算符號,在計算機中表示爲“XOR”,在數學中表示爲“\bigoplus”,學名爲“異或”,其來源細節就不詳細表明瞭,說白了就是兩個a、b兩個值做異或運算,若a=b則結果爲0,反之爲1,即“相同爲0,不同爲1”.

在計算機早期發展中,邏輯運算廣泛應用於電子管中,這一點如果大家學習過微機原理應該會比較熟悉,那麼在神經網絡中如何實現它呢,早先我們使用的是感知機,可理解爲單層神經網絡,只有輸入層和輸出層(在吳恩達老師的系列教程中曾提到過這一點,關於神經網絡的層數,至今仍有異議,就是說神經網絡的層數到底包不包括輸入層,現今多數認定是不包括的,我們常說的N層神經網絡指的是隱藏層+輸出層),但是感知機是無法實現XOR運算的,簡單來說就是XOR是線性不可分的,由於感知機是有輸入輸出層,無法線性劃分XOR區域,於是後來就有了使用多層神經網絡來解決這一問題的想法~~

關於多層神經網絡實現XOR運算可大致這麼理解:

兩個輸入均有兩個取值0和1,那麼組合起來就有四種可能,即[0,0]、[0,1]、[1,0]、[1,1],這樣就可以通過中間的隱藏層進行異或運算了~

咱們直接步入正題吧,對於此次試驗我們只需要一個隱藏層即可,關於神經網絡 的基礎知識建議大家去看一下吳恩達大佬的課程,真的很棒,百看不厭,真正的大佬是在認定學生是絕對小白的前提下去講解的,所以一般人都能聽懂~~接下來的圖純手工操作,可能不是那麼準確,但中心思想是沒有問題的,我們開始吧:

上圖是最基本的神經網絡示意圖,有兩個輸入x1、x2,一個隱藏層,只有一個神經元,然後有個輸出層,這就是最典型的“輸入層+隱藏層+輸出層”的架構,對於本題目,我們的輸入和輸出以及整體架構如下圖所示:

輸入量爲一個矩陣,0和0異或結果爲0,0和1異或結果爲1,依次類推,對應我們的目標值爲[0,1,1,0],最後之所以用約等號是因爲我們的預測值與目標值之間會有一定的偏差,如果訓練的好那麼這二者之間是無限接近的。

我們直接上全部代碼吧,就不分步進行了,以爲這個實驗本身難度較低,且代碼註釋很清楚,每一步都很明確,如果大家有什麼不理解的可以留言給我,看到必回:

#!/usr/bin/env python 
# -*- coding:utf-8 -*-

import numpy as  np
import tensorflow as  tf

#定義輸入值與目標值
X=np.array([[0,0],[0,1],[1,0],[1,1]])
Y=np.array([[0],[1],[1],[0]])

#定義佔位符,從輸入或目標中按行取數據
x=tf.placeholder(tf.float32,[None,2])
y=tf.placeholder(tf.float32,[None,1])

#初始化權重,使其滿足正態分佈,w1和w2分別爲輸入層到隱藏層和隱藏層到輸出層的權重矩陣
w1=tf.Variable(tf.random_normal([2,2]))
w2=tf.Variable(tf.random_normal([2,1]))

#定義b1和b2,分別爲隱藏層和輸出層的偏移量
b1=tf.Variable([0.1,0.1])
b2=tf.Variable([0.1])

#使用Relu激活函數得到隱藏層的輸出值
a=tf.nn.relu(tf.matmul(x,w1)+b1)

#輸出層不用激活函數,直接獲得其值
out=tf.matmul(a,w2)+b2

#定義損失函數MSE
loss=tf.reduce_mean(tf.square(out-y))

#優化器選擇Adam
train=tf.train.AdamOptimizer(0.01).minimize(loss)

#開始訓練,迭代1001次(方便後邊的整數步數顯示)
with tf.Session() as session:
    session.run(tf.global_variables_initializer())  #初始化變量
    for i in range(1001):
        session.run(train,feed_dict={x:X,y:Y})  #訓練模型
        loss_final=session.run(loss,feed_dict={x:X,y:Y})  #獲取損失
        if i%100==0:
            print("step:%d     loss:%2f" % (i,loss_final))
    print("X: %r" % X)
    print("pred_out: %r" % session.run(out,feed_dict={x:X}))

對照第三張圖片理解代碼更加直觀,我們的隱藏層神經元功能就是將輸入值和相應權重做矩陣乘法,然後加上偏移量,最後使用激活函數進行非線性轉換;而輸出層沒有用到激活函數,因爲本次我們不是進行分類或者其他操作,一般情況下隱藏層使用激活函數Relu,輸出層若是分類則用sigmode,當然你也可以不用,本次實驗只是單純地做異或運算,那輸出層就不勞駕激活函數了~

對於標準神經元內部的操作可理解爲下圖:

這裏的x和w一般寫成矩陣形式,因爲大多數都是多個輸入,而矩陣的乘積要滿足一定的條件,這一點屬於線代中最基礎的部分,大家可以稍微瞭解一下,這裏對設定權重的形狀還是很重要的;

看下效果吧:

這是我們在學習率爲0.1,迭代1001次的條件下得到的結果

然後我們學習率不變,迭代2001次,看效果:

沒有改進,這就說明不是迭代次數的問題,我們還是保持2001的迭代數,將學習率改爲0.01,看效果:

完美~~~最後損失降爲0了~~一般來說,神經網絡中的超參中最重要的就是學習率了,如果損失一直降不下來,我們首先要想到修改學習率,其他的超參次之……

大家可以觀察一下我們的預測值,四項分別對應[0,1,1,0],已經是相當接近了……

 

如果本篇內容對你有一點點幫助,請點個贊或者收藏關注一下,讓我們一起努力

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章