原创 TensorFlow常用函數

tf.stack(value, axis=0, name=”) 重新弄組合數據 ‘x’ is [1, 4] ‘y’ is [2, 5] ‘z’ is [3, 6] stack([x, y, z], axis=0

原创 TensorFlow搭建CNN卷積神經網絡

TensorFlow搭建CNN卷積神經網絡 該教程採用TernsorFlow搭建CNN卷積神經網絡,並利用MNIST數據集進行數字的手寫識別 數據結構 mnist原始圖片輸入,原始圖片的尺寸爲28×28,導入後會自動展開爲2

原创 自適應神經網絡控制

自適應神經網絡控制 基本思路 自適應控制率 u∗ u∗=−1b(x)[a(x)+v]−[1εb(x)+1εb2(x)−b(x)˙2b2(x)]es ———— (1) 之所以這麼設計的原因,一方面是基於反饋控制的基本思想,設計誤差動態

原创 神經網絡PID控制

神經網絡PID控制 控制結構 NNC控制器採用增量PID控制結構 x1(k)=e(k)=r(k)−y(k) x2(k)=Δe(k)=e(k)−e(k−1) x3(k)=Δ2e(k)=Δe(k)−Δe(k−1)=e(k)−e(k−1

原创 泰勒展開式

泰勒展開式 一元函數Taylor展開 f(x)=f(x0)+f,(x0)(x−x0)+f,,(x)2(x−x0)2+...+fn(x)n(x−x0)n+R 二元函數Taylar展開 f(x0+h,y0+k)=f(x0,y0)+(h∂∂x

原创 自適應控制設計(二)

自適應控制設計(二) 《自適應控制基本思想》一文主要介紹了自適應控制設計的基本思路,但是針對控制率的設計沒有具體說明,這裏針對反饋控制率的設計步驟進行具體介紹 控制器設計基本思想 對於任何一個動態系統,我們都可以根據Lyapunov穩定

原创 numpy的astype函數

astype函數用於array中數值類型轉換 x = np.array([1, 2, 2.5]) x.astype(int) 輸出:array([1, 2, 2])

原创 numpy的random.choice函數

random.choice用於隨機地從指定區域選擇數據 np.random.choice(5, 3) 輸出:array([0, 3, 4]) np.random.choice(5, 3, p=[0.1, 0, 0.3, 0.6, 0]

原创 神經網絡控制

神經網絡控制 學習方式 學習方式就是基於什麼進行學習,而隨後討論的學習規則是,基於此如何進行調整權值的算法 有監督的學習 有監督學習也稱有導師學習,這種學習需要外界存在一個“導師”,它可以根據自身掌握的一些知識爲神經網絡提供

原创 Deep Q-Learning深度增強學習(代碼篇)

搭建DQN 初始化 #動作數量 self.n_actions #狀態數量 self.n_features #learning_rate學習速率 self.lr #Q-learning中reward衰減因子 self.gamma #e-g

原创 numpy的newaxis使用

numpy的newaxis屬性用於給原先的list增加一個新的維度 Example1 x = np.array([0, 1, 2]) print (x.shape) 輸出:(3, ) #代表是一個一維的list x[:, np.new

原创 神經網絡穩定性分析

神經網絡穩定性 系統動力學系統表述 研究一個系統最終目的是爲了得到系統變量隨時間變化的軌跡x(t)=f(t) ,但實際上,只能獲取系統每時每刻的受力情況,而並不能直接知道最終的軌跡方程,這個是符合我們日常生活經驗和邏輯的。因此,我們需要觀

原创 高級Lyapunov穩定性

高級Lyapunov穩定性 基本概念 函數及其導數的漸進性質 f(t)˙→0 ⇏f(t) 收斂 幾何上,導數趨近於零意味着切線越來越平,但是並不意味着函數收斂。比如f(t)=sin(Ln(t)) ,f(t)=t√sin(Ln(t))

原创 自適應控制基本思想

自適應控制 自適應控制所討論的對象,一般是指對象的結構已知,僅僅是參數未知,而且採用的控制方法仍是基於數學模型的方法 但實踐中我們還會遇到結構和參數都未知的對象,比如一些運行機理特別複雜,目前尚未被人們充分理解的對象,不可能建立有效的數

原创 增強學習--策略梯度算法(Policy Gradient)

基於似然函數推導策略梯度 強化學習的目標函數 U(θ)=E(∑t=0HR(st,ut);πθ)=∑τP(τ;θ)R(τ) 參數含義 τ={s0,u0,...,sH,uH} :一組狀態與行爲序列 R(τ)=∑t=0HR(st,