原创 numpy的stack(),hstack()函數

stack(value, axis) 通過axis=0或1,對value進行堆積 當axis=0時 a = [1, 2, 3, 4] b = [5, 6, 7, 8] d = np.stack((a, b),axis=0) print

原创 反向傳播算法(Back Propagation)

反向傳播算法(Back Propagation) 之所以要用反向傳播算法,是因爲神經網絡是一個巨大的複合函數,複合函數求導應用鏈式求導法則,在運算的順序上做一定的調整,就可以達到節約運算的目的,但本質上和直接求導是一致的 以下兩篇博客已

原创 Deep Q-Learning深度增強學習算法

DQN算法 由於某些環境中狀態過多,通過傳統Q-learning的方法,維護一張規模巨大的Q表顯然是不現實的。DQN利用神經網絡代替了Q表,只需要通過對實際訓練的採樣數據進行訓練,就可以近似模擬Q表的數值 初始化記憶庫D 初始化Q估計