原创 安裝roboware-studio及本地依賴問題解決

首先,根據這個博客安裝 RoboWare Studio的安裝 遇到問題: 未安裝軟件包 libgconf-2-4 解決: Ubuntu 安裝本地 deb 包以及解決本地包的依賴問題 解決

原创 理論力學---主矢量和主矩

主矢量 計算 因爲力的主矢量沒有作用點,因此還要考慮力系對物體產生的轉動效果,因此有力矩等概念 力矩 力對點之矩 大小 幾何解釋,同時描述了右手定則。 力對軸之矩 力對任意軸的矩 力系的主矩 力系對不同矩陣的主矩

原创 理論力學---虛位移

理論力學---虛位移實位移從約束的角度真實位移的性質虛位移定義變分與微分等時變分虛位移方向定義例題真實位移與虛位移的關係定常條件下非定常條件下小結 實位移 質點系真實發生的位移。 同時滿足動力學方程(牛頓定律)、初始條件和約束條件

原创 理論力學---約束及其分類

約束及其分類 靜力學以力學變分原理爲基礎 理論力學---約束及其分類約束約束力的理解約束的分類雙面約束、單面約束幾何約束、微分約束完整約束、非完整約束定長約束、非定長約束例題123 約束 對於非自由質點系運動預加的限制條件,數學

原创 最優化--中科院實景課堂--第二節 局部極小點+凸函數+無約束優化引言

1、目標函數很複雜,甚至可能需要採樣,而且來之不易。因此需要用少的步數算出最值 2、gloal、local(weak平/strict嚴格/isolated孤立[他的鄰域內只有這樣一個極小點,沒有震盪]) 3、我們找 的是在鄰域內的

原创 機器學習聽課筆記5.19

機器學習聽課筆記5.19一、對率迴歸(也叫sigmod函數)二、決策樹1、ID3思想僞代碼信息增益2、C4.53、過擬合4、連續值處理三、集成學習1、Boosting:強依賴,串行2、Bagging和隨機森林:沒有依賴,並行 一、

原创 matlab通常基本操作

首先在開頭clear all 定義函數需要用到functionmatlab function的使用 function可以定義在程序最後在前面調用 function格式見上面鏈接 當使用不同文件保存函數的時候,需要文件名就是函數名

原创 python函數賦值的一種形式

def a(num): return num+num aa = a print(aa(3)) 可以通過將函數名賦給變量,然後對變量(函數)賦值的形式得到函數運行結果。

原创 lecture6:Policy OptimizatiobⅡ(策略優化2)

lecture6:Policy OptimizatiobⅡ(策略優化2)3、ACKTR方法link如下:4、PPO方法clipping版本:代碼:三、價值函數優化1、DDPG步驟代碼:2、Twin Delayed DDPG(TD3

原创 python中的斷言assert

可以用來檢測變量是否達到要求 比如 # check if h and w in record equals that read from img assert img.shape[0] == int(h), \

原创 Harris角點檢測+python實現+特徵向量,特徵值理解。

Harris角點檢測+python實現概述基本原理具體實現cv2.cornerHarris 概述 是一種基於圖像灰度的方法通過計算點的曲率和梯度來檢測角點。 基本原理 如果在各個方向上移動窗口,窗口中的灰度值都會發生較大變化,那麼

原创 視覺SLAM十四講---第三講三維空間剛體運動

視覺SLAM十四講---第三講三維空間剛體運動一二三四五 一 我們說向量的組成一般指的是向量的座標 首先需要定義座標系,根據右手系建立。 三個向量張成整個空間,然後可以通過線性組合表示向量。 向量之間的運算,可以直接對座標進行運算

原创 CVPR2020文章---無監督強化學習獲得遷移能力

鏈接:CVPR 2020 | 用無監督強化學習方法來獲得遷移能力 CVPR2020文章---無監督強化學習獲得遷移能力引出問題深度強化學習任務存在的問題我們的目標meta-learning什麼是meta-learning主要分爲三

原创 lecture6:Policy OptimizatiobⅡ(策略優化)

兩條主線,一共有6種方法。 策略梯度和Q兩種 lecture6:Policy OptimizatiobⅡ(策略優化)一、策略梯度方法二、 策略優化方法1、Natural policy gradient2、基於重要度採樣的離線策略T

原创 Jensen不等式

Jensen不等式初步理解及證明 對於凸函數 離散形式 連續形式 也就是說jessen不等式是對於凸函數而言纔有的性質。