1. 第四講(上)_基於滑動窗口算法的VIO系統原理
1.1. 高斯分佈到信息矩陣
1.1.1. SLAM問題的模型
1.1.2. 舉例
- 上面省略了一些步驟
11∑=Conv(x1,x1)=E([x1−E(x1)]2)
又因爲:
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)
且v1和v2都是0均值正態分佈,所以
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)=0
所以:
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1]2)
最終:
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1])=w12E(v22)+2w1E(v1v2)+E(v12)=w12[E(v22)−E(v2)2]+0+[E(v12)−E(v1)2]=w12σ22+σ12
下面是關於期望\方差\協方差的一些回顧:
協方差矩陣
以上參考自:
注意:
- 上面的p(x1,x2,x3)=p(x2)p(x1∣x2)p(x3∣x2)是與給出的例子結合起來的, 例子是有室外的溫度(即變量x2), 而房間1和房間3的溫度是分別僅與室外溫度x2相關.
一些特性
- 如果協方差矩陣中,非對角元素∑ij>0表示兩個變量正相關.
- 在信息矩陣(協方差矩陣的逆)中,對應的非對角元素∑ij<0或∑ij=0. 如Λ12<0則表示在變量x3發生(確定)的條件下,元素x1和x2是正相關的.
注意:
- 上面的p(x1,x2,x3)=p(x1)p(x3)p(x2∣x1,x2)是與給出的例子2結合起來的, 例子2是變量x2由x1,x3共同給出
注意:
- 去除一個變量, 實際上就是將該變量所攜帶的信息轉化爲剩餘變量的先驗
1.2. 舒爾補應用:邊際概率,條件概率
這裏可以往回看一下多元高斯分佈,上幾頁ppt
解釋:
- 對x=[a,b]T裏面的變量a進行邊際概率, 即把變量b去掉的時候, a的分佈正比於exp(−21aTA−1a), 也就是服從均值爲0, 方差爲A的正態分佈
- 此時的邊際概率P(a)的協方差就是多元變量x的協方差矩陣K中的矩陣塊, 在這個例子中就是矩陣塊A
K=[ACCTD]
- 對應的關於條件概率P(b∣a)則服從均值爲A−1CTb, 方差爲變量a的舒爾補ΔA的正態分佈.
解釋:
- 就是說,在SLAM問題裏面,我們直接操作的只有多元變量x=[a,b]T的信息矩陣(注意,是信息矩陣,不是協方差矩陣)
K−1=[ACCTD]−1
- 根據公式(29), 即我們只有這樣一個形式的信息矩陣:
K−1=[A−1+A−1CTΔA−1CA−1−ΔA−1CA−1−A−1CTΔA−1ΔA−1]
- 需要從上面形式的信息矩陣中恢復出變量a的信息矩陣,即矩陣A−1,則可利用公式(38)
注意:
- 對某個多元高斯分佈P(a,b)進行分解,可分解爲:
- P(a,b)=P(a∣b)P(a): 這種情況就是不再關注變量b, 而邊際分佈P(a)的信息矩陣包含了就是把變量b所攜帶的信息, 就是說此時P(a)分佈是包含了變量b信息的先驗. (適用於去掉變量b)
- P(a,b)=P(b∣a)P(b): 這種情況就是不再關注變量a, 二邊際分佈P(b)的信息矩陣包含了就是把變量a所攜帶的信息, 就是說此時P(b)分佈是包含了變量a信息的先驗. (適用於去掉變量a)
解釋:
-
回顧例子(1),有3個變量x1,x2,x3, 如果去掉變量x3, 對應的信息矩陣就是原來信息矩陣中關於變量x3的項全部消掉, 由於實際操作中並沒有顏色標記, 所以應用了舒爾補公式來進行這個消掉x3相關項的操作.
-
具體操作就是:把(x1,x2)看做是上面多元高斯分佈x=[a,b]T裏面的a, 把x3看做是b, 可以看到, b邊緣化之後的分佈(即邊際概率)P(x1,x2)對應的信息矩陣可以用公式(38)得到.
P(x1,x2,x3)=P(x1,x2)P(x3∣x1,x2)
-
最終要保留的變量(x1,x2)所對應的原信息矩陣子塊就是Λaa, 消掉某個變量(x3)之後, 變量(x1,x2)最終的信息矩陣由式(38)來計算.
-
換句話說: 當最終要保留的變量是(x2,x3), 而要消掉的變量是x1時, 變量(x2,x3)在原信息矩陣K−1所對應的矩陣子塊爲右下角的部分, 即原信息矩陣的右下角子塊纔是Λaa
作業
1. 畫出相機變量ξ1被marg之後的信息矩陣
2. 畫出相機變量ξ2被marg之後的信息矩陣
(不知道是不是這樣做?)