1. 第四讲(上)_基于滑动窗口算法的VIO系统原理
1.1. 高斯分布到信息矩阵
1.1.1. SLAM问题的模型
1.1.2. 举例
- 上面省略了一些步骤
11∑=Conv(x1,x1)=E([x1−E(x1)]2)
又因为:
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)
且v1和v2都是0均值正态分布,所以
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)=0
所以:
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1]2)
最终:
11∑=Conv(x1,x1)=E([x1−E(x1)]2)=E([x1])=w12E(v22)+2w1E(v1v2)+E(v12)=w12[E(v22)−E(v2)2]+0+[E(v12)−E(v1)2]=w12σ22+σ12
下面是关于期望\方差\协方差的一些回顾:
协方差矩阵
以上参考自:
注意:
- 上面的p(x1,x2,x3)=p(x2)p(x1∣x2)p(x3∣x2)是与给出的例子结合起来的, 例子是有室外的温度(即变量x2), 而房间1和房间3的温度是分别仅与室外温度x2相关.
一些特性
- 如果协方差矩阵中,非对角元素∑ij>0表示两个变量正相关.
- 在信息矩阵(协方差矩阵的逆)中,对应的非对角元素∑ij<0或∑ij=0. 如Λ12<0则表示在变量x3发生(确定)的条件下,元素x1和x2是正相关的.
注意:
- 上面的p(x1,x2,x3)=p(x1)p(x3)p(x2∣x1,x2)是与给出的例子2结合起来的, 例子2是变量x2由x1,x3共同给出
注意:
- 去除一个变量, 实际上就是将该变量所携带的信息转化为剩余变量的先验
1.2. 舒尔补应用:边际概率,条件概率
这里可以往回看一下多元高斯分布,上几页ppt
解释:
- 对x=[a,b]T里面的变量a进行边际概率, 即把变量b去掉的时候, a的分布正比于exp(−21aTA−1a), 也就是服从均值为0, 方差为A的正态分布
- 此时的边际概率P(a)的协方差就是多元变量x的协方差矩阵K中的矩阵块, 在这个例子中就是矩阵块A
K=[ACCTD]
- 对应的关于条件概率P(b∣a)则服从均值为A−1CTb, 方差为变量a的舒尔补ΔA的正态分布.
解释:
- 就是说,在SLAM问题里面,我们直接操作的只有多元变量x=[a,b]T的信息矩阵(注意,是信息矩阵,不是协方差矩阵)
K−1=[ACCTD]−1
- 根据公式(29), 即我们只有这样一个形式的信息矩阵:
K−1=[A−1+A−1CTΔA−1CA−1−ΔA−1CA−1−A−1CTΔA−1ΔA−1]
- 需要从上面形式的信息矩阵中恢复出变量a的信息矩阵,即矩阵A−1,则可利用公式(38)
注意:
- 对某个多元高斯分布P(a,b)进行分解,可分解为:
- P(a,b)=P(a∣b)P(a): 这种情况就是不再关注变量b, 而边际分布P(a)的信息矩阵包含了就是把变量b所携带的信息, 就是说此时P(a)分布是包含了变量b信息的先验. (适用于去掉变量b)
- P(a,b)=P(b∣a)P(b): 这种情况就是不再关注变量a, 二边际分布P(b)的信息矩阵包含了就是把变量a所携带的信息, 就是说此时P(b)分布是包含了变量a信息的先验. (适用于去掉变量a)
解释:
-
回顾例子(1),有3个变量x1,x2,x3, 如果去掉变量x3, 对应的信息矩阵就是原来信息矩阵中关于变量x3的项全部消掉, 由于实际操作中并没有颜色标记, 所以应用了舒尔补公式来进行这个消掉x3相关项的操作.
-
具体操作就是:把(x1,x2)看做是上面多元高斯分布x=[a,b]T里面的a, 把x3看做是b, 可以看到, b边缘化之后的分布(即边际概率)P(x1,x2)对应的信息矩阵可以用公式(38)得到.
P(x1,x2,x3)=P(x1,x2)P(x3∣x1,x2)
-
最终要保留的变量(x1,x2)所对应的原信息矩阵子块就是Λaa, 消掉某个变量(x3)之后, 变量(x1,x2)最终的信息矩阵由式(38)来计算.
-
换句话说: 当最终要保留的变量是(x2,x3), 而要消掉的变量是x1时, 变量(x2,x3)在原信息矩阵K−1所对应的矩阵子块为右下角的部分, 即原信息矩阵的右下角子块才是Λaa
作业
1. 画出相机变量ξ1被marg之后的信息矩阵
2. 画出相机变量ξ2被marg之后的信息矩阵
(不知道是不是这样做?)