VSLAM::[手写VIO_课堂笔记]第四讲(上)_基于滑动窗口算法的VIO系统原理

1. 第四讲(上)_基于滑动窗口算法的VIO系统原理

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JJqPVSxi-1581429638383)(imgs/2020-02-10-22-04-14.png)]

1.1. 高斯分布到信息矩阵

1.1.1. SLAM问题的模型

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Q5pFUzyP-1581429638384)(imgs/2020-02-10-22-03-54.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XOnrimff-1581429638384)(imgs/2020-02-10-22-04-27.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-K4zMZh1X-1581429638385)(imgs/2020-02-10-22-28-14.png)]

1.1.2. 举例

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-62sxGEFc-1581429638385)(imgs/2020-02-10-22-34-29.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KV2up6fi-1581429638386)(imgs/2020-02-10-22-35-03.png)]

  • 上面省略了一些步骤
    11=Conv(x1,x1)=E([x1E(x1)]2) \begin{aligned} \sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2) \end{aligned}

又因为:
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1) E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1)
v1v_1v2v_2都是0均值正态分布,所以
E(x1)=E(w1v2+v1)=w1E(v2)+E(v1)=0E(x_1)=E(w_1 v_2+v_1)=w_1 E(v_2)+E(v_1)=0
所以:
11=Conv(x1,x1)=E([x1E(x1)]2)=E([x1]2)\sum_{11}=Conv(x_1,x_1)=E([x_1-E(x_1)]^2)=E([x_1]^2)
最终:
11=Conv(x1,x1)=E([x1E(x1)]2)=E([x1])=w12E(v22)+2w1E(v1v2)+E(v12)=w12[E(v22)E(v2)2]+0+[E(v12)E(v1)2]=w12σ22+σ12 \begin{aligned} \sum_{11}=Conv(x_1,x_1)&=E([x_1-E(x_1)]^2) \\ &=E([x_1]) \\ &=w_1^2E(v_2^2)+2w_1E(v_1v_2)+E(v_1^2) \\ &=w_1^2[E(v_2^2)-E(v_2)^2]+0+[E(v_1^2)-E(v_1)^2] \\ &=w_1^2\sigma_2^2+\sigma_1^2 \end{aligned}

下面是关于期望\方差\协方差的一些回顾:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nsGFVoIA-1581429638386)(imgs/2020-02-11-09-11-53.png)]
协方差矩阵
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zjbGuOaC-1581429638386)(imgs/2020-02-11-09-13-41.png)]

以上参考自:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7cjIi8tf-1581429638387)(imgs/2020-02-11-09-18-28.png)]

注意:

  • 上面的p(x1,x2,x3)=p(x2)p(x1x2)p(x3x2)\color{red}{p(x_1,x_2,x_3)=p(x_2)p(x_1|x_2)p(x_3|x_2)}是与给出的例子结合起来的, 例子是有室外的温度(即变量x2x_2), 而房间1和房间3的温度是分别仅与室外温度x2x_2相关.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fT8TQpBP-1581429638387)(imgs/2020-02-11-09-21-10.png)]

一些特性

  1. 如果协方差矩阵中,非对角元素ij>0\sum_{ij}>0表示两个变量正相关.
  2. 在信息矩阵(协方差矩阵的逆)中,对应的非对角元素ij<0\sum_{ij}<0ij=0\sum_{ij}=0. 如Λ12<0\Lambda_{12}<0则表示在变量x3x_3发生(确定)的条件下,元素x1x_1x2x_2是正相关的.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1DhHSO7X-1581429638388)(imgs/2020-02-11-09-24-37.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-i7pERnIs-1581429638388)(imgs/2020-02-11-09-26-12.png)]

注意:

  • 上面的p(x1,x2,x3)=p(x1)p(x3)p(x2x1,x2)\color{red}{p(x_1,x_2,x_3)=p(x_1)p(x_3)p(x_2|x_1,x_2)}是与给出的例子2结合起来的, 例子2是变量x2x_2x1,x3x_1,x_3共同给出

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TyMWK0Le-1581429638389)(imgs/2020-02-11-09-26-54.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vtaVnfqn-1581429638389)(imgs/2020-02-11-09-29-15.png)]

注意:

  • 去除一个变量, 实际上就是将该变量所携带的信息转化为剩余变量的先验

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3yLYQojl-1581429638390)(imgs/2020-02-11-09-30-37.png)]


1.2. 舒尔补应用:边际概率,条件概率

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kxnv7RmL-1581429638390)(imgs/2020-02-11-09-33-03.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-r9Omr3mL-1581429638391)(imgs/2020-02-11-09-36-35.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dAdLCPpP-1581429638393)(imgs/2020-02-11-09-50-49.png)]


这里可以往回看一下多元高斯分布,上几页ppt

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kapVl576-1581429638393)(imgs/2020-02-11-09-52-10.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-14uU1y35-1581429638394)(imgs/2020-02-11-09-59-06.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zlXLRlVS-1581429638395)(imgs/2020-02-11-10-01-00.png)]

解释:

  1. x=[a,b]Tx=[a,b]^T里面的变量aa进行边际概率, 即把变量bb去掉的时候, aa的分布正比于exp(12aTA1a)\exp(-\frac{1}{2}a^T A^{-1} a), 也就是服从均值为0, 方差为A的正态分布
  2. 此时的边际概率P(a)P(a)的协方差就是多元变量x的协方差矩阵KK中的矩阵块, 在这个例子中就是矩阵块AA
    K=[ACTCD] K= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix}
  3. 对应的关于条件概率P(ba)P(b|a)则服从均值为A1CTbA^{-1}C^Tb, 方差为变量a的舒尔补ΔA\Delta_A的正态分布.

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-q8eJfBvw-1581429638396)(imgs/2020-02-11-10-13-44.png)]
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-524EnGyg-1581429638396)(imgs/2020-02-11-10-23-27.png)]

解释:

  1. 就是说,在SLAM问题里面,我们直接操作的只有多元变量x=[a,b]Tx=[a,b]^T信息矩阵(注意,是信息矩阵,不是协方差矩阵)
    K1=[ACTCD]1 K^{-1}= \begin{bmatrix} A & C^T \\ C & D \end{bmatrix} ^{-1}
  2. 根据公式(29), 即我们只有这样一个形式的信息矩阵:
    K1=[A1+A1CTΔA1CA1A1CTΔA1ΔA1CA1ΔA1] \begin{aligned} K^{-1} &= \begin{bmatrix} A^{-1}+A^{-1}C^T \Delta_{A}^{-1} C A^{-1} & -A^{-1}C^T\Delta_{A}^{-1} \\ -\Delta_{A}^{-1} C A^{-1} & \Delta_{A}^{-1} \end{bmatrix} \end{aligned}
  3. 需要从上面形式的信息矩阵中恢复出变量aa的信息矩阵,即矩阵A1A^{-1},则可利用公式(38)

注意:

  1. 对某个多元高斯分布P(a,b)P(a,b)进行分解,可分解为:
    • P(a,b)=P(ab)P(a)P(a,b)=P(a|b)P(a): 这种情况就是不再关注变量b, 而边际分布P(a)P(a)的信息矩阵包含了就是把变量bb所携带的信息, 就是说此时P(a)P(a)分布是包含了变量bb信息的先验. (适用于去掉变量b)
    • P(a,b)=P(ba)P(b)P(a,b)=P(b|a)P(b): 这种情况就是不再关注变量a, 二边际分布P(b)P(b)的信息矩阵包含了就是把变量aa所携带的信息, 就是说此时P(b)P(b)分布是包含了变量aa信息的先验. (适用于去掉变量a)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-T5D6rAFV-1581429638397)(imgs/2020-02-11-10-32-36.png)]

解释:

  1. 回顾例子(1),有3个变量x1,x2,x3x_1,x_2,x_3, 如果去掉变量x3x_3, 对应的信息矩阵就是原来信息矩阵中关于变量x3x_3的项全部消掉, 由于实际操作中并没有颜色标记, 所以应用了舒尔补公式来进行这个消掉x3x_3相关项的操作.

  2. 具体操作就是:把(x1,x2)(x_1,x_2)看做是上面多元高斯分布x=[a,b]Tx=[a,b]^T里面的aa, 把x3x_3看做是bb, 可以看到, b边缘化之后的分布(即边际概率)P(x1,x2)P(x_1,x_2)对应的信息矩阵可以用公式(38)得到.
    P(x1,x2,x3)=P(x1,x2)P(x3x1,x2) \begin{aligned} P(x_1,x_2,x_3)=P(x_1,x_2)P(x_3|x_1,x_2) \end{aligned}

  3. 最终要保留的变量(x1,x2)(x_1,x_2)所对应的原信息矩阵子块就是Λaa\Lambda_{aa}, 消掉某个变量(x3x_3)之后, 变量(x1,x2)(x_1,x_2)最终的信息矩阵由式(38)来计算.

  4. 换句话说: 当最终要保留的变量是(x2,x3)(x_2,x_3), 而要消掉的变量是x1x_1时, 变量(x2,x3)(x_2,x_3)在原信息矩阵K1K^{-1}所对应的矩阵子块为右下角的部分, 即原信息矩阵的右下角子块才是Λaa\Lambda_{aa}

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-VxO468Xx-1581429638398)(imgs/2020-02-11-15-32-16.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-axtQ2U9R-1581429638399)(imgs/2020-02-11-10-33-45.png)]


作业

在这里插入图片描述
1. 画出相机变量ξ1\xi_1被marg之后的信息矩阵
在这里插入图片描述
2. 画出相机变量ξ2\xi_2被marg之后的信息矩阵

(不知道是不是这样做?)
在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章