概率期望复习

我真是怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰怠惰!!!!!!!!!!


资料阅读

选了这份

首先有一些直觉上比较容易接受的概率公式

条件概率

\(P(A\cap B) = P(B)P(A\mid B)\)

全概率公式

有一组事件 \(C_1,\dots, C_n\), 满足任何情况下这些事件当中 恰好 有一个会发生, 那么有:

\[P(A) = \sum_{i=1}^n P(C_i)P(A\mid C_i) = \sum_{i=1}^n P(A\cap C_i) \]

贝叶斯公式

由于 \(P(A)P(B\mid A) = P(A\cap B) = P(B)P(A\mid B)\), 那么有:

\[P(A\mid B) = \frac{P(A\cap B)}{P(B)} = \frac{P(A)P(B\mid A)}{P(B)} \]

然后是对随机变量的介绍。

对于样本空间 \(S\), 定义一个函数 \(X: S\to \mathbb F\), 也就是对于每个基本事件 \(e_i\in S\)\(X(e_i)\) 都有一个特定的值。称 \(X\) 为一个随机变量。(既然是函数,那么自然可以将两个随机变量合起来组合成新随机变量, 比如用随机变量 \(X,Y\) 组合成 \(aX+bY\)\((aX+bY)(e_i) = aX(e_i)+bY(e_i)\)

对于随机变量 \(X\), 定义其数学期望为:

\[E[X] = \sum_{e_i\in S}P(e_i)X(e_i) \]

类似条件概率, 可以定义条件期望 \(E[X\mid B]\) 为 “已知 \(B\) 发生,\(X\) 的期望值”。

同样类似全概率公式, 有全期望公式:

\[E[X] = \sum_{i=1}^n P(C_i)E[X\mid C_i] \]

然后是期望的线性性, 非常重要的一个东西。

任意 随机变量 \(X,Y\), 有 \(E[aX+bY] = aE[X]+bE[Y]\)

证明:

\[E[aX+bY] = \sum_{e_i\in S}P(e_i)[aX(e_i)+bY(e_i)] = a\sum_{e_i\in S}P(e_i)X(e_i) + b\sum_{e_i\in S}P(e_i)Y(e_i) \]

这就是 \(aE[X]+bE[Y]\)

然后是随机变量的独立性。

\(X=t\) 表示 “\(X\) 的取值是 \(t\)” 这个事件。

那么, 如果对于任意 \(t_1,t_2\) 都有 \(P(X=t_1\cap Y=t_2) = P(X=t_1)P(Y=t_2)\), 就称 \(X,Y\) 独立的。关于独立性, 有几个需要注意的点:1. X 不和自己独立, 除非它是常数。 2. 独立没有传递性。

\(X,Y\) 独立, 那么 \(E[XY] = E[X]E[Y]\)(即乘积的期望等于期望的乘积), 证明如下:

\[E[XY] \\ \sum_{a,b} abP(X=a\cap Y=b)\\ \sum_{a,b} aP(X=a)bP(Y=b)\\ \left(\sum_aaP(X=a)\right)\left(\sum_bbP(Y=b)\right)\\ E[X]E[Y] \]


P1654

\(Y_i\) 表示以 i 结尾的连续的 1 的长度,则 \(Y_i = (1-p_i)0+p_i(Y_{i-1}+1)\)

如果 \(Y_i\) 不是 0, 第 i 个位置产生的贡献是 \(Y_i^3-(Y_i-1)^3=3Y_i^2-3Y_i+1\),反之, 是 0, 综合下来, 是 \(3Y_i^3-3Y_i+zero_i\)(其中 \(zero_i\) 是个随机变量, 在第 i 个位置等于 0 的时候其是 0, 反之是 1), 由此一个位置 i 贡献的期望是 \(3E[Y_i^2]-3E[Y_i]+p_i\)

配合

\[E[Y_i]=p_iE[Y_{i-1}+1]\\ E[Y_i^2] = p_iE[(Y_{i-1}+1)^2] \]

就可以算出答案了。

记录

P5104

连续型随机变量的期望, 实际上也可以和连续型的一样对于简单的概念使用感性接受大法。

连续型随机变量的期望为 \(\int_{-\infty}^\infty xf(x){\rm d}x\), 其中 \(f(x)\) 为 x 取值的密度分布函数, 满足 \(\int_{-\infty}^\infty f(x) =1\)

这题里总金额 \(w\) 对应的 x 的密度分布函数是:

\[f(x)\begin{cases} \frac 1w \quad 0\le x\le w\\ 0 \quad x<0\or x>w \end{cases} \]

在这里那么就可以得出第一次抢红包得到的钱的期望是:

\[\frac 1w \int_0^w x{\rm d}x = \frac 1w (\frac {w^2}{2}-\frac{0^2}{2}) = \frac w2 \]

可以比较显然地得出第 k 次抢红包得到的钱的期望是 \(\frac{w}{2^k}\)

记录

P1850

\(dis_{i,j}\) 表示 \(i,j\) 之间的最短路的长度。

设状态为 \(f_{i,j,0/1}\) 表示前 i 节课, 申请了 j 次, 第 i 节课有(1)没有(0)申请, 最小的期望值, 那么转移为:

\[f_{i,j,0} = \min\begin{cases} f_{i-1,j,0}+dis_{c_{i-1},c_i}\\ f_{i-1,j,1}+k_{i-1}dis_{d_{i-1},c_i}+(1-k_{i-1})dis_{c_{i-1},c_i} \end{cases} \\ f_{i,j,1} =\\ \min\begin{cases} f_{i-1,j-1,0}+k_idis_{c_{i-1},d_i}+(1-k_i)dis_{c_{i-1},c_i}\\ f_{i-1,j-1,1}+k_ik_{i-1}dis_{d_{i-1},d_i}+k_i(1-k_{i-1})dis_{c_{i-1},d_i}+(1-k_i)k_{i-1}dis_{d_{i-1},c_i}+(1-k_i)(1-k_{i-1})dis_{c_{i-1},c_i} \end{cases} \]

记录

P7385

对于第一问,对整棵树中序遍历, 得到 dfs 序, 然后按照叶节点的 dfs 序从小到大给叶节点标号, \(l_i\) 表示 dfs 序第 i 小的叶节点。

\(f_i\) 为有 i 个叶节点的答案, 那么:

\[f_i = E[\frac{d[l_1]+d[l_2]+\cdots +d[l_i]}i] = \frac 1i(E[d[l_i]]+E[d[l_2]]+\cdots +E[d[l_i]] ) \]

那么设 \(g_i\) 为有 i 个叶节点的叶节点深度和的期望, 则 \(f_i = \dfrac {g_i}i\)

考虑对 \(l_i\) 进行了操作, 那么对整棵树叶节点的深度和的贡献是 \(2(d[l_i]+1)-d[l_i] = d[l_i]+2\)

那么

\[g_i \\ \frac1{i-1}((i-1)g_{i-1}+E[d[l_1]+2]+E[d[l_2]+2]+\cdots E[d[l_{i-1}]+2]) \\ g_{i-1}+2+\frac{g_{i-1}}{i-1}\\ \frac{ig_{i-1}+2i-2}{i-1} \]

第二问先咕着

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章