一 隨機事件
基礎概念
隨機現象
某個動作或事情,所得結果是預先可能結果中的一個。
樣本空間
隨機試驗的所有可能結果組成的集合,記作Ω \Omega Ω
樣本點
試驗的每一個可能結果
隨機事件
樣本空間Ω \Omega Ω 中滿足一定條件的子集爲隨機事件
必然事件
樣本空間Ω \Omega Ω 包含所有結果,是必然事件
不可能事件
空集
概率
1.定義:
隨機試驗E E E 的樣本空間爲Ω \Omega Ω ,對於每個事件A A A ,定義一個實數P ( A ) P(A) P ( A ) 與之對應,若函數P ( . ) P(.) P ( . ) 滿足條件:
對每個事件A A A ,均有0 < P ( A ) < = 1 0<P(A)<=1 0 < P ( A ) < = 1 ;
P ( Ω ) = 1 P(\Omega)=1 P ( Ω ) = 1 ;
若事件A 1 , A 2 , A 3 , . . . A_1,A_2,A_3,... A 1 , A 2 , A 3 , . . . 兩兩互斥,即對於i , j = 1 , 2 , . . . , i ≠ j , A i ∩ A j = ϕ i,j=1,2,...,i \neq j ,A_i \cap A_j = \phi i , j = 1 , 2 , . . . , i = j , A i ∩ A j = ϕ ,均有
P ( A 1 ∪ A 2 ∪ . . . ) = P ( A 1 ) + P ( A 2 ) + . . . P(A_1 \cup A_2 \cup ...)=P(A_1) +P(A_2) +... P ( A 1 ∪ A 2 ∪ . . . ) = P ( A 1 ) + P ( A 2 ) + . . .
則稱P ( A ) P(A) P ( A ) 爲事件A A A 的概率。
2.主要性質:
對於任一事件A A A ,均有P ( A ‾ ) = 1 − P ( A ) P(\overline{A})=1-P(A) P ( A ) = 1 − P ( A )
對於兩個事件A A A 和B B B ,若A ⊂ B A \subset B A ⊂ B ,則有
P ( B − A ) = P ( B ) − P ( A ) , P ( B ) > P ( A ) P(B-A) = P(B) - P(A), P(B) >P(A) P ( B − A ) = P ( B ) − P ( A ) , P ( B ) > P ( A )
對於任意兩個事件A A A 和B B B ,有
P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B ) P(A \cup B) = P(A) + P(B) - P(A\cap B) P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B )
古典概型
樣本空間有限
每個樣本點出現概率相等
每次實驗有且僅有一個樣本點發生
我們將擲骰子游戲進行推廣,設隨機事件 E E E 的樣本空間中只有有限個樣本點,即 Ω = ω 1 , ω 2 , . . . , ω n \Omega= { \omega_1, \omega_2,..., \omega_n } Ω = ω 1 , ω 2 , . . . , ω n ,其中, n n n 爲樣本點的總數。每個樣本點ω i ( i = 1 , 2 , . . . , n ) \omega_i (i =1,2,...,n) ω i ( i = 1 , 2 , . . . , n ) 出現是等可能的,並且每次試驗有且僅有一個樣本點發生,則稱這類現象爲古典概型 。若事件 A A A 包含個m m m 個樣本點,則事件 A A A 的概率定義爲:
P ( A ) = m n = 事 件 A 包 含 的 基 本 事 件 數 基 本 事 件 總 數 P(A) = \frac{m} {n} = \frac{事件A包含的基本事件數} {基本事件總數} P ( A ) = n m = 基 本 事 件 總 數 事 件 A 包 含 的 基 本 事 件 數 。
古典概型是不是很簡單,接下來我們基於古典概型進行例題的推廣。坐好了,下面的知識點會涉及排列組合。
假設有 k k k 個不同顏色的球,每個球以同樣的概率 1 / l 1/l 1 / l 落到 l l l 個格子 ( l > = k ) (l>=k) ( l > = k ) 的每個中,且每個格子可容納任意多個球。問,分別求出如下兩個事件 A A A 和 B B B 的概率。
A A A :指定的 k k k 個格子中各有一個球;
B B B :存在 k k k 個格子,其中各有一個球。
我們思考一下,由於每個球可以平均地落入 l l l 個格子中的任一個,並且每一個格子中可落入任意多個球,所以 k k k 個球落入 l l l 個格子中的分佈情況相當於從 l l l 個格子中選取 k k k 個的可重複排列,故樣本空間共有 l k l^k l k 種等可能的基本結果。
所以,事件 A A A 所含基本結果數應是 k k k 個球在指定的 l l l 個格子中的全排列數,即 k ! k! k ! ,那麼有
P ( A ) = k ! l k P(A) = \frac{k!} {l^k} P ( A ) = l k k !
爲了算出事件 B B B 所含的基本事件數,我們可以分兩步進行:因爲 l l l 個格子可以是任意選取的,故可先從 l l l 個格子中任意選出 k k k 個出來,那麼選法共有 C l k C^k_l C l k 種。對於每種選定的 k k k 個格子,依上述各有一個球的推理,則有 k ! k! k ! 個基本結果,故B含有 C l k ∗ k ! C^k_l*k! C l k ∗ k ! 個基本結果。那麼有
P ( B ) = C l k k ! l k = l ! l k ( l − k ) ! P(B) = \frac {C^k_lk!} {l^k} = \frac {l!} {l^k(l-k)!} P ( B ) = l k C l k k ! = l k ( l − k ) ! l !
我們把上述例子應有到具體的問題中,概率論的歷史上有一個頗爲著名的問題生日問題:求 k k k 個同班同學沒有兩人生日相同的概率。
如果把這 k k k 個同學看作上例中的 k k k 個球,而把一年365天看作格子,即 l = 365 l=365 l = 3 6 5 ,則上述的 P ( B ) P(B) P ( B ) 就是所要求的概率。我們令 k = 40 k=40 k = 4 0 時,利用上面的公式,則 P ( B ) = 0.109 P(B) =0.109 P ( B ) = 0 . 1 0 9 。換句話說,40個同學中至少兩個人同一天過生日的概率是:P ( B ‾ ) = 1 − 0.109 = 0.891 P(\overline {B}) = 1 - 0.109 =0.891 P ( B ) = 1 − 0 . 1 0 9 = 0 . 8 9 1 。其概率大的出乎意料。
這講內容更多地是對概念知識的理解,不太涉及軟件的實現,給出簡單的 P ( B ) P(B) P ( B ) Python實現:
def factorial ( n) :
if n == 0 :
return 1 ;
else :
return ( n* factorial( n- 1 ) )
l_fac = factorial( 365 ) ;
l_k_fac = factorial( 365 - 40 )
l_k_exp = 365 ** 40
P_B = l_fac / ( l_k_fac * l_k_exp)
print ( "事件B的概率爲:" , P_B)
print ( "40個同學中至少兩個人同一天過生日的概率是:" , 1 - P_B)
條件概率
引子:
研究隨機事件之間的關係時,在已知某些事件發生的條件下考慮另一些事件發生的概率規律有無變化及如何變化,是十分重要的。我們先給出定義,然後進行例子的講解與描述。
定義:
設 A A A 和 B B B 是兩個事件,且P ( B ) > 0 P(B)>0 P ( B ) > 0 ,稱 P ( A ∣ B ) = P ( A B ) P ( B ) P(A|B) = \frac {P(AB)} {P(B)} P ( A ∣ B ) = P ( B ) P ( A B ) 爲在事件 B B B 發生的條件下,事件 A A A 發生的概率。
例子:
某集體中有 N N N 個男人和 M M M 個女人,其中患色盲者男性 n n n 人,女性 m m m 人。我們用 Ω \Omega Ω 表示該集體, A A A 表示其中全體女性的集合,B B B 表示其中全體色盲者的集合。如果從 Ω \Omega Ω 中隨意抽取一人,則這個人分別是女性、色盲者和同時既爲女性又是色盲者的概率分別爲:
P ( A ) = M M + N , P ( B ) = m + n M + N , P ( A B ) = m M + N P(A) = \frac {M} {M+N} , P(B) = \frac {m+n} {M+N} , P(AB) = \frac {m} {M+N} P ( A ) = M + N M , P ( B ) = M + N m + n , P ( A B ) = M + N m
如果限定只從女性中隨機抽取一人**(即事件 A A A 已發生),那麼這個女人爲色盲者的(條件)**概率爲
P ( B ∣ A ) = m M = P ( A B ) P ( A ) P(B|A) = \frac {m} {M} = \frac {P(AB)} {P(A)} P ( B ∣ A ) = M m = P ( A ) P ( A B )
全概率公式和貝葉斯公式
<1>準備知識
首先我們看一下概率乘法公式和樣本空間劃分的定義;
由條件概率公式,可以得到概率的乘法公式 :
P ( A B ) = P ( B ∣ A ) P ( A ) = P ( A ∣ B ) P ( B ) P(AB)=P(B|A)P(A) =P(A|B)P(B) P ( A B ) = P ( B ∣ A ) P ( A ) = P ( A ∣ B ) P ( B )
如果事件組,滿足
B 1 , B 2 , . . . B_1,B_2,... B 1 , B 2 , . . . 兩兩互斥,即B i ∩ B j = ϕ , i ≠ j , i , j = 1 , 2 , . . . B_i\cap B_j = \phi,i \neq j ,i,j = 1,2,... B i ∩ B j = ϕ , i = j , i , j = 1 , 2 , . . . ,且P ( B i ) > 0 , i = 1 , 2 , . . . P(B_i)>0,i=1,2,... P ( B i ) > 0 , i = 1 , 2 , . . .
B 1 ∪ B 2 ∪ . . . = Ω B_1 \cup B_2 \cup ... = \Omega B 1 ∪ B 2 ∪ . . . = Ω
則稱事件組B 1 , B 2 , . . . B_1,B_2,... B 1 , B 2 , . . . 是樣本空間 Ω \Omega Ω 的一個劃分。
<2>全概率公式
設B 1 , B 2 , . . . B_1,B_2,... B 1 , B 2 , . . . 是樣本空間 Ω \Omega Ω 的一個劃分,A A A 爲任一事件,則
P ( A ) = ∑ i = 1 ∞ P ( B i ) P ( A ∣ B i ) P(A) = \sum_{i=1}^{\infty } {P(B_i)}P(A|B_i) P ( A ) = ∑ i = 1 ∞ P ( B i ) P ( A ∣ B i )
稱爲全概率公式。
<3>貝葉斯公式
根據全概率公式和概率乘法公式,我們可以得到 貝葉斯公式:
設B 1 , B 2 , . . . B_1,B_2,... B 1 , B 2 , . . . 是樣本空間 Ω \Omega Ω 的一個劃分,則對任一事件 A ( P ( A ) > 0 ) A(P(A)>0) A ( P ( A ) > 0 ) ,有
P ( B i ∣ A ) = P ( B i A ) P ( A ) = P ( A ∣ B i ) P ( B i ) ∑ j = 1 ∞ P ( B j ) P ( A ∣ B j ) , i = 1 , 2 , . . . P(B_i|A) =\frac {P(B_i A)} {P(A)} = \frac {P(A|B_i )P(B_i)} {\sum_{j=1}^{\infty }P( B_j)P(A|B_j)} ,i=1,2,... P ( B i ∣ A ) = P ( A ) P ( B i A ) = ∑ j = 1 ∞ P ( B j ) P ( A ∣ B j ) P ( A ∣ B i ) P ( B i ) , i = 1 , 2 , . . .
稱上式爲貝葉斯公式,稱P ( B i ) ( i = 1 , 2 , . . . ) P(B_i)(i=1,2,...) P ( B i ) ( i = 1 , 2 , . . . ) 爲先驗概率,P ( B i ∣ A ) ( i = 1 , 2 , . . . ) P(B_i|A)(i=1,2,...) P ( B i ∣ A ) ( i = 1 , 2 , . . . ) 爲後驗概率。
<3>例子:
有點懵…,不急,我們看下面的例子吧。
在實際中,常取對樣本空間 Ω \Omega Ω 的有限劃分 B 1 , B 2 , . . . , B n B_1,B_2,...,B_n B 1 , B 2 , . . . , B n 。 B i B_i B i 視爲導致試驗結果 A A A 發生的“原因”,而P ( B i ) P(B_i) P ( B i ) 表示各種“原因”發生的可能性大小,故稱爲先驗概率;P ( B i ∣ A ) P(B_i|A) P ( B i ∣ A ) 則反應當試驗產生了結果 A A A 之後,再對各種“原因”概率的新認識,故稱爲後驗概率 。
假定用血清甲胎蛋白法診斷肝癌。用 C C C 表示被檢驗者有肝癌這一事件,用 A A A 表示被檢驗者爲陽性反應這一事件。當前有肝癌的患者被檢測呈陽性反應的概率爲0.95。即 P ( A ∣ C ) = 0.95 P(A|C) = 0.95 P ( A ∣ C ) = 0 . 9 5 。當前非肝癌的患者被檢測呈陰性反應的概率爲0.9。即 P ( A ‾ ∣ C ‾ ) = 0.90 P(\overline {A}|\overline {C}) = 0.90 P ( A ∣ C ) = 0 . 9 0 。若某人羣中肝癌患者概率爲0.0004,即P ( C ) = 0.0004 P(C) = 0.0004 P ( C ) = 0 . 0 0 0 4 ,現在有一人呈陽性反應,求此人確爲肝癌患者的概率是多少?
解:
P ( C ∣ A ) = P ( C ) P ( A ∣ C ) P ( C ) P ( A ∣ C ) + P ( C ‾ ) P ( A ∣ C ‾ ) = 0.00040.95 0.00040.95 + 0.9996 ∗ 0.1 = 0.0038 P(C|A) = \frac {P(C)P(A|C)} {P(C)P(A|C)+P(\overline {C} )P(A|\overline {C})} =\frac {0.00040.95}{0.00040.95 + 0.9996*0.1} =0.0038 P ( C ∣ A ) = P ( C ) P ( A ∣ C ) + P ( C ) P ( A ∣ C ) P ( C ) P ( A ∣ C ) = 0 . 0 0 0 4 0 . 9 5 + 0 . 9 9 9 6 ∗ 0 . 1 0 . 0 0 0 4 0 . 9 5 = 0 . 0 0 3 8
貝葉斯公式也是在機器學習中樸素貝葉斯的核心,請大家予以重視~!
二 隨機變量
1.隨機變量及其分佈
隨機變量定義:
設 E E E 是隨機試驗,Ω \Omega Ω 是樣本空間,如果對於每一個 ω ∈ Ω \omega \in \Omega ω ∈ Ω 。都有一個確定的實數 X ( ω ) X(\omega) X ( ω ) 與之對應,若對於任意實 x ∈ R x \in R x ∈ R , 有 ω : X ( ω ) < x ∈ F {\omega :X(\omega) < x } \in F ω : X ( ω ) < x ∈ F ,則稱 Ω \Omega Ω 上的單值實函數 X ( ω ) X(\omega) X ( ω ) 爲一個隨機變量。
從定義可知隨機變量是定義在樣本空間 Ω \Omega Ω 上,取值在實數域上的函數。由於它的自變量是隨機試驗的結果,而隨機試驗結果的出現具有隨機性,因此,隨機變量的取值也具有一定的隨機性。這是隨機變量與普通函數的不同之處。
描述一個隨機變量,不僅要說明它能夠取那些值,而且還要關心它取這些值的概率。因此,接下來引入隨機變量的分佈函數的概念。
隨機變量的分佈函數定義:
設 X X X 是一個隨機變量,對任意的實數 x x x ,令 F ( x ) = P X < = x , x ∈ ( − ∞ , + ∞ ) F(x) =P _{X<=x} ,x\in (- \infty ,+ \infty) F ( x ) = P X < = x , x ∈ ( − ∞ , + ∞ ) 則稱 F ( x ) F(x) F ( x ) 爲隨機變量 x x x 的分佈函數,也稱爲概率累積函數 。
直觀上看,分佈函數 F ( x ) F(x) F ( x ) 是一個定義在 ( − ∞ , + ∞ ) (- \infty, + \infty) ( − ∞ , + ∞ ) 上的實值函數, F ( x ) F(x) F ( x ) 在點 x x x 處取值爲隨機變量 X X X 落在區間 ( − ∞ , + x ] (- \infty, + x] ( − ∞ , + x ] 上的概率 。分佈函數(概率累積函數)很好理解,就是在一個區間範圍內概率函數的累加。這個區間就是負無窮到當前節點。
2. 離散型隨機變量
如果隨機變量 X X X 的全部可能取值只有有限多個或可列無窮多個,則稱 X X X 爲離散型隨機變量。擲骰子的結果就是離散型隨機變量。
對於離散型隨機變量 X X X 可能取值爲 x k x_k x k 的概率爲 : P X = x k = p k , k = 1 , 2 , . . . P _{ X =x_k } =p_k,k=1,2,... P X = x k = p k , k = 1 , 2 , . . . 則稱上式爲離散型隨機變量 X X X 的分佈律。
我們可以用下表來表示分佈律:
X X X x 1 x_1 x 1 x 2 x_2 x 2 … x n x_n x n …
p k p_k p k p 1 p_1 p 1 p 2 p_2 p 2 … p n p_n p n …
離散型隨機變量的分佈函數爲 : F ( x ) = P X < = x = ∑ x k < = x P X = x k = ∑ x k < = x P k F (x) = P _{ X<=x } =\sum_{x_k <=x}{ P _{ X=x_k } } = \sum_{x_k <=x}{ P_k} F ( x ) = P X < = x = x k < = x ∑ P X = x k = x k < = x ∑ P k
3.常見的離散型分佈
<1>.伯努利實驗,二項分佈
定義:
如果一個隨機試驗只有兩種可能的結果 A A A 和 A ‾ \overline A A ,並且
P ( A ) = p , P ( A ‾ ) = 1 − p = q P(A) = p,P(\overline A) =1-p=q P ( A ) = p , P ( A ) = 1 − p = q
其中, 0 < p < 1 0<p<1 0 < p < 1 ,則稱此試驗爲Bernoulli(伯努利)試驗. Bernoulli試驗獨立重複進行 n n n 次,稱爲 n n n 重伯努利試驗。
看例子
從一批產品中檢驗次品,在其中進行有放回抽樣 n n n 次,抽到次品稱爲“成功”,抽到正品稱爲“失敗“,這就是 n n n 重Bernoulli試驗。
設 A = { n 重 伯 努 利 試 驗 中 A 出 現 k 次 } A = \{ n重伯努利試驗中A出現k次\} A = { n 重 伯 努 利 試 驗 中 A 出 現 k 次 } 則 P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P(A_k) =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . 這就是著名的二項分佈,常記作 B ( n , k ) B(n,k) B ( n , k ) 。
解釋:一共抽了 n n n 次,k ( k < n ) k(k<n) k ( k < n ) 次抽中了 A A A ,概率爲 p p p ,那麼 n − k n-k n − k 次抽中了非 A A A ,概率爲 1 − p 1-p 1 − p 組合的次數就是 C n k C^k_n C n k 。所以 P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P(A_k) =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n .
分佈函數:
若隨機變量 X X X 的分佈律爲: P X = k = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P _{ X =k } =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P X = k = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . 其分佈函數爲: F ( x ) = ∑ k = [ x ] C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . F(x) = \sum_{k=}^{[x]} {C^k_np^k(1-p)^{n-k}},k=0,1,2,...n. F ( x ) = k = ∑ [ x ] C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . 其中, [ x ] [x] [ x ] 表示下取整,即不超過 x x x 的最大整數。
4.隨機變量的數字特徵
<1>.數學期望
離散型:設離散型隨機變量 X X X 的分佈律爲 P X = x i = p i , i = 1 , 2 , . . . P _{ X=x_i} = p_i ,i =1,2,... P X = x i = p i , i = 1 , 2 , . . . 若級數 ∑ i ∣ x i ∣ p i \sum_{i} {|x_i|p_i} ∑ i ∣ x i ∣ p i 收斂,
(收斂指會聚於一點,向某一值靠近,相對於發散)。則稱級數 ∑ i x i p i \sum_{i} {x_ip_i} ∑ i x i p i 的和爲隨機變量 X X X 的數學期望。記爲 E ( X ) E(X) E ( X ) ,即:
E ( X ) = ∑ i x i p i E(X) = \sum_{i} {x_ip_i} E ( X ) = i ∑ x i p i
設連續型隨機變量 X X X 的概率密度函數爲 f ( x ) f(x) f ( x ) ,若積分 ∫ − ∞ + ∞ ∣ x ∣ f ( x ) d x \int_{- \infty}^{+ \infty}{|x|f(x)}dx ∫ − ∞ + ∞ ∣ x ∣ f ( x ) d x 收斂, 稱積分 ∫ − ∞ + ∞ x f ( x ) d x \int_{- \infty}^{+ \infty}{xf(x)}dx ∫ − ∞ + ∞ x f ( x ) d x 的值爲隨機變量 X X X 的數學期望,記爲 E ( X ) E(X) E ( X ) ,即: E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x E(X)= \int_{- \infty}^{+ \infty}{xf(x)}dx E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x E ( X ) E(X) E ( X ) 又稱爲均值。
數學期望代表了隨機變量取值的平均值,是一個重要的數字特徵。數學期望具有如下性質:
若 c c c 是常數,則 E ( c ) = c E(c) =c E ( c ) = c ;
E ( a X + b Y ) = a E ( X ) + b E ( Y ) E(aX+bY) = aE(X) +bE(Y) E ( a X + b Y ) = a E ( X ) + b E ( Y ) , 其中a, b爲任意常數;
若 X , Y X, Y X , Y 相互獨立,則E ( X Y ) = E ( X ) E ( Y ) E(XY) = E(X)E(Y) E ( X Y ) = E ( X ) E ( Y ) ; (相互獨立就是沒有關係,不相互影響)。
<2>.方差
設 X X X 爲隨機變量,如果 E { [ X − E ( X ) ] 2 } E\{ [X-E(X)]^2\} E { [ X − E ( X ) ] 2 } 存在,則稱 E { [ X − E ( X ) ] 2 } E\{ [X-E(X)]^2\} E { [ X − E ( X ) ] 2 } 爲 X X X 的方差。記爲 V a r ( X ) Var(X) V a r ( X ) , 即:
V a r ( X ) = E { [ X − E ( X ) ] 2 } Var (X) =E\{ [X-E(X)]^2\} V a r ( X ) = E { [ X − E ( X ) ] 2 }
並且稱 V a r ( X ) \sqrt{Var(X)} V a r ( X ) 爲 X X X 的標準差或均方差。
方差是用來描述隨機變量取值相對於均值的離散程度的一個量,也是非常重要的數字特徵。方差有如下性質:
若 c c c 是常數,則 V a r ( c ) = 0 Var(c) =0 V a r ( c ) = 0 ;
V a r ( a X + b ) = a 2 V a r ( X ) Var(aX+b) = a^2Var(X) V a r ( a X + b ) = a 2 V a r ( X ) , 其中a, b爲任意常數;
若 X , Y X, Y X , Y 相互獨立,則V a r ( X + ‾ Y ) = V a r ( X ) + V a r ( Y ) Var(X\underline+Y) = Var(X) +Var(Y) V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) 。
<3>協方差和相關係數
協方差和相關係數都是描述隨機變量 X X X 與隨機變量 Y Y Y 之間的線性聯繫程度的數字量。
設 X , Y X, Y X , Y 爲兩個隨機變量,稱 E { [ X − E ( X ) ] [ Y − E ( Y ) ] } E\{ [X-E(X)] [Y-E(Y)]\} E { [ X − E ( X ) ] [ Y − E ( Y ) ] } 爲 X X X 和 Y Y Y 的協方差,記爲 C o v ( X , Y ) Cov(X, Y) C o v ( X , Y ) ,即: C o v ( X , Y ) = E { [ X − E ( X ) ] [ Y − E ( Y ) ] } Cov(X, Y) = E\{ [X-E(X)] [Y-E(Y)]\} C o v ( X , Y ) = E { [ X − E ( X ) ] [ Y − E ( Y ) ] } 協方差有如下性質:
C o v ( X , Y ) = C o v ( Y , X ) Cov(X, Y) = Cov(Y, X) C o v ( X , Y ) = C o v ( Y , X ) ;
C o v ( a X + b , c Y + d ) = a c C o v ( X , Y ) Cov(aX+b,cY+d) =ac Cov( X,Y) C o v ( a X + b , c Y + d ) = a c C o v ( X , Y ) ,其中, a , b , c , d a,b,c,d a , b , c , d 爲任意常數;
C o v ( X 1 + X 2 , Y ) = C o v ( X 1 , Y ) + C o v ( X 2 , Y ) Cov(X_1+X_2,Y) =Cov( X_1,Y) +Cov( X_2,Y) C o v ( X 1 + X 2 , Y ) = C o v ( X 1 , Y ) + C o v ( X 2 , Y ) ;
C o v ( X , Y ) = E ( X , Y ) − E ( X ) E ( Y ) Cov(X,Y) =E( X,Y) -E( X)E(Y) C o v ( X , Y ) = E ( X , Y ) − E ( X ) E ( Y ) ; 當 X , Y X,Y X , Y 相互獨立時,有 C o v ( X , Y ) = 0 Cov(X,Y) = 0 C o v ( X , Y ) = 0 ;
∣ C o v ( X , Y ) ∣ = V a r ( X ) V a r ( Y ) |Cov(X,Y)| = \sqrt {Var(X)} \sqrt {Var(Y)} ∣ C o v ( X , Y ) ∣ = V a r ( X ) V a r ( Y ) ;
C o v ( X , X ) = V a r ( X ) Cov(X,X) =Var( X) C o v ( X , X ) = V a r ( X ) ;
當 V a r ( X ) > 0 , V a r ( Y ) > 0 \sqrt {Var(X)} >0 ,\sqrt {Var(Y)} >0 V a r ( X ) > 0 , V a r ( Y ) > 0 時,稱 ρ ( X , Y ) = C o v ( X , Y ) V a r ( X ) V a r ( Y ) \rho(X,Y) = \frac{Cov(X,Y)}{\sqrt {Var(X)} \sqrt {Var(Y)}} ρ ( X , Y ) = V a r ( X ) V a r ( Y ) C o v ( X , Y ) 爲 X , Y X,Y X , Y 的相關係數,它是無綱量的量(也就是說沒有單位,只是個代數值)。
基本上我們都會用相關係數來衡量兩個變量之間的相關程度。相關係數在-1到1之間,小於零表示負相關,大於零表示正相關。絕對值 ∣ ρ ( X , Y ) ∣ |\rho(X,Y)| ∣ ρ ( X , Y ) ∣ 表示相關度的大小。越接近1,相關度越大。