引用說明
本文所引用的分析來自於:
百科 信息熵
熵的定義
熵是對混亂程度的度量,熵值越大,說明混亂程度越大,越不確定,也就越隨機, 則概率就越小。
通常,一個信源發送出什麼符號是不確定的,衡量它可以根據其出現的概率來度量。概率大,出現機會多,不確定性小;反之不確定性就大。
不確定性函數是概率的減函數;兩個獨立符號所產生的不確定性應等於各自不確定性之和,即,這稱爲可加性。同時滿足這兩個條件的函數f是對數函數,即 :
P表示概率
離散型隨機變量的熵
計算公式:
若隨機變量有n種取值:,對應概率爲:,且各種變量的出現彼此獨立。
連續型隨機變量的熵
計算公式:
U表示隨機變量;
P表示隨機變量取值爲U的概率, 也可以表示爲P(U);
其中滿足:
熵的函數曲線
離散/連續型隨機變量熵 |
由圖可見,離散信源的信息熵具有:
- 非負性:即收到一個信源符號所獲得的信息量應爲正值,H(U)≥0;
- 對稱性:即對稱於P=0.5;
- 確定性:H(1,0)=0,即P=0或P=1已是確定狀態,所得信息量爲零;
- 極值性:因H(U)是P的上凸函數,且一階導數在P=0.5時等於0,所以當P=0.5時,H(U)最大。