信息熵 &不確定性

前言

傳播同一則信息,信息的量好像彈性空間很大,我們應該如何測一測這個信息的量呢?如果這個信息的量是可測,那麼要傳遞一條信息,有沒有量的下限呢?也就是說,我們至少要用去多少個單位量才能完整表達這條信息呢?我們甚至還可以進一步想,要傳遞一條信息最少需要多少卡路里的能量呢?

信息量

一件事發生的概率越大,消除不確定需要的信息量越小

根據信息論對信息量單位比特的定義,如果存在兩種情況,它們出現的可能性相同,都是50%,這時要消除其不確定性所需要的信息是1比特。
但是如果一種情況發生的可能性大,另一種發生的可能性小,所需要的信息就不到1比特。比如說,一種情況出現的概率是1/3,另一種是2/3,這種情況下消除不確定性的信息量則降低到0.9比特。
在更極端的情況下,比如一種情況有99%的可能性發生,另一種是1%,那麼這時的不確定性只有0.08比特了。

而公衆都知道的信息,其實是沒有信息量的。

  • 怎麼從信息論的角度分析這種危害最大的情況,我們在後面介紹交叉熵時會專門講。

爲什麼信息有這樣四兩撥千斤的作用呢?

這其實背後也是有科學根據的,在控制理論中有一種開關電路,控制這個開關只需要一比特的信息或者極低的能量,但是經過它的電流(可以被認爲是能量)卻能近乎無限大,今天我們很多電器中那些弱電控制強電的元器件就是利用這個特點工作的。
用很少的信息驅動很大的能量,這也是今天交付給大家的第三個知識點。而這也是信息非常重要的原因。

  • 我們知道1比特信息是非常少的,是一個計算機字節的1/8,一個像素的1/24。但是,這麼一點信息產生的作用卻是巨大的

小結

  • 信息很重要,甚至比錢更重要,它能四兩撥千斤。而信息作用的大小和信息量有關。
  • 信息量和不確定性有關,大家都知道的事,就沒有什麼信息量了。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章