訊息entropy意思

在資訊理論中,"entropy" 一詞是由匈牙利裔美國工程師和數學家香農(Claude Shannon)引入的,用來描述訊息的不確定性或混亂程度。香農的資訊理論為通信系統中資訊的量化和傳輸提供了框架,而資訊的 entropy 則是一個核心概念。

訊息 entropy 通常用來衡量一個訊息系統中可能出現的狀態數量,或者說是訊息中包含的資訊量。在一個隨機的過程中,entropy 越高,我們對系統未來狀態的預測就越困難。在通信中,entropy 可以用來表示一個訊息對接收者來說有多麼出乎意料或難以預測。

在數學上,訊息 entropy 可以用一個函數來計算,這個函數被稱為香農函數(Shannon entropy),其公式如下:

H(X) = -∑p(x)log₂p(x)

其中,X 是一個隨機變量,p(x) 是隨機變量 X 取值 x 的機率,而 log₂ 表示以 2 為底的對數。這個公式計算的是所有可能取值 x 的熵之和,每種取值的熵值是其機率 p(x) 的負對數。

訊息 entropy 是一個重要的概念,它不僅在通信工程中應用,也在許多其他領域,如計算機科學、物理學、生物學和經濟學中發揮作用。