Shannon entropy

/ˈʃænən ˈɛntrəpi/ シャノンエントロピー

1. 情報源の不確実性や、そこから得られる情報の平均量を測る情報理論の概念。

情報理論において、ある情報源から発せられるメッセージの不確実性の度合い、あるいはそのメッセージが持つ平均的な情報量を数値化したものです。これにより、データ圧縮の限界や通信路の容量などを理論的に分析できます。
Shannon entropy is a measure of the average information content or uncertainty of a random variable. (シャノンエントロピーは、確率変数の平均情報量または不確実性の尺度である。)

2. データ圧縮や通信路符号化の効率を評価する上で基礎となる量。

シャノンエントロピーは、データ圧縮の効率や通信路の容量の理論的な限界を定める上で不可欠な概念です。エントロピーが高いほど情報源の不確実性が高く、圧縮が困難であることを示します。
In data compression, the lower the Shannon entropy of a message, the more it can be compressed. (データ圧縮においては、メッセージのシャノンエントロピーが低いほど、より多く圧縮できる。)
関連
Information theory
Kullback-Leibler divergence
Mutual information
Source coding
Channel capacity