entropy

/ˈɛntrəpi/ エントロピー

1. システム(特に物理系)の無秩序さやランダム性の度合いを示す尺度。また、そのシステム内でエネルギーが利用できなくなる度合い。

物理学、特に熱力学において使われる概念で、システムの無秩序さやランダム性の度合い、またはエネルギーが仕事に利用できなくなる度合いを表します。時間の経過とともに自然な過程で増加する傾向があります。
The second law of thermodynamics states that the total entropy of an isolated system can never decrease. (熱力学の第二法則は、孤立系の全エントロピーは決して減少しないことを述べている。)

2. 情報理論において、情報源に含まれる不確実性や予測不可能性の度合いを示す尺度。

情報理論において、情報源(例えばテキスト、画像、音声など)に含まれる情報の予測不可能性や不確実性の度合いを表すために使われます。情報の乱雑さやランダム性を測る尺度とも言えます。
In information theory, entropy measures the unpredictability of a data source. (情報理論において、エントロピーはデータ源の予測不可能性を測定する。)

3. 一般的な文脈で、無秩序、混乱、または予測不能な状態。

科学的な意味から派生して、より広い文脈で物事の無秩序さや混乱、衰退の状態を表すのに比喩的に使われることがあります。
The room's entropy increased as kids left toys everywhere. (子供たちが玩具をあちこちに置きっぱなしにしたので、部屋の無秩序さが増した。)