conditional entropy

/kənˈdɪʃənl ˈɛntrəpi/ コンディショナル エントロピー

1. 確率変数Xの不確かさが、別の確率変数Yが与えられた場合にどれだけ残るかを示す情報理論の概念。

情報理論において、ある事象の不確かさが、関連する別の事象の情報がわかっているときにどれだけ減少するか、または残るかを示す概念です。データの依存関係を理解する際に利用されます。
The conditional entropy of X given Y measures the average uncertainty of X when Y is known. (Yが既知の場合のXの条件付きエントロピーは、Yが分かっている時のXの平均的な不確かさを測定します。)
関連
joint entropy
relative entropy