cross-entropy

ˈkrôsˌentrəpē クロスエントロピー

1. 2つの確率分布間の類似度や予測誤差を測る尺度。特に機械学習の分類問題でモデルの予測が真の分布とどれだけ異なっているかを測る損失関数として用いられる。

情報理論において、ある確率分布が別の確率分布をどれだけうまく近似しているかを示す指標です。特に、機械学習の分類問題でモデルの予測が真の分布とどれだけ異なっているかを測る損失関数として広く用いられます。
Cross-entropy loss is commonly used for classification problems in machine learning. (交差エントロピー損失は、機械学習の分類問題で一般的に使用されます。)