ReLU

/ˈriːluː/ レル―

1. 整流線形ユニット

ニューラルネットワークにおいて、入力が負の値であればゼロを出力し、正の値であればその値をそのまま出力する活性化関数です。これにより、モデルに非線形性を導入し、勾配消失問題を軽減する効果があります。
ReLU is widely used as an activation function in deep neural networks due to its computational efficiency. (ReLUはその計算効率の高さから、深層ニューラルネットワークで活性化関数として広く使用されています。)