Activation function

/ˌæktɪˈveɪʃən ˈfʌŋkʃən/ アクティベーション ファンクション

1. ニューラルネットワークにおいて、ニューロンが発火するかどうか、またどの程度の強度で発火するかを決定する関数。入力信号の加重和を変換して出力信号を生成します。

ニューラルネットワークの各ニューロンが出力信号を生成する際に、入力の重み付き和を変換して出力値を決定する非線形関数です。これにより、ネットワークが複雑なパターンを学習できるようになります。
The ReLU is a popular activation function in deep learning. (ReLUはディープラーニングでよく使われる活性化関数です。)