memrootじしょ
英和翻訳
Activation function
Free software
Objects
web content
Procreate
polarizing filter
proprietary software
Distributed
Hyperloop
Comprehending
Activation function
/ˌæktɪˈveɪʃən ˈfʌŋkʃən/
アクティベーション ファンクション
1.
ニューラルネットワークにおいて、ニューロンが発火するかどうか、またどの程度の強度で発火するかを決定する関数。入力信号の加重和を変換して出力信号を生成します。
ニューラルネットワークの各ニューロンが出力信号を生成する際に、入力の重み付き和を変換して出力値を決定する非線形関数です。これにより、ネットワークが複雑なパターンを学習できるようになります。
The
ReLU
is
a
popular
activation
function
in
deep
learning.
(ReLUはディープラーニングでよく使われる活性化関数です。)
The ReLU
「ReLU」は「Rectified Linear Unit」の略で、非線形な活性化関数の一種です。
is
「〜である」という存在や状態を表す動詞です。
a popular
「人気のある」「よく使われる」という意味の形容詞句です。
activation function
「活性化関数」という、ニューラルネットワークにおける重要な要素を指します。
in deep learning.
「ディープラーニングにおいて」という、適用される分野を示します。
Without
an
activation
function,
a
neural
network
would
only
be
able
to
learn
linear
transformations.
(活性化関数がなければ、ニューラルネットワークは線形変換しか学習できません。)
Without
「〜なしで」「〜がなければ」という条件や欠如を表す前置詞です。
an activation function,
「一つの活性化関数」を指します。
a neural network
「一つのニューラルネットワーク」を指します。
would only be able to learn
「〜しか学習できないだろう」という仮定の能力を表します。
linear transformations.
「線形変換」という、入力と出力が線形の関係にある変換を指します。
Sigmoid
and
Tanh
are
common
choices
for
activation
functions
in
recurrent
neural
networks.
(シグモイド関数とTanh関数は、リカレントニューラルネットワークにおける活性化関数の一般的な選択肢です。)
Sigmoid and Tanh
「シグモイド」と「Tanh(ハイパボリックタンジェント)」は、特定の種類の活性化関数の名前です。
are
「〜である」という存在や状態を表す動詞です。
common choices
「一般的な選択肢」を意味します。
for activation functions
「活性化関数として」「活性化関数について」という目的や対象を示します。
in recurrent neural networks.
「リカレントニューラルネットワークにおいて」という、適用されるネットワークの種類を示します。
関連
ReLU
Sigmoid
Tanh
Neural network
Deep learning
Neuron
Backpropagation