memrootじしょ
英和翻訳
mini-batch
scriptwriter
mini-batch
ˈmɪniˌbætʃ
ミニバッチ
1.
機械学習において、訓練データを小さなまとまりに分割して順次処理する手法。
機械学習、特にニューラルネットワークの訓練において、大量の訓練データを一度にすべて処理するのではなく、小さな塊(ミニバッチ)に分割して順次処理していく手法を指します。これにより、計算効率が向上し、勾配の更新がより頻繁に行われるため、訓練が安定しやすくなります。
Training
a
neural
network
using
mini-batch
gradient
descent
is
often
more
efficient
than
full-batch
gradient
descent.
(ミニバッチ勾配降下法を用いてニューラルネットワークを訓練することは、フルバッチ勾配降下法よりも効率的であることが多いです。)
Training a neural network
ニューラルネットワークを訓練すること
using
〜を使って
mini-batch gradient descent
ミニバッチ勾配降下法
is often more efficient
より効率的であることが多い
than
〜よりも
full-batch gradient descent
フルバッチ勾配降下法
The
size
of
the
mini-batch
is
a
crucial
hyperparameter
that
affects
training
speed
and
stability.
(ミニバッチのサイズは、訓練速度と安定性に影響を与える重要なハイパーパラメータです。)
The size of the mini-batch
ミニバッチのサイズ
is a crucial hyperparameter
重要なハイパーパラメータである
that affects
影響を与える
training speed
訓練速度
and stability
そして安定性
Processing
data
in
mini-batches
helps
in
managing
memory
constraints,
especially
with
large
datasets.
(ミニバッチでデータを処理することで、特に大規模なデータセットにおいてメモリの制約を管理しやすくなります。)
Processing data
データを処理すること
in mini-batches
ミニバッチで
helps in managing
管理するのに役立つ
memory constraints
メモリの制約
especially with large datasets
特に大規模なデータセットの場合
関連
batch size
stochastic gradient descent
batch gradient descent
epoch
iteration