memrootじしょ
英和翻訳
batch size
batch size
/bætʃ saɪz/
バッチサイズ
1.
機械学習において、一度の学習更新(イテレーション)で使用される訓練データのサンプル数。
機械学習モデルの訓練において、全データセットを一度に処理するのではなく、複数の小さなグループ(バッチ)に分割して処理します。このバッチ一つに含まれるサンプルデータの数を「バッチサイズ」と呼びます。バッチサイズは、モデルの学習の安定性、収束速度、メモリ使用量に影響を与えます。
Choosing
an
appropriate
batch
size
is
crucial
for
effective
model
training.
(適切なバッチサイズを選択することは、効果的なモデルの訓練に不可欠です。)
Choosing
「選択すること」
an appropriate batch size
「適切なバッチサイズ」
is crucial
「極めて重要である」
for effective model training
「効果的なモデルの訓練のために」
A
smaller
batch
size
often
leads
to
more
stable
training
but
can
be
slower.
(より小さなバッチサイズは、多くの場合、より安定した訓練につながりますが、処理が遅くなる可能性があります。)
A smaller batch size
「より小さなバッチサイズ」
often leads to
「しばしば~につながる」
more stable training
「より安定した訓練」
but
「しかし」
can be slower
「遅くなる可能性がある」
Increasing
the
batch
size
can
speed
up
training
per
epoch
but
might
result
in
poorer
generalization.
(バッチサイズを増やすと、エポックあたりの訓練速度は向上しますが、汎化性能が低下する可能性があります。)
Increasing the batch size
「バッチサイズを増やすこと」
can speed up
「~を加速させることができる」
training per epoch
「エポックあたりの訓練」
but
「しかし」
might result in
「~という結果になる可能性がある」
poorer generalization
「より低い汎化性能」
For
large
datasets,
mini-batch
training
with
a
specific
batch
size
is
commonly
used.
(大規模なデータセットの場合、特定のバッチサイズでのミニバッチ訓練が一般的に使用されます。)
For large datasets
「大規模なデータセットの場合」
mini-batch training
「ミニバッチ訓練」
with a specific batch size
「特定のバッチサイズで」
is commonly used
「一般的に使用される」
The
optimal
batch
size
depends
on
the
specific
dataset
and
model
architecture.
(最適なバッチサイズは、特定のデータセットとモデルのアーキテクチャによって異なります。)
The optimal batch size
「最適なバッチサイズ」
depends on
「~に依存する」
the specific dataset
「特定のデータセット」
and model architecture
「およびモデルのアーキテクチャ」
関連
iteration
epoch
mini-batch
training data
gradient descent
neural network
dataset
learning rate