mini-batch

ˈmɪniˌbætʃ ミニバッチ

1. 機械学習において、訓練データを小さなまとまりに分割して順次処理する手法。

機械学習、特にニューラルネットワークの訓練において、大量の訓練データを一度にすべて処理するのではなく、小さな塊(ミニバッチ)に分割して順次処理していく手法を指します。これにより、計算効率が向上し、勾配の更新がより頻繁に行われるため、訓練が安定しやすくなります。
Training a neural network using mini-batch gradient descent is often more efficient than full-batch gradient descent. (ミニバッチ勾配降下法を用いてニューラルネットワークを訓練することは、フルバッチ勾配降下法よりも効率的であることが多いです。)
関連
stochastic gradient descent
batch gradient descent