stochastic gradient descent

/stəˈkæstɪk ˈɡreɪdiənt dɪˈsɛnt/ ストキャスティック グラディエント ディセント

1. 確率的勾配降下法

機械学習モデルのパラメータを最適化するための反復的なアルゴリズム。特に大規模なデータセットにおいて、各更新ステップでデータセット全体ではなく、ランダムに選択された単一のサンプル(または小さなバッチ)の勾配を利用することで、計算コストを削減し、収束を高速化します。ノイズが多いが、局所最適解に陥りにくいという特性も持ちます。
Stochastic gradient descent is a fundamental optimization algorithm in machine learning. (確率的勾配降下法は、機械学習における基本的な最適化アルゴリズムです。)