バッチ勾配降下法と確率的勾配降下法のいいところを組み合わせた手法。

小さなデータ集合(ミニバッチ)をいくつかランダムに選び、そのミニバッチに対して勾配降下法を適用する。
ミニバッチのサイズは、2の累乗や32、64、128などが用いられる。

バッチ勾配降下法と比べると、一度に利用する訓練データの量が少ないことから、ミニバッチと呼ばれる。
バッチ勾配降下法と比べると、計算に必要なメモリ量が少ない。
また、確率的勾配降下方と比較しても外れ値の影響を受けにくく、学習が比較的安定して進むという利点がある。