勾配降下法において発生するおそれのある「局所最適解問題」や「プラトー」という状況を避けるために、学習データの渡し方を工夫することがある。

オンライン学習は、毎回データサンプルを1つずつ入力し(バッチサイズ1)、それを使ってパラメータ更新を行う。
学習データがN件存在する場合、N件からランダムに1件抽出して予測・分類誤差を算出し、モデル性能を高めていく。
このサイクルを繰り返し、あらかじめ指定した学習ラウンドや停止条件を満たすと終了する。

オンライン学習では、学習率をどう設定するかが重要なポイントである。

ミニバッチ学習と同様、局所最適解に陥りにくい。
1つずつデータを投入するため、メモリ使用量が少なく学習にかかる計算負荷が小さいというメリットがある。
1つひとつのデータに対してパラメータの更新を行うため、データの中の外れ値に敏感に反応し、結果が不安定になりやすい。
異常なデータが入力されると、モデルの予測性能がそのデータにひっぱられるおそれがある。