モデル学習時に、用いる式に項を追加することによって過学習を抑制するための手法。
代表的なものに、ラッソ(L1正則化)、リッジ(L2正則化)、エラスティックネット(ラッソとリッジの融合)や、余分な説明変数を省くことを目的としたL1正則化、正則化項がパラメータの2乗で表されるためL1正則化よりも精度が高くなる傾向にあるL2正則化などがある。
代表的なものに、ラッソ(L1正則化)、リッジ(L2正則化)、エラスティックネット(ラッソとリッジの融合)や、余分な説明変数を省くことを目的としたL1正則化、正則化項がパラメータの2乗で表されるためL1正則化よりも精度が高くなる傾向にあるL2正則化などがある。