2023年11月30日 リッジ回帰(L2正則化) 過学習を抑えるために正則化項の概念を入れた線形回帰。通常の正則化では、損失関数と正則化項の和を最小化させるが、リッジ回帰は正則化項がパラメータの2乗で表される。ラッソ(L1正則化)よりも精度が高くなる傾向にある。 タグ :#G検定#カンペ
2023年11月28日 正則化(Regularization) モデル学習時に、用いる式に項を追加することによって過学習を抑制するための手法。代表的なものに、ラッソ(L1正則化)、リッジ(L2正則化)、エラスティックネット(ラッソとリッジの融合)や、余分な説明変数を省くことを目的としたL1正則化、正則化項がパラメータの2乗で表されるためL1正則化よりも精度が高くなる傾向にあるL2正則化などがある。 タグ :#G検定#カンペ
2023年11月27日 スラック変数 サポートベクターマシン(SVM)において、誤分類を許容するための工夫。データがマージンや線形識別境界に対してどの位置にあるかを示す変数。誤分類時やマージン境界を越えた場合に、正の値をとる。 タグ :#G検定#カンペ
2023年11月24日 ストライド CNNの畳み込み処理において、フィルタが移動する間隔のこと。ストライドは1で行われることが多いが、画像サイズが大きすぎる場合などには1以上にすることもある。 タグ :#G検定#カンペ