2024年04月19日 Mish関数 ミッシュ関数。ReLU関数の派生版。関数への入力値が0以下の場合には、出力値がほぼ0(※わずかに負の値になり、最小値は約-0.31)になる。入力値が0より上の場合には、出力値が入力値とほぼ同じ値(最大値は∞)になる関数。 タグ :#G検定#カンペ
2024年04月18日 Swish関数 スウィッシュ関数。ReLU関数の派生版。関数への入力値が0以下の場合には出力値がほぼ0(わずかに負の値になる)に、入力値が0より上の場合には出力値が入力値とほぼ同じ値となる関数。 タグ :#G検定#カンペ
2024年04月17日 GELU (Gaussian Error Linear Units) ReLU関数の派生版。Google DeepMind が発表。ランダム正則化機能も備えたReLU。 タグ :#G検定#カンペ
2024年04月16日 Parametric ReLU関数 =PReLU=Parametric Rectified Linear Unit ReLU関数の派生版。入力値が0以下の場合は、出力値が入力値をa倍した値になる(aは学習されるパラメータ)。 タグ :#G検定#カンペ