畳み込みニューラル ネットワーク(CNN)のアーキテクチャ。
トロント大学のジェフリー・ヒントン教授のSuperVisionチームが開発。
2012年のILSVRCで優勝。
エラー率は15.3% で、次点よりも 10.8% 以上低かった。
また前年の誤差率を10%以上改善した。
第3次AIブームの火付け役となった。
2012 年以前のILSVRCでは、画像から特徴量を抽出する作業を人間が行っており、いかに有効な特徴量を設計できるかが、画像分類の精度を左右していた。
AlexNetでは、人間が特徴量を設計しなくても、十分なデータが存在すれば、機械自身が特徴量を見つけ出す。
AlexNetのネットワークのイメージ入力サイズは、227 x 227。
ドロップアウトやデータ拡張、バッチ正規化などのテクニックが利用されている。
Alex Netで使われた過学習対策はドロップアウト。
トロント大学のジェフリー・ヒントン教授のSuperVisionチームが開発。
2012年のILSVRCで優勝。
エラー率は15.3% で、次点よりも 10.8% 以上低かった。
また前年の誤差率を10%以上改善した。
第3次AIブームの火付け役となった。
2012 年以前のILSVRCでは、画像から特徴量を抽出する作業を人間が行っており、いかに有効な特徴量を設計できるかが、画像分類の精度を左右していた。
AlexNetでは、人間が特徴量を設計しなくても、十分なデータが存在すれば、機械自身が特徴量を見つけ出す。
AlexNetのネットワークのイメージ入力サイズは、227 x 227。
ドロップアウトやデータ拡張、バッチ正規化などのテクニックが利用されている。
Alex Netで使われた過学習対策はドロップアウト。