1989 年にヤン・ルカン(Yann LeCun)らによって提案された、畳み込みニューラルネットワーク(CNN)のアーキテクチャ。
畳み込み層 →サブサンプリング層を2回繰り返した後、全結合層を3層つなげて識別するというCNN構造に初めて発展させたもの。
郵便番号の手書き文字(手書き文字10クラス)の識別問題を解くために開発された。
LeNetと構造上は同じである前身ネオコグニトロンとは、誤差逆伝播法を使用し勾配降下を用いている点が異なっている。
学習可能なサブサンプリング層を導入したことにより、局所における平行移動不変性を獲得できるようになった。
LeNetの畳み込み層はゼロパディングがない。
従って、畳み込み層を経るごとに特徴マップの縦横サイズが少しずつ縮んでしまう。
(近年のCNNではゼロパディングを行うため、畳み込み前後で特徴マップサイズが変化しないことが標準的である。)
畳み込み層 →サブサンプリング層を2回繰り返した後、全結合層を3層つなげて識別するというCNN構造に初めて発展させたもの。
郵便番号の手書き文字(手書き文字10クラス)の識別問題を解くために開発された。
LeNetと構造上は同じである前身ネオコグニトロンとは、誤差逆伝播法を使用し勾配降下を用いている点が異なっている。
学習可能なサブサンプリング層を導入したことにより、局所における平行移動不変性を獲得できるようになった。
LeNetの畳み込み層はゼロパディングがない。
従って、畳み込み層を経るごとに特徴マップの縦横サイズが少しずつ縮んでしまう。
(近年のCNNではゼロパディングを行うため、畳み込み前後で特徴マップサイズが変化しないことが標準的である。)