1980年代後半に考案された、順伝播型ニューラルネットワークの一種。
単純パーセプトロンを多数結合させている。
入力層と出力層で構成される単純パーセプトロンに対して、多層パーセプトロンは入力層、1つの隠れ層(中間層)、出力層の3層で構成される。
多層にしたことで、線形分離不可能な問題も解くことができるようになり、単純パーセプトロンの欠点を解決した。(第二次ニューラルネットワークブーム)

多層パーセプトロンの各層間のパーセプトロンは、お互いに結合しているような構造になっている。
この様な構造のニューラルネットワークを「全結合型ニューラルネットワーク」と呼ぶ。
学習のために誤差逆伝播法(バックプロパゲーション)を利用する。
より複雑な問題を解決するために隠れ層を4層以上にすると、勾配消失問題と過学習の問題が発生し、問題を解消することができず、第二次ブームは終焉した。
より複雑な問題を解決するために隠れ層を4層以上にすると、勾配消失問題と過学習の問題が発生し、問題を解消することができず、第二次ブームは終焉した。