2012年にジェフリー・ヒントンによって提案された、ニューラルネットワークの過学習を防ぐための手法。
一部のニューロンをランダムに無効化し、過学習を軽減して汎化性能を上げる。
どのニューロンを無効化するかは、ミニバッチごとにランダムに選びなおす。
無効化されたニューロンも、予測時には重みつきで使用され、各ニューロンからの出力に(1-無効化割合)の係数をかける。
ドロップアウトを取り入れたモデルは、「ちょっとずつ異なるニューラルネットワークを多数組み合わせている」と見なせるため、アンサンブル学習器の一種であるといえる。
ランダムフォレストモデルと目的に共通点がある。