機械学習モデルを解釈する手法のひとつ。
2016年 Landberg と Lee が発表。オープンソース。
LIMEと同様、個別の予想結果に対して各特徴量や寄与スコア、予測値との関連性を出すローカルなモデル解釈ツールである。
協力ゲーム理論における「Shaply値(シャープレイ値)(Shapley Value)」を応用して命名された。

モデルのアルゴリズムの種類(決定木・線形回帰など)に限定されないため、利用できる場面が多く人気が高い。