2023年07月28日 SHAP(SHapley Additive exPlanations) 機械学習モデルを解釈する手法のひとつ。2016年 Landberg と Lee が発表。オープンソース。LIMEと同様、個別の予想結果に対して各特徴量や寄与スコア、予測値との関連性を出すローカルなモデル解釈ツールである。協力ゲーム理論における「Shaply値(シャープレイ値)(Shapley Value)」を応用して命名された。モデルのアルゴリズムの種類(決定木・線形回帰など)に限定されないため、利用できる場面が多く人気が高い。 「G検定カンペ用語集」カテゴリの最新記事 タグ :#G検定#カンペ < 前の記事次の記事 >