G検定カンペ用語集

自分用G検定用チートシート。

2023年07月


モデル全体に対する予測根拠を可視化するための手法。
主にCNNによる画像認識を対象としており、「画像のどこに注目してクラス分類しているのか」を可視化する。
ディープラーニングのモデルそのものに判断根拠を持たせる手法。
ネットワークにGAP処理がなくても可。

Grad=Gradient=勾配情報
勾配が大きいピクセルは予測クラスの出力に大きく影響する重要な場所であると判断し、そのピクセルに重みを付ける。

CNNが分類のために注視していると推定される範囲を、ヒートマップで表示することができる。

問題点は、解釈過程の中で画像の解像度が下がってしまうこと。
この問題点を解決するために、入力値の勾配情報をも使うGuided Grad-CAMという改善版もある。



機械学習モデルを解釈する手法のひとつ。
2016年 Landberg と Lee が発表。オープンソース。
LIMEと同様、個別の予想結果に対して各特徴量や寄与スコア、予測値との関連性を出すローカルなモデル解釈ツールである。
協力ゲーム理論における「Shaply値(シャープレイ値)(Shapley Value)」を応用して命名された。

モデルのアルゴリズムの種類(決定木・線形回帰など)に限定されないため、利用できる場面が多く人気が高い。


機械学習のモデルの解釈性に注目し、ブラックボックス性の解消を目指した研究が進められている。

LIMESHAP
モデル全体の傾向ではなく特定のデータサンプルに着目し、単純なモデルで近似することで予測に寄与する因子を推定する「局所的な説明ツール」。

GradーCAM 
勾配情報を活用することでディープラーニングモデルそのものに判断根拠を持たせる。


特定の入力データに対する予測について、判断根拠を解釈・可視化する局所的(ローカルな)モデル解釈ツール。

表形式データ「どの変数が予測に効いたのか」
画像データ「画像のどの部分が予測に効いたのか」

単純で解釈しやすい線形回帰モデルを用いて、複雑なモデルを近似することで解釈を行う。
LIMEモデルへの入力は1つの特定のサンプルに対する予測結果であることがポイント。
 


自動運転では、ロボット制御と共通の技術が使われている。
行動選択に対し報酬を与えられ、センサーで取得したデータの種類だけ(自動運転中に直前する状況の数だけ)のQ学習を行う。

エレベータ制御にも深層強化学習が活用され始めている。
カゴ数と定員は同じまま、待ち時間を短縮するような制御システムを目指している。
日々の運行で得られた学習データをシステムに追加しながら随時学習する。

建物揺れ制御のための制御系AIも応用事例の一つである。

↑このページのトップヘ