キカベン
機械学習でより便利な世の中へ
G検定対策
お問い合わせ
   

モデルの解釈性

thumb image

1. 学習目標🔝

ディープラニングのモデルの解釈性の手法について理解する。

  • ディープラニングのモデルの解釈性問題
  • Grad-CAM

キーワードモデルの解釈CAM

2. ディープラニングのモデルの解釈性問題🔝

ディープラーニングのモデルでは予測の判断根拠を説明する難しい場合が多い。予測精度が高くともなぜそうなのかがわからないと運用に踏み切れないというケースも考えられる。特に医療関係では問題になる。例えば、根拠が分からない病気の予測をされたとしたら、あなたは信じますか。

これまでのモデルの解釈の手法(LIMESHAPなど)はより単純なモデルで近似することで判断要因の説明を試みましたが、ディープラーニングのモデル自体に判断根拠を持たせる手法も試みられています。

3. Grad-CAM🔝

Grad-CAM(Gradient-weighted Class Activation Mapping)は2017年にFacebookの研究チームによって発表されたCNNの判断根拠を可視化する手法です。CNNが画像のどこを見て判断しているのかがわかります。

CNNの出力値に対して勾配が大きいところを可視化しています。例えば、犬という予測に対して勾配が大きいとろを色(ヒートマップ)で表示しています。元のモデルに変更を加える必要もありません。

上図を見ると猫の顔が判断に含まれていないように見えます。Guided Grad-CAMではどの部分を判断根拠にしているのかがより詳細にわかるようになっています。



コメントを残す

メールアドレスは公開されません。