XAI(説明可能なAI):ブラックボックスな機械学習モデルの中身を可視化する5つの手法 ~デモ付~ <オンラインセミナー>

~ 機械学習の説明性/解釈性、予測精度と解釈性を両立するための5つの手法(PFI、PD、ICE、ALE、SHAP)、解釈手法の実用例 ~

・ブラックボックスである機械学習モデルの振る舞いや予測結果を理解し説明するための5つの手法を修得し、説明可能なAI(XAI)を実務に応用するための講座

・機械学習における予測精度と解釈性を両立するための有用な解釈手法を実用例から修得し、実務で活かすためのセミナー!

オンラインセミナーの詳細はこちら:

・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。

講師の言葉

 Deep Learning、Gradient Boosting Decision Tree、Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。 これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことが実務では求められます。

 本セミナーでは、このような予測精度と解釈性のトレードオフを克服するため、実務において特に有用な5つの手法を解説します。

 〇 特徴量の重要度を知る手法:Permutation Feature Importance

 〇 特徴量と予測値の関係を知る手法:Partial Dependence

 〇 インスタンスごとの異質性を捉える手法:Individual Conditional Expectation

 〇 特徴量の相関に対処する手法:Accumulated Local Effects

 〇 予測の理由を考える手法:SHapley Additive exPlanations

最後に、実務での分析例を通じた解釈手法の応用をご紹介します。

セミナー詳細

開催日時
  • 2023年04月26日(水) 10:30 ~ 17:30
開催場所 オンラインセミナー
カテゴリー オンラインセミナーソフト・データ・画像・デザイン
受講対象者 ・機械学習のブラックボックスモデルの振る舞いを把握する手法に興味のある方
・機械学習の解釈性、説明可能なAI(XAI)に興味のある方
・データサイエンティストの方、データサイエンティストを目指している方
・システム、ソフト、データ解析ほかその関連業務に従事する技術者の方
予備知識 ・初級レベルの確率・統計の知識(期待値など)
・初歩的な機械学習の知識(機械学習モデルを使って予測を行ったことがある、など)
修得知識 ・特に有用な機械学習の解釈手法について理解することができる
・解釈手法をそのまま使うのではなく、実務での応用例を知ることができる
プログラム

1.機械学習の解釈手法とは

  (1).なぜ機械学習の解釈手法が重要なのか

  (2).機械学習の解釈手法とは

  (3).この講義で用いる数式の記法

  (4).線形回帰モデルを通して「解釈性」を理解する

  (5).線形回帰モデルの導入

  (6).最小二乗法による回帰係数の推定

  (7).線形回帰モデルが備える解釈性

  (8).ブラックボックスモデルとしてのRandom Forest

  (9).線形回帰モデルの利点と注意点

 

2.特徴量の重要度を知る ~Permutation Feature Importance~

  (1).モチベーションとPermutation Feature Importance(PFI)導入

  (2).Permutation Feature Importance

  (3).Leave One Covariate Out Feature Importance(LOCOFI)

  (4).Grouped Permutation Feature Importance(GPFI)

  (5).PFIは因果関係として解釈できるか

  (6).PFIは訓練データとテストデータのどちらで予測精度を評価するべきか

  (7).PFI以外の特徴量重要度 特徴量重要度を用いたモデルの軽量化

  (8).PFIの利点と注意点

 

3.特徴量と予測値の関係を知る ~Partial Dependence~

  (1).モチベーションとPartial Dependence(PD)の導入

  (2).PDのアルゴリズム:PDの具体例

  (3).PDは因果関係として解釈できるか

  (4).PDがうまくいかない例①交互作用がある場合

  (5).PDがうまくいかない例②特徴量が強く相関する場合

  (6).PDの利点と注意点

 

4.インスタンスごとの異質性を捉える ~Individual Conditional Expectation~

  (1).モチベーションとIndividual Conditional Expectation(ICE)の導入

  (2).交互作用とPDの限界:ICEで交互作用を捉える ICEの解釈と注意点

  (3).CPDで推定結果を安定させる ICEの利点と注意点

 

5.特徴量の相関に対処する ~Accumulated Local Effects~

  (1).特徴量の相関とPDの限界

  (2).Conditional Dependence

  (3).Accumulated Local Effects(ALE)の利点と注意点

 

6.予測の理由を考える ~SHapley Additive exPlanations~

  (1).モチベーションとSHapley Additive exPlanations(SHAP)の導入

  (2).協力ゲーム理論とShapley値

  (3).Shapley値を機械学習へ応用

  (4).さまざまなSHAPの利用法

  (5).SHAPの利点と注意点

 

7.機械学習の解釈手法で線形回帰モデルを解釈する

  (1).Permutation Feature Importance

  (2).Partial Dependence

  (3).Individual Conditional Expectation

  (4).Accumulated Local Effects

  (5).SHapley Additive exPlanations

 

8.機械学習の解釈手法を応用する① ~CM接触回数と製品認知のモデリング~

  (1).課題設定

  (2).CM接触回数と製品認知のモデリング

  (3).製品認知に対する貢献度の分解:Shapley値を応用する

  (4).シミュレーション例

 

9.機械学習の解釈手法を応用する② ~リーチの貢献度を分解する~

  (1).課題設定

  (2).モデルの定式化

  (3).リーチの貢献度の分解

キーワード 機械学習 AI 説明可能なAI XAI 解釈手法 解釈性 線形回帰モデル ブラックボックス 特徴量 PFI LOCOFI GPFI 訓練データ テストデータ モデル軽量化 PD 予測値 ICE 交互作用 推定結果 ALE CD SHAP モデリング 貢献度 深層学習 ディープラーニング 勾配ブースティング ランダムフォレスト 予測精度 説明責任 データサイエンス
タグ 統計・データ解析AI・機械学習ソフト品質データ解析品質管理音声処理画像処理画像認識
受講料 一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
会場
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日