XAI(説明可能なAI):機械学習を解釈する5つの手法のポイントと実践ノウハウ ~デモ付~ <オンラインセミナー>

~ 解釈性・解釈手法の基礎と重要性、解釈性を高める5つの手法(PFI、PD、ICE、ALE、SHAP)とポイントおよび実演 ~

「機械学習のブラックボックスモデルを説明可能にするための解釈手法」とそのポイントを修得し、実務におけるAIの評価や説明責任に活かすための講座

・機械学習における予測精度と解釈性のトレードオフを克服するために有用な5つの手法を実用例から学び、データ分析に応用するためのセミナー!

オンラインセミナーの詳細はこちら:

・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。

講師の言葉

 Deep Learning、 Gradient Boosting Decision Tree、 Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。 これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことが実務では求められます。

 本セミナーでは、このような予測精度と解釈性のトレードオフを克服するため、実務において特に有用な5つの手法を解説します。

 〇 特徴量の重要度を知る手法:Permutation Feature Importance

 〇 特徴量と予測値の関係を知る手法:Partial Dependence

 〇 インスタンスごとの異質性を捉える手法:Individual Conditional Expectation

 〇 特徴量の相関に対処する手法:Accumulated Local Effects

 〇 予測の理由を考える手法:SHapley Additive exPlanations

 最後に、実務での分析例を通じた解釈手法の応用をご紹介します。

セミナー詳細

開催日時
  • 2024年02月14日(水) 10:30 ~ 17:30
開催場所 オンラインセミナー
カテゴリー オンラインセミナーソフト・データ・画像・デザイン
受講対象者 ・機械学習のブラックボックスモデルの振る舞いを把握する手法に興味のある方
・機械学習の解釈性、説明可能なAI(XAI)に興味のある方
・データサイエンティストの方、データサイエンティストを目指している方
・システム、ソフト、データ解析ほかその関連業務に従事する技術者の方
予備知識 ・初級レベルの確率・統計の知識(期待値など)
・初歩的な機械学習の知識(機械学習モデルを使って予測を行ったことがある、など)
修得知識 ・特に有用な機械学習の解釈手法について理解することができる
・解釈手法をそのまま使うのではなく、実務での応用例を知ることができる
プログラム

1.機械学習の解釈手法とは

  (1).なぜ機械学習の解釈手法が重要なのか

  (2).機械学習の解釈手法とは

  (3).この講義で用いる数式の記法

  (4).線形回帰モデルを通して「解釈性」を理解する

  (5).線形回帰モデルの導入

  (6).最小二乗法による回帰係数の推定

  (7).線形回帰モデルが備える解釈性

  (8).ブラックボックスモデルとしてのRandom Forest

  (9).線形回帰モデルの利点と注意点

 

2.特徴量の重要度を知る ~Permutation Feature Importance~

  (1).モチベーションとPermutation Feature Importance(PFI)導入

  (2).Permutation Feature Importance

  (3).Leave One Covariate Out Feature Importance(LOCOFI)

  (4).Grouped Permutation Feature Importance(GPFI)

  (5).PFIは因果関係として解釈できるか

  (6).PFIは訓練データとテストデータのどちらで予測精度を評価するべきか

  (7).PFI以外の特徴量重要度 ~特徴量重要度を用いたモデルの軽量化

  (8).PFIの利点と注意点

  (9).分析デモ

 

3.特徴量と予測値の関係を知る ~Partial Dependence~

  (1).モチベーションとPartial Dependence(PD)の導入

  (2).PDのアルゴリズム:PDの具体例

  (3).PDは因果関係として解釈できるか

  (4).PDがうまくいかない例①交互作用がある場合

  (5).PDがうまくいかない例②特徴量が強く相関する場合

  (6).PDの利点と注意点

  (7).分析デモ

 

4.インスタンスごとの異質性を捉える ~Individual Conditional Expectation~

  (1).モチベーションとIndividual Conditional Expectation(ICE)の導入

  (2).交互作用とPDの限界:ICEで交互作用を捉える ~ICEの解釈と注意点

  (3).CPDで推定結果を安定させる ~ICEの利点と注意点

  (4).分析デモ

 

5.特徴量の相関に対処する ~Accumulated Local Effects~

  (1).特徴量の相関とPDの限界

  (2).Conditional Dependence

  (3).Accumulated Local Effects(ALE)の利点と注意点

  (4).分析デモ

 

6.予測の理由を考える ~SHapley Additive exPlanations~

  (1).モチベーションとSHapley Additive exPlanations(SHAP)の導入

  (2).協力ゲーム理論とShapley値

  (3).Shapley値を機械学習へ応用

  (4).さまざまなSHAPの利用法

  (5).SHAPの利点と注意点

  (6).分析デモ

 

7.機械学習の解釈手法で線形回帰モデルを解釈する

  (1).Permutation Feature Importance

  (2).Partial Dependence

  (3).Individual Conditional Expectation

  (4).Accumulated Local Effects

  (5).SHapley Additive exPlanations

  (6).分析デモ

キーワード 機械学習 AI 説明可能なAI XAI 解釈手法 解釈性 線形回帰モデル ブラックボックス 特徴量 PFI LOCOFI GPFI 訓練データ テストデータ モデル軽量化 PD 予測値 ICE 交互作用 推定結果 ALE CD SHAP モデリング 貢献度 深層学習 ディープラーニング 勾配ブースティング ランダムフォレスト 予測精度 説明責任 データサイエンス
タグ 統計・データ解析AI・機械学習自動運転・運転支援技術・ADAS信号処理ソフト管理ソフト品質データ解析センサ音声処理画像処理画像認識感性・脳科学・認知工学組み込みソフトロボット仕様書・要件定義機械要素GPU計測器ITサービスFPGALSI・半導体
受講料 一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
会場
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。
contact us contact us
各種お問い合わせは、お電話でも受け付けております。
03-5322-5888

営業時間 月~金:9:00~17:00 / 定休日:土日・祝日