XAI(説明可能なAI)実装のポイント:機械学習の高い予測精度と解釈性を両立するための解釈手法 ~デモ付~ <オンラインセミナー>
~ 機械学習の解釈手法の重要性、基本となる線形回帰モデルを用いた「解釈性」の理解、機械学習モデルの解釈性を高める6つの手法とそのポイントの実演 ~
・機械学習モデルの示す出力に対し、その根拠を説明可能にするための解釈手法とその実践ノウハウを修得し、予測結果に対する説明責任を果たすための講座
・どのような機械学習モデルにも適用でき、高い予測精度と解釈性のトレードオフを解消することが可能な6つの手法と実践のポイントを修得し、より信頼性の高いデータ分析に応用しよう!
・PFI、PD、ICE、ALE、SHAP、CEの各解釈手法について、数式の解説だけでなく、線形回帰モデルに適用した実演を交えて解説します
※各手法の解説で使用するPythonのサンプルプログラムを配布いたします
オンラインセミナーの詳細はこちら:
・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。
講師の言葉
Deep Learning、 Gradient Boosting Decision Tree、 Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。 これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことが実務では求められます。 このような予測精度と解釈性のトレードオフを克服するため、実務において特に有用な6つの手法を解説します。 解説は数式だけでなくプログラムとデモを利用して行います。
〇 特徴量の重要度を定義する手法:Permutation Feature Importance
〇 特徴量と予測値の関係を知る手法:Partial Dependence
〇 特徴量ごとに予測値に与える変化を捉える手法:Individual Conditional Expectation
〇 他の特徴量の影響を考えずに効果を調べる手法:Accumulated Local Effects
〇 予測の理由・根拠を考える手法:SHapley Additive exPlanations
〇 求める予測値を得るための仮説を検証する方法:Counterfactual Explanations
セミナー詳細
開催日時 |
- 2025年02月19日(水) 10:30 ~ 17:30
|
開催場所 |
オンラインセミナー |
カテゴリー |
オンラインセミナー、ソフト・データ・画像・デザイン |
受講対象者 |
・機械学習のブラックボックスモデルの振る舞いを把握する手法に興味のある方
・機械学習の解釈性、説明可能なAI(XAI)に興味のある方
・データサイエンティストの方、データサイエンティストを目指している方
・システム、ソフト、データ解析ほかその関連業務に従事する技術者の方
|
予備知識 |
・初級レベルの確率・統計の知識(期待値など)
・初歩的な機械学習の知識(機械学習モデルを使って予測を行ったことがある、など)
|
修得知識 |
・特に有用な機械学習の解釈手法について理解することができる
・解釈手法をそのまま使うのではなく、実務での応用例を知ることができる
|
プログラム |
1.機械学習の解釈手法とは
(1).なぜ機械学習の解釈手法が重要なのか
(2).機械学習の解釈手法とは
(3).この講義で用いる数式の記法
2.線形回帰モデルで解釈性を理解する
(1).最小二乗法による回帰係数の推定
(2).線形回帰モデルが備える解釈性
(3).ブラックボックスモデルとしてのRandom Forest
(4).線形回帰モデルの利点と注意点
3.手法1:特徴量の重要度を知る ~Permutation Feature Importance~
(1).モチベーションとPermutation Feature Importance(PFI)導入
(2).Permutation Feature Importance
(3).Leave One Covariate Out Feature Importance(LOCOFI)
(4).Grouped Permutation Feature Importance(GPFI)
(5).PFIは因果関係として解釈できるか
(6).PFIは訓練データとテストデータのどちらで予測精度を評価するべきか
(7).PFI以外の特徴量重要度 ~特徴量重要度を用いたモデルの軽量化
(8).PFIの利点と注意点
4.手法2:特徴量と予測値の関係を知る ~Partial Dependence~
(1).モチベーションとPartial Dependence(PD)の導入
(2).PDのアルゴリズム:PDの具体例
(3).PDは因果関係として解釈できるか
(4).PDがうまくいかない例①交互作用がある場合
(5).PDがうまくいかない例②特徴量が強く相関する場合
(6).PDの利点と注意点
5.手法3:インスタンスごとの異質性を捉える ~Individual Conditional Expectation~
(1).モチベーションとIndividual Conditional Expectation(ICE)の導入
(2).交互作用とPDの限界:ICEで交互作用を捉える ~ICEの解釈と注意点
(3).CPDで推定結果を安定させる ~ICEの利点と注意点
6.手法4:特徴量の相関に対処する ~Accumulated Local Effects~
(1).特徴量の相関とPDの限界
(2).Conditional Dependence
(3).Accumulated Local Effects(ALE)の利点と注意点
7.手法5:予測の理由を考える ~SHapley Additive exPlanations~
(1).モチベーションとSHapley Additive exPlanations(SHAP)の導入
(2).協力ゲーム理論とShapley値
(3).Shapley値を機械学習へ応用
(4).さまざまなSHAPの利用法
(5).SHAPの利点と注意点
8.手法6:反実仮想を考える ~Counterfactual Explanations~
(1).モチベーションとCounterfactual Explanationsの導入
(2).シミュレーションでCounterfactual Explanationsを確認
(3).CEの利点と注意点
9.機械学習の解釈手法で線形回帰モデルを解釈する
(1).Permutation Feature Importance
(2).Partial Dependence
(3).Individual Conditional Expectation
(4).Accumulated Local Effects
(5).SHapley Additive exPlanations
(6).Counterfactual Explanations
|
キーワード |
機械学習 説明可能AI XAI 解釈手法 線形回帰モデル ブラックボックスモデル 特徴量 モデル軽量化 モデリング 貢献度 深層学習 ディープラーニング 予測精度 説明責任 |
タグ |
統計・データ解析、AI・機械学習、システム営業、ソフト管理、ソフト品質、ソフト教育、CS、組み込みソフト、ITサービス |
受講料 |
一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
|
会場 |
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
|
こちらのセミナーは受付を終了しました。
次回開催のお知らせや、類似セミナーに関する情報を希望される方は、以下よりお問合せ下さい。