XAI(説明可能なAI)の基礎と機械学習モデルの解釈性を高める効果的手法の実応用 ~デモ付~ <オンラインセミナー>
~ 機械学習における解釈手法の重要性、線形回帰モデルを用いた「解釈性」の理解、機械学習モデルの具体的な6つの解釈手法とその実践のポイント ~
・機械学習の導き出した出力の根拠を説明可能にするための解釈手法とその実践ノウハウを修得し、分析結果や予測結果の信頼性を高めるための講座
・高い予測精度を誇る機械学習モデルの欠点である「解釈性」の低さを解消可能で、実務において特に有用な6つの手法とその応用事例を修得し、モデルの検証やさらなる精度向上に活かそう!
・PFI、PD、ICE、ALE、SHAP、CEの各解釈手法について、線形回帰モデルに適用したアルゴリズムとPythonを用いたデモによる実演を交えて解説します
※各手法の解説で使用するPythonのサンプルプログラムを配布いたします
オンラインセミナーの詳細はこちら:
・WEB会議システムの使い方がご不明の方は弊社でご説明いたしますのでお気軽にご相談ください。
講師の言葉
Deep Learning、 Gradient Boosting Decision Tree、 Random Forestなどの機械学習モデルは高い予測精度を誇りますが、モデルの解釈性が低いという欠点があります。 これらの複雑なブラックボックスモデルにおいて、モデルがなぜそのような予測を行っているのかを知ることは困難ですが、データ分析者自身がモデルの振る舞いを把握し、説明責任を果たすことが実務では求められます。 このような予測精度と解釈性のトレードオフを克服するため、実務において特に有用な6つの手法を解説します。 解説は数式だけでなくプログラムとデモを利用して行います。
〇 特徴量の重要度を定義する手法:Permutation Feature Importance
〇 特徴量と予測値の関係を知る手法:Partial Dependence
〇 特徴量ごとに予測値に与える変化を捉える手法:Individual Conditional Expectation
〇 他の特徴量の影響を考えずに効果を調べる手法:Accumulated Local Effects
〇 予測の理由・根拠を考える手法:SHapley Additive exPlanations
〇 求める予測値を得るための仮説を検証する方法:Counterfactual Explanations
セミナー詳細
| 開催日時 |
- 2026年02月25日(水) 10:00 ~ 17:00
|
| 開催場所 |
オンラインセミナー |
| カテゴリー |
オンラインセミナー、ソフト・データ・画像・デザイン |
| 受講対象者 |
・機械学習のブラックボックスモデルの振る舞いを把握する手法に興味のある方
・機械学習の解釈性、説明可能なAI(XAI)に興味のある方
・データサイエンティストの方、データサイエンティストを目指している方
・システム、ソフト、データ解析ほかその関連業務に従事する技術者の方
|
| 予備知識 |
・初級レベルの確率・統計の知識(期待値など)
・初歩的な機械学習の知識(機械学習モデルを使って予測を行ったことがある、など)
|
| 修得知識 |
・特に有用な機械学習の解釈手法について理解することができる
・解釈手法をそのまま使うのではなく、実務での応用例を知ることができる
|
| プログラム |
|
1.機械学習の解釈手法とは
(1).なぜ機械学習の解釈手法が重要なのか
(2).機械学習の解釈手法とは
(3).この講義で用いる数式の記法
2.線形回帰モデルを用いた「解釈性」への理解
(1).線形回帰モデルの導入
(2).最小二乗法による回帰係数の推定
(3).線形回帰モデルが備える重要な4つの解釈性
(4).ブラックボックスモデルとしてのRandom Forest
(5).線形回帰モデルの利点と注意点
3.手法1:特徴量の重要度を知る
(1).モチベーションとPermutation Feature Importance(PFI)導入
(2).Permutation Feature Importance
(3).Leave One Covariate Out Feature Importance(LOCOFI)
(4).Grouped Permutation Feature Importance(GPFI)
(5).PFIを因果関係として解釈する際の注意点
(6).PFIは訓練データとテストデータのどちらで予測精度を評価するべきか
(7).PFI以外の特徴量重要度 ~特徴量重要度を用いたモデルの軽量化
(8).PFIの利点と注意点
4.手法2:特徴量と予測値の関係を知る
(1).モチベーションとPartial Dependence(PD)の導入
(2).PDのアルゴリズム:PDの具体例
(3).PDを因果関係として解釈する際の注意点
(4).PDがうまくいかない例①交互作用がある場合
(5).PDがうまくいかない例②特徴量が強く相関する場合
(6).PDの利点と注意点
5.手法3:インスタンスごとの異質性を捉える ※インスタンス:1つ1つのデータの属性や特徴
(1).モチベーションとIndividual Conditional Expectation(ICE)の導入
(2).交互作用とPDの限界:ICEで交互作用を捉える
(3).ICEの解釈と注意点
(4).CPDで推定結果を安定させる
(5).ICEの利点と注意点
6.手法4:特徴量の相関に対処する
(1).特徴量の相関とPDの限界
(2).Conditional Dependence(Marginal Plot)
(3).Accumulated Local Effects(ALE)の導入
(4).ALEの利点と注意点
7.手法5:予測の理由を考える
(1).モチベーションとSHapley Additive exPlanations(SHAP)の導入
(2).協力ゲーム理論とShapley値
(3).Shapley値を機械学習へ応用
(4).さまざまなSHAPの利用法
(5).SHAPの利点と注意点
8.手法6:反実仮想を考える
(1).モチベーションとCounterfactual Explanations(CE)の導入
(2).シミュレーションでCEを確認
(3).CEの利点と注意点
9.機械学習の各解釈手法を用いた線形回帰モデルの解釈の実践
(1).Permutation Feature Importance
(2).Partial Dependence
(3).Individual Conditional Expectation
(4).Accumulated Local Effects
(5).SHapley Additive exPlanations
(6).Counterfactual Explanations
|
|
| キーワード |
機械学習 説明可能AI XAI 解釈手法 線形回帰モデル ブラックボックスモデル 特徴量 モデル軽量化 モデリング 貢献度 深層学習 ディープラーニング 予測精度 説明責任 責任性 公平性 安全性 透明性 信頼できるAI |
| タグ |
統計・データ解析、AI・機械学習、自動運転・運転支援技術・ADAS、インターネット、クラウドコンピューティング、コンテンツ、安全、スマートフォン、セキュリティ・暗号、ソフト管理、ソフト品質、ソフト教育、ソフト知的財産、CS、モバイルコンピューティング、音声処理、画像処理、画像認識、組み込みソフト、仕様書・要件定義、使いやすさ・ユーザビリティ、Andoroid、ITサービス |
| 受講料 |
一般 (1名):49,500円(税込)
同時複数申込の場合(1名):44,000円(税込)
|
| 会場 |
オンラインセミナー
本セミナーは、Web会議システムを使用したオンラインセミナーとして開催します。
|