XAI - Explainable AI Techniken [Teil 2]: Tiefe Einblicke in ML Modelle

Oftmals müssen interne Experten oder externe Prüfer davon überzeugt werden, dass Prozesse und Entscheidungen mit ML-Modellen fair und robust automatisiert werden können. Insbesondere bei Finanzprozessen entscheidet die Zustimmung solcher Experten darüber, ob ML-Modelle schließlich eingesetzt werden dürfen. Obwohl Prüfer per se keine ML-Experten sein müssen, benötigen sie trotzdem tiefergehende und quantitative Erläuterungen zu ML-Modellen.

Um komplexe Black-Box-Modelle wie Ensemble-Modelle, neuronale Netze oder Transformer-Modelle zu diagnostizieren und zu erklären, stellen wir hier die Python-Bibliotheken SHAP und Yellowbrick vor.

 
 
 

SHAP steht für SHapley Additive exPlanations. SHAP kann auf verschiedene Permutations-, Sampling-, Partitioning- oder Spieltheorie-Techniken zurückgreifen, um Erklärungen zu generieren. Diese Erklärungen umfassen nicht nur Ensembles oder Deep-Learning (DL)-Modelle (aus DL-Bibliotheken wie Keras, PyTorch und Transformers), sondern auch Hyperparameter wie Gradienten und Boosting-Techniken. Dies ermöglicht es SHAP, Erklärungen für klassische ML-Probleme wie Regression und Klassifizierung, aber auch für DL-Probleme wie Text- und Bildverarbeitung zu generieren. Mit SHAP kann man auswählen, wie einfach oder fortgeschritten eine Erklärung für das Publikum werden soll.

Yellowbrick ist eine Bibliothek für ML-Visualisierung und Modellselektion, die für Scikit-Learn entwickelt wurde. Yellowbrick ist in erster Linie ein Diagnosetool für die Visualisierung von ML-Ergebnissen und Hyperparametern zur Feinabstimmung von ML-Modellen. Diese Visualisierungen können auch verwendet werden, um die verschiedenen Schritte im ML-Workflow zu erklären, bspw. wie Features entwickelt werden, welche Modelle bessere Ergebnisse oder weniger Bias liefern, und wie Hyperparameter die Performance beeinflussen. Anstatt Tabellen mit Kennzahlen zu studieren, helfen die Visualisierungen dabei, die grundlegenden Aspekte der ML-Modelle darzustellen und gleichzeitig die quantitativen Aspekte zu berücksichtigen.

Das Erklären selbst komplexer ML- oder DL-Modelle muss also kein zusätzlicher Aufwand sein, denn mit SHAP oder Yellowbrick können sogar ML-Ingenieure tiefere Einblicke in ihre Modelle und Algorithmen gewinnen.