XAI - Explainable AI Techniken [Teil 1]: Transparenz in automatisierten Entscheidungen und Prozessen

Die Interpretation von ML-Modellen hat in vielen Branchen, die ihre Dienste mithilfe von ML automatisieren, eine sehr hohe Priorität. Traditionell waren Kennzahlen wie R2-Scores oder F1-Scores gut genug für ML-Ingenieure, um festzustellen, ob sich ein ML-Modell für den Einsatz eignet. In den letzten Jahren sind ML-Modelle jedoch immer komplexer und leistungsfähiger geworden, weg vom einfachen linearen Modell hin zu Black-Boxen wie Ensemble-Modelle oder neuronale Netze.

Andererseits benötigen Kunden, Manager und Gesetzgeber immer häufiger verständliche Erklärungen dafür, wie und warum ML-Modelle eingesetzt werden. Gerade in Deutschland verlangen Gesetze zum Datenschutz oder Finanzregulierung, dass die mit ML-Modellen automatisierten Entscheidungen und Prozesse transparent gemacht werden können.

In diesem Artikel geht es um die beiden Python-Bibliotheken LIME und EIL5 als gute Allrounder, wenn es um die Erklärung gängiger Modelle geht.

 
 
 

LIME steht für „Locally Interpretable Model-Agnostic Explanations“ und funktioniert mit jedem Modell von Scikit-Learn (der verbreiteten ML-Bibliothek für Python). Anhand eines trainierten ML-Modells und seines Trainingsdatensatzes erstellt LIME Permutationen der Daten, um eine Erklärung zu generieren. Während dies wiederum kompliziert klingt, kommt die abschließende Erklärung von LIME in Form von leicht lesbaren Balkendiagrammen, die zeigen, welche Merkmale in den Daten die Entscheidungen des ML-Modells beeinflussen. Eine Erklärung kann auf Ebene des gesamten Datensatzes (global) oder pro Datenelement (lokal) generiert werden.

Die ELI5-Bibliothek ist nach dem Internetphänomen namens „Explain Like I’m 5“ benannt. Zusätzlich zu Scikit-Learn-Modellen kann ELI5 baumbasierte Ensemble-Modelle aus Bibliotheken wie XGBoost, CatBoost oder LightGBM erklärbar machen. Die Kombination mehrere ML-Modelle wird als Ensemble bezeichnet, was die Ergebnisse zwar genauer, aber die Erklärungen schwieriger macht. ELI5 ist jedoch in der Lage, globale und lokale Erklärungen für solche Ensemble-Modelle in Form von farbcodierten, menschlich-lesbaren Tabellen zu erstellen.

In der Vergangenheit bedeuteten Anforderungen nach Erklärbarkeit einen Kompromiss zwischen Modellkomplexität (Genauigkeit) und Interpretierbarkeit. Aber mit den Python-Bibliotheken LIME und ELI5 können Sie Modelle implementieren, die sowohl genau als auch verständlich sind.