Abstract
Diese Arbeit erforscht den Einsatz von Explainable Artificial Intelligence (XAI) in derBetrugserkennung im Bankensektor und beleuchtet die Transparenz in zunehmend komplexen maschinellen Lernmodellen. Mit dem Übergang von traditionellen regelbasierten
Systemen zu fortschrittlicheren maschinellen Lernalgorithmen stehen Finanzinstitute
vor der Herausforderung, die mangelnde Interpretierbarkeit dieser Modelle zu bewältigen, insbesondere bei der Analyse einzelner Betrugsfälle.
Im Rahmen der Arbeit wird eine Kombination aus quantitativer und qualitativer Forschung
angewandt. Quantitativ wird die Wirksamkeit verschiedener Betrugserkennungsalgorithmen bewertet, hierbei zeigt sich die Überlegenheit des XGBoost-Algorithmus. Darüber
hinaus wird qualitativ untersucht, wie gut sich Explainable AI-Techniken wie LIME und
SHAP eignen, um die Interpretierbarkeit intransparenter Algorithmen zu verbessern.
Die zentrale Forschungsfrage dieser Arbeit lautet: „Wie können algorithmische Betrugserkennungsmodelle ihre mangelnde Interpretierbarkeit überwinden?“ Es wird die
Hypothese aufgestellt, dass XAI-Algorithmen die Expertise menschlicher Fachexperten
in der Betrugserkennung übertreffen könnten. Die Ergebnisse zeigen, dass maschinelle
Lernmodelle zwar eine höhere Genauigkeit als traditionelle regelbasierte Systeme bieten,
ihre „Black-Box“-Natur jedoch erhebliche Herausforderungen für BetrugsanalystInnen
mit sich bringt. XAI-Tools wie LIME und SHAP erhöhen die Interpretierbarkeit dieser
Modelle, doch der Kompromiss zwischen Modellkomplexität und Transparenz bleibt
ein kritisches Problem. Die Arbeit endet mit einer Analyse aktueller XAI-Methoden
und gibt Empfehlungen für zukünftige Forschungsansätze, um regulatorische Herausforderungen zu meistern.
| Datum der Bewilligung | 2024 |
|---|---|
| Originalsprache | Englisch (Amerika) |
| Betreuer/-in | Bogdan Burlacu (Betreuer*in) |
Studiengang
- Human-Centered Computing