Human Centered Interpretations for Complex Algorithmic Decision Making

  • Michael Wachert-Rabl

    Studienabschlussarbeit: Masterarbeit

    Abstract

    Diese Arbeit erforscht den Einsatz von Explainable Artificial Intelligence (XAI) in der
    Betrugserkennung im Bankensektor und beleuchtet die Transparenz in zunehmend komplexen maschinellen Lernmodellen. Mit dem Übergang von traditionellen regelbasierten
    Systemen zu fortschrittlicheren maschinellen Lernalgorithmen stehen Finanzinstitute
    vor der Herausforderung, die mangelnde Interpretierbarkeit dieser Modelle zu bewältigen, insbesondere bei der Analyse einzelner Betrugsfälle.
    Im Rahmen der Arbeit wird eine Kombination aus quantitativer und qualitativer Forschung
    angewandt. Quantitativ wird die Wirksamkeit verschiedener Betrugserkennungsalgorithmen bewertet, hierbei zeigt sich die Überlegenheit des XGBoost-Algorithmus. Darüber
    hinaus wird qualitativ untersucht, wie gut sich Explainable AI-Techniken wie LIME und
    SHAP eignen, um die Interpretierbarkeit intransparenter Algorithmen zu verbessern.
    Die zentrale Forschungsfrage dieser Arbeit lautet: „Wie können algorithmische Betrugserkennungsmodelle ihre mangelnde Interpretierbarkeit überwinden?“ Es wird die
    Hypothese aufgestellt, dass XAI-Algorithmen die Expertise menschlicher Fachexperten
    in der Betrugserkennung übertreffen könnten. Die Ergebnisse zeigen, dass maschinelle
    Lernmodelle zwar eine höhere Genauigkeit als traditionelle regelbasierte Systeme bieten,
    ihre „Black-Box“-Natur jedoch erhebliche Herausforderungen für BetrugsanalystInnen
    mit sich bringt. XAI-Tools wie LIME und SHAP erhöhen die Interpretierbarkeit dieser
    Modelle, doch der Kompromiss zwischen Modellkomplexität und Transparenz bleibt
    ein kritisches Problem. Die Arbeit endet mit einer Analyse aktueller XAI-Methoden
    und gibt Empfehlungen für zukünftige Forschungsansätze, um regulatorische Herausforderungen zu meistern.
    Datum der Bewilligung2024
    OriginalspracheEnglisch (Amerika)
    Betreuer/-inBogdan Burlacu (Betreuer*in)

    Studiengang

    • Human-Centered Computing

    Zitieren

    '