banner2.jpg

Günter Pesch und Sebastian Kiefer
DATEV eG

Erklärbare Künstliche Intelligenz (KI) hat sich zu einer Schlüsselkomponente für Black-Box Machine Learning (ML)-Ansätze in Bereichen mit hohem Bedarf an Transparenz entwickelt. Neben medizinischen Expertensystemen, die bei lebensverändernden Entscheidungsaufgaben grundsätzlich interpretierbar, transparent und nachvollziehbar sein müssen, erfordern auch andere Anwendungsdomänen wie die Finanzprüfung Vertrauen in ML. Auch für solche stark regulierten Bereiche, in denen ein Wirtschaftsprüfer Finanztransaktionen und Abrechnungen eines Unternehmens bewertet, gilt die Europäische Datenschutz-Grundverordnung (DSGVO). In diesem Forschungsbericht schlagen wir eine ML-Architektur vor, die Finanzprüfern helfen soll, indem sie anomale Datenpunkte in Abwesenheit von Ground Truth transparent erkennt. Während die Anomaliedetektion (AD) meistens überwacht durchgeführt wird, wobei modellunabhängige Erklärungen einfach angewendet werden können, ist unüberwachte AD kaum nachvollziehbar, insbesondere über verschiedene Algorithmen hinweg. In dieser Arbeit untersuchen wir, wie dies behoben werden kann: Wir beschreiben eine integrierte Architektur für unüberwachte AD, die Ausreißer auf verschiedenen Granularitätsebenen mithilfe eines Ensembles unabhängiger Algorithmen identifiziert. Darüber hinaus zeigen wir, wie modellunabhängige Erklärungen für ein solches Ensemble mithilfe von überwachter Approximation und Local Interpretable Model-Agnostic Explanations (LIME) generiert werden können. Darüber hinaus schlagen wir Techniken zur Nachbearbeitung von Erklärungen vor, die es ermöglichen, Erklärungen selektiv, empfängerabhängig und leicht verständlich zu gestalten. Kurz gesagt, unsere Architektur ebnet den Weg für eine modellunabhängige Erklärbarkeit für die Aufgabe der unüberwachten Anomaliedetektion. Sie lässt sich zudem problemlos auf andere unüberwachte ML-Probleme wie Clustering-Probleme übertragen.