Vorträge des DFDDA 2026

Univ.-Prof. Mag.DDr. Stefan Thurner (Complexity Science Hub / Medizinische Universität Wien)

Lieferketten sind weit weniger robust und resilient, als wir in den letzten Jahrzehnten angenommen haben. Mit der Datenrevolution können wir erstmals nationale Lieferkettennetzwerke auf Unternehmensebene beobachten, die Hunderttausende von Firmen und Millionen von Lieferbeziehungen umfassen – vollständig. Indem wir diesen Firmen Produktionsfunktionen zuweisen und die Dynamik der Neuverknüpfungen in der Wirtschaft schätzen, können wir Volkswirtschaften als agentenbasiertes 1:1 Modell nachbauen. Auf Basis dieses Modells können wir die großen Fragen der Wirtschaftswissenschaften neu durchdenken und insbesondere Prognosen zur Robustheit und Resilienz der Wirtschaft treffen. Wir diskutieren neue Wege, Produktionsnetzwerke optimal in Richtung einer grünen und gleichzeitig sozialverträglichen Wirtschaft zu transformieren.

Christian Kluge (UmweltBank AG)

Was bedeutet Datenqualität in einer Bank? Das Aufeinandertreffen von soziodemographischen personenbezogenen Daten und Finanz- und Transaktionsdaten machen das Thema äußerst sensibel und komplex. Der Begriff Datenqualität wird kurz allgemein und unter verschiedenen Aspekten und Herausforderungen aus Sicht einer Bank beleuchtet. Warum ist eine möglichst hohe Datenqualität wichtig? Wie kann sich niedrige Datenqualität auswirken? Von doppelt versendeten Dokumenten bis hin zu geschäftlichen Fehlentscheidungen können direkte oder indirekte Auswirkungen die Reputation eines Instituts beeinflussen, rechtliche Folgen oder reduzierten Unternehmenserfolg nach sich ziehen. Weitere Beispiele verdeutlichen zum einen wie vielschichtig Datenqualität ist und wie unterschiedliche Qualitätsgrade in verschiedenen Geschäftsbereichen existieren können. Banken müssen zum anderen auch konkrete Rahmenbedingungen und regulatorische Vorgaben im Kontext von Datenqualität einhalten. Zugleich geben diese Vorgaben auch wichtige Hinweise und Impulse zur kontinuierlichen Verbesserung. Aufgrund der Dynamik und Vielschichtigkeit stellt die Thematik eine multivariate und kontinuierliche Herausforderung dar, die alle Unternehmensbereiche betrifft und zugleich zum Unternehmenserfolg beiträgt.

 

Warum proaktives Datenqualitätsmanagement Geld spart und den Unternehmenserfolg sichert

Sven Wilbert (BearingPoint GmbH)

Daten sind das Fundament jeder modernen Unternehmensstrategie. Doch während Unternehmen massiv in Analytics und KI investieren, bleibt die Qualität der zugrunde liegenden Daten oft ein blinder Fleck. Wer Datenqualität nur als IT-Problem betrachtet, unterschätzt das strategische Risiko: Mangelhafte Daten führen zu einer Erosion des Vertrauens in Management-Reports, bremsen die Agilität und verursachen versteckte Kosten, die direkt die Marge belasten.

In diesem Vortrag erfahren Sie, warum proaktives Datenqualitätsmanagement (DQM) eine zentrale Führungsaufgabe ist. Wir verlassen die technische Ebene und betrachten Datenqualität als Business Enabler. Erfahren Sie, wie Sie eine Datenkultur etablieren, die Qualität nicht als nachträgliche Korrektur, sondern als integralen Bestandteil der Wertschöpfungskette versteht.

Die strategischen Schwerpunkte:

  • Data Governance als Hebel: Wie Sie Verantwortlichkeiten (Data Ownership) im Business verankern, um Informationssilos aufzubrechen.
  • Risikomanagement & Compliance: Warum saubere Daten die einzige Versicherung gegen Fehlentscheidungen und regulatorische Strafen sind.
  • ROI von Qualitätsdaten: Wie proaktives Management die Time-to-Market verkürzt und die Skalierung von digitalen Geschäftsmodellen erst ermöglicht.
  • Strategische Weitsicht: Warum „Data Excellence“ die notwendige Bedingung für eine erfolgreiche KI-Transformation ist 

Die Datenreise der Prüfungsstelle des Sparkassenverbandes Bayern

Andreas Öttl (Prüfungsstelle des Sparkassenverbandes Bayern)

Die Durchführung von Prüfungen wird zunehmend digitaler. Aufgrund dessen spielt für prüfende Berufe die Datenqualität eine zentrale Rolle. Sie ist die Basis für Analysen und sichere Entscheidungen im Prüfungsalltag. Die Herausforderung besteht darin, alle relevanten Informationen zu erkennen und im Rahmen der Analyse keine wesentlichen Informationen unbeachtet zu lassen. Durch die fortschreitende digitale Transformation von Geschäftsprozessen stehen immer mehr Daten zur Verfügung, die im Rahmen einer Jahresabschlussprüfung zu berücksichtigen sind.

Der Vortrag gibt Einblicke, wie sich der Prüfungsalltag durch immer größer werdende Datenmengen vor dem Hintergrund hoher Anforderungen an Vertraulichkeit und Sicherheit verändert. Dabei wird auch auf Herausforderungen und Risiken eingegangen. Durch Praxisbeispiele wird zum einen verdeutlicht, wie sich durch eine verbesserte Datenqualität Möglichkeiten für eine IT-gestützte Prüfung ergeben. Zum anderen werden Verbesserungen von Prüfungssicherheit und Effizienz in der Prüfungspraxis aufgezeigt. Perspektivisch rückt eine stärkere Nutzung von KI immer mehr in den Fokus.

 

Anwendungen und Grenzen von Storytelling-Ansätzen in der Wirtschaftsprüfung und Finanzregulierung

Lucas Hopp (Deutsche Bundesbank)

Data Storytelling ist mehr als dekorative Inszenierung – es fungiert als Brücke zwischen komplexen Themen und belastbaren Entscheidungen. Vor allem bei der Prüfberichterstattung der Wirtschaftsprüfung und Finanzregulierung ist diese Verbindung von essenzieller Bedeutung. Die aus der Prüfung hervorgegangenen Erkenntnisse sollten, mithilfe der richtigen Kommunikation, die gewünschte Wirkung bei den Stakeholdern der geprüften Organisationen hervorrufen. In der Literatur finden sich bisher kaum Untersuchungen oder Konzepte zur Integration von Data Storytelling in die Prüfungsumgebung. Vor diesem Hintergrund wurde unter den Anforderungen der Regelkonformität, Transparenz, methodischer Fundierung und kommunikativer Sachlichkeit ein Modell zur Nutzung von Data Storytelling in der Berichterstattung der Prüfer entwickelt und kritisch reflektiert. Das Konzept zeigt, dass die Wahl der passenden Medien, die visuelle Klarheit und die adressatengerechte Kommunikation hierbei als Erfolgsfaktoren eine entscheidende Rolle spielen. Im Ergebnis liegt ein konsistenter Rahmen aus Prozess, Leitplanken und Beispiel vor, der die Implementierung von Data Storytelling im Prüfungsprozess ermöglichen kann.

 

Architektur, Umsetzung und Governance eines intelligenten Adressvalidierungsprozesses

Oliver Schöfberger (Werkstudent BayernWerk)

Die Sicherstellung einer hohen Datenqualität ist eine zentrale Voraussetzung für stabile, effiziente und automatisierte Geschäftsprozesse. Insbesondere bei großen, historisch gewachsenen Datenbeständen stoßen rein manuelle oder ausschließlich regelbasierte Ansätze schnell an ihre Grenzen. Gleichzeitig eröffnen moderne KI-Verfahren neue Möglichkeiten, werfen jedoch Fragen nach Nachvollziehbarkeit, Kontrolle und sinnvoller Einbettung auf.

Der Vortrag stellt ein praxisnahes Automatisierungskonzept vor, bei dem Robotic Process Automation (RPA) als strukturierende Orchestrierungsebene dient. Im Mittelpunkt steht die Umsetzung eines hybriden Matching-Systems zur Adressvalidierung technischer SAP-Objekte, das regelbasierte Logik, algorithmisches Fuzzy Matching und KI-gestützte Entscheidungsmechanismen kombiniert. Die technische Klammer bildet dabei die RPA-Plattform Blue Prism, über die sämtliche Prozessschritte – von der Datenaufnahme über die Entscheidungsfindung bis zur automatisierten Umsetzung im Zielsystem – gesteuert werden.

Anhand eines realen Anwendungsfalls aus dem Unternehmensumfeld wird gezeigt, wie unterschiedliche Komponenten mit klar definierten Rollen in eine RPA-Struktur integriert werden können. Besonderes Augenmerk liegt auf der kontrollierten Einbindung von KI-Algorithmen als unterstützende Entscheidungsebene für mehrdeutige Fälle sowie auf Aspekten wie Governance, Nachvollziehbarkeit und Skalierbarkeit. Der Vortrag ordnet die Lösung zudem in ein Stufenmodell der Automatisierung ein und zeigt auf, wie RPA als Fundament für intelligente und erweiterbare Automatisierungsarchitekturen dient.

Künstliche Intelligenz für Datenqualitätsstatements im Entscheidungsprozess von Lieferketten

Prof. Dr. Michael Scholz (Technische Hochschule Deggendorf)

Produzierende Unternehmen setzen in den letzten Jahren verstärkt Methoden des maschinellen Lernen und der künstlichen Intelligenz ein, um betriebswirtschaftliche Entscheidungen wie die Bestimmung von Bestellmengen und Bestellzeitpunkten zu treffen. Der Erfolg des Einsatzes dieser Technologien erfordert nicht nur viele Daten, sondern viele Daten in angemessener Qualität. Vielen Unternehmen ist jedoch nicht bewusst, wie die Qualität von Daten gemessen und bewertet werden kann.

Der Vortrag zeigt verschiedene Dimensionen von Datenqualität auf und gibt praxisrelevante Tipps, wie die Ausprägung von Datenqualität in den einzelnen Dimensionen gemessen, bewertet und verbessert werden kann. Eine Einschränkung auf bestimmte Daten oder Branchen wird bewusst nicht vorgenommen.

Sophie Wupper (Risk Research GmbH)

Datenqualität ist ein zentraler, aber häufig unterschätzter Erfolgsfaktor im Kreditrisikomanagement. Trotz steigender regulatorischer Anforderungen zeigen sich in der Praxis weiterhin Lücken, die sich direkt auf Risikobewertungen, Kennzahlen und letztlich auch auf geschäftliche Entscheidungen auswirken. Häufig werden Datenprobleme erst dann sichtbar, wenn Modelle unerwartete Ergebnisse liefern oder Reports hinterfragt werden – ihre Ursachen liegen jedoch meist deutlich früher im Prozess.

Der Vortrag beleuchtet, wie sich unterschiedliche Dimensionen von Datenqualität entlang typischer Verarbeitungsprozesse auswirken und welche Konsequenzen sich daraus für Aussagekraft, Stabilität und Interpretierbarkeit von Ergebnissen ergeben. Ziel ist es, ein besseres Verständnis dafür zu schaffen, warum Datenqualität nicht nur ein technisches Detail, sondern ein wesentlicher Treiber für belastbare Risikoeinschätzungen ist.

Praxisperspektiven und Lösungsansätze

Andreas Schwarzhuber (Dr. Kittl & Partner)

Datenqualität entscheidet über die Verlässlichkeit von Prüfungsaussagen und wird damit zum zentralen Prüfungsrisiko in Jahres- und Konzernabschlussprüfungen. Der Vortrag beleuchtet die Herausforderungen, denen Wirtschaftsprüfer in ihrer täglichen Arbeit begegnen, insbesondere im Umgang mit stetig wachsenden Datenmengen sowie den hohen Anforderungen an die Sicherheit von Prüfungsaussagen.

Der Vortrag zeigt praxisnah, wo Datenqualitätsprobleme typischerweise entstehen und wie sie sich konkret auswirken. Im Fokus stehen zentrale Risikobereiche wie Journal Entry Testing, Cut-off, Stammdaten und Management Estimates. Zudem wird erläutert, wie sich diese Risiken im Konzernumfeld durch uneinheitliche Reporting-Strukturen sowie unterschiedliche Reifegrade internationaler Einheiten weiter verstärken.

Dr. Christoph Koch (DATEV eG)

Die steigende Zahl datengetriebener Use Cases in Analytics und KI verschärft ein bekanntes Dilemma: Datenqualität ist selten ein isoliertes „Datenproblem“, sondern entsteht - oder scheitert - entlang einer End‑to‑End‑Kette aus fachlichem Ownership, klarer Semantik, expliziten Vereinbarungen, Governance‑Leitplanken und deren technischer Durchsetzung. Klassische, nachgelagerte Qualitätsprüfungen greifen dabei zu kurz, da sie zentrale Ursachen semantischer Inkonsistenzen nicht adressieren.

DATEV begegnet diesem Spannungsfeld mit einem Zielbild, in dem Datenprodukte als klar definierte und vertraglich geregelte Einheiten verstanden werden - explizit mit Semantik als Schlüsselelement. Ein unternehmensweit konsistenter Semantic Layer verknüpft fachliche Begriffe systematisch mit konkreten Datenpunkten und schafft damit die Voraussetzung, Qualitätsanforderungen, Compliance‑Regeln und Wiederverwendung nicht nachträglich abzusichern, sondern „by design“ skalierbar zu machen.

Der Vortrag zeigt, wie DATEV Data Governance im Sinne eines föderativen Ansatzes über Standards, Rollen und Prozesse für Datenprodukte und Semantik etabliert. Er erläutert, wie Semantik in Datenprodukten über Ontologie‑Bindings, Validierungsregeln und Data Contracts genutzt wird, um Qualität explizit zu definieren sowie mess‑ und prüfbar zu machen, und wie eine automatisierte Governance‑Schicht aus Policies und Metriken als technisches Rückgrat dient, um Datenqualitäts‑Vereinbarungen sowohl in Deploy‑ als auch in Runtime‑Phasen systematisch durchzusetzen.

insight into the ECB's work

Alexandros Kokkonidis (Europäische Zentralbank)

The presentation outlines the ECB’s data quality framework for supervisory reporting, highlighting how it is leveraged to assess banks’ risk data aggregation capabilities and set clear expectations for supervised entities. The presentation also explores recent developments and upcoming enhancements in the field, offering a forward-looking perspective on data quality in the banking sector.

Übersetzung:

Die Präsentation beschreibt den Datenqualitätsrahmen der EZB für das aufsichtliche Meldewesen und hebt hervor, wie dieser genutzt wird, um die Fähigkeiten der Banken zur Aggregation von Risikodaten zu bewerten und klare Erwartungen an die beaufsichtigten Institute zu formulieren. Zudem werden aktuelle Entwicklungen sowie künftige Erweiterungen in diesem Bereich beleuchtet, was einen zukunftsorientierten Ausblick auf die Datenqualität im Bankensektor bietet.