banner2.jpg

Was geschieht eigentlich in einem Unternehmen, wenn die Einkaufsabteilung eine Warenbestellung aufgibt? Welche Prozesse werden ausgelöst zwischen dem Anlegen der Bestellung in einer Maske auf dem Bildschirm bis zum Bezahlen der Rechnung und dem Verbuchen der Ware im Lager? Jeder Schritt hinterlässt digitale Spuren. Enthalten diese Spuren Hinweise auf Abwege, Irrwege und entsprechenden Verbesserungsbedarf? „Datenanalyse – ein Instrument zur Verbesserung der Prozessqualität?!“ Dies war das Thema der zehnten Jahrestagung des Deggendorfer Forums zur digitalen Datenanalyse (DFDDA).

Auf Einladung des DFDDA e.V., eines an der Technischen Hochschule Deggendorf angesiedelten Vereins, waren für zwei Tage vor Pfingsten Experten aus Wirtschaft und Wissenschaft, aus Wirtschaftsprüfung, Steuerberatung und Finanzverwaltung nach Deggendorf gekommen. In Fachreferaten und Diskussionen befassten sie sich mit grundlegenden Themen wie mathematischen Modellen in Philosophie und Wissenschaft und den Tücken statistischer Verfahren genau so wie der sehr praktischen Frage „Wieviel wiegt die Milch?“, die die Qualität der in Unternehmen gespeicherten Daten ins Zentrum rückte.

Zur Eröffnung der Veranstaltung gratulierte der Präsident der Technischen Hochschule, Prof. Dr. Peter Sperber, dem Verein zu seiner erfolgreichen Veranstaltungsreihe. Prof. Dr. Georg Herde, Gründer und Vorsitzender des Vereins, erinnerte daran, dass der Verein das Thema „Big Data“ schon auf die Tagesordnung gebracht hat, als dies noch kein allgemein verbreitetes Schlagwort war. Von Anfang an habe der Verein sich an die Zielgruppe der internen Revisoren, der Betriebsprüfer sowie der Experten aus der Finanzverwaltung und den IT-Abteilungen gewandt. Es habe ein enormer „Bedarf an Expertise und Austausch“ bestanden. Die Leitfrage der Anfangsjahre sei bis heute aktuell: „Was kann man aus den Daten im Unternehmen herausbekommen, was die operative Tätigkeit so nicht im Blick hat?“ 2005 begannen die jährlichen Forumsveranstaltungen, 2007 wurde das DFDDA als Verein eingetragen.

Datenanalyse mit statistischen Verfahren werde heute immer häufiger zum „Data Mining“ eingesetzt, zur Suche in großen Datenmengen nach Mustern und Zusammenhängen, die anders nicht zu erkennen seien. Damit zeichne sich ein Paradigmenwechsel ab, sagte Prof. Dr. Stephan Hartmann von der Ludwig-Maximilians-Universität München. Den Physiker und Philosophen hatten die Veranstalter als Eröffnungsredner eingeladen, weil er einer der wenigen Wissenschaftler ist, die sich mit mathematischer Philosophie beschäftigen. Hartmann zeigte an konkreten Beispielen, wie mathematische Modelle helfen können, komplexe Zusammenhänge zu formalisieren und zu vereinfachen und so Fragen präziser zu stellen und Entscheidungen besser zu begründen. Eines seiner Ergebnisse: Bei Abstimmungen im europäischen Ministerrat haben die 28 EU-Staaten sehr unterschiedliches Stimmengewicht, da die Bevölkerungszahlen sehr unterschiedlich sind. Der höchste Nutzen für  alle, so das Ergebnis von Hartmanns Modellberechnungen, ergäbe sich, wenn die Stimmenzahl eines Landes nicht am Anteil der EU-Bevölkerung gemessen würde, sondern an der Quadratwurzel aus diesem Anteil. Denn dies würde das Gewicht der kleineren Länder stärken und die großen dennoch angemessen berücksichtigen.

Ein wichtiges Thema der diesjährigen Tagung war das sogenannte Process Mining, eine Abwandlung des von Hartmann erwähnten Data Mining. Alexander Rinke von der Firma Celonis in München stellte eine Software seiner Firma vor, die sich zu Nutze macht, dass die einzelnen Schritte eines Unternehmensprozesses, etwa eines Einkaufsvorgangs, beim Abspeichern etwa mit der Unternehmenssoftware aus dem Hause SAP mit einer Kennung versehen werden. Diese Kennung eignet sich dazu, den Prozess auf dem Bildschirm in eine zeitliche Reihenfolge zu bringen und zu analysieren. Wird eine Rechnung direkt bezahlt, oder muss sie Genehmigungsprozesse durchlaufen? Geht dabei viel Zeit verloren, sodass die Frist für den Abzug von Skonto überschritten wird? Was Rinke grafisch auf dem Bildschirm zeigen konnte, beschäftigte von der wissenschaftlichen Seite auch Prof. Dr. Ludwig Mochty, Inhaber des Lehrstuhls für Wirtschaftsprüfung und Controlling an der Universität Duisburg-Essen. Auch er wünschte sich eine Art „Film“ des „sequenziellen Flusses der Werte“ im Unternehmen. Offen blieben für ihn aber noch die Bewertung der in so einem „Film“ gefundenen Prozessabläufe und die Frage, welche Konsequenzen die dort gefundenen Erkenntnisse für interne und externe Kontrollsysteme haben sollten.

Die Kontrolle von Unternehmensprozessen und das Aufspüren von Fehlern aus der Sicht der Wirtschaftsprüfung waren ein weiterer Schwerpunkt der Tagung. Frank Gerber, Partner des Wirtschaftsprüfungsunternehmens BDO AG, Hamburg, schlug zum einen vor, nach Risiken schon in einem „modifizierten What-could-go-wrong-Ansatz beim Mandanten“ zu suchen, zum anderen aber wünschte auch er sich: „Wir müssen hinkommen zu modernen Methoden der Prozessdokumentation.“ Die Sicht der internen Prüfer in einem Großunternehmen schilderten Dr. Frank Honold und Dr. Hermann Heiß von der Konzernrevision der BMW AG in München.

Ein unverzichtbares Werkzeug für den prüfenden Blick auf Unternehmensdaten ist die gezielte Auswahl einer Stichprobe aus den enormen Datenbeständen. Solche Stichproben dienen dazu, Fehlerschwerpunkte und Ansätze für weitere Prüfungen aufzuspüren. Stichproben und statistische Verfahren seien „das notwendige, aber ungeliebte Kind“ der Prüfer, sagte Dr. Harald Krehl von der DATEV eG in Nürnberg. Sein Kollege Jörg Schaller hatte schon am Vorabend der Tagung einen Workshop angeboten, in dem er Software-Werkzeuge für das Ziehen von Stichproben aus großen Datenmengen vorgestellt und bewertet hatte. Krehl und Schaller sind Mitautoren eines Fachbuches, in dem sie Verfahren und Werkzeuge genauer unter die Lupe genommen haben.

Fehlt noch die Antwort auf die Frage: „Wie viel wiegt die Milch?“ Oder genauer: Wie viele Kartons mit Milch passen auf eine Europalette? Uwe Nadler von IBM Deutschland war auf diese Frage gestoßen, weil sein Thema das dritte große Thema der Tagung ist, die Qualität der Daten in den Beständen von Unternehmen. Als der Logistik-Experte die Auslastung der Lieferfahrzeuge eines großen Lebensmittel-Einzelhandels optimieren wollte, stellte er fest, dass die Ausmaße der Paletten mit Milch und damit auch die Angaben über die enthaltene Milchmenge in den einzelnen Auslieferungslagern des Unternehmens höchst unterschiedlich verbucht waren. Mitarbeiter der Lagerhäuser hatten sich angewöhnt, die Größe angelieferter Paletten von Hand nachzumessen, und waren dabei zu wechselnden Ergebnissen gekommen, die sich in den Unterlagen der Lagerhaltung wiederfanden. Für Nadler war dies ein Beispiel, dass mangelnde Datenqualität eine Automatisierung – in diesem Beispiel der Auslastung der Lieferfahrzeuge – verhindern kann, mindestens aber aufwendiges Nacharbeiten von Hand nötig macht.