banner2.jpg

Dominik Fischer / Wolf-Dietrich Richter

Die Wirtschaftsprüfung sieht sich seit Jahren einem steigenden Effizienzdruck ausgesetzt, der einerseits aus den wachsenden Anforderungen an Nachvollziehbarkeit und professioneller Prüfungsqualität resultiert, der aber auch stark durch die immens wachsende Menge an zu berücksichtigenden Informationen beeinflusst wird. Über 90 % der Buchungen, die am Ende einen höchst verdichteten Jahresabschluss ergeben, entstehen mittlerweile in Vorsystemen zur Buchhaltung und werden mehr oder weniger automatisiert in diese übernommen.

Ein Bestandteil des risikoorientierten Prüfungsansatzes ist daher das Journal Entry Testing, in dem zumindest die Einträge im Hauptbuch einer Validierung unterzogen werden, bei dem aber auch Aspekte der Entdeckung von dolosen Handlungen (Fraud) berücksichtigt werden.

Da aber die Ausbildung zum Wirtschaftsprüfer immer noch kaum technische oder datenanalytische Fähigkeiten vermittelt, sind Prüfungsansätze und Werkzeuge gefragt, die diese Lücken zumindest überbrücken können. Ein solcher Ansatz ist die Idee, Buchungsmaterial anhand der immanenten Netzwerkstrukturen zu analysieren. Auf Basis des grundlegenden Artikels „Die Netzwerkstruktur der Buchhaltung als Grundlage des risikoorientierten Prüfungsansatzes“ in: BFuP 2012 von Professor Ludwig Mochty hat Herr Dominik Fischer, mit Unterstützung von Herrn Wolf-Dietrich Richter von der BDO AWT Wirtschaftsprüfungsgesellschaft, eine Bachelorarbeit mit Betreuung von Prof. Herde in Angriff genommen, die sich als Ziel die Bereitstellung eines solchen Werkzeuges vorgenommen hat.

Bei der Analyse digitaler Daten wird regelmäßig auf tabellarische Strukturen zurückgegriffen. Dieser grundsätzliche Ansatz hat sich schon vor dem digitalen Zeitalter bewährt, da sich die Daten einfach fortschreiben lassen und die oberen Einträge somit atomar wurden. Vor allem in der Buchhaltung ein nicht wegzudenkendes Prinzip. Was einmal erfasst wurde, kann nicht mehr ohne weiteres geändert werden. Dieses Konzept wurde auch erfolgreich in die digitale Welt übernommen. Wenn es aber darum geht, die aufgezeichneten Daten auf ihre Validität zu prüfen oder auf Auffälligkeiten hin zu analysieren, geht infolge exponentiell steigendender Datenmengen schnell die notwendige Übersicht verloren. Gerade die Darstellung und Kontrolle vernetzter Werteflüsse ist auf Basis herkömmlicher Ansätze sehr umständlich und wird auch deshalb in der Praxis nur bedingt vorgenommen.

Moderne Entwicklungen von Technologien und Methoden bieten jedoch Lösungsansätze für solche Problemstellungen. Der Vortrag stellt vor, wie Journaldaten abseits klassischer Tabellen aufbereitet werden können und wie sich diese anschließend mit graphentheoretischen Algorithmen analysieren lassen. Die Konzepte werden anhand eines Prototyps analysiert. Dabei werden insbesondere auch die Stärken eines netzwerkbasierten Ansatzes in Zusammenhang mit Methoden aus dem Data Mining beleuchtet.