banner2.jpg

Prof. Dr. Ulrich Müller-Funk

Seit ihrer Propagierung durch M. Nigrini in den USA um 1990, hat die Ziffernanalyse in unterschiedlicher Form auch hierzulande bei Finanzämtern, Prüfern, Firmen etc. Einzug gehalten. Auffällig ist, dass deren Einsatz oft den Charakter einer Glaubensfrage annimmt, ihr jedoch nur selten eine Plausibilitätsprüfung o.ä. vorausgeht. Für eine solche existieren durchaus rationale Ansatzpunkte.

Beispielsweise ist Benfords Gesetz an die multiplikative Struktur der Zahlen gekoppelt und daher dann ein möglicher Kandidat für eine Ziffernanalyse, wenn die untersuchten Zahlenreihen eben auch multiplikativ fortgeschrieben werden. Für additiv entstehende Zahlenreihen (wie Umsätze) dagegen kann – gewisse Teilbarkeitsbedingungen vorausgesetzt – eine Laplaceverteilung der letzten Ziffern fallweise gerechtfertigt werden. Hinzu kommt, dass Ziffernanalysen die Entstehung des Untersuchungsmaterials auch sonst in Betracht ziehen müssen (Gebrochene Preisgestaltung, extern gegebene Schranken, Zufallssummen, Veränderung der Ziffernhäufigkeiten durch Buchungsprozesse, ...).

Ein weiterer Gesichtspunkt sind die rechtlichen Rahmenbedingungen nach denen etwa Finanzämter arbeiten müssen und die einige zunächst harmlos erscheinende statistische Ansätze ausschließt. Ziel des Vortrages ist es, einen Art Ordnungsrahmen vorzustellen, mit dem die Gültigkeit einer Ziffernanalyse glaubhaft gemacht werden kann.

Dr. Karl Gosejacob

Im Modell RiskMention® wird der Prüfungsprozess von Risiken selbst untersucht – nicht ein einzelnes Risiko oder eine Gesamtheit zu prüfender Risiken: Der Prüfungsprozess wird als Markov-Kette modelliert, in dem sich der Prüfer zufällig von einem Dokument und einem darin erwähnten Risiko (risk mention) zu einem anderen Dokument und einem nun darin erwähnten Risiko wendet, wenn nur das Ausgangsrisiko auch in dem Folgedokument erwähnt wird. Dadurch ergibt sich ein Ranking von Risiken und Dokumenten. Das Modell wird mit dem bei Google PageRank® verglichen und statistisch sowie algebraisch interpretiert.

Günther Pökl

Die Jurisprudenz liegt mit ihren Zweifeln an den Prüfungsergebnissen auf Basis des Newcomb-Benford-Law (NBL), in seiner bisherigen Form, leider häufig richtig; die im Rahmen des Vortrages aufgezeigten gravierenden t h e o r e t i s c h e n Mängel in der Anwendbarkeit des NBL in dessen bisheriger Form sind - vielfältig und schwerwiegend. Das latente Problem des NBL mit den herkömmlichen Signifikanztests wird diskutiert und einer Lösung nähergebracht.

Ernst-Rudolph Töller

Die Geschäftsprozesse sind heute umfassend in den Daten des Unternehmens abgebildet. Dies führt auch zu steigenden Anforderungen an (externe und interne) Prüfer, die gefordert sind, ihre Untersuchungen durch entsprechende Prüfungshandlungen abzusichern. Die Masse der Daten einerseits sowie deren Komplexität andererseits setzt aber der Anwendung herkömmlicher Verfahren oft Grenzen. So sind z. B. mathematisch-statistische Stichprobenverfahren in vielen Fällen keine Alternative mehr, weil aufgrund der großen Datenmengen und der Komplexität die ermittelten Stichprobenumfänge zu groß werden und so vom Prüfer nicht mehr effizient abgearbeitet werden können.

Die risikoorientierte Datenanalyse bietet hier eine Alternative. Die Analyse z.B. von Kreditorenbelegen bedeutet hier zunächst, dass anhand geeigneter Kennzahlen eine Klassifizierung der Kreditoren selber stattfindet. Danach können einzelne Kreditoren näher untersucht werden, bei denen ein oder mehrere Kennzahlen im kritischen Bereich liegen. Der Vortrag gibt einen ersten Einblick in die mathematisch-statistischen Grundlagen der risikoorientierten Datenanalyse. Dabei bleibt der Schwerpunkt der Darstellung immer noch auf einer fachlichen Darstellung und Begründung der Vorgehensweise. 

Ein ganzheitlicher Ansatz für die Prüfung komplexer Kreditorenbuchhaltungen

Martin Riedl / Stefan Wenig

Integere Prozesse, vor allem in der Kreditorenbuchhaltung, sind für Unternehmen von essenzieller Bedeutung. Eine bewusste oder unbewusste Umgehung der entsprechenden Richtlinien in diesem Bereich kann im Innen- als auch im Außenverhältnis enorme Auswirkungen haben. Aufgrund der Datenmenge und inhomogener, vom Geschäftsmodell abhängigen Prozessausprägungen sind Prüfungen häufig komplex. In diesem Vortrag wird ein konkreter Ansatz aus der Praxis gezeigt, mit Hilfe gewichteter Indikatoren verschiedenste Prüfaspekte in Kombination anzuwenden.