banner2.jpg

An Investigation of Nature Laws for Fraud Detection Content

Prof. Shi-Ming Huang

Fraud risk and Compliance risk are higher than ever before. Many countries have issued new business acts to build a fair and ethic-able business environment. Unfortunately, many auditors lack the expertise to deal with the related risks. The purpose of this speech is to assist auditors in reviewing the overwhelming volumes of datasets and identifying any potential fraud records. The objectives of this speech will high light are to develop an innovative fraud detection mechanism on the basis of Benford Law and Zipf's Law. It will shows how auditors can use Computer-Assisted Audit Techniques and Tools (CAATTs) to assist them in fraud detection by several real cases in ASIA.

 

Prof. Dr. Ludwig Mochty

Aktuell erfolgt die Planung einer Abschlussprüfung fast ausnahmslos auf Basis der Summen-Salden-Liste. Der Vortrag zeigt auf, welchen Informationsverlust der Abschlussprüfer auf diese Weise in Kauf nimmt, und unterbreitet einen Verbesserungsvorschlag, der sich am Journal Entry Testing orientiert: Aggregiert man das Buchungsjournal entlang der Zeit über alle Soll-Haben-Kombinationen, dann erhält man Periodensummen von geordneten Soll-Haben-Paaren, also bewertete Kanten eines gerichteten Graphen oder anders formuliert: ein mit Periodensummen bewertetes Netzwerk. Dieses Netzwerk lässt sich sowohl als Matrix wie auch als graphentheoretisches Konzept visualisieren und analysieren. Damit eröffnet sich ein breites Spektrum an neuartigen Möglichkeiten zur Prüfungsplanung sowie zur Durchführung analytischer und einzelfallbezogener Prüfungshandlungen.

Erich Huber

Österreich führt im Zusammenhang mit der steuerlichen Betrugsbekämpfung im Registrierkassenbereich unangemeldete Kassennachschauen über die neue Finanzpolizei durch, wobei diese auch den Ist-Zustand der  Aufzeichnungen kontrolliert und den Kassennutzer auffordert, die aktuellen Kassendaten unverzüglich mittels Kopieren auf einen Datenträger zu übergeben. Aufgrund dieser Maßnahme kommt die Steuerverwaltung erstmals in breiterem Umfang zu höchstwahrscheinlich originalen Daten, welche insbesondere im riskanten Erlösbereich zur Verifizierung der Zahlen im Rechenwerk verwendet werden können. Dort wurde bisher über eher komplexe Sollmodelle wie Elementverteilungen, oder Ziffernverteilungen(z.B. Benford) mit wechselndem Erfolg versucht, die Plausibilität der erklärten Beträge zu prüfen. Dabei lagen die Hindernisse für eine breitflächige Anwendung auf der einen Seite in der fraglichen universellen Gültigkeit der Modelle, andererseits in der Verpflichtung der BP, dem Geprüften im Rahmen des Parteiengehörs diese komplexen Methoden umfassend erklären zu müssen. 

Die Veränderung der Prüfungsansätze kommt insoweit einem prüfungstechnischen Paradigmenwechsel gleich, als erstmals von der Idee der revisionären Prüfung der aufgezeichneten Vergangenheit mittels fraglich umfassend gültiger Vergleichsparameter abgegangen wird zugunsten einer Kontrolle der gegenwärtigen Verhältnisse und der Verwertung daraus erlangter höchstwahrscheinlich unverfälschter Daten mit Hilfe eines mit einfachen rechnerischen Ansätzen durchführbaren innerbetrieblichen Datenvergleiches.

Ernst-Rudolf Töller & Stefan Wenig

Wie sieht die zukünftige Gesamtarchitektur digitaler Datenanalyselösungen aus?

Umfang und Bedeutung  der digitalen Datenanalyse haben - nicht nur auf Grund der „Big Data“-Sensibilisierung - enorm zugenommen. Andererseits sind auch in der Datenanalyse die Zeiten längst vorbei, in denen allein PCs als Endgeräte in Frage kamen. Gefragt sind Client-Strategien, die z.B. auch Smartphones oder Desktop-Virtualisierung integrieren können. 

Hat noch die GDPdU (Grundsätze zum Datenzugriff und zur Prüfbarkeit digitaler Unterlagen) für den Prüfer der Finanzverwaltung den Zugriff auf ungefilterte Rohdaten gefordert, wächst eine neue Generation von Prüfern heran, die bereits mit „Apps“ aufgewachsen ist. Sie ist es gewohnt, dass die Komplexität einer Aufgabe in ein Interface mit möglichst einfacher Usability gekapselt wird. 

Bei der digitalen Datenanalyse verbinden sich mit diesen Trends nicht nur Fragen nach einer „smarteren“ Übernahme der zu analysierenden Daten, sondern auch Themen wie: Standardisierung von Analyseschritten, unter gleichzeitiger Beibehaltung der Möglichkeit von Ad-Hoc-Anforderungen, Dashboarding-Funktionalitäten für das Management und Zugriff auf eine Vielfalt an statistischen und deterministischen Analyseverfahren. 

Der Vortrag stellt die verschiedenen Facetten kurz vor, und zeichnet die Umrisse einer möglichen Gesamtarchitektur aus Sicht der Referenten.