Schon vor etwa 20 Jahren wurde der Begriff „Data Mining“ geprägt. Damit meint man Verfahren und Prozesse, die aus Datenbeständen vorher unbekannte, verständliche Informationen extrahieren und diese so aufbereiten, dass sie eine wertvolle Entscheidungshilfe darstellen.
Aber wie sieht Data Mining ganz praktisch aus, welche Ergebnisse kann man überhaupt erwarten und wie brauchbar ist das Ganze? Der Vortrag illustriert dies anschaulich anhand einer Reihe von Beispielen aus verschiedenen Anwendungsbereichen und gibt einen Ausblick für den Einsatz in der Wirtschaftsprüfung.
Statistische Ziffernanalyse basiert zum einen auf einem theoretischen Modell zur Beschreibung des Normfalles („Nichtbetrug“) –etwa der Benford-Verteilung für die ersten Ziffern. Zum anderen erfordert diese ein Verfahren zur Erfassung etwaiger Diskrepanzen zwischen diesem Normfall und real beobachteten Ziffernhäufigkeiten. Typischerweise wird hier der Chi-2-Anpassungstest herangezogen, der auf dem zentralen Grenzwertsatz beruht. Dieser asymptotische Ansatz erfordert daher Daten, die (approximativ) unabhängig und identisch verteilt sind und keine nur spärlich besetzten Zellen aufweisen. Derartige Annahmen sind in diversen Anwendungsfällen nicht gegeben, wie in einigen Publikationen auch bereits angemerkt wurde. Wünschenswert ist daher eine nicht-asymptotische Alternative zum Chi-2-Ansatz. Hierzu soll nun ein Klassifikationsverfahren vorgestellt werden, dass auf der “receiver operating characteristic“ beruht.
Die Profitabilität großer Aktiengesellschaften, gemessen als deren return on assets (ROA) weist robuste Merkmale eines statistischen Gleichgewichts auf, d.h. dass sowohl die Querschnittsverteilung des ROA über Unternehmen hinweg, als auch die Zeitreihenentwicklung des ROA einzelner Unternehmen durch ein und den selben stochastischen Prozess beschrieben werden kann. Der Vortrag erklärt zunächst diesen hochgradig nicht-trivialen Zusammenhang und erläutert anschließend, welche Gefahren sich ergeben, wenn die Ergebnisse auf die Grundgesamtheit aller Unternehmen ausgeweitet werden. Selbst wenn die „Wahrheit im System stehen“ sollte, so ist deren Entdeckung und Interpretation kein Selbstläufer und bedarf weiterer methodologischer Forschungsarbeit.
Früherkennung von abweichenden Verhaltensweisen im Vertrieb zur Bildung „Schwarzer Kassen“
Die Kunden sind Hersteller von hochpreisigen Produkten (hochwertige Industriegüter, Maschinen, Kraftfahrzeuge). Die Produkte werden über eine internationale Vertriebsorganisation vermarktet. Teilweise sind auch unabhängige Händler in den Vertriebsablauf integriert.
Vom Hersteller des Produktes bis zum Endkunden sind in der Regel Rabatte von bis zu 50 % des Produktpreises vorgesehen, um entsprechende Anteile für die einzelnen Vertriebsstufen auszuweisen.
Dieses Rabattsystem kann zur Bildung von „Schwarzen Kassen“ missbraucht werden. Diese „Schwarzen Kassen“ können einerseits für Bestechungsleistungen zur Unterstützung des Vertriebs und andererseits zur persönlichen Bereicherung genutzt werden.
Ziel des Früherkennungssystems:
Ziel ist vordergründig nicht, abweichendes Verhalten zu entdecken, sondern eine präventive Wirkung zu erzeugen. Durch Information der Vertriebsorganisation soll die „kreative Energie“ der Beteiligten begrenzt werden („Digitale Streifengänge im Unternehmen durch Compliance“).
Das Grundmodell des Früherkennungssystems:
Es werden bestimmte Vorgehensweisen (modus operandi) definiert, mit denen üblicherweise im Vertriebssystem des Kunden die Vertriebsorganisation „Schwarze Kassen“ schafft, die dann für korruptive Zahlungen oder für Unterschlagungen genutzt werden.
Einige dieser Vorgehensweisen sind uns aufgrund der bisherigen Beratungstätigkeit bekannt, weitere kundenspezifische modus operandi können zu Beginn des jeweiligen Projekts mit dem Kunden noch definiert werden.
Dieses „Früherkennungssystem“ überprüft nun regelmäßig (z.B. einmal im Monat), ob in den vorhandenen Datenbeständen des Kunden (Finanzbuchhaltung, Vertriebssystem u.a.) entsprechende Hinweise feststellbar sind, die darauf hindeuten, dass solche modus operandi angewandt werden (Mustererkennung). Sollte das Analyse-Tool Hinweise finden, werden diese dem Compliance Office zur weiteren Überprüfung bereitgestellt.
Die Analyse von Massendaten in Echtzeit ermöglicht die Identifikation von Fraud, noch bevor ein Schaden entsteht. Die Prüfung aller Geschäftsvorfälle ohne Beeinträchtigung des operativen Geschäfts erfordert eine effiziente Gestaltung der Analyse von Verdachtsfällen. Ein Risikoorientiertes Reporting, die Reduzierung von False Positives sowie automatisierte und kontinuierlich durchgeführte Kontrollen entlasten knappe Personalressourcen. Ergänzt um Strategien zur Entdeckung modifizierter oder neuer Fraud Muster ergeben sich neue Handlungsansätze zur Vermeidung von Wirtschaftskriminalität.
Gezeigt werden Anwendungsszenarien für die Echtzeitanalyse in „real Big Data“ zur Identifikation und Prävention von Fraud auf der Basis von SAP HANA.
Elektronische Übermittlung von strukturierten Bilanzdaten an das Finanzamt
Für alle Wirtschaftsjahre, die nach dem 31.12.2011 beginnen, besteht grundsätzlich die gesetzliche Pflicht, den Inhalt von Bilanz und Gewinn- und Verlustrechnung durch Datenfernübertragung nach amtlich vorgeschriebenem Datensatz an das Finanzamt zu übermitteln, § 5b EStG. Die Übermittlung der Daten hat in dem Format XBRL (eXtensible Business Reporting Language) zu erfolgen. Der amtlich vorgeschriebene Datensatz wurde von der Finanzverwaltung in Form einer Taxonomie entwickelt und durch BMF-Schreiben amtlich bekanntgegeben. Mit dieser nicht individuell veränder- oder erweiterbaren Vorlage erlangt die Finanzverwaltung standardisierte Daten. Je höher der Standardisierungsgrad der Daten ist, desto besser lassen sich die Daten verwaltungsintern automatisiert weiterverarbeiten. Der Beitrag zeigt auf, wie die Finanzverwaltung einen möglichst hohen Standardisierungsgrad zu erreichen sucht und wie etwaige Auswertungen der Daten auf Seiten der Finanzverwaltung erfolgen könnten.
Das Zentrum der Wahrheit - die Wahrheit im Zentrum
Bankenregulatorische Anforderungen, Bewertungsverfahren zu Kunden innerhalb des Finanzsektors oder Customer Relationship Informationen: All diese Informationen müssen qualitativ hochwertig, konsolidiert und gesetzeskonform für alle Prozesse des Unternehmens zur Verfügung gestellt werden. Reine syntaktische Integration reicht heute nicht mehr aus. Daten werden zu Informationen und benötigen ihren semantischen Zusammenhang.
Unternehmen müssen immer öfter der Beweglichkeit des Marktes gerecht werden, dies erfordert zwingend eine Konvergenzschicht zwischen Daten und Informationen. Die im Unternehmen vorhandenen Datenquellen müssen konsolidiert, die Informationen innerhalb einer zentralen Integrationsplattform harmonisiert und standardisiert werden. Ein nachhaltiges Informations-Management ist unumgänglich. Data Governance steht dabei immer mehr im Vordergrund.
Ein Single Point of Truth (SPoT) kann eine solche Trusted Source eines Unternehmens bilden. Der Vortrag zeigt Potenziale von Enterprise Information Management Lösungen auf: Eine exakt auf die Anforderungen zugeschnittenen Integrationsarchitektur in Verbindung mit dem auf langjähriger Erfahrung in EAI-, ETL- sowie DQM- und BI-Projekten basierendes SPoT-Vorgehensmodell garantieren für jeden Schritt Überblick und Kontrolle über alle relevanten Parameter.