banner2.jpg

Schlagwort oder neues Paradigma - überrollt die Datenflut den Prüfer?

Prof. Dr. Georg Herde / Dipl.-Math. Ernst-Rudolf Töller

Berater und Analysten setzen sich zunehmend intensiver mit der immer größer werdenden Flut an Daten (Big Data, Mc Kinsey) auseinander, die Wirtschaft und private Haushalte produzieren. Dabei wird von einem Wachstum der weltweiten Datenmenge um das 10-fache in den nächsten 5 Jahren ausgegangen (IDC). Innovative Verfahren der Datenanalyse gelten in den Unternehmen als Schlüsseltechnologie für die Verbesserung der Wettbewerbssituation und die Steigerung der Produktivität. Aber auch Innovationen in Bereichen wie Verkehr oder Umwelt, die stark durch politische Einflüsse getrieben werden, beinhalten immer häufiger auch die effiziente Verarbeitung großer Datenmengen.

Vor dem Hintergrund dieser Entwicklung werden auch für Revisoren und Prüfer die Grenzen bestehender Konzepte und Technologien für den Umgang mit den Daten von Unternehmen sichtbar. Dabei spielt die rein (IT-)technische Bewältigung großer Datenmengen selbst nur eine untergeordnete Rolle. Von entscheidender Bedeutung sind vielmehr innovative Ansätze im Umgang mit Datenmengen in der Größenordnung von Gigabytes, Terabytes usw. Als kleines Beispiel sei hier nur angeführt, dass sich in solchen Welten klassische Stichprobenverfahren wohl nicht mehr sinnvoll durchführen lassen.
Umgekehrt ist man in vielen Fällen heute immer noch sehr befangen hinsichtlich der Durchführung von Datenanalysen durch Revisoren und Prüfer überhaupt. Die Zukunft wird zeigen, dass wohl kein Weg daran vorbeiführt, dass Datenmengen gleich welcher Größenordnung dann auch von Prüfern untersucht werden müssen, wenn das Konzept einer unabhängigen Prüfung weiter Bestand haben soll.

Vieles fehlt heute noch, was erforderlich wäre, damit Prüfer und Revisoren auf diese Entwicklungen angemessen reagieren können: innovative Konzepte, leistungsfähige Technologie, vorrausschauende und angemessene Regeln für den Umgang mit Daten.