banner2.jpg

Welche Informationsschätze bergen die Datenbestände eines Unternehmens, und wie hebt man diese? Das 8. Deggendorfer Forum zur digitalen Datenanalyse diskutierte über praktische Beispiele und kritische Analysen.

Digitale Daten werden heute in Unternehmen mit einer nie gekannten Detailtiefe erfasst. Die Datenbestände wachsen, und es wird immer schwieriger, sie zu analysieren. Zugleich aber erlaubt die Fülle an digitalen Informationen, ganz andere Fragen zu stellen, als es das klassische Berichtswesen tut. Die Rolle der Daten im Unternehmen ändert sich. Ob es um unerkannte Vorlieben der Kunden geht oder um verdächtige Zusammenhänge, die auf Betrug im Unternehmen hindeuten: in den Daten steckt ein detailliertes Bild der Unternehmensvorgänge, dessen Einzelheiten nur mit den Methoden der digitalen Datenanalyse überhaupt sichtbar gemacht werden können.

„Big data – steht die Wahrheit im System?“ hieß das Thema des 8. Deggendorfer Forums zur digitalen Datenanalyse (DFDDA), zu dem der aus der Hochschule Deggendorf heraus gegründete Verein DFDDA e.V. für den 18. und 19. Oktober nach Münster in Westfalen eingeladen hatte. Die Referenten stellten einerseits Anwendungen aus der Praxis von Unternehmen und Behörden vor, wie Dr. Roland Grund von der IBM Deutschland in seinem Eröffnungsvortrag über „Data Mining in der Praxis“, und prüften andererseits bisher eingesetzte Methoden der Analyse großer Datenmengen aus wissenschaftlicher Sicht auf ihre Verlässlichkeit, wie Dr. Ulrich Müller-Funk, Professor für Wirtschaftsinformatik an der Universität Münster, und Dr. Mishael Milakovic, Professor für Volkswirtschaft an der Universität Bamberg.

Dr. Roland Grund eröffnete die Tagung mit einem Blick auf Beispiele dafür, welche zum Teil verblüffenden Ergebnisse das sogenannte Data Mining nach zwanzig Jahren Entwicklung heute liefern kann. Eine klassische Abfrage an die Daten eines Automobilherstellers könnte zum Beispiel sein: „Wie hoch waren die Kosten für Gewährleistung bei Mittelklassewagen in Süddeutschland im September 2012?“ Data Mining, so Dr. Grund, erlaube es, die Fragen weicher zu formulieren: „Welche Baueigenschaften sind kritisch für die Qualität von Fahrzeugen, und wie kann man diese proaktiv erkennen?“ Bei einer beispielhaften Anwendung fiel einem Autohersteller auf, dass Fahrzeuge in Skandinavien häufig mit Schäden am Außenspiegel in die Werkstatt kamen. Die Schäden traten im Winter und eine bis drei Wochen nach einem Werkstattbesuch auf. Analysen vor Ort – dann natürlich ohne Computer – ergaben, dass der freundliche skandinavische Werkstattservice die Fahrzeuge den Kunden frisch gewaschen zurückgab. Nach dem Verlassen der Werkstatt gefroren Reste von Waschwasser in der Antriebsmechanik des Spiegels. Beim ersten Betätigen der Spiegeleinstellung entstanden Defekte.

Data-Mining sucht nach unerwarteten Verknüpfungen zwischen Daten. Supermärkte setzen es zum Beispiel ein, um festzustellen, welche Waren besonders viele Kunden gemeinsam kaufen. Diese Waren werden dann im Geschäft nahe beieinander positioniert. Ein weiteres Beispiel: die Bankenaufsicht sucht mit Hilfe der digitalen Datenanalyse nach auffälligen Aktiengeschäften, die auf Insiderhandel hindeuten. Grund präsentierte eine anwenderfreundliche Software zur Suche nach Auffälligkeiten in Daten, räumte aber ein, dass der Anwender eine Vermutung braucht, in welchen Daten Auffälliges zu finden sein könnte, und dass außerdem eine gewisse Fachkenntnisse nötig sei. „Der Data-Miner bekommt nicht das Denken abgenommen.“

Eine weitere Anwendung der Analyse von Zusammenhängen in großen Datenmengen ist die „Früherkennung von abweichenden Verhaltensweisen im Vertrieb zur Bildung Schwarzer Kassen“. Unter diesem Titel stellte Karl Würz, Geschäftsführer der CompCor Compliance Solutions GmbH & Co KG Beispiele aus der Arbeit seines Frankfurter Unternehmens vor. Würz war Polizeibeamter und Polizeidirektor in Baden-Württemberg, bevor er in die Wirtschaft wechselte. Wenn ein Unternehmen nicht aufpasse, so Würz, könnten vor allem in der Vertriebsabteilung „Submilieus“ entstehen, in denen die dort üblicherweise gewährten finanziellen Spielräume zur persönlichen Bereicherung oder Korruption ausgenutzt würden. Seine Erfahrung ist, dass auch Verhaltensregeln und Schulungen im Unternehmen solche Vorkommnisse nie ganz ausschließen können. Würz plädierte deshalb für eine vorsorgliche digitale Suche nach Auffälligkeiten. So könne zum Beispiel ein Vergleich von Daten über Sonderaktionen im Verkauf mit solchen über Provisionszahlungen an Verkäufer und über die Gewährung von Rabatten oder anderen „After-Sales“-Leistungen an gute Kunden Hinweise auf organisierte Betrugsaktionen geben. Würz plädierte für präventive Prüfungsaktionen, denn das Wissen, dass solche Prüfungen stattfänden, könne auch potenzielle Täter abschrecken. Solche „digitalen Streifengängen“ müssten allerdings ständig weiterentwickelt werden, da mit der „Kreativität“ der Mitglieder von Betrugsnetzwerken im Unternehmen oder bei Zulieferern gerechnet werden müsse.

Eine besondere Form der digitalen Datenanalyse betreiben die Finanzämter. Sebastian Kolbe ist beim Bayerischen Landesamt für Steuern in München Leiter des Projektes E-Bilanz. Er schafft die Voraussetzungen dafür, dass Unternehmen künftig ihre Steuerdaten elektronisch einreichen können. Kolbe stellte das Verfahren vor und gab Ratschläge, wie Unternehmen damit umgehen sollten. Anschließend stellte er sich einer lebhaften Diskussion und kritischen Nachfragen unter anderem zu Überlegungen, die eingereichten Daten mit einem automatischen Verfahren der Zuverlässigkeitsanalyse Risikoklassen zuzuordnen. Vorerst werde eine Risikobewertung aber noch nicht möglich sein, sagte Kolbe. Dazu müsse erst ein Bestand von Steuerdaten angesammelt werden, der Vergleiche möglich mache.

Kritische Anmerkungen zu den Chancen und den Verfahren der elektronischen Schatzsuche kamen sowohl aus der Praxis wie von Seiten der Wissenschaft. Andrea Glatzel wies auf Umfragen unter IT-Verantwortlichen hin, die mehrheitlich das Problem der Qualität der verfügbaren Daten ganz oben auf die Liste der Herausforderungen setzten. Glatzel leitet den Geschäftsbereich Information Management bei der CAS AG in Hamburg. Datenqualitätsmanagement gehört zu ihren Arbeitsbereichen. Ihr Modell, die Unternehmensdaten für eine weitergehende Analyse möglichst gut aufzubereiten, ist ein zentralisierter Zugriff auf „die besten Daten des Unternehmens“, ein „Single Point of Truth“. So einen zentralen Wahrheitspunkt hat sie modellhaft bei einer Landesbank realisiert, einschließlich der Schaffung neuer Strukturen sowohl in den zuvor verteilt gelagerten Daten der Bank wie auch in den Verantwortungsstrukturen für das Management der Daten.

Wie entscheidend eine Qualitätssicherung sein kann, illustrierte sie am Beispiel einer Bank. Eine aus den Geschäftsdaten automatisch ermittelte Kennzahl diente intern als Warnsignal. Erreichte sie vorab festgelegte kritische Werte, mussten kurzfristig Anlagen abgestoßen werden. In einem Fall wurde ein Portfolio von mehreren Millionen Euro abgestoßen. Eine nachträgliche Prüfung ergab aber, dass ein Datenqualitätsproblem einen Fehlalarm ausgelöst hatte. Glatzel warnte vor der Erwartung, hundertprozentige Qualität der Daten erreichen zu können. „Das kann sich niemand leisten.“ Dass in den Datenbergen der Unternehmen möglichst wenige Eingabefehler, uneinheitliche Begriffsdefinitionen und andere Qualitätsmängel vorkommen, könne nicht Ziel sein, sondern müsse als Prozess verstanden wissen. Sie zog eine Parallele zur Physik: „Wenn ich einem geschlossenen System keine Energie zuführe, wird die Qualität schlechter.“

Wer digitale Daten analysieren will, muss die jeweils geeigneten Analysemethoden auswählen können und braucht dazu Fachkenntnis. Das war die Botschaft aus der Wissenschaft. Prof. Dr. Ulrich Müller-Funk betonte: „Es gibt kein Programm, bei dem man nur die Surprise-Taste zu drücken braucht.“ Die Analyse von Zusammenhängen zwischen Datenbeständen sei „ohne massive Sachunterstützung nicht denkbar“. Prof. Müller-Funk hat an der Universität Münster den Lehrstuhl für quantitative Methoden der Wirtschaftsinformatik inne. Er analysierte kritisch die mathematischen Hintergründe einiger verbreiteter Analyseverfahren. So hilft zum Beispiel das Newcomb-Benfordsche Gesetz zu erkennen, ob eine Reihe von Zahlen, etwa von Geschäftsvorgängen, von einem Menschen erfunden oder wirklich zufällig ist. „Der Mensch ist miserabel darin, im Kopf Zufall zu produzieren.“ Allerdings gilt das mathematische Gesetz nicht für jede Art von Zahlenreihe. Der Anwender muss also wissen, welche Analyseverfahren er auf welche Art von Zahlen anwenden darf.

Aus der Perspektive der mathematischen Verfahren hat Prof. Dr. Mishael Milakovic, Volkswirtschaftler an der Universität Bamberg, „die allergrößten Schwierigkeiten mit dem, was in der Volkswirtschaftslehre und der Betriebswirtschaftslehre gemacht wird“. Auf der Suche nach statistischen Ergebnissen, die „halbwegs robust“ sind, analysierte er „Chancen und Risiken großer Datensätze am Beispiel einer Untersuchung des Return on Assets“, so der Titel seines Vortrags. Der Return on Assets ist die Profitrate eines Unternehmens, also seine Profitabilität. Prof. Milakovic und seine Mitarbeiter haben die Profitraten der 500 größten langlebigen Firmen der USA verglichen und über einen längeren Zeitraum mit statistischen Methoden untersucht. Ihr überraschendes Ergebnis: sowohl der Unternehmensvergleich wie die zeitliche Entwicklung der Profitrate einzelner Unternehmen folgen dem gleichen mathematischen Zufallsgesetz. Doch der Referent dämpfte die Freude über die gefundene Regel gleich wieder: Weitere Prüfungen ergaben, dass sein Ergebnis tatsächlich nur für langlebige Unternehmen gilt. Als er es auf alle Unternehmen der USA im gleichen Zeitraum anzuwenden versuchte, stellte sich heraus, dass dort andere Regeln ins Spiel kommen. Milakovics Fazit: Selbst wenn die „Wahrheit im System stehen“ sollte, sei deren Entdeckung und Interpretation kein Selbstläufer und bedürfe weiterer methodologischer Forschungsarbeit.

Die Tagung werde die Teilnehmer auf eine „Wanderschaft“ zu den unerkannten Informationen in digitalen Daten führen, hatte zur Eröffnung der Tagungsleiter Prof. Dr. Georg Herde von der Fakultät Betriebswirtschaft und Wirtschaftsinformatik an der Hochschule Deggendorf angekündigt. Prof. Herde ist Vorsitzender und Gründer des DFDDA e.V. Zusammen mit seinem Stellvertreter, dem Mathematiker Ernst-Rudolf Töller von der BDO Deutsche Warentreuhand AG in Hamburg, hatte er die Veranstaltung in einem Dialog eingeleitet. Ihr Fazit: In großen Datenbergen steckten „unbekannte Strukturen, die wir ohne geeignete Brille nicht erkennen können. Es klafft eine semantische Lücke zwischen der Datenrepräsentation und dem Kontextwissen.“ Doch die Chance bestehe, neue Ansprüche an digitale Daten stellen und „mehr aus ihnen machen“ zu können.