banner2.jpg
 no-css-shadow

Nutzen und Grenzen von Big Data - Tagung an der TH Deggendorf

Die Digitalisierung dringt in immer mehr Lebensbereiche vor und macht neuartige Geschäftsmodelle möglich. Doch in Zeiten massenhaft verbreiteter falscher Nachrichten gewinnt die Frage an Bedeutung, wie viel Wahrheit in den Bergen digitaler Daten steckt. Eine Tagung an der Technischen Hochschule Deggendorf formulierte Zweifel daran, dass wir weitermachen können wie bisher. „Digitalisierung: No usual business anymore!“ lautete der Titel des 13. Deggendorfer Forums zur digitalen Datenanalyse (DFDDA).

 

 

Wie verändert die Digitalisierung die Arbeitswelt der Prüfer? Welche Herausforderungen stellen die wachsenden Datenmengen, und welche Chancen bietet ein kluger Umgang mit neuen Analysetools? Welche Informationen lassen sich den Big-Data-Speichern entlocken, und wo gilt es, vorsichtig mit automatischen Analysen umzugehen? Fragen wie diese standen am 1. und 2. Juni 2017 auf dem Programm des Deggendorfer Forums zur digitalen Datenanalyse (DFDDA), das in diesem Jahr im „Glashaus“ der TH Deggendorf stattfand. Der Veranstalter und Gastgeber Prof. Dr. Georg Herde von der Fakultät Angewandte Wirtschaftswissenschaften der Technischen Hochschule Deggendorf zeigte sich zufrieden: die Veranstaltung war gut besucht, die Gelegenheit zu Diskussionen wurde rege genutzt. Die Auswahl der Themen und Referenten, so zeigte sich, traf die Interessen des Publikums.

Herde übernahm, wie in den zurückliegenden Jahren, die Leitung und Moderation des anderthalbtägigen Forums. Zusammen mit dem Mathematiker Ernst-Rudolf Töller eröffnete er die Veranstaltung mit einem Dialog, in dem die beiden den Katalog der Fragen und Themen aufblätterten, die in den Referaten und Diskussionen zur Sprache kamen.

Krise der Wahrheit?

Nach dem Eingangsdialog übergab Herde an Joachim Müller-Jung, Wissenschaftsredakteur bei der Frankfurter Allgemeinen Zeitung (FAZ). In seinem Initialvortrag sprach er darüber, „wie die Freiheit durch Algorithmen, Intransparenz und Datendiktatur bedroht wird“. Die Risiken der Digitalisierung verknüpfte er unter anderem mit Erkenntnissen aus der Hirnforschung. Zu sagen, die neuen Möglichkeiten der Kommunikation hätten der Lügengesellschaft Tür und Tor geöffnet, sei übertrieben, meinte er. Doch der einzelne Mensch, das hätten britische Hirnforscher gezeigt, könne sich daran gewöhnen, zum eigenen Nutzen zu lügen. Anfangs lasse sich bei den meisten Menschen im Gehirn ein Signal des schlechten Gewissens nachweisen. Das schwäche sich aber ab, wenn Lüge gezielt und wiederholt eingesetzt werde. Entsprechende Hirnareale würden desensibilisiert. „Wir können das nicht ausschalten“, sagte Müller-Jung.

Bis heute würden nur rund 60 Prozent aller Hassmeldungen aus den Foren sozialer Medien wieder gelöscht. „Das funktioniert noch nicht gut.“ Öffentlich-rechtliche Rundfunkanstalten machten erste Experimente, Falschmeldungen mit Werkzeugen der Künstlichen Intelligenz (KI) auszufiltern. Seine Zweifel, dass dies ausreichend verlässlich funktioniert, erläuterte er anhand eines Beispiels aus dem US-Wahlkampf: Die Meldung „Der Papst unterstützt Donald Trump“ war falsch. Doch er frage sich, wie eine Maschine in diesem Satz eine Fälschung erkennen solle, selbst mit Hilfe der KI.

Die KI sei ein „tolles Instrument“, sagte Müller-Jung. Doch sie lernt ohne Wertung. Als kürzlich US-Wissenschaftler lernende Systeme die menschliche Sprache untersuchen ließen, übernahmen die Maschinen auch menschliche Vorurteile, wie etwa, dass Autos etwas für Männer sind und Küchenarbeiten etwas für Frauen. Müller-Jungs Fazit griffen später mehrere der Referenten auf: Auch die Ergebnisse Künstlicher Intelligenz sind nur so gut, wie das, was man der Maschine an Daten vorgibt.

Gibt es eine Krise der Wahrheit? Was Wahrheit ist, sei immer schon umstritten gewesen, sagte Müller-Jung. Große Datensysteme und intelligente Analysewerkzeuge böten grundsätzlich die Möglichkeit, Wissensbestände für jedermann zu öffnen. Doch bisher sei es so weit nicht. Erst vor kurzem hätten in einer Umfrage 48 Prozent der Befragten eingeräumt nicht zu wissen, was Big Data ist.

Müller-Jung ist sicher, dass sich das ändern wird. Letztlich bleibe er optimistisch, sagte er. Er sehe „viel Bewegung“ hin zu einem offenen, kontrollierten Umgang mit der Digitalisierung.

Wandel in Unternehmen und Behörden

Gerade im Umfeld der Wirtschafts- und Finanzprüfung haben es Experten mit großen Datenmengen zu tun, in denen sie Tendenzen, Fehler oder auch Hinweise auf Betrugsversuche entdecken müssen. Dr. Martin Panek und Franz-Xaver Betz vom Bayerischen Landesamt für Steuern und Betriebsprüfung stellten ein System zum „Risikomanagement in der Betriebsprüfung“ (RMS-Bp) vor, das in erster Linie das Ziel hat, effizienter die Fälle auszufiltern, die Prüfer sich genauer ansehen müssen. Das geschieht durch automatisierte Verfahren und eine Vielzahl von Risikoregeln. Die Software wird in einem bundeseinheitlichen Vefahren unter dem Stichwort „Konsens“ entwickelt, so dass Doppelentwicklungen der Bundesländer vermieden werden können.

Neue Wege der Risikobewertung gibt es auch in der Wirtschaftsprüfung: Christian Bartmann von PricewaterhouseCoopers GmbH (PWC) präsentierte zusammen mit seinem Kooperationspartner Dr. Stephan Streller von der IBIS Prof. Thome AG ein System, Halo for SAP genannt, das mit Hilfe automatischer Systemanalysen nicht mehr auf der Basis von Stichproben, sondern durch „100%-Analysen der Werteflüsse und Daten auf Belegebene“ Auffälligkeiten und Schwachstellen in Systemen und Prozessen aufspürt.

Und Dr. Jürgen Himmelmann gab einen Einblick in den Umgang der Commerzbank AG mit den komplexen Aufgaben, vor der sich sein Bankinstitut sieht, angesichts einer Vielzahl von Regularien im internationalen Zahlungsverkehr, der Integration der Dresdner Bank, der Anforderungen US-amerikanischer Prüfbehörden und vieler Herausforderungen mehr. Es gebe viele Visionen, sagte Himmelmann, aber man müsse stets fragen, was machbar sei und mit welchen Mitteln. Himmelmann: „Big Data ist, wo meine Werkzeuge versagen.“ Die Prämisse laute: „Kein Kauf von Big Data Lösungen ohne konkrete Problemstellung.“ Dennoch ist er sicher: „Bis 2020 sind 80% der relevanten Prozesse in der Commerzbank digital.“

Kontinuierliche Prüfung

Durch Digitalisierung und Automatisierung von Dienstleistungen lassen sich neue Geschäftsmodelle entwickeln. Davon ist Prof. Dr. Oliver Thomas von der Universität Osnabrück überzeugt. Auf dem Weg dahin stehen auf seine Liste der wichtigen Begriffe drei ganz oben: neue, hybride Produkte, welche klassische Dienstleistungen mit digitalen verknüpfen; Industrie 4.0, der Trend zu Maschinen, die lernfähig werden und angepasst reagieren; und Smart Services, neue Dienstleistungen, welche die Digitalisierung erst möglich gemacht hat. Die Trends seien da und müssten keineswegs jedem gefallen.

Für den Wirtschaftsprüfer bedeute dies, dass die Komplexität der Geschäftsmodelle und der Prüfung zunehme und die Berücksichtigung von IT-Risiken an Bedeutung gewinne. Die Chance für den Berufsstand liege darin, Dienstleistungen wie Beratung und Coaching verstärkt anzubieten. Als Prozessinnovation in der Wirtschaftsprüfung könne man das Prinzip der kontinuierlichen Prüfung interpretieren. Der Prüfer biete dem Mandanten damit auf Wunsch Prüfungssicherheit bereits innerhalb einer Transaktion oder kurz nach deren Abschluss an. „Durch KI-Technologien ergeben sich neue Möglichkeiten zur Automatisierung von Prüfungsleistungen.“ Damit war er im Kern seines Vortragsthemas angekommen, dem „Audit-as-a-service“, der Prüfung als Dienstleistung. Thomas kann sich den Dienstleister der Zukunft als eigenständige Partei zwischen Prüfer und Mandant vorstellen. Teile von Prozessen könnten an den Dienstleister ausgelagert werden, andere Dienste biete der Dienstleister eigenständig an, als zubuchbare Option.

Praxisorientierte Ausbildung

Big-Data-Analysen müssen in allgemeinen Anwendungen nicht unbedingt genauere oder bessere Ergebnisse liefern. Über welche Fallstricke ein solches Analyseprojekt stolpern kann, soll ein Lehrprojekt an fünf bayerischen Hochschulen den Studierenden vermitteln, unterstützt mit Mitteln des Landes Bayern und anhand echter Projekte mit realen Daten. Beteiligt an dem Projekt „Evidenzbasierte Entscheidungen auf Grundlage von Big Data Analysen“ (EEBDA) sind die TU München, die Uni Passau und die Hochschulen Deggendorf, Landshut und Würzburg-Schweinfurt.

Die Studierenden sollen zum Beispiel lernen, so Prof. Dr. Jürgen Ernstberger und Dr. Joachim Schnurbus, dass die automatisierte Analyse großer Datenbestände kein Ersatz für das Verstehen von Zusammenhängen und für klassische Methoden der Datenerhebung und Auswertung durch Experten ist. Der virtuelle Hochschulkurs, der allen Studierenden im dritten oder vierten Semester zur Verfügung stehe, habe das Ziel zu vermitteln, was Big Data ist und welche Werkzeuge die Technik anbiete. Vor allem und an erster Stelle aber gehe es den Machern um die Vermittlung von Kompetenz und damit auch Kritikfähigkeit gegenüber nicht ausreichend durchdachten Anwendungen der Technik. Schnurbus zeigte anhand von Beispielen, wie sehr allein die grafische Darstellung der Ergebnisse einer Big-Data-Analyse den Betrachter beeinflussen kann.

Liegt die Wahrheit in den Daten?

Braucht die Wissenschaft in Zeiten von Big Data noch theoretische Modelle, oder liegt die Wahrheit in den großen Datenmengen? Hinter dieser Frage steckt ein uralter Streit. Das zeigte Wolfgang Pietsch von der TU München zum Schluss der Tagung in einigen „erkenntnistheoretischen Betrachtungen zu datenintensiver Wissenschaft“ anhand von Zitaten unter anderem großer Physiker wie Isaac Newton und Albert Einstein. Newton zum Beispiel lehnte hypothetisches Wissen ab. Was man aus der Beobachtung der Natur – also von Daten – per Induktion schließen könne, müsse man für wahr halten, auch wenn es widersprechende Hypothesen gebe. Man müsse es für wahr halten, bis andere Naturbeobachtungen Korrekturen, Einschränkungen oder Erweiterungen erforderlich machten. Für Einstein hingegen versucht die Wissenschaft, Phänomene in ein System von Naturgesetzen einzuordnen.

Dass wissenschaftliche Gesetze aus beobachteten Phänomenen abgeleitet werden (Induktion), galt bis ins 19. Jahrhundert als die leitende Vorstellung. Seitdem kam Kritik auf. Wichtige Einwände sind, dass Hypothesen in der Wissenschaft alltäglich sind und dass man Beobachtungen in der Natur nicht vollkommen unabhängig von theoretischen Modellen beschreiben kann.

Pietsch zog ein Fazit, das beiden Ansätzen eine Rolle zuweist: Datenintensive Wissenschaft mache es möglich, komplexe Phänomene zu berechnen, die mit anderen Werkzeugen nicht zugänglich sind, wie etwa viele Phänomene in der Medizin. Außerdem mache sie verlässlichere kurzfristige Vorhersagen möglich. Doch das Wissen um das Wie und Warum, die Kausalität, bleibe das „zentrale Konzept, um zu verstehen, warum datenintensive Ansätze wissenschaftlich relevant sind“. Derzeit finde ein Paradigmenwechsel statt, „von theoriegeleiteter Modellierung mit wenig Daten hin zu theoriearmer Modellierung mit vielen Daten“.



Autor: Rainer Klüting, Wissenschaftsjournalist