banner2.jpg

Prof. Dr. Klaus Mainzer
Emeritus of Excellence - Technische Universität München
Carl Friedrich von Weizsäcker Center für Grundlagenforschung - Eberhard Karls Universität Tübingen

Wir leben bereits in einer vernetzten Welt intelligenter Systeme. Künstliche Intelligenz (KI) wird zu einer gesellschaftlichen Herausforderung, wenn sie unsere Lebens- und Arbeitswelt (z.B. Mobilität, Märkte, Industrie 4.0) automatisiert. Was aber genau heißt „KI“ heute, die in aller Munde ist? Was kann sie und was kann sie nicht? Mit neuartigen Algorithmen (z.B. Deep Learning) wird versucht, dem exponentiellen Datenwachstum (Big Data) im Internet der Dinge zu begegnen. Diese Verfahren liefern aber im allgemeinen nur statistische Korrelationen, die keine kausalen Erklärungen ersetzen. Fragen der Verantwortung (z.B. Haftung) setzen Zurechnung von Ursachen und Wirkungen voraus. Erst auf dieser Grundlage lassen sich gesellschaftliche Konsequenzen ziehen. Erst auf dieser Grundlage können Deutschland und Europa Position im globalen Wettstreit der Digitalisierung beziehen. Dieser Vortrag ist ein Plädoyer für Technikgestaltung: KI muss sich als Dienstleistung in der Gesellschaft bewähren.


Literatur (ausgewählt zum Thema) u.a.:
• K. Mainzer: Die Berechnung der Welt. Von der Weltformel zu Big Data, C.H. Beck, München 2014
• K. Mainzer: Künstliche Intelligenz. Wann übernehmen die Maschinen? Springer, Berlin 2016 (2. Aufl. u. englische Übersetzung 2019)
• K. Mainzer: Information. Algorithmus-Wahrscheinlichkeit-Komplexität-Quantenwelt-Leben-Gehirn-Gesellschaft, Berlin University Press 2016
• K. Mainzer: Wie berechenbar ist unsere Welt? Herausforderungen für Mathematik, Informatik und Philosophie im Zeitalter der Digitalisierung (Reihe: Essentials), Springer: Berlin 2018

... für interne Audit-Analysen

Tawei (David) Wang PhD
Außerordentlicher Professor und Driehaus-Stipendiat
Hochschule für Wirtschaft Driehaus
DePaul-Universität, Chicago, USA

In diesem Vortrag werde ich einen Fall und ein Forschungsprojekt erörtern, die die Verwendung von externen Daten für die Analyse der internen Revision veranschaulichen. Der Fall beleuchtet insbesondere die Verwendung von öffentlichen Registrierungsinformationen und einer Datenbank der Postämter zur Visualisierung des Standorts von Anbietern, um die Gültigkeit von Anbietern und die Einhaltung von Richtlinien zu untersuchen. Auf andere Weise betont das Forschungsprojekt die Risiken von Social Media. Unter Verwendung eines Datensatzes, der von LinkedIn, dem größten Berufsnetzwerk der USA, gesammelt wurde, zeigt die Studie, dass Profilinformationen zwar für die Karriere von Fachleuten wertvoll sind, dass sie aber unerwartet die Schwachstellen eines Unternehmens in der Öffentlichkeit aufdecken können. Diese Präsentation legt nahe, dass die Einbeziehung externer Datensätze mit intern generierten Informationen den internen Prüfern helfen kann, sich den Prüfungszielen besser anzunähern und möglicherweise ganzheitlichere Empfehlungen zu geben.

Tanja Ihden
Wissenschaftliche Mitarbeiterin 
Professur für empirische Wirtschaftsforschung und angewandte Statistik 
Universität Bremen

Statistische Kennzahlen und Argumentationen spielen in zunehmendem Ausmaß eine Rolle in der deutschen Rechtsprechung. Unter Stichworten wie „Objektivierung der Beweiswürdigung“ oder „Evidenzbasierte Jurisprudenz“ wird dies von der Rechtswissenschaft selbst bereits aufgegriffen. Die Gründe für die gestiegene Aufmerksamkeit der Verwendung von Daten gegenüber sind zum einen in der ubiquitären Datenverfügbarkeit zu suchen, die wiederum zu einer steigenden Tendenz diese auszuwerten führt. Zum anderen weist die Forschung im Bereich der Schnittstelle zwischen Statistik und Recht Anwendungsfelder auf, die einen Einsatz statistischer Methoden nicht nur rechtfertigen, sondern sogar nahelegen. Dabei stellt sich die Frage, inwiefern der Einsatz statistischer Methoden die Qualität der Rechtsprechung verbessern kann. Obgleich keine nachprüfbaren bzw. feststehenden Maßstäbe zur Überprüfung dieser vorliegen, existieren in der Literatur einige Versuche, Qualitätskriterien zu formulieren. Dabei wird deutlich, dass quantitative Verfahren u.a. logische Fehlschlüsse vermeiden können und so zu weniger Fehlentscheidungen führen.

Nachdem das Potential zur Verbindung der Disziplinen Statistik und Recht nicht mehr zu verkennen ist, schließt sich eine Betrachtung der Integration statistischer Methodenkompetenzen in die juristische Aus- und Weiterbildung an. In diesem Bereich verfügt die Forschungsstelle „Statistik vor Gericht“ der Universität Bremen bereits über einen Erfahrungsschatz, der im Vortrag vorgestellt wird.

Karsten Thomas
Partner IT-Assurance
BDO AG Wirtschaftsprüfungsgesellschaft

Die Digitalisierung verändert sowohl die Prozesse in den Unternehmen als auch die Abschlussprüfung. Zum einen sehen sich Unternehmen steigenden Anforderungen an effiziente Prozesse ausgesetzt, zum anderen entwickeln sich Rechenkapazitäten und Werkzeuge mit hoher Geschwindigkeit weiter, was ständig neue Möglichkeiten eröffnet, das Produktportfolio oder auch die internen Prozesse zu ergänzen. Der Wirtschaftsprüfer muss in seinem Prüfungsansatz darauf reagieren, wenn er z.B. mit Block-Chain- oder Robotics-Anwendungen oder Künstlicher Intelligenz in den Prozessen seiner Mandanten konfrontiert wird. So ist eine Unterstützung der Prüfungshandlungen mit Datenanalysen zukünftig vermehrt erforderlich, weil herkömmliche Prüfungsschritte nur noch bedingt anwendbar sind – dies verändert das Berufsbild deutlich.
Die Werkzeuge hierfür werden stetig weiterentwickelt, doch auch das Konzept zur Einbindung in den Prüfungsansatz muss hiermit Schritt halten. Die Entscheidung über die Auswahl des richtigen Werkzeuges obliegt somit nicht alleine dem Datenanalysten, sondern hier ist eine entsprechende Kompetenz im gesamten Prüfungsteam erforderlich. Dies impliziert neben einem entsprechenden Aus- und Fortbildungskonzept eine permanente Weiterentwicklung der Werkzeuge, um den Anforderungen, die sich aus der fortschreitenden Digitalisierung beim Mandanten ergeben, auch zukünftig gewachsen zu sein. Hierbei sind auch Fortschritte bei einzelnen Technologien zu berücksichtigen, bspw. kann Künstliche Intelligenz zukünftig in den Abschlussprüfungsprozessen unterstützen, um zu weiteren Erkenntnissen zu gelangen oder Effizienzgewinne zu realisieren.

Markus Ettinger
Betriebsprüfer
Groß- und Konzernbetriebsprüfung Schleswig-Holstein

Wohl unbestritten können mittels geeigneter Diagramme eine Vielzahl von Informationen entweder transportiert oder analysiert werden, sie sind daher für die Massendatenanalyse geradezu prädestiniert.

Bei Benchmark Studien geht es darum, aus einer Vielzahl von Unternehmen möglichst passgenau Vergleichsunternehmen zu finden bzw. non-comparables auszuschließen. Im Kern handelt es sich hierbei also auch um eine Massendatenanalyse.

Die Nutzung von Visualisierungsmöglichkeiten bei Benchmark Studien führt also zusammen, was zusammenpasst.

Prof. Dr. Georg Herde
Technische Hochschule Deggendorf

Künstliche Intelligenz (KI) hat Hochkonjunktur, und in den Unternehmen werden viele Ressourcen gerade in diese Richtung gelenkt. Es existieren bereits einige Werkzeuge auf dem wachsenden Markt, die KI für ihre Analysen im Bereich der externen Rechnungsprüfung einsetzen.

In meinem Vortrag werde ich aus akademischer Sicht erörtern, welche Hürden wir überwinden müssen, um einige grundlegende Probleme zu lösen, die sich nicht erst durch den Einsatz der KI in den Prüfungsszenarien sich zeigen.

Diese Hürden sind in weiten Teilen bekannt, sobald wir mit der Datenanalyse beginnen. Werden diese Herausforderungen obsolet, nur weil wir KI einsetzen?