banner2.jpg

Prof. Dr. Ludwig Mochty
Universität Duisburg-Essen

Die Geldumschlagsdauer charakterisiert die Dauer, wie lange liquide Mittel im Betriebsprozess (working capital cycle) gebunden sind. Das Zeitintervall gibt an, wie lange es dauert, Geld in Güter und Leistungen umzuwandeln und durch deren Verkauf als Geld wiederzugewinnen (cash conversion cycle, cash-to-cash). Die Geldumschlagsdauer ist eine wichtige Kennzahl zur Beurteilung der Unternehmens­liquidität und die Entscheidungsgrundlage für das Working Capital Management. Sie setzt sich aus der Umschlagsdauer des Lagers und der Umschlagsdauer der Lieferforderungen zusammen (operating cycle), von deren Summe die Umschlagsdauer der Lieferverbindlichkeiten abgezogen wird. Ihre Analyse provoziert die vermeintlich naive Frage, was eine Buchhaltungskennzahl Umschlagsdauer in prozeduraler Hinsicht tatsächlich misst.

Im vorliegenden Beitrag wird anhand einer Excel-Simulation am Beispiel der Lieferforderungen nachgewiesen, dass die Buchhaltungs-Umschlagsdauer die tatsächliche (prozedurale) Umschlagsdauer erheblich über- oder unterschätzt, und es werden die Ursachen für diese Verzerrung identifiziert. In einem weiteren Schritt wird gezeigt, dass der üblicherweise verwendete gewichtete arithmetische Mittelwert, bezeichnet als „mittlere Umschlagsdauer“, zu Fehlinterpretationen verleitet, was durch die Verwendung von kumulativen Wahrscheinlichkeitsverteilungen leicht vermieden werden kann, denn diese geben an, wie lange es dauert, bis beispielsweise 50% oder 95% der Lieferforderungen bezahlt sind. Zur Weiterentwicklung dieser Analyse mit Hilfe der in der Medizin verwendeten Überlebensanalyse (survival analysis) und der Warteschlangentheorie (queueing theory) ist es dann nur noch ein kleiner Schritt.

Um die Wahrscheinlichkeitsverteilung der Umschlagsdauern korrekt und unverzerrt schätzen zu können, genügt es nicht, auf aggregierte Kontensalden aus der Buchhaltung zuzugreifen. Es ist der Zugriff auf die Anfangs- und Endzeitpunkte der individuellen Zeitintervalle erforderlich. Obwohl diese in den ERP-Systemen wie SAP, Navision und Oracle selbstverständlich erfasst sind, ist ihr Abruf vorerst das Geheimnis einiger weniger Spezialisten und bleibt damit bis auf Weiteres– ein Fall für die Digitalisierung (process mining).

Ernst-Rudolf Töller
ehm. Partner BDO AG Wirtschaftsprüfungsgesellschaft

„Der größte Feind des Wissens ist nicht Unwissenheit, sondern die Illusion, wissend zu sein.“ Stephen Hawking (1942 - 2018)

Die sich beschleunigt entwickelnde Informationstechnik erzeugt nicht nur immer größere und komplexere Datenmengen, sie liefert auch ständig neue Techniken für die Analyse dieser Daten. Wir wollen hier einen kurzen Blick auf beide Themen werfen. Wir können in diesem Rahmen natürlich keine systematische Übersicht über beide Bereiche geben, sondern beschränken uns jeweils auf einige aktuelle Fragen.

Vergleicht man verschiedene Generationen eines Softwaresystems über einen längeren Zeitraum, so stellt man schnell fest, dass die Daten immer umfangreicher und detaillierter werden. Das gilt so sicher auch für ERP-Systeme, die betriebliche Prozesse immer genauer in den Daten protokollieren. Aktuell wird häufig die Frage nach der „Echtheit“ von Daten angesprochen. Wir wollen diesem sehr vielschichtigen Thema in Verbindung mit ERP-Systemen nachgehen und dabei auch auf die digitale Prüfung dieser Systeme eingehen.

Wie gewinnt man zuverlässig Wissen aus Daten? Verfolgt man einzelne Diskussionen über die Rolle der künstlichen Intelligenz, könnte man zu dem Schluss kommen, dass am Ende ausschließlich Rechner beziehungsweise deren Software alleine ausreichen, um zu gesicherten Erkenntnissen aus Daten zu gewinnen. Am Beispiel von Suchmaschinen und deren Arbeitsweise wollen wir diskutieren, wie solche Vorgehensweisen auch bei der digitalen Analyse von Daten aus ERP-Systemen erfolgreich eingesetzt werden können.

Abschließend wollen wir auf den gegenwärtigen Stellenwert der digitalen Analyse von ERP-Daten im Hinblick auf wichtige offene Punkte erläutern. Dabei geht besonders auch um die Frage der Semantik von Daten in solchen Systemen.

Wie genetische Algorithmen neue Lösungswege für komplexe Probleme finden

Dominik Fischer, M.Sc.
Postdoctoral Fellow, Chair of Computational Intelligence, Faculty of Computer Science, Otto von Guericke University Magdeburg

Die Natur diente Forschern schon oft als Vorlage für Errungenschaften, sei es bei Alltagsgegenständen wie dem Klettverschluss oder bei der Entwicklung von Flugzeugen. Künstliche neuronale Netze (KNN) sind ein Beispiel dafür wie unser Nervensystem die Informatik inspiriert hat selbstlernende Entscheidungsmodelle zu entwickeln. Daneben reihen sich auch die genetischen Algorithmen (GA) ein, ein Modell basierend auf der Evolutionstheorie und der Vererbungslehre. Beide Ansätze werden in künstliche Intelligenzen verwendet, doch während sich KNN primär damit beschäftigen Klassifikationen und Regressionen zu modellieren können GA dazu benutzt werden, neue Muster in gegebenen Optimierungsproblemen zu finden.

Ein großer Unterschied zwischen den beiden Konzepten ist, dass KNN in der Regel sehr viele Lerndaten benötigen, was bei GA nicht der Fall ist. Grundsätzlich suchen GA nach einem möglichst optimalen Lösungsweg für Probleme, deren Lösungsansätze bereits bekannt (berechenbar) sind. So können sich GA iterativ einer möglichst optimalen Lösung annähern.

Die Algorithmen werden vor allem dann eingesetzt, wenn es sehr viele Entscheidungsparameter, aber auch Optimierungsziele gibt. Beispielsweise könnte das Ziel einer COVID-19 Eindämmungsmaßnahme nicht nur die Infektionsminimierung, sondern auch die Minimierung des volkswirtschaftlichen Schadens sein. Wenn aktuell der Fokus vieler Ansätze aus der Wirtschaft, welche mit KI-Technologien werben, KNN verwenden, gibt es sicherlich genügend Problemstellungen die gut mit GA zu lösen sind. Beispielsweise, wenn Lerndaten schwer oder gar nicht zu beschaffen sind oder wenn unterschiedliche Lösungsstrategien generiert werden müssen.

Der dargebotene Vortrag bietet einen Einblick in diese Klasse der Algorithmen, deren Potentiale sowie Ansätze für deren Einsatz in der Praxis.