Seit der Gründung von Lokad war unser Ziel, unsere Prognosetechnologie unermüdlich zu verbessern, um überlegene Formen der Supply Chain-Optimierung zu liefern. Vor fast einem Jahrzehnt habe ich bereits darauf hingewiesen, dass es seltsam ist, ein Unternehmen für maschinelles Lernen zu sein: Der Fortschritt ist stetig, aber auch nichtlinear und unregelmäßig. Darüber hinaus sind die meisten Ansätze, die in anderen Bereichen als gesunder Menschenverstand gelten, in Bezug auf maschinelles Lernen schlichtweg fehlgeleitet. Dies bedeutet jedoch nicht, dass dieser Fortschritt dem Zufall überlassen wird: Es gibt eine Methode dahinter.

Die Verbesserung unserer Prognosetechnologie beginnt mit der Verbesserung der Daten. Ohne eine ordnungsgemäße Datenbereitstellung wird der Prozess zu einer Garbage-in-Garbage-out-Übung. Es erfordert viel Zeit und Fachwissen, sicherzustellen, dass Promotions, Bestandsausfälle und Durchlaufzeiten in einem bestimmten Datensatz korrekt dargestellt werden. In der Praxis erfordert die Bewältigung von Datenkomplikationen, die in der Regel domänenspezifisch sind, ein ganzes Team von Supply Chain Scientists bei Lokad, um eine Vielzahl von Datensätzen aus Branchen wie Luft- und Raumfahrt, Mode, Lebensmitteleinzelhandel usw. zusammenzuführen.

Wenn wir dann eine neue statistische Methode erfinden1, stellt sich in der Regel heraus, dass diese Methode auf einem bestimmten Datensatz eine überlegene Leistung zeigt, auf einem anderen Datensatz jedoch eine unterlegene Leistung. Leider ist die neue statistische Methode in solchen Fällen oft fragil: Sie könnte etwas Glück haben oder Opfer eines Überanpassungsproblems sein. Daher ist es zwar verlockend, für einen bestimmten Kunden von Lokad eine Sonderlösung zu erstellen, weil eine statistische Methode für diesen Kunden eine überlegene Anpassung zu haben scheint, aber wir arbeiten nicht auf diese Weise. Unsere zehnjährige Erfahrung hat uns gezeigt, dass diese Ergebnisse sich in der Regel als fragil erweisen und die vermeintlich überlegene Methode möglicherweise nicht lange überlegen bleibt. Wenn das Kundenunternehmen wesentliche Veränderungen durchläuft - die durchaus durch die Handlungen von Lokad verursacht werden können - kann die Leistung der neuen Methode zusammenbrechen.

Daher konzentrieren wir uns stattdessen darauf, statistische Methoden zu entdecken, die überlegene Ergebnisse für eine Vielzahl von Situationen in vielen etwas unzusammenhängenden Branchen liefern und idealerweise überall eine gleichmäßige Verbesserung anstatt eine Mischung aus Verbesserungen und Rückschritten bieten, auch wenn die Mischung stark zugunsten von Verbesserungen ausfällt. Diese Methodik ist anspruchsvoller als einfach nur ein gegebenen Datensatz bis zum Erbrechen zu bearbeiten2, während man endlos dieselben maschinellen Lernalgorithmen recycelt, was die meisten Datenanalyseagenturen heutzutage liefern würden.

Dieser Ansatz zwingt uns dazu, die Grundlagen der statistischen Prognose neu zu überdenken. Zum Beispiel war der Übergang zur Kreuzentropie als überlegenes Maß für die Prognosegenauigkeit entscheidend, um das Beste aus dem Deep Learning herauszuholen. In jüngerer Zeit haben wir uns zu Mischdichtefunktionen weiterentwickelt, einem leistungsstarken, aber unterbewerteten Ansatz3, um komplexe Schwanzverhalten in Supply Chains zu erfassen. Diese Mischdichtefunktionen bieten eine handhabbare Lösung, um die Wahrscheinlichkeit seltener Ereignisse zuverlässig abzuschätzen, was in Branchen wie der Luft- und Raumfahrt entscheidend ist.

Unsere Prognosetechnologie bleibt eine laufende Arbeit. Es gibt viele Herausforderungen, die noch nicht vollständig gelöst sind. Zum Beispiel sind Kannibalisierungen und die Marktreaktion auf Preisänderungen nach wie vor sehr schwierige Herausforderungen. Dennoch geben wir nicht auf und machen auch nach 10 Jahren Forschung und Entwicklung weiterhin Fortschritte.


  1. Wir stehen auf den Schultern von Riesen. Die Forschungs- und Entwicklungsbemühungen von Lokad sind in der Regel Variationen von Erkenntnissen, die aus der breiten maschinellen Lerngemeinschaft gewonnen wurden, die in der Regel nicht an Supply Chain-Problemen arbeitet, sondern an Mainstream-Problemen wie Mustererkennung, Spracherkennung oder natürlicher Sprachverarbeitung. ↩︎

  2. Feature Engineering ist ein Prozess, bei dem manuell eine Darstellung des Datensatzes erstellt wird, die für einen bestimmten maschinellen Lernalgorithmus geeignet ist. Feature Engineering ist eine leistungsstarke Methode, um bekannte Schwächen von maschinellen Lernalgorithmen zu mildern. ↩︎

  3. Das ursprüngliche Paper “Mixture Density Networks” (MDN) von Christopher M. Bishop stammt aus dem Jahr 1994. Doch es dauerte fast zwei Jahrzehnte, bis die Hardware mit den Möglichkeiten dieses wegweisenden Werks Schritt halten konnte. Im Gegensatz zum ursprünglichen Paper, das auf die inverse Kinematik von Robotern angewendet wurde, verwenden wir MDNs, um probabilistische Nachfrageprognosen zu liefern. ↩︎