Verbesserung einer Prognosetechnologie
Seit der Gründung von Lokad ist es unser Ziel, unsere Prognosetechnologie unermüdlich zu verbessern, um überlegene Formen der supply chain Optimierung bereitzustellen. Vor fast einem Jahrzehnt wies ich bereits darauf hin, dass es ungewöhnlich ist, ein Unternehmen für maschinelles Lernen zu sein: Der Fortschritt ist konstant, aber auch nicht-linear und unregelmäßig. Darüber hinaus sind die meisten Ansätze, die in anderen Bereichen als gesunder Menschenverstand gelten, im Bereich des maschinellen Lernens schlichtweg fehlgeleitet. Das bedeutet jedoch nicht, dass dieser Fortschritt dem Zufall überlassen wird: Es folgt eine Methode dahinter.
Die Verbesserung unserer Prognosetechnologie beginnt mit der Optimierung der Daten. Ohne eine ordnungsgemäße Datenvorbereitung entpuppt sich der Prozess als ein Garbage-in-Garbage-out-Ansatz. Es erfordert viel Zeit und Expertise, sicherzustellen, dass Promotionen, Fehlbestände, Lieferzeiten in einem gegebenen Datensatz korrekt dargestellt werden. In der Praxis erfordert es, da Datenprobleme tendenziell branchenspezifisch sind, ein ganzes Team von Supply Chain Scientist bei Lokad, um eine Vielzahl von Datensätzen, die so unterschiedliche Branchen wie Luft- und Raumfahrt, Mode, Lebensmittelhandel usw. repräsentieren, zusammenzuführen.
Wenn wir dann 1 eine neue statistische Methode erfinden, stellt sich in der Regel heraus, dass diese Methode bei einem bestimmten Datensatz überlegene Leistungen zeigt und bei einem anderen Datensatz schlechtere Ergebnisse liefert. Leider erweist sich die neue statistische Methode, wenn dies geschieht, als fragil: Sie könnte etwas Glück gehabt haben oder Opfer eines Overfitting-Problems sein. Daher, auch wenn es verlockend sein mag, für einen bestimmten Kunden von Lokad einen Sonderfall zu entwickeln, weil eine statistische Methode für diesen Kunden scheinbar besser passt, handeln wir nicht so. Unsere zehnjährige Erfahrung hat uns gezeigt, dass solche Ergebnisse stets fragil sind und dass die vermeintlich überlegene Methode nicht lange überläufer bleibt. Wenn das Kundenunternehmen tiefgreifende Veränderungen durchläuft – was durchaus durch Lokads eigenes Handeln verursacht werden könnte – kann die Leistung der neuen Methode auseinanderfallen.
Stattdessen konzentrieren wir uns darauf, statistische Methoden zu entdecken, die in einer Vielzahl von Situationen überlegene Ergebnisse liefern – über viele, einigermaßen unabhängige Branchen hinweg –, idealerweise, indem sie überall eine einheitliche Verbesserung bewirken, anstatt eine Mischung aus Verbesserungen und Verschlechterungen, auch wenn diese Mischung stark zu Verbesserungen neigt. Diese Methodik ist anspruchsvoller, als einen Datensatz einfach bis zum Zerreißen mit Feature-Engineering2 zu bearbeiten und dabei endlos dieselben Algorithmen des maschinellen Lernens zu recyceln, wie es die meisten Data-Crunching-Agenturen heutzutage tun würden.
Dieser Ansatz zwingt uns, die grundlegenden Prinzipien der statistischen Prognose zu überdenken. Zum Beispiel war der Übergang zur Kreuzentropie als überlegene Kennzahl zur Messung der Prognosegenauigkeit ausschlaggebend dafür, das Potenzial des Deep Learning voll auszuschöpfen. Neuerdings haben wir auf Mixture Density Networks aufgerüstet, einen leistungsfähigen, aber wenig genutzten Ansatz3, um komplexe Tail-Verhalten in supply chains einzufangen. Diese Mixture Density Networks bieten eine praktikable Lösung, um zuverlässig die Wahrscheinlichkeit seltener Ereignisse zu schätzen, was in Branchen wie der Luft- und Raumfahrt von entscheidender Bedeutung ist.
Unsere Prognosetechnologie ist weiterhin ein in Arbeit befindliches Projekt. Es gibt viele Herausforderungen, die noch unzureichend gelöst sind. Zum Beispiel bleiben Kannibalisierungen und die Marktreaktion auf Preisänderungen äußerst schwierige Herausforderungen. Dennoch geben wir nicht auf, und selbst nach 10 Jahren Forschung und Entwicklung machen wir weiterhin Fortschritte.
-
Wir stehen auf den Schultern von Giganten. Die F&E-Bemühungen von Lokad sind typischerweise Variationen von Erkenntnissen, die aus der breiten Community des maschinellen Lernens gewonnen wurden, die in der Regel nicht an supply chain Problemen arbeiten, sondern an Mainstream-Problemen wie Mustererkennung, Spracherkennung oder natürlicher Sprachverarbeitung. ↩︎
-
Feature Engineering ist ein Prozess, bei dem manuell eine Darstellung des Datensatzes erstellt wird, die für einen bestimmten Algorithmus des maschinellen Lernens geeignet ist. Feature Engineering ist ein mächtiges Mittel, um bekannte Schwächen von Algorithmen des maschinellen Lernens abzumildern. ↩︎
-
Das ursprüngliche Paper Mixture Density Networks (MDN) von Christopher M. Bishop stammt aus dem Jahr 1994. Dennoch dauerte es fast zwei Jahrzehnte, bis die Hardware die durch diese wegweisende Arbeit eröffneten Möglichkeiten einholen konnte. Im Gegensatz zum ursprünglichen Paper, das auf inverse Kinematik von Robotern angewendet wurde, nutzen wir MDNs, um probabilistische Nachfrageprognosen zu erstellen. ↩︎