00:00:08 Einführung in die Nachfrageprognose und Datenaggregation.
00:00:41 Unterschiedliche Arten von Granularitäten in der Nachfrageprognose.
00:02:00 Herausforderungen verschiedener Datenaggregationsstufen in der Prognose.
00:05:28 Disaggregierte Ebene: SKU pro Tag, und das Wiederaufbauen anderer Aggregationsebenen.
00:08:31 Randfälle und Herausforderungen bei verderblichen Produkten in der Nachfrageprognose.
00:09:42 Die Bedeutung granularer Informationen in der Datenaggregation.
00:11:01 Das Wiederherstellen der gewünschten Aggregationsebene aus den feinsten Daten.
00:13:01 Einschränkungen von Zeitreihen-Techniken bei sehr disaggregierten Daten.
00:15:01 Zeitreihen-Techniken und die Annahme, dass die Zukunft weitgehend ähnlich bleibt.
00:17:00 Die verführerische und irreführende Natur von Zeitreihenmodellen.
00:19:03 Diskussion der Nachteile von Aggregation in der Prognose.
00:20:00 Erkundung der Bedeutung von Granularität bei der Entscheidungsfindung.
00:21:38 Untersuchung relevanter Horizonte und deren Einfluss auf supply chain Entscheidungen.
00:23:48 Argumentation gegen willkürliche Aggregation und deren potenziellen Einfluss auf die Effizienz der supply chain.
00:26:35 Vorschlag, sich auf entscheidungsgetriebene Granularität zu konzentrieren und vorzeitige Optimierung zu vermeiden.

Zusammenfassung

Joannes Vermorel, Gründer von Lokad, diskutiert in einem Interview mit Nicole Zint die Bedeutung der Auswahl der richtigen Ebene der Datenaggregation für die Nachfrageprognose. Zwei Dimensionen werden betrachtet: die zeitliche und die strukturelle, einschließlich der Zeitintervalle, die zur Aggregation der Daten verwendet werden, und der Organisation der supply chain. Vermorel stellt fest, dass die tägliche Ebene und die SKU-Ebene für die meisten supply chain Netzwerke am besten geeignet sind, jedoch können Randfälle eine feinere Granularität erfordern. Vermorel warnt vor den Einschränkungen von Zeitreihen-Modellen in der supply chain Prognose und fordert eine breitere Perspektive, die Faktoren wie Verderblichkeit, Kannibalisierung, Substitution und variable Durchlaufzeiten berücksichtigt. Er betont die Bedeutung entscheidungsgetriebener Granularität und die Erweiterung der Prognosehorizonte über die Durchlaufzeiten hinaus.

Erweiterte Zusammenfassung

In diesem Interview diskutiert Moderatorin Nicole Zint die Nachfrageprognose und die richtige Ebene der Datenaggregation mit Joannes Vermorel, dem Gründer von Lokad, einem Softwareunternehmen, das sich auf supply chain optimization spezialisiert hat. Sie untersuchen die verschiedenen Arten von Granularitäten in der Nachfrageprognose und deren Einfluss auf Prognosemethoden.

Vermorel erklärt, dass es bei der Wahl der Granularität für die Nachfrageprognose zwei wesentliche Dimensionen zu berücksichtigen gibt: die zeitliche und die strukturelle Dimension. Die zeitliche Dimension bezieht sich auf die Zeitintervalle, die zur Aggregation der Daten verwendet werden, wie stündlich, täglich, wöchentlich, monatlich oder jährlich. Die strukturelle Dimension betrifft die Organisation der supply chain, einschließlich der Produktkategorien und Standorte. Dies kann bedeuten, dass Daten nach SKU (Stock Keeping Unit), Produktreferenz, Produktfamilie, Produktsuperfamilie oder Kategorie aggregiert werden, und anschließend nach Standort, Region oder Land zusammengefasst werden.

Bei der Diskussion über die Arten von Prognosen, die mit diesen Granularitäten verbunden sind, erwähnt Vermorel, dass das Konzept der Business Intelligence, oder Hyperwürfel, das in den 90er Jahren populär wurde, relevant ist. Die historischen Daten können als Vektoren dargestellt werden, wobei jede Granularitätsebene einen einzigartigen Vektor bildet. Wenn eine Zeitdimension hinzugefügt wird, können diese Vektoren als Zeitreihendaten interpretiert werden, die dann für Prognosen genutzt werden können.

Dieser Ansatz befasst sich in erster Linie mit Zeitreihenprognosen, die in der Branche die gängige Praxis darstellen. Vermorel weist darauf hin, dass aufgrund der Vielzahl möglicher Aggregationsebenen mehrere Prognosen aus denselben Daten generiert werden können.

Das Interview berührt auch den technischen Begriff “equispaced” in Bezug auf Zeitreihen. Equispaced Zeitreihen haben regelmäßige, einheitliche Intervalle zwischen den Datenpunkten. Vermorel räumt ein, dass die meisten Menschen in der supply chain Branche möglicherweise nie daran gedacht haben, mit nicht-equispaced Zeitreihen zu arbeiten, da equispaced Zeitreihen üblicher sind. Er weist jedoch darauf hin, dass einige Intervalle, wie beispielsweise Monate, im physikalischen Sinne nicht exakt regelmäßig sind, da Monate unterschiedliche Längen haben.

Dieses Interviewsegment konzentriert sich auf die Bedeutung der Auswahl der entsprechenden Granularität für die Nachfrageprognose. Es gibt zwei Hauptdimensionen zu berücksichtigen: die zeitliche und die strukturelle. Auf Basis der gewählten Granularität können verschiedene Prognosearten aus denselben Daten erstellt werden, wobei Zeitreihenprognosen in der Branche am häufigsten vorkommen. Zusätzlich wird das Konzept der equispaced Zeitreihen diskutiert, was die potenziellen Schwierigkeiten im Umgang mit variierenden Zeitintervallen hervorhebt.

Vermorel spricht über Prognosezeiträume, entscheidungsgetriebene Granularität und die Bedeutung, das Denken in der supply chain Verwaltung nicht einzuengen.

Sie diskutieren die Herausforderungen der Datenaggregationsebenen in der supply chain Optimierung. Vermorel erklärt, dass die Wahl der Aggregationsebene von der Empfindlichkeit der Branche abhängt, da manche Branchen eine stärkere Disaggregation erfordern. Er hebt auch hervor, dass die tägliche Ebene und die SKU-Ebene für die meisten supply chain Netzwerke die sinnvollsten Disaggregationsstufen darstellen. Allerdings merkt er an, dass Randfälle, wie beispielsweise verderbliche Produkte, eine feinere Granularität erfordern könnten. Vermorel betont, dass jede willkürliche Entscheidung bezüglich der Datenaggregation Vor- und Nachteile mit sich bringt und es entscheidend ist, die Herkunft dieser Entscheidungen zu verstehen. Auf die Frage, ob eine feinere Datenebene aus der granularsten Ebene rekonstruiert werden könnte, erklärt Vermorel, dass bei jeder Aggregation von Daten Informationen verloren gehen. Je granularer die Daten, desto genauer wird die Prognose. Allerdings sind die granularsten Daten nicht einmal aggregierte Daten, sondern die rohen Transaktionsdaten. Er erklärt, dass der Grund, warum man bei SKU pro Tag aufhört, darin liegt, dass es die letzte Ebene ist, auf der man noch mit Zeitreihen arbeiten kann. Wenn man darüber hinausgeht, müsste man die Zeitreihenperspektive aufgeben, da die Daten nicht als Zeitreihe strukturiert sind.

Sie diskutierten auch die Einschränkungen von Zeitreihenmodellen in der supply chain Prognose mit der Moderatorin Nicole Zint. Vermorel merkt an, dass, obwohl die supply chain Branche typischerweise mit einem Zeitreihen-Mentalmodell arbeitet, Zeitreihen-Techniken bei spärlichen, unregelmäßigen und intermittierenden Daten tendenziell schlecht abschneiden. Er argumentiert, dass es eine grundlegende Asymmetrie zwischen der Vergangenheit und der Zukunft gibt und dass die Annahme, die Zukunft sei exakt wie die Vergangenheit, fehlgeleitet ist. Vermorel stellt außerdem die Praxis der Datenaggregation in Frage, da diese seiner Meinung nach zum Verlust von Daten und zu fehlangepassten Kennzahlen führt, und schlägt vor, dass der einzige relevante Horizont für Entscheidungsfindung derjenige ist, der für die jeweilige Entscheidung von Bedeutung ist.

Vermorel beginnt damit zu erklären, dass die Prognosezeiträume über die Lieferzeiten hinausgehen sollten, da sie nicht immer gut in die traditionelle Zeitreihenperspektive passen. Er argumentiert, dass der Entscheidungshorizont nicht nur den Zeitraum zwischen jetzt und dem Eintreffen eines Produkts berücksichtigen sollte, sondern auch die Zeit, die benötigt wird, um die eingegangenen Waren zu verkaufen. Der anwendbare Horizont hängt von Faktoren wie der erwarteten Geschwindigkeit der Lagerentleerung und der Variabilität der Nachfrage ab. Auch wenn es keine klare Grenze dafür gibt, wie weit in die Zukunft man blicken sollte, räumt Vermorel ein, dass Prognosen mit zunehmender Vorhersageweite ungenauer werden. Letztendlich besteht der Trade-off darin, die Kosten der Rechenressourcen mit den potenziellen Verbesserungen für die supply chain abzuwägen.

Beim Thema Granularität betont Vermorel, dass diese von den Entscheidungen, die ein Unternehmen treffen möchte, getrieben sein sollte. Er rät davon ab, den Bedarf an Visualisierung mit anderen prädiktiven und optimierenden Anforderungen zu vermischen, da Granularität willkürlich sein kann und zu Datenverlust führen kann. Stattdessen empfiehlt er, sich auf Entscheidungen zu konzentrieren, die greifbare, finanzielle Auswirkungen auf die supply chain haben, wie z. B. Nachbestellungen oder Preisänderungen.

Vermorel warnt davor, sich zu sehr auf Aggregationsebenen zu fixieren, die er als einen hoch technischen Aspekt des Problems betrachtet. Moderne Computersysteme verfügen über mehr als genug Kapazität, um verschiedene Granularitätsstufen zu verarbeiten, und es ist nicht notwendig, willkürliche Einschränkungen im Denken zu verankern. Früher war das Aggregieren von Daten zur Visualisierung eine Herausforderung, aber moderne Systeme können dies problemlos bewältigen, selbst bis hin zur Granularität auf Millisekundenebene.

Der Interviewpartner warnt auch davor, sich ausschließlich auf traditionelle Data-Cube-Ansätze für die supply chain Optimierung zu verlassen. Er behauptet, dass dies unnötige Einschränkungen mit sich bringen und den Rahmen potenzieller Lösungen begrenzen kann. Faktoren wie Verderblichkeit, Kannibalisierung, Substitution und variable Lieferzeiten sollten für eine umfassendere Sicht auf die supply chain berücksichtigt werden. Vermorel fordert eine breitere Perspektive und das Vermeiden willkürlicher Einschränkungen, die die Problemlösung im supply chain Management behindern können.

Zusammenfassend plädiert Joannes Vermorel dafür, bei der Optimierung von supply chains eine breitere Palette von Faktoren zu berücksichtigen, die Prognosezeiträume über die Lieferzeiten hinaus zu erweitern und eine entscheidungsgetriebene Granularität zu übernehmen. Er betont die Bedeutung, das Denken nicht einzuschränken, und moderne Computersysteme zu nutzen, um komplexe supply chain Probleme effektiv anzugehen.

Vollständiges Transkript

Nicole Zint: Wenn es um die Nachfrageprognose geht, gibt es eine unglaubliche Vielfalt an unterschiedlichen Methoden und Ebenen der Datenaggregation, die sowohl zwischen Unternehmen als auch innerhalb eines Unternehmens gewählt werden. Einige prognostizieren täglich, andere wöchentlich, monatlich oder jährlich. Einige prognostizieren auf SKU-Ebene, andere auf Kategorienebene. Dies wirft die Frage auf: Was ist die richtige Ebene der Datenaggregation? Das ist das Thema der heutigen Folge. Bevor wir uns der Antwort auf diese Frage widmen, Joannes, welche unterschiedlichen Granularitätsstufen gibt es in der Nachfrageprognose zur Auswahl?

Joannes Vermorel: Bei der Nachfrageprognose gibt es im Wesentlichen zwei Hauptdimensionen des Problems. Die erste ist die zeitliche, die sich darauf bezieht, ob man Transaktionsdaten stündlich, täglich, wöchentlich, monatlich oder jährlich aggregiert. Die andere Dimension ist typischerweise die Produkt- bzw. supply chain Topologie, sodass man sich entscheiden könnte, nach SKU, Produktreferenz, Produktfamilie, Produktsuperfamilie, Kategorie usw. zu aggregieren. Ebenso gibt es Standorte, bei denen man pro Standort, pro Region oder pro Land aggregieren möchte. Die beiden Hauptdimensionen sind Zeit und die Struktur Ihres Katalogs/supply chain Netzwerks, was eine Matrix an Möglichkeiten bei der Wahl der Granularität schafft.

Nicole Zint: Wenn wir über diese Granularitäten sprechen, um welche Art von Prognosen geht es? Gibt es einen spezifischen Prognosetyp?

Joannes Vermorel: Es handelt sich dabei konzeptionell um ein Modell, das in den 90er Jahren unter dem Namen Business Intelligence oder Hyperwürfel populär wurde. Dabei werden die historischen Daten als Vektoren dargestellt. Man wählt eine Granularitätsebene, sagen wir pro SKU pro Woche, und für jede einzelne SKU auf Wochenebene hat man einen Vektor von Werten, der, da eine Zeitdimension vorhanden ist, als Zeitreihe interpretiert werden kann. Anschließend kann man diese Zeitreihe in die Zukunft prognostizieren. Aufgrund der vielen möglichen Aggregationsebenen können auf denselben Daten zahlreiche Prognosen erstellt werden. Wenn wir also über dieses Problem sprechen, reden wir in der Branche im Wesentlichen von Zeitreihenprognosen.

Nicole Zint: Was ist mit dem Zeitablauf in den Zeitreihen? Sind sie alle gleichmäßig verteilt, oder gibt es einen anderen Ansatz?

Joannes Vermorel: Equispaced ist ein sehr technischer Begriff, mit dem die meisten Menschen in der supply chain Branche wahrscheinlich nie gearbeitet haben. Equispaced bezieht sich auf die technische Tatsache, dass Ihre Zeitreihe in vollständig regelmäßige Intervalle unterteilt ist. Allerdings sollte man bedenken, dass dies ein gewisser Abstraktionsgrad ist, denn beispielsweise sind Monate im physikalischen Sinne nicht exakt regelmäßig. Physiker würden sagen, dass manche Monate länger sind als andere, sodass sie nur gemäß unserem Kalender regelmäßig sind.

Nicole Zint: Eine weitere Frage in Bezug auf einen Monat: Wir haben unterschiedliche Anzahl von beispielsweise Freitagen oder Wochenenden in einem Monat, und wenn wir an Freitagen Verkaufsspitzen beobachten, wird das dann nicht gestört?

Joannes Vermorel: Hier stoßen wir auf die Art von Frage: Welche Aggregationsebene wähle ich? Es können viele Bedenken auftreten. Offensichtlich gibt es einige Aggregationsebenen, die bestimmte Effekte haben. Betrachtet man die stündliche Ebene, könnte diese für die meisten Branchen unglaublich disaggregiert sein und nachts möglicherweise nicht einmal sinnvoll, da es beispielsweise im Einzelhandel viele Bereiche gibt, in denen nachts nichts passiert. Daher ist es womöglich nicht sinnvoll.

Dann, in der Tat, wenn man die monatliche Aggregation wählt, ist das immer knifflig, da manche Monate fünf Vorkommen eines bestimmten Wochentages haben, während andere entweder vier oder fünf haben können. Das ist ein heikler Aspekt, der tatsächlich eine Art Verzerrung in der Betrachtung dieses Datensatzes und potenziell in der Art und Weise, wie Sie Ihre Prognose erstellen, einführen wird. Aber das gilt auch für andere Dimensionen, wie zum Beispiel, ob Sie pro SKU, pro Produkt oder pro Kategorie betrachten – all das bringt eigene Herausforderungen mit sich.

Nicole Zint: Wenn es um diese verschiedenen Ebenen der Datenaggregation geht, können wir nicht technisch gesehen einfach beispielsweise SKU pro Tag wählen, was die am stärksten disaggregierte Ebene darstellt, und daraus im Wesentlichen jede andere Aggregationsebene rekonstruieren?

Joannes Vermorel: Zunächst, ja, es gibt die Versuchung, extrem aufgeschlüsselte Ebenen zu wählen. In supply chain ist die sinnvollste Auflösung der Zeit pro Tag. Allerdings ist dies eine ziemlich willkürliche Entscheidung. Wir hätten uns auch dafür entscheiden können, es nach der Minute zu tun, und zum Beispiel, wenn Sie ein Callcenter betreiben und sich Ihre Anrufankunftsrate anschauen möchten, haben Sie eine viel detailliertere Beobachtungsebene für die eingehenden Anrufe. Es geht hier also wirklich darum, welche Dinge für die gängige Situation in supply chain sinnvoll sind.

Nun, wenn wir ein wenig in der Zeit zurückgehen, müssen wir verstehen, woher wir kommen. Schauen wir uns einen typischen Laden mit 10.000 SKUs in einem typischen Einzelhandelsnetzwerk mit 100 Filialen an. Es ist also nicht einmal ein sehr großes Einzelhandelsnetzwerk. Wir sprechen von 10.000 mal 100, was 1 Million SKUs entspricht, und dazu täglichen Daten. Wenn wir also drei Jahre an Historie haben wollen, sprechen wir von tausend Tagen. Wir sprechen also von einer Milliarde Datenpunkten. Um die täglich aggregierten Daten auf SKU-Ebene in einem bescheidenen Einzelhandelsnetzwerk darzustellen, sprechen wir bereits von etwas, das eine Milliarde Datenpunkte umfasst.

In einem Computer entspräche das bereits vier Gigabyte Speicher. Wenn man ein wenig in der Zeit zurückgeht, sieht man, dass eine solche Speicherkapazität vor den 90er Jahren nicht einmal zugänglich war. Übrigens entstand der Begriff “business intelligence” als eine Klasse von enterprise software-Werkzeugen in den 90ern, genau zu der Zeit, als Computer mit Gigabyte-Größen auf den Markt kamen. Beide Entwicklungen gingen Hand in Hand. Man brauchte Computer, die in der Lage waren, solch große Datenmengen darzustellen.

Nicole Zint: Also, diese großen Cubes waren eigentlich Software, die für In-Memory Computing entwickelt wurde, was nur eine großartige Art und Weise war, auszudrücken: Nutzen wir diesen neu entdeckten Direktzugriffsspeicher. Und darauf basierend wird das zum Standard, obwohl wir nicht vergessen sollten, dass es ziemlich willkürlich war. Wenn man sagt, dass dies die kleinste Ebene ist, die für supply chain sinnvoll ist, – ist diese tägliche Aggregation und die SKU-Ebene genau?

Joannes Vermorel: Ja, aber es gibt viele Sonderfälle. Zum Beispiel, wenn Sie ein verderbliches Produkt haben, stellt sich die Frage, ob die Aggregation pro Tag pro SKU ausreicht, um ein genaues Bild Ihres Lagerbestands zu erhalten. Bei einem verderblichen Produkt lautet die Antwort nein. Möglicherweise haben Sie 10 Einheiten auf Lager, aber wenn 9 der 10 Einheiten morgen ablaufen, dann haben Sie tatsächlich de facto einen Bestand von einer Einheit plus neun, die kurz vor dem Verschwinden stehen. In diesem Fall ist der Lagerbestand nicht fein genug granular, und die SKU-Ebene ist nicht ausreichend detailliert. Was Sie bevorzugen würden, wäre ein Lagerbestand mit mindestens einer Woche Haltbarkeit und vielleicht ein Lagerbestand mit mindestens einem Monat Haltbarkeit. Dadurch würden Sie eine weitere Dimension einführen, die Ihnen ein besseres Verständnis vermittelt.

Nicole Zint: Und was ist mit der Zeit? Ist die tägliche Ebene ausreichend oder sollten wir eine feinere Auflösung in Betracht ziehen?

Joannes Vermorel: Die tägliche Ebene mag ausreichend sein, außer in Fällen, in denen es beispielsweise Filialen gibt, die nur am Wochenende oder nur morgens geöffnet sind. Wenn Sie nicht wissen, dass eine Filiale nur halbtags geöffnet ist, fehlt Ihnen die Information. Vielleicht wäre es daher wertvoller, eine feinere Ebene zu wählen, etwa morgens und abends. Jede einzelne willkürliche Entscheidung bezüglich des Aggregationsniveaus hat Vor- und Nachteile. Meine Botschaft hier ist, dass es ziemlich willkürlich ist und es keine universelle Wahrheit gibt, aber es ist sehr interessant zu verstehen, woher diese Entscheidungen kommen.

Nicole Zint: Nehmen wir an, wir finden die feinste Ebene, die innerhalb unserer preislichen Vertretbarkeit liegt. Wenn wir Zugang zur feinsten Ebene haben, aber trotzdem beispielsweise eine wöchentliche Prognose erstellen möchten, können wir dann einfach aus der feinsten Ebene die gewünschte Ebene rekonstruieren?

Joannes Vermorel: Absolut. Wenn wir zur rohen Transaktionshistorie zurückgehen, verlieren Sie bei jeder Aggregation Informationen. Egal, welche Art der Aggregation Sie durchführen, Sie können immer eine höhere Ebene aus den feinsten Daten rekonstruieren.

Nicole Zint: Eigentlich ist dies ein verlustbehafteter Prozess, bei dem Informationen verloren gehen. Somit haben Sie weniger Informationen, und es wäre logisch, dass die accuracy sinkt, nicht wahr? Je höher die Aggregation, desto weniger genau wird es?

Joannes Vermorel: Ja, aber genau das war der Grund, warum wir diese Art der Aggregation einrichten wollten. Ich würde sagen, es ist cube-driven, weil wir Software haben, die relativ schnell arbeitet. Die Idee ist, dass man mit einem Hypercube Operationen wie Slice and Dice sehr effizient durchführen kann. Dies ist ein sehr technischer Grund. Daher ist der Übergang von täglich zu wöchentlich eine sehr effiziente Operation, die man am Cube durchführen kann.

Tatsächlich verlieren wir in Bezug auf reine Informationstheorie bei jeder Aggregation Informationen. Theoretisch, wenn wir etwas haben wollen, das eine präzisere Aussage über die Zukunft erlaubt, sollten wir mit den am stärksten disaggregierten Daten arbeiten. Allerdings würden viele denken, dass die am stärksten disaggregierten Daten die Daten pro SKU pro Tag sind, und ich möchte sagen: Moment, die am stärksten disaggregierten Daten sind überhaupt keine aggregierten Daten. Das wären die rohen Transaktionsdaten.

Der Grund, warum die Leute bei pro SKU pro Tag aufhören, liegt im Wesentlichen darin, dass dies die letzte Ebene ist, auf der man noch mit Zeitreihen arbeitet. Wenn Sie darüber hinausgehen und sich mit der rohen Transaktionshistorie beschäftigen wollen, müssen Sie im Grunde auf die Zeitreihenperspektive verzichten. Warum? Weil die Daten nicht als Zeitreihe strukturiert sind. Es handelt sich buchstäblich um relationale Daten – Sie haben Tabellen in Ihrer Datenbank. Sie sind nicht mehr als Zeitreihe strukturiert, ganz sicher nicht wie eine gleichmäßig verteilte Zeitreihe.

Zeitreihen entstehen nur, wenn Sie im Wesentlichen Vektoren konstruieren, in denen Sie sagen, dass pro Periode (die Periode kann ein Tag, eine Woche oder ein Monat sein) eine Menge vorhanden ist, und dann haben Sie einen Vektor von Mengen. Dies möchten Sie mit einem Zeitreihenmodell erweitern. Wenn Sie nur mit einer Tabelle arbeiten, die, sagen wir, 100 Spalten hat, handelt es sich nicht um eine Zeitreihe; es ist einfach eine relationale Tabelle in einer Datenbank. Das ist sehr üblich, aber keine Zeitreihe. Es ist die gewählte Prognosemethode selbst, die nun ein weiterer begrenzender Faktor ist.

Die Frage ist, warum es so ansprechend ist. Die Antwort lautet, dass die meisten Branchen in supply chain mit einem Zeitreihen-Denkmodell arbeiten. Offensichtlich, wenn Sie beschlossen haben, dass alles in das Zeitreihenmodell passen muss, dann ist der Hypercube ein sehr attraktiver Faktor, weil alles, was Sie betrachten – solange eine der Dimensionen die Zeit ist – immer auf die eine oder andere Weise Zeitreihen auf verschiedenen Aggregationsebenen sind.

Doch hier liegt das Kernproblem. Obwohl die Informationstheorie uns in der Theorie sagen würde, dass je mehr wir disaggregieren, desto mehr Informationen wir haben und somit theoretisch mehr über die Zukunft wissen können, ist die Realität, dass Zeitreihentechniken – die meisten von ihnen, nicht alle – bei sehr spärlichen, unregelmäßigen, intermittierenden Daten sehr schlecht abschneiden. Das Problem ist, dass Zeitreihentechniken bei sehr disaggregierten Daten weniger effektiv sind.

Nicole Zint: Aus der Sicht Ihrer Zeitreihentechnik, nicht aus der realen Perspektive – die reale Perspektive ist, dass Sie mehr Daten haben – aber aus der Sicht Ihrer Zeitreihentechnik haben Sie einen Vektor, der immer spärlicher wird, also mehr Nullen enthält. Und bei Zeitreihen geht es um mehr von dasselbe, richtig? Also nehmen wir an, dass die Zukunft symmetrisch zur Vergangenheit ist. Kommt es daher?

Joannes Vermorel: Ja, aber das gilt für alle datengesteuerten Methoden. Alle datengesteuerten Ansätze beruhen im Grunde genommen, auf die eine oder andere Weise, darauf, dass die Zukunft mehr von demselben sein wird. Wie Sie sehen, ist es letztlich egal – Sie können sagen, es ist machine learning, KI, Zeitreihen, was auch immer – es ist immer dieselbe Idee. Alle unsere statistischen Methoden basieren auf der Annahme, dass die Zukunft im Vergleich zur Vergangenheit mehr von demselben sein wird.

Nicole Zint: Aber sicherlich verliert man, wenn man granularer vorgeht, möglicherweise saisonale Muster und dergleichen, oder?

Joannes Vermorel: Nein, das Merkmal der Zeitreihen ist sehr technischer Natur. Es ist die Tatsache, dass das Zeitreihenmodell Ihnen ein höchst symmetrisches Modell liefert, in dem die Zukunft, was die Datenstruktur betrifft, genau so aussieht wie die Vergangenheit. Das ist etwas, das sehr spezifisch für Zeitreihen ist. Wenn Sie von mehr demselben sprechen, ja, aber ich mache eine Aussage über die Zukunft. Diese Aussage muss nicht exakt dieselbe Form, Struktur und Format haben wie meine historischen Aufzeichnungen. Es könnte sein, muss aber nicht.

Bei Zeitreihen ist es unglaublich verführerisch, aber ich glaube, dass es die Menschen auch sehr in die Irre führt. Es ist unglaublich verlockend, weil im Grunde genommen die Zukunft und die Vergangenheit exakt symmetrisch sind. Und wenn ich von exakt symmetrisch spreche, stellen Sie sich einfach Ihren Hypercube oder Cube vor. Sie haben eine Dimension für die SKUs, eine Dimension für den Tag, eine Dimension für etwas anderes, und im Wesentlichen besteht die Zukunft darin, dass Sie Ihre Tagesdimension nehmen und diese um, sagen wir, 100 weitere Zellen erweitern.

Und dann, voilà, haben Sie die Zukunft, und dann würde man sagen, die Prognose füllt die Lücken aus. Man könnte also buchstäblich behaupten, dass es sich um dieselben Daten handelt; es gibt Daten, die ich beobachtet habe, und dann Daten, in denen ich die Lücken mit meinem Zeitreihen-Prognosemodell fülle. Dennoch gibt es eine sehr radikale und grundlegende Asymmetrie zwischen Vergangenheit und Zukunft.

Wenn Sie sich dieser klassischen Zeitreihen‑Durchschnittsprognose nähern, tun Sie etwas, das vorgibt, dass die Zukunft in ihrer Natur exakt der Vergangenheit entspricht – nicht nur darin, dass es noch nicht geschehen ist. Es handelt sich buchstäblich um das Datenformat, darum, wie man darüber nachdenkt, und Sie sagen, dass es vollkommen gleich ist. Und mein Vorschlag, der eher eine philosophische Aussage als eine wissenschaftliche ist, lautet: Nein, das ist es nicht, es ist sehr unterschiedlich.

Nicole Zint: Ich sehe immer noch viele Ausschreibungen, in denen Anbieter gefragt werden, ob sie uns all diese Ebenen auf einmal liefern können. Unterschiedliche Aggregationsebenen – warum?

Joannes Vermorel: Wieder einmal ist es eine Standardfrage. Die Leute bestehen darauf, weil es das ist, was sie gewohnt sind, aber es ist wichtig zu erkennen, dass unterschiedliche Aggregationsebenen zu sehr unterschiedlichen Ergebnissen und Erkenntnissen führen können.

Nicole Zint: Der Trugschluss hier ist, dass man mit diesem Zeitreihenmodell beginnt, und dieses Zeitreihenmodell hat sein Pendant in der Softwarebranche mit business intelligence, wo im Grunde alles ein Cube oder eine geschnittene bzw. gewürfelte Version eines Cubes ist. Nun stellen die Leute fest, dass sie Informationen verlieren, wenn sie aggregieren, aber irgendwie sind sie sich nicht wirklich sicher, warum. Die Kennzahl sagt ihnen, dass ihre sehr disaggregierte Prognose kompletter Müll ist. Die Realität könnte aber sein, dass sie einfach nicht die richtige Methode verwenden, weshalb sie tatsächlich sehr schlecht ist.

Joannes Vermorel: Also sagen sie: “Okay, unsere Prognose ist super schlecht.” Ich sage: “Nun, wir brauchen die Möglichkeit, zu einer höheren Aggregationsebene zu wechseln. Es wird vielleicht pro Woche oder pro Produkt sein, statt pro SKU.” Aber sie wissen nicht, welche sie wählen wollen. Wenn sie einen Anbieter fragen, möchten sie ihre Optionen offenhalten, und sie enden mit halb lächerlichen Ausschreibungen, in denen sie über hundert Fragen haben und alle Aggregationsebenen verlangen.

Einfach, weil aus ihrer Perspektive die Option offen bleibt, auf welcher Ebene sie das Zeitreihen-Prognosemodell anwenden möchten. Aber hier hinterfrage ich wirklich die Tatsache, warum man überhaupt seine Daten aggregieren sollte und warum die Prognosemethode erst damit beginnen sollte, Daten zu verwerfen, noch bevor sie überhaupt zu arbeiten beginnt. Sie verlieren Daten, was ein Problem darstellt, und weitere Aggregation führt nur dazu, dass Sie noch mehr Daten verlieren.

Und wenn Sie dann sagen: “Aber Moment, wir können nicht auf einem super disaggregierten Niveau arbeiten, weil unsere Kennzahl, nämlich der prozentuale Fehler, uns sagt, dass er sehr schlecht ist.” Sagen wir: “Ja, aber Sie optimieren nicht den prozentualen Fehler; Sie wollen den Fehler in Dollar optimieren. Aber Sie betrachten die Kennzahl in Prozent, was sozusagen nicht mit den Dollar übereinstimmt.”

Nicole Zint: Ja, genau. Denn wenn man diesem Trugschluss folgt, geht man von täglich auf wöchentlich, erhält bessere Genauigkeit; dann von wöchentlich auf monatlich, wieder bessere Genauigkeit; und dann von wöchentlich auf jährlich. Und dann sagen die Leute: “Oh, Moment, eine Jahresprognose – was soll ich mit der Jahresprognose anfangen? Wenn Sie wöchentliche Entscheidungen treffen, wie soll Ihnen eine monatliche Prognose helfen?”

Joannes Vermorel: Das ist das Problem. Die Realität ist, dass der einzige relevante Horizont derjenige ist, der für Ihre Entscheidung relevant ist. Aber schauen wir uns eine sehr einfache Entscheidung an, wie beispielsweise die Lagerauffüllung. Geben Sie uns ein Beispiel dafür, was der relevante Horizont ist. Die Antwort ist sehr knifflig. Zunächst einmal haben Sie die Lieferzeiten, aber die Lieferzeit ist nicht garantiert. Nehmen wir an, Sie haben einen ausländischen Lieferanten, dann können Ihre Lieferzeiten – sie sind nicht konstant, sie variieren. Ihre Lieferzeit könnte also so etwas wie 10 Wochen betragen, jedoch eventuell mit sehr großen Schwankungen.

Einige dieser Schwankungen sind übrigens saisonal, ähnlich wie das chinesische Neujahr. Fabriken in China schließen, sodass Sie vier zusätzliche Wochen an Lieferzeiten erhalten. Wenn wir also nur die Lieferzeiten betrachten, ist Ihr Horizont etwas, das sehr variiert und eine eigene Prognose erfordern würde. Übrigens ist eines der Probleme mit diesen Zeitreihenmodellen, dass wir immer etwas betrachten, das im Wesentlichen der Umsatz ist. All die anderen Dinge, die Sie prognostizieren müssen, wie Ihre Lieferzeiten, bleiben konstant. Es ist noch schlimmer als das; sie existieren gar nicht, wissen Sie.

Nicole Zint: Also, der Cube repräsentiert nicht einmal die entsprechende Logik; er ist irgendwie willkürlich gewählt. Ihr Horizont wären Ihre Lieferzeiten, aber Ihre Lieferzeiten würden eine Prognose-Rotzone verdienen, die überhaupt nicht zu dieser Zeitreihenperspektive und Cube-Software passt. Aber sollte Ihr Horizont zur Beurteilung der Gültigkeit Ihrer Entscheidung nur bei der Lieferzeit enden?

Joannes Vermorel: Nein, denn offensichtlich, wenn Sie sich entscheiden, jetzt einen Nachbestellauftrag zu platzieren, wollen Sie die Nachfrage erfüllen, die zwischen jetzt und dem Ankunftsdatum Ihres Produkts auftreten wird. Aber dann müssen Sie das verkaufen, was Sie gerade erhalten haben. Um die Relevanz des Einkaufsauftrags einzuschätzen, müssen Sie betrachten, was danach passiert. Und wie weit in die Zukunft sollten Sie blicken? Nun, das kommt darauf an. Wenn die Bestellung, die Sie aufgeben, einen Nachfrageanstieg verzeichnet, dann könnten Sie tatsächlich die Waren erhalten und alles innerhalb von zwei Tagen verkaufen. Aber was, wenn es das Gegenteil ist und dann ein Nachfragerückgang eintritt? Sie könnten den Bestand ein ganzes Jahr lang halten, selbstverständlich nicht, wenn es verderblich ist, aber ich vereinfache nur.

Also, der anzuwendende Horizont hängt unglaublich davon ab, wie man in die Zukunft blickt, und er ist eine eigene Prognose, denn es ist eine Prognose, bei der Sie die Vorlaufzeiten vorhersagen müssen. Und dann hängt der Horizont, den wir berücksichtigen müssen, selbst wenn wir nur die Nachfrage betrachten, davon ab, wie schnell Sie erwarten, Ihren Bestand tatsächlich zu liquidieren. Letztlich gibt es also keine klare Grenze hinsichtlich des anzuwendenden Horizonts für Ihre Prognose. Das einzige Problem besteht darin, dass je weiter wir in die Zukunft blicken, desto unklarer wird die Prognose.

Allerdings ist dies eine technische Feinheit, und irgendwann gibt es einen Kompromiss hinsichtlich der Kosten der CPU versus einer potenziellen marginalen Verbesserung für Ihre supply chain. Aber sehen Sie, aus konzeptioneller Sicht gibt es keine Grenze, wie weit Sie in die Zukunft blicken möchten.

Nicole Zint: Also, abschließend, sollte das Granularitätsniveau immer dem Niveau der Entscheidungen entsprechen, die Sie treffen möchten?

Joannes Vermorel: Ja, ich würde sagen, Ihre Granularität wird sehr stark entscheidungsgetrieben sein. Aber bedenken Sie, dass der Zwang zur Aggregation eine Hypothese bezüglich der Methode aufstellt, die Sie anwenden möchten. Mein Vorschlag wäre, den Fokus auf die konkrete Entscheidung zu richten, die Sie treffen. Entscheidungen sind die Dinge, die einen greifbaren Einfluss auf Ihre supply chain haben, wie zum Beispiel Ihre Nachbestellungen, das Anpassen Ihrer Preise nach oben oder unten und andere Maßnahmen, die einen echten finanziellen, greifbaren Einfluss auf die supply chain haben. Aber dann würde ich sagen: Hüten Sie sich vor dem Begriff der Granularität. Dieser ist sehr konstruiert, sehr willkürlich, und verwechseln Sie nicht Ihr Bedürfnis nach Visualisierung – was völlig in Ordnung ist, denn Sie möchten visualisieren können – mit der Granularität, die für die Entscheidungsfindung erforderlich ist.

Nicole Zint: Zeitreihen sind ein unglaublich mächtiges Werkzeug, um Daten zu visualisieren. Verwechseln Sie dieses Bedürfnis nach Visualisierung jedoch nicht mit anderen prädiktiven und optimierenden Anforderungen, die nicht mit irgendeiner Art konstruierten Granularität arbeiten müssen. Wenn ich von konstruierter Granularität spreche, meine ich alles, was nicht einfach die Abbildung der Daten ist, wie sie in Ihren Enterprise-Systemen existieren. Jede Art von Aggregation, die Sie hinzufügen, führt zu Datenverlust.

Joannes Vermorel: Vielleicht ist es ein guter Kompromiss, insofern als dass Sie durch Aggregation eventuell CPU oder Speicher sparen, aber vielleicht auch nicht. Dies ist eine super technische Diskussion, und mein Vorschlag wäre, keine voreilige Optimierung vorzunehmen. Versuchen Sie, nicht sofort über diese Aggregationsebenen nachzudenken, als wären sie schwerwiegende Probleme; in Bezug auf die Visualisierung sind sie meistens einfache Probleme. Mit modernen Computersystemen ist es sehr einfach, über mehr Kapazitäten zu verfügen, als Sie tatsächlich benötigen.

In den 90er Jahren war es eine Herausforderung, Daten pro Tag zu aggregieren, aber heutzutage ist das nicht mehr der Fall. Wenn es einen Anbieter gibt, der Ihnen sagt, dass er auf fünf Jahre Historie begrenzt ist, ist das einfach sehr seltsam. Es gibt keine solche Einschränkung. Es gibt zahlreiche Möglichkeiten, mit jeglicher Granularität umzugehen, selbst bis auf die Millisekunde genau. Allerdings ist das nicht unbedingt etwas, das super sinnvoll ist, und Sie möchten das auch nicht mit einem eigentlichen Cube machen, bei dem Sie für jede einzelne Zelle Ihres Cubes ein Byte Speicher verwenden. Dies ist ein sehr technischer Aspekt.

Moderne Systeme bieten Ihnen jede Art von Aggregation, die Sie benötigen, und noch mehr. Das ist keine Einschränkung. Denken Sie nicht implizit, indem Sie versuchen, an all die Techniken zu denken, die Sie basierend auf diesem Cube anwenden möchten, als ob es der einzige Weg wäre, das Problem zu betrachten. Ist es nicht. Es gibt viele Aspekte, die verloren gehen, wie Verderblichkeit, Kannibalisierung, Substitution und unterschiedliche Vorlaufzeiten. Die Tatsache, dass Sie alles in einem Cube darstellen, setzt enorme Einschränkungen dafür, was Sie überhaupt über Ihre supply chain denken können, und das ist etwas Negatives. Mein Vorschlag ist, Ihren Geist nicht in einen Käfig zu sperren. Versuchen Sie einfach, eine breite Perspektive zu behalten, denn es gibt so viele willkürliche Einschränkungen, die nicht dazu beitragen, die Probleme in Ihrer supply chain zu lösen.

Nicole Zint: Vielen Dank, Joannes, dass Sie Ihre Gedanken zu diesem Thema geteilt haben. Vielen Dank fürs Zuschauen, und wir sehen uns nächste Woche.