00:00:08 Einführung in die Nachfrageprognose und Datenaggregation.
00:00:41 Unterschiedliche Granularitäten in der Nachfrageprognose.
00:02:00 Herausforderungen verschiedener Datenaggregationsebenen bei der Prognose.
00:05:28 Entaggregierte Ebene: SKU pro Tag und Rekonstruktion anderer Aggregationsebenen.
00:08:31 Grenzfälle und Herausforderungen bei verderblichen Produkten in der Nachfrageprognose.
00:09:42 Bedeutung von granularen Informationen in der Datenaggregation.
00:11:01 Rekonstruktion der gewünschten Aggregationsebene aus den granularen Daten.
00:13:01 Grenzen von Zeitreihentechniken bei sehr disaggregierten Daten.
00:15:01 Zeitreihentechniken und die Annahme, dass die Zukunft mehr vom Gleichen ist.
00:17:00 Die verführerische und irreführende Natur von Zeitreihenmodellen.
00:19:03 Diskussion der Nachteile von Aggregation in der Prognose.
00:20:00 Erforschung der Bedeutung von Granularität bei Entscheidungsfindung.
00:21:38 Untersuchung relevanter Horizonte und ihrer Auswirkungen auf Supply-Chain-Entscheidungen.
00:23:48 Argumentation gegen willkürliche Aggregation und deren potenzielle Auswirkungen auf die Effizienz der Supply Chain.
00:26:35 Vorschlag zur Fokussierung auf entscheidungsgetriebene Granularität und Vermeidung vorzeitiger Optimierung.

Zusammenfassung

Joannes Vermorel, Gründer von Lokad, diskutiert in einem Interview mit Nicole Zint die Bedeutung der Auswahl der richtigen Ebene der Datenaggregation für die Nachfrageprognose. Dabei werden zwei Dimensionen berücksichtigt: die zeitliche und die strukturelle Dimension, einschließlich der Zeitintervalle zur Aggregation von Daten und der Organisation der Supply Chain. Vermorel stellt fest, dass die tägliche Ebene und die SKU-Ebene für die meisten Supply-Chain-Netzwerke am relevantesten sind, aber Grenzfälle möglicherweise granularere Daten erfordern. Vermorel warnt vor den Grenzen von Zeitreihenmodellen in der Prognose von Supply Chains und fordert eine breitere Perspektive, die Faktoren wie Verderblichkeit, Kannibalisierung, Substitution und variable Durchlaufzeiten berücksichtigt. Er betont die Bedeutung von entscheidungsgetriebener Granularität und der Erweiterung von Prognosehorizonten über die Durchlaufzeiten hinaus.

Erweiterte Zusammenfassung

In diesem Interview diskutiert Moderatorin Nicole Zint mit Joannes Vermorel, dem Gründer von Lokad, einem Softwareunternehmen, das sich auf die Optimierung von Supply Chains spezialisiert hat, die Nachfrageprognose und die richtige Ebene der Datenaggregation. Sie untersuchen die verschiedenen Granularitäten in der Nachfrageprognose und deren Auswirkungen auf Prognosemethoden.

Vermorel erklärt, dass es zwei Hauptdimensionen gibt, die bei der Auswahl der Granularität für die Nachfrageprognose zu berücksichtigen sind: die zeitliche und die strukturelle Dimension. Die zeitliche Dimension bezieht sich auf die Zeitintervalle, die zur Aggregation der Daten verwendet werden, wie stündlich, täglich, wöchentlich, monatlich oder jährlich. Die strukturelle Dimension bezieht sich auf die Organisation der Supply Chain, einschließlich Produktkategorien und Standorten. Dies könnte die Aggregation von Daten nach SKU (Stock Keeping Unit), Produktreferenz, Produktfamilie, Produkt-Superfamilie oder Kategorie und dann nach Standort, Region oder Land umfassen.

Bei der Diskussion über die Arten von Prognosen, die mit diesen Granularitäten verbunden sind, erwähnt Vermorel, dass das Konzept der Business Intelligence oder Hypercubes, das in den 1990er Jahren populär wurde, relevant ist. Die historischen Daten können als Vektoren dargestellt werden, wobei jede Granularitätsebene einen einzigartigen Vektor erzeugt. Wenn eine zeitliche Dimension hinzugefügt wird, können diese Vektoren als Zeitreihendaten interpretiert werden, die dann für Prognosen verwendet werden können.

Dieser Ansatz befasst sich hauptsächlich mit Zeitreihenprognosen, die in der Branche gängige Praxis sind. Vermorel stellt fest, dass aufgrund der Vielzahl möglicher Aggregationsebenen aus denselben Daten mehrere Prognosen generiert werden können.

Das Interview berührt auch den technischen Begriff “equispaced” in Bezug auf Zeitreihen. Equispaced-Zeitreihen haben regelmäßige, gleichmäßige Intervalle zwischen den Datenpunkten. Vermorel gibt zu, dass die meisten Menschen in der Supply-Chain-Branche möglicherweise nicht in Betracht gezogen haben, mit nicht-equispaced Zeitreihen zu arbeiten, da equispaced Zeitreihen häufiger vorkommen. Er weist jedoch darauf hin, dass einige Intervalle, wie Monate, im physischen Sinne nicht genau regelmäßig sind, da Monate unterschiedliche Längen haben.

Dieses Interviewsegment konzentriert sich auf die Bedeutung der Auswahl der geeigneten Granularität für die Nachfrageprognose. Es gibt zwei Hauptdimensionen zu berücksichtigen: die zeitliche und die strukturelle Dimension. Aus denselben Daten können verschiedene Arten von Prognosen basierend auf der gewählten Granularität generiert werden, wobei Zeitreihenprognosen in der Branche am häufigsten vorkommen. Darüber hinaus wird das Konzept der equispaced Zeitreihen diskutiert, das auf die potenziellen Komplexitäten beim Umgang mit unterschiedlichen Zeitintervallen hinweist.

Vermorel spricht über Prognosehorizonte, entscheidungsgetriebene Granularität und die Bedeutung, das Denken bei der Supply-Chain-Management nicht einzuschränken.

Sie diskutieren die Herausforderungen der Datenaggregationsebenen in der Optimierung der Supply Chain. Vermorel erklärt, dass die Wahl der Aggregationsebene von der Sensibilität der Branche abhängt, da einige Branchen möglicherweise eine größere Aufschlüsselung erfordern. Er betont auch, dass die tägliche Ebene und die SKU-Ebene die sinnvollsten Aufschlüsselungsebenen für die meisten Supply-Chain-Netzwerke sind. Er merkt jedoch an, dass Randfälle wie verderbliche Produkte möglicherweise granularere Datenpunkte erfordern. Vermorel betont, dass jede willkürliche Entscheidung über die Datenaggregation Vor- und Nachteile mit sich bringt und es wichtig ist, zu verstehen, wo diese Entscheidungen herkommen. Auf die Frage, ob eine granularere Datenebene aus der granularsten Ebene rekonstruiert werden könnte, erklärt Vermorel, dass beim Aggregieren von Daten Informationen verloren gehen. Daher ist die granularere Daten, desto genauer ist die Prognose. Die granularsten Daten sind jedoch nicht einmal aggregierte Daten, sondern die rohen Transaktionsdaten. Er erklärt, dass der Grund, warum Menschen bei pro SKU pro Tag aufhören, darin besteht, dass dies die letzte Ebene ist, auf der sie immer noch mit Zeitreihen arbeiten können. Wenn sie weiter gehen würden, müssten sie auf die Zeitreihenperspektive verzichten, da die Daten nicht als Zeitreihe strukturiert sind.

Sie diskutierten auch mit Moderatorin Nicole Zint über die Grenzen von Zeitreihenmodellen bei der Prognose von Lieferketten. Vermorel stellt fest, dass Zeitreihentechniken bei spärlichen, unregelmäßigen und intermittierenden Daten tendenziell schlecht abschneiden, obwohl die Lieferkettenbranche in der Regel mit einem Zeitreihen-Mentalmodell arbeitet. Er argumentiert, dass es eine grundlegende Asymmetrie zwischen Vergangenheit und Zukunft gibt und dass die Annahme, dass die Zukunft genau wie die Vergangenheit ist, fehlgeleitet ist. Vermorel stellt auch die Praxis der Datenaggregation in Frage, die seiner Meinung nach zum Verlust von Daten und zu fehlgeleiteten Metriken führt, und schlägt vor, dass der einzige relevante Horizont für Entscheidungsfindung derjenige ist, der für die spezifische Entscheidung relevant ist.

Vermorel erklärt zunächst, dass Prognosehorizonte über die Vorlaufzeiten hinausgehen sollten, da sie nicht immer gut zur traditionellen Zeitreihenperspektive passen. Er argumentiert, dass der Entscheidungshorizont nicht nur den Zeitraum zwischen dem aktuellen Zeitpunkt und dem Eintreffen eines Produkts berücksichtigen sollte, sondern auch die Zeit, die benötigt wird, um die erhaltenen Waren zu verkaufen. Der anwendbare Horizont hängt von Faktoren wie der erwarteten Geschwindigkeit der Liquidation des Lagerbestands und der Nachfragevariabilität ab. Es gibt keine klare Grenze, wie weit in die Zukunft man schauen sollte, aber Vermorel erkennt an, dass Prognosen unschärfer werden, je weiter sie in die Zukunft gehen. Letztendlich liegt der Kompromiss darin, die Kosten für Rechenressourcen gegen die potenziellen Verbesserungen der Lieferkette abzuwägen.

Bei der Diskussion über die Granularität betont Vermorel, dass sie von den Entscheidungen abhängen sollte, die ein Unternehmen treffen möchte. Er rät davon ab, den Bedarf an Visualisierung mit anderen prädiktiven und optimierenden Anforderungen zu verwechseln, da die Granularität willkürlich sein kann und zu einem Datenverlust führen kann. Stattdessen empfiehlt er, sich auf Entscheidungen zu konzentrieren, die konkrete finanzielle Auswirkungen auf die Lieferkette haben, wie z.B. Nachbestellungen oder Preisanpassungen.

Vermorel warnt davor, sich zu sehr auf Aggregationsebenen zu fixieren, die er als einen hochtechnischen Aspekt des Problems betrachtet. Moderne Computersysteme haben mehr als genug Kapazität, um verschiedene Granularitätsstufen zu verarbeiten, und es besteht keine Notwendigkeit, willkürliche Einschränkungen im Denken vorzunehmen. Früher war die Aggregation von Daten für die Visualisierung eine Herausforderung, aber moderne Systeme können sie problemlos verarbeiten, sogar bis zur Millisekunden-Granularität.

Der Interviewpartner warnt auch davor, sich ausschließlich auf traditionelle Datenwürfelansätze zur Optimierung der Lieferkette zu verlassen. Er behauptet, dass dies unnötige Einschränkungen auferlegen und den Umfang potenzieller Lösungen begrenzen kann. Faktoren wie Verderblichkeit, Kannibalisierung, Substitution und variable Vorlaufzeiten sollten für eine umfassendere Sicht auf die Lieferkette berücksichtigt werden. Vermorel fördert eine breitere Perspektive und vermeidet willkürliche Einschränkungen, die die Problemlösung im Supply Chain Management behindern können.

Zusammenfassend plädiert Joannes Vermorel dafür, bei der Optimierung von Lieferketten eine breitere Palette von Faktoren zu berücksichtigen, Prognosehorizonte über Vorlaufzeiten hinaus zu erweitern und eine entscheidungsorientierte Granularität anzunehmen. Er betont die Bedeutung, das Denken nicht einzuschränken und moderne Computersysteme einzusetzen, um komplexe Probleme in der Lieferkette effektiv anzugehen.

Vollständiges Transkript

Nicole Zint: Wenn es um die Nachfrageprognose geht, gibt es eine unglaubliche Vielfalt an verschiedenen Methoden und verschiedenen Aggregationsebenen, die sowohl zwischen Unternehmen als auch innerhalb von Unternehmen gewählt werden. Manche prognostizieren täglich, andere wöchentlich, monatlich oder jährlich. Manche prognostizieren auf SKU-Ebene, andere auf Kategorieebene. Das wirft die Frage auf, welche Aggregationsebene die richtige ist. Das ist das Thema der heutigen Episode. Bevor wir uns der Antwort auf diese Frage widmen, Joannes, welche Arten von Granularitäten gibt es bei der Nachfrageprognose?

Joannes Vermorel: Bei der Nachfrageprognose gibt es im Wesentlichen zwei Hauptdimensionen des Problems. Die erste ist zeitlich, d.h. ob Sie Ihre Transaktionsdaten auf stündlicher, täglicher, wöchentlicher, monatlicher oder jährlicher Ebene aggregieren möchten. Die andere Dimension ist in der Regel die Produkt-/Lieferketten-Topologie, so dass Sie sich dafür entscheiden könnten, pro SKU, pro Produktreferenz, pro Produktfamilie, Superfamilie, Kategorie usw. zu aggregieren. Sie haben auch Ihre Standorte, an denen Sie pro Standort, pro Region oder pro Land aggregieren möchten. Die beiden Hauptdimensionen sind Zeit und die Struktur Ihres Katalogs/Ihrer Lieferketten-Netzwerke, was eine Matrix von Möglichkeiten schafft, wenn es darum geht, die Granularität zu wählen.

Nicole Zint: Wenn wir über diese Granularitäten sprechen, um welche Art von Prognosen handelt es sich dann? Gibt es einen spezifischen Prognosetyp?

Joannes Vermorel: Was Sie haben, ist ein Konzept, das in den 90er Jahren populär wurde, im Wesentlichen unter dem Namen Business Intelligence oder Hypercubes. Was Sie haben, ist eine Möglichkeit, Ihre historischen Daten als Vektoren darzustellen. Sie wählen eine Granularitätsebene, sagen wir pro SKU pro Woche, und dann haben Sie für jede einzelne SKU auf wöchentlicher Ebene einen Vektor von Werten, die aufgrund der Zeitdimension als Zeitreihen interpretiert werden können. Dann können Sie diese Zeitreihen in die Zukunft prognostizieren. Aufgrund der vielen potenziellen Aggregationsebenen können viele Prognosen auf der Grundlage derselben Daten erstellt werden. Also, wenn wir dieses Problem diskutieren, sprechen wir über Zeitreihenprognosen, zumindest ist dies eine gängige Praxis in der Branche.

Nicole Zint: Wie sieht es mit der Zeitleiste in der Zeitreihe aus, sind sie alle gleichmäßig verteilt oder gibt es einen anderen Ansatz?

Joannes Vermorel: Gleichmäßig verteilt ist ein sehr technischer Begriff, mit dem die meisten Menschen in der Supply-Chain-Branche möglicherweise noch nie gearbeitet haben. Die Gleichverteilung ist eine technische Eigenschaft, bei der Sie sagen, dass Ihre Zeitreihe in vollständig regelmäßige Buckets unterteilt ist. Beachten Sie jedoch, dass dies eine gewisse Abstraktion ist, denn zum Beispiel sind Monate im physischen Sinne nicht genau regelmäßig. Physiker würden sagen, dass es Monate gibt, die länger sind als andere, also ist es nur nach unserem Kalender regelmäßig.

Nicole Zint: Eine weitere Frage, wenn es um einen Monat geht: Wir haben unterschiedliche Anzahlen von beispielsweise Freitagen oder Wochenenden in einem Monat, und wenn wir Verkaufsspitzen an Freitagen sehen, wird das nicht gestört?

Joannes Vermorel: Hier kommen wir zu der Art von Frage: Welche Aggregationsebene wähle ich? Es können viele Bedenken auftreten. Offensichtlich gibt es einige Aggregationsebenen, die bestimmte Auswirkungen haben. Wenn Sie sich die stündliche Ebene ansehen, kann sie für die meisten Branchen unglaublich disaggregiert sein und während der Nacht möglicherweise nicht einmal sinnvoll sein, weil es vielleicht viele Bereiche gibt, in denen nachts nichts passiert, zum Beispiel im Einzelhandel.

Dann, wenn Sie die monatliche Aggregation wählen, ist es immer eine heikle Angelegenheit, weil Sie die Tatsache haben, dass einige Monate fünf Tage einer bestimmten Wochentag haben und Sie entweder vier oder fünf haben können. Das ist ein heikler Aspekt, der tatsächlich einige Arten von Verzerrungen in der Art und Weise, wie Sie diesen Datensatz betrachten, und potenziell in der Art und Weise, wie Sie Ihre Prognose erstellen, einführen wird. Aber das gilt auch für andere Dimensionen, wie zum Beispiel ob Sie nach SKU oder nach Produkt oder nach Kategorie suchen. All diese führen zu eigenen Bedenken.

Nicole Zint: Wenn es um diese verschiedenen Ebenen der Datenaggregation geht, können wir dann nicht technisch gesehen einfach, sagen wir, SKU pro Tag wählen, was die disaggregierteste Ebene ist, und dann im Grunde jede andere Aggregationsebene daraus rekonstruieren?

Joannes Vermorel: Zunächst einmal gibt es diese Versuchung, sich für sehr disaggregierte Ebenen zu entscheiden. In der Supply Chain ist die sinnvollste zeitliche Zerlegungsebene pro Tag. Es ist jedoch eine ziemlich willkürliche Entscheidung. Wir hätten uns auch für die Minute entscheiden können, und zum Beispiel, wenn Sie ein Callcenter betreiben und die Ankunftsrate eingehender Anrufe betrachten möchten, haben Sie eine viel granularere Beobachtungsebene für die eingehenden Anrufe. Es geht also wirklich darum, welche Art von Dingen für die Mainstream-Situation in der Supply Chain Sinn machen.

Nun, wenn wir etwas weiter in die Vergangenheit zurückgehen, müssen wir ein wenig verstehen, woher wir kommen. Schauen wir uns einen typischen Laden mit 10.000 SKUs in einem typischen Einzelhandelsnetzwerk mit 100 Geschäften an. Es handelt sich also nicht einmal um ein sehr großes Einzelhandelsnetzwerk. Wir sprechen von 10.000 mal 100, was 1 Million SKUs entspricht, und dann tägliche Daten. Wenn wir also drei Jahre lang Geschichte haben wollen, sprechen wir von tausend Tagen. Wir sprechen also von einer Milliarde Datenpunkten. Um die täglich aggregierten Daten auf SKU-Ebene in einem bescheidenen Einzelhandelsnetzwerk darzustellen, sprechen wir bereits von etwas, das eine Milliarde Datenpunkte umfasst.

In einem Computer wären das bereits vier Gigabyte Speicher. Wenn wir etwas weiter in die Vergangenheit zurückgehen, sehen wir, dass diese Art von Speicherkapazität noch nicht einmal vor den 90er Jahren zugänglich war. Übrigens entstand der Begriff “Business Intelligence” als Klasse von Enterprise-Software Tools genau in den 90er Jahren, als Computer mit Gigabyte-Größe auf den Markt kamen. Die beiden Dinge gingen also Hand in Hand. Sie benötigten Computer, die in der Lage waren, solch große Datenmengen darzustellen.

Nicole Zint: Also waren diese großen Würfel tatsächlich Software, die für das In-Memory Computing entwickelt wurde, was nur eine großartige Art war zu sagen, nutzen wir diesen neu gefundenen Random-Access-Speicher. Und basierend darauf wird es zum Standard, obwohl wir nicht vergessen sollten, dass es ziemlich willkürlich war. Wenn Sie sagen, dass es die kleinste Ebene ist, die für Supply Chains Sinn macht, ist diese tägliche Aggregation und SKU-Ebene genau?

Joannes Vermorel: Ja, aber es gibt viele Ausnahmefälle. Wenn Sie zum Beispiel ein verderbliches Produkt haben, stellt sich die Frage, ob die Aggregation pro Tag pro SKU ausreicht, um Ihnen ein genaues Bild Ihres Lagerbestands zu geben. Wenn Sie sich ein verderbliches Produkt ansehen, lautet die Antwort nein. Sie können 10 Einheiten auf Lager haben, aber wenn 9 der 10 Einheiten morgen ablaufen, haben Sie tatsächlich hauptsächlich eine Einheit plus neun, die kurz davor sind zu verschwinden. In diesem Fall ist der Lagerbestand nicht granular genug und die SKU-Ebene ist nicht granular genug. Sie möchten einen Lagerbestand mit mindestens einer Woche Haltbarkeit und vielleicht einen Lagerbestand mit mindestens einem Monat Haltbarkeit haben. Sie würden also eine weitere Dimension einführen, um ein besseres Verständnis zu erhalten.

Nicole Zint: Und was ist mit der Zeit? Ist die tägliche Ebene in Ordnung oder sollten wir eine granularere Ebene in Betracht ziehen?

Joannes Vermorel: Die tägliche Ebene könnte in Ordnung sein, außer dass es möglicherweise Geschäfte gibt, die nur am Wochenende oder nur am Morgen geöffnet sind. Wenn Sie nicht wissen, dass Sie ein Geschäft haben, das nur einen halben Tag geöffnet ist, fehlt Ihnen Informationen. Vielleicht würde eine granularere Ebene wie der Morgen und der Abend Ihnen etwas geben, das wertvoller ist. Jede einzelne willkürliche Entscheidung über Ihre Aggregationsebene hat Vor- und Nachteile. Meine Botschaft hier ist, dass es ziemlich willkürlich ist und es keine große Wahrheit gibt, aber es ist sehr interessant zu verstehen, woher diese Entscheidungen kommen.

Nicole Zint: Angenommen, wir finden die granularste Ebene, die innerhalb unserer Preisvorstellung liegt. Wenn wir Zugriff auf die granularste Ebene haben, aber dennoch eine Prognose auf wöchentlicher Basis betrachten möchten, können wir die Ebene, die wir erhalten möchten, einfach aus der granularsten Ebene rekonstruieren?

Joannes Vermorel: Absolut. Wenn wir zur rohen Transaktionshistorie zurückgehen, verlieren wir bei jeder Aggregation Daten in Bezug auf Informationen. Egal welche Art von Aggregation Sie durchführen, Sie können immer eine höhere Ebene aus den granularsten Daten rekonstruieren.

Nicole Zint: Tatsächlich handelt es sich hierbei um einen Verlustprozess, bei dem Informationen verloren gehen. Sie haben also weniger Informationen, daher würde es Sinn machen, dass die Genauigkeit abnimmt, oder? Je höher die Aggregation, desto ungenauer wird sie?

Joannes Vermorel: Ja, aber der Grund, warum wir diese Art von Aggregation einrichten möchten, ist genau das. Ich würde sagen, es ist würfelförmig, weil wir die Art von Software haben, die relativ schnell arbeitet. Die Idee ist, dass bei einem Hypercube Operationen wie Slice und Dice sehr effizient durchgeführt werden können. Das ist ein sehr technischer Grund. Wenn Sie also von täglich auf wöchentlich wechseln möchten, ist dies eine sehr effiziente Operation, die Sie auf dem Würfel durchführen können.

Tatsächlich verlieren wir in Bezug auf die reine Informationstheorie immer dann Informationen, wenn wir auf eine aggregiertere Ebene gehen. Theoretisch möchten wir also etwas haben, das eine genauere Aussage über die Zukunft treffen kann, und wir möchten mit den disaggregiertesten Daten arbeiten. Die meisten Menschen würden jedoch denken, dass die disaggregiertesten Daten Daten pro SKU pro Tag wären. Ich würde sagen, Moment mal, die disaggregiertesten Daten sind überhaupt keine aggregierten Daten. Das wären die rohen Transaktionsdaten.

Der Grund, warum die Leute bei pro SKU pro Tag aufhören, liegt im Wesentlichen darin, dass dies die letzte Ebene ist, auf der Sie immer noch mit Zeitreihen arbeiten. Wenn Sie weiter gehen und sich mit der rohen Transaktionshistorie befassen möchten, müssen Sie im Grunde genommen die Perspektive der Zeitreihen aufgeben. Warum? Weil die Daten nicht als Zeitreihe strukturiert sind. Es handelt sich buchstäblich um relationale Daten, also haben Sie Tabellen in Ihrer Datenbank. Es ist nicht mehr als Zeitreihe strukturiert, sicherlich nicht wie eine gleichmäßig verteilte Zeitreihe.

Zeitreihen entstehen nur dann, wenn Sie Vektoren konstruieren, in denen Sie pro Periode (die Periode kann ein Tag, eine Woche oder ein Monat sein) eine Menge haben und dann einen Vektor von Mengen haben. Sie möchten dies mit einem Zeitreihenmodell erweitern. Wenn Sie nur mit einer Tabelle mit, sagen wir, 100 Spalten arbeiten, handelt es sich nicht um eine Zeitreihe; dies ist nur eine relationale Tabelle in einer Datenbank. Das ist sehr üblich, aber es ist keine Zeitreihe. Die gewählte Prognosemethode selbst ist jetzt ein weiterer begrenzender Faktor.

Die Frage ist, warum ist es so attraktiv? Die Antwort ist, dass die meisten Supply-Chain-Industrien mit einem mentalen Modell von Zeitreihen arbeiten. Wenn Sie also entschieden haben, dass alles zum Modell der Zeitreihen passen muss, ist der Hypercube ein sehr attraktiver Faktor, da Sie immer, solange eine der Dimensionen die Zeit ist, auf eine oder andere Weise Zeitreihen auf verschiedenen Aggregationsebenen betrachten.

Aber hier kommt der Knackpunkt. Obwohl uns die Informationstheorie in der Theorie sagen würde, dass wir beim disaggregieren mehr Informationen haben und somit mehr über die Zukunft wissen können. Die Realität ist, dass Zeitreihen-Techniken, die meisten von ihnen, nicht alle, auf sehr spärlichen, unregelmäßigen, intermittierenden Daten tendenziell sehr schlecht abschneiden. Das Problem ist, dass Zeitreihen-Techniken bei sehr disaggregierten Daten weniger effektiv sind.

Nicole Zint: Aus der Perspektive Ihrer Zeitreihentechnik, nicht aus der realen Perspektive, haben Sie einen Vektor, der immer spärlicher wird, also mehr Nullen. Und die Zeitreihe handelt von mehr von demselben, oder? Wir nehmen an, dass die Zukunft symmetrisch zur Vergangenheit ist. Kommt das daher?

Joannes Vermorel: Ja, aber das gilt für alle datengetriebenen Methoden. Alle datengetriebenen Methoden beruhen im Grunde genommen auf der Idee, dass die Zukunft mehr von demselben sein wird. Sehen Sie, es hängt nicht wirklich davon ab, ob es sich um maschinelles Lernen, KI, Zeitreihen oder etwas anderes handelt, es ist immer dieselbe Idee. Alle unsere statistischen Methoden basieren auf der Annahme, dass die Zukunft im Vergleich zur Vergangenheit mehr von demselben sein wird.

Nicole Zint: Aber sicherlich gehen Ihnen bei einer granularen Betrachtung saisonale Effekte und ähnliches verloren, oder?

Joannes Vermorel: Nein, die Charakteristik der Zeitreihe ist eine sehr technische. Es handelt sich um die Tatsache, dass das Zeitreihenmodell Ihnen ein hochsymmetrisches Modell gibt, in dem die Zukunft in Bezug auf die Datenstruktur genau wie die Vergangenheit aussieht. Das ist etwas, das sehr spezifisch für Zeitreihen ist. Wenn Sie sagen, mehr von demselben, ja, aber ich mache eine Aussage über die Zukunft. Diese Aussage muss nicht die exakte Form und das exakte Format im Vergleich zu meinen historischen Aufzeichnungen haben. Es kann, aber es muss nicht.

Bei Zeitreihen ist es unglaublich verführerisch, aber ich glaube auch, dass es die Menschen sehr in die Irre führt. Es ist unglaublich verführerisch, weil die Zukunft und die Vergangenheit genau symmetrisch sind. Und wenn ich von der exakten Symmetrie spreche, stellen Sie sich einfach Ihren Hypercube oder Ihren Würfel vor. Sie haben eine Dimension für die SKUs, eine Dimension für den Tag, eine Dimension für etwas anderes, und im Grunde genommen nimmt die Zukunft einfach Ihre Dimension für den Tag und erweitert diese Dimension um, sagen wir, 100 weitere Zellen.

Und dann, da ist sie, die Zukunft, und dann würden Sie sagen, die Prognose füllt sie einfach aus, füllt die Lücken aus. Also im wörtlichen Sinne würden Sie sagen, es sind genau dieselben Daten; es gibt Daten, die ich beobachtet habe, und dann gibt es Daten, in die ich die Lücken mit meinem Zeitreihen-Prognosemodell füllen werde. Es gibt jedoch eine sehr radikale und grundlegende Asymmetrie zwischen Vergangenheit und Zukunft.

Wenn Sie diese klassische Perspektive der Durchschnittsprognose für Zeitreihen wählen, tun Sie etwas, das vorgibt, dass die Zukunft in der Natur genau dieselbe ist wie die Vergangenheit, nicht nur die Tatsache, dass sie noch nicht eingetreten ist. Es ist buchstäblich in Bezug auf das Datenformat, in Bezug auf die Art und Weise, wie man darüber nachdenkt, Sie sagen einfach, dass es komplett dasselbe ist. Und mein Vorschlag, der eher eine philosophische Aussage als eine wissenschaftliche ist, lautet: Nein, das ist es nicht, es ist sehr unterschiedlich.

Nicole Zint: Ich sehe immer noch viele RFPs, in denen Anbieter gefragt werden, ob sie uns alle diese Ebenen auf einmal geben können. Unterschiedliche Aggregationsebenen, warum?

Joannes Vermorel: Das ist wieder eine Standardfrage. Die Leute bestehen darauf, weil sie es gewohnt sind, aber es ist wichtig anzuerkennen, dass unterschiedliche Aggregationsebenen zu sehr unterschiedlichen Ergebnissen und Erkenntnissen führen können.

Nicole Zint: Die Täuschung besteht darin, dass Sie mit diesem Zeitreihenmodell beginnen, und dieses Zeitreihenmodell hat sein Pendant in der Softwareindustrie mit Business Intelligence, wo alles im Grunde genommen ein Würfel oder eine Version ist, die von einem Würfel geschnitten oder gewürfelt wird. Nun, die Leute erkennen, dass sie Informationen verlieren, wenn sie gehen, aber irgendwie sind sie sich nicht wirklich sicher, warum. Die Metrik sagt ihnen, dass ihre sehr disaggregierte Prognose völliger Mist ist. Die Realität könnte sein, dass sie einfach nicht die richtige Methode verwenden, es ist tatsächlich sehr schlecht.

Joannes Vermorel: Also sagen sie: “Okay, unsere Prognose ist super schlecht.” Ich sage: “Nun, wir brauchen die Möglichkeit, uns auf eine höhere Aggregationsebene zu beziehen. Es könnte vielleicht pro Woche oder vielleicht pro Produkt sein, anstatt pro SKU zu haben.” Aber sie wissen nicht, welche sie wählen wollen. Wenn sie einen Anbieter fragen, wollen sie ihre Optionen offen halten, und sie enden mit halb lächerlichen RFPs, in denen sie hundert Fragen haben und alle Aggregationsebenen haben wollen.

Nur weil sie aus ihrer Perspektive die Möglichkeit offen halten, auf welcher Ebene sie das Zeitreihenprognosemodell anwenden möchten. Aber hier stelle ich wirklich die Tatsache in Frage, warum Sie überhaupt Ihre Daten aggregieren sollten und warum Ihre Prognosetechnik bereits vor dem Start Daten verwerfen sollte. Sie verlieren Daten, also ist das ein Problem, und durch noch mehr Aggregation verlieren Sie nur noch mehr Daten.

Und dann sagen Sie: “Aber Moment mal, wir können nicht auf einer super disaggregierten Ebene arbeiten, weil unsere Metrik, die prozentuale Fehlerquote, uns sagt, dass es sehr schlecht ist.” Wir sagen: “Ja, aber Sie optimieren nicht die prozentuale Fehlerquote; Sie möchten den Fehler in Dollar optimieren. Aber Sie betrachten die Metrik der Prozentsätze, also ist sie irgendwie nicht auf die Dollar ausgerichtet.”

Nicole Zint: Ja, genau. Denn wenn Sie dieser Täuschung folgen, würden Sie von täglich auf wöchentlich gehen, um eine bessere Genauigkeit zu erzielen; dann von wöchentlich auf monatlich, bessere Genauigkeit; dann von wöchentlich auf jährlich. Und dann sagen die Leute: “Oh, Moment mal, Jahresprognose, was soll ich mit der Jahresprognose machen? Wenn Sie wöchentlich Entscheidungen treffen, wie soll Ihnen eine monatliche Prognose helfen?”

Joannes Vermorel: Das ist das Problem. Die Realität ist, dass der einzige relevante Horizont derjenige ist, der für Ihre Entscheidung relevant ist. Aber schauen wir uns eine sehr einfache Entscheidung an, wie zum Beispiel die Bestandsauffüllung. Geben Sie uns ein Beispiel dafür, was der relevante Horizont ist. Die Antwort ist sehr knifflig. Zuerst haben Sie die Vorlaufzeiten, aber die Vorlaufzeit ist nicht garantiert. Angenommen, Sie haben einen Übersee-Lieferanten, also können sich Ihre Vorlaufzeiten ändern. Ihre Vorlaufzeit könnte etwas sein, das ungefähr 10 Wochen beträgt, aber mit der Möglichkeit von großen Variationen.

Einige dieser Variationen sind übrigens saisonal, wie zum Beispiel das chinesische Neujahr. Fabriken in China schließen, also haben Sie vier zusätzliche Wochen Vorlaufzeit. Ihr Horizont, wenn wir uns nur die Vorlaufzeiten ansehen, ist etwas, das sehr variabel ist und eine eigene Prognose benötigen würde. Übrigens ist eines der Probleme bei diesen Zeitreihenmodellen, dass wir immer etwas betrachten, das so etwas wie der Verkauf ist. Alle anderen Dinge, die Sie prognostizieren müssen, wie Ihre Vorlaufzeiten, sind immer konstant. Es ist noch schlimmer; sie existieren nicht einmal, wissen Sie.

Nicole Zint: Also repräsentiert der Würfel nicht einmal die Art von Literatur; er ist irgendwie willkürlich gewählt. Ihr Horizont wären Ihre Vorlaufzeiten, aber Ihre Vorlaufzeiten würden eine Prognose-Rotzone verdienen, die nicht wirklich zu dieser Zeitreihenperspektive und Würfelsoftware passt. Aber sollte Ihr Horizont zur Beurteilung der Gültigkeit Ihrer Entscheidung nur bei der Vorlaufzeit enden?

Joannes Vermorel: Nein, denn offensichtlich möchten Sie, wenn Sie sich entscheiden, eine Nachbestellung aufzugeben, die Nachfrage erfüllen, die zwischen jetzt und dem Ankunftsdatum Ihres Produkts stattfinden wird. Aber dann müssen Sie verkaufen, was Sie gerade erhalten haben. Um die Relevanz der Bestellung zu bewerten, müssen Sie auf das schauen, was danach passiert. Und wie weit in die Zukunft sollten Sie schauen? Nun, das hängt ab. Wenn die Bestellung, die Sie aufgeben, einen Nachfrageanstieg hat, dann könnten Sie tatsächlich die Waren erhalten und alles in zwei Tagen verkaufen. Aber was ist, wenn es das Gegenteil ist und dann eine Nachfrageeinbruch gibt? Sie könnten den Bestand ein ganzes Jahr lang behalten, natürlich nicht, wenn er verderblich ist, aber ich vereinfache nur.

Der anwendbare Horizont ist also etwas, das unglaublich von der Art und Weise abhängt, wie Sie in die Zukunft schauen, und es ist eine eigene Prognose, weil Sie die Vorlaufzeiten vorhersagen müssen. Und dann hängt der Horizont, den wir betrachten müssen, selbst wenn wir nur die Nachfrage betrachten, davon ab, wie schnell Sie erwarten, Ihren Bestand tatsächlich zu liquidieren. Letztendlich gibt es also keine klare Grenze in Bezug auf den anwendbaren Horizont für Ihre Prognose. Die einzige Sorge ist, dass je weiter wir in die Zukunft schauen, desto unschärfer wird die Prognose.

Das ist jedoch eine technische Frage, und irgendwann gibt es einen Kompromiss zwischen den Kosten der CPU und dem potenziellen marginalen Verbesserung für Ihre Supply Chain. Aber sehen Sie, aus konzeptioneller Sicht gibt es keine Grenze, wie weit Sie in die Zukunft schauen möchten.

Nicole Zint: Also sollte die Granularität immer auf der Ebene der Entscheidungen liegen, die Sie treffen möchten?

Joannes Vermorel: Ja, ich würde sagen, Ihre Granularität wird sehr stark von den Entscheidungen bestimmt, die Sie treffen möchten. Aber seien Sie sich bewusst, dass diese Vorstellung, aggregieren zu müssen, eine Hypothese über die Art der Methode ist, die Sie verwenden möchten. Mein Vorschlag wäre, Ihre Augen auf die Entscheidung zu richten, die Sie treffen. Entscheidungen sind die Dinge, die einen greifbaren Einfluss auf Ihre Supply Chain haben, wie Ihre Nachbestellung, die Anpassung Ihres Preises nach oben oder unten und andere Maßnahmen, die einen realen finanziellen Einfluss auf die Supply Chain haben. Aber dann würde ich sagen, seien Sie vorsichtig mit der Vorstellung von Granularität. Das ist sehr konstruiert, sehr willkürlich, und verwechseln Sie Ihren Bedarf an Visualisierung, was in Ordnung ist - Sie möchten in der Lage sein zu visualisieren - nicht mit der Granularität, die für Entscheidungen erforderlich ist.

Nicole Zint: Zeitreihen sind ein unglaublich leistungsfähiges Werkzeug zur Visualisierung von Daten. Verwechseln Sie jedoch dieses Bedürfnis nach Visualisierung nicht mit anderen Vorhersage- und Optimierungsanforderungen, die nicht mit irgendeiner Art von konstruierter Granularität arbeiten müssen. Wenn ich von konstruierter Granularität spreche, meine ich alles, was nicht nur die Abbildung der Daten darstellt, wie sie in Ihren Unternehmenssystemen existiert. Jede Art von Aggregation, die Sie hinzufügen, wird Daten verlieren.

Joannes Vermorel: Vielleicht wird es ein guter Kompromiss sein, in dem Sinne, dass Sie möglicherweise durch Aggregation CPU oder Speicher sparen, aber vielleicht auch nicht. Dies ist eine sehr technische Diskussion, und mein Vorschlag wäre, keine voreilige Optimierung durchzuführen. Versuchen Sie nicht sofort über diese Aggregationsebenen nachzudenken, als wären sie schwierige Probleme; sie sind größtenteils einfache Probleme, wenn es um Visualisierung geht. Mit modernen Computersystemen ist es sehr einfach, übermäßige Fähigkeiten im Vergleich zu Ihren tatsächlichen Bedürfnissen zu haben.

In den 90er Jahren war es eine Herausforderung, Daten pro Tag zu aggregieren, aber heutzutage ist es nicht mehr so. Wenn ein Anbieter Ihnen sagt, dass er eine Begrenzung von fünf Jahren an Historie hat, ist das einfach nur seltsam. Es gibt keine solche Einschränkung. Es gibt viele Möglichkeiten, mit jeder Art von Granularität umzugehen, sogar bis zur Millisekunde. Es ist jedoch nicht unbedingt etwas, das besonders sinnvoll ist, und Sie möchten das nicht mit einem tatsächlichen Würfel tun, bei dem Sie einen Byte Speicher für jede einzelne Zelle in Ihrem Würfel verwenden. Dies ist ein sehr technischer Aspekt.

Moderne Systeme bieten Ihnen jede Art von Aggregation, die Sie benötigen, und noch mehr. Dies ist keine Einschränkung. Denken Sie nicht durch Implikationen und versuchen Sie nicht, alle Techniken, die Sie basierend auf diesem Würfel verwenden möchten, zu überlegen, als ob dies die einzige Möglichkeit wäre, das Problem zu betrachten. Das ist es nicht. Es gibt viele Dinge, die verloren gehen, wie Verderblichkeit, Kannibalisierung, Substitution und unterschiedliche Vorlaufzeiten. Die Tatsache, dass Sie alles in einem Würfel darstellen, legt enorme Einschränkungen fest, was Sie über Ihre Supply Chain überhaupt denken können, und das ist etwas Schlechtes. Mein Vorschlag ist, Ihren Geist nicht in einen Käfig zu stecken. Versuchen Sie einfach, eine breite Perspektive zu haben, denn es gibt so viele willkürliche Einschränkungen, die nicht dazu beitragen, die Probleme Ihrer Supply Chain zu lösen.

Nicole Zint: Vielen Dank, Joannes, dass Sie Ihre Gedanken zu diesem Thema geteilt haben. Vielen Dank fürs Zuschauen, und wir sehen uns nächste Woche.