00:00:07 Einführung und Bedeutung von kleinen Zahlen in der Leistung von Lieferketten.
00:01:00 Wie kleine Zahlen die Rechenleistung und Kosten beeinflussen.
00:03:33 Die Geschichte und Entwicklung der numerischen Genauigkeit in Finanz- und Lieferketten-Systemen.
00:06:00 Die Auswirkungen der Datengröße auf die Rechenleistung und Engpässe.
00:07:44 Erhebliche Beschleunigung der Berechnung durch Reduzierung der Datengröße.
00:08:47 Die Bedeutung der Beachtung des technologischen Stacks und der Werkzeuge bei der Optimierung der Lieferkette.
00:10:17 Ausbalancieren der Berechnungskosten und leistungsstärkerer mathematischer Modelle für bessere Ergebnisse in der Lieferkette.
00:12:50 Analyse historischer Daten und Verwendung von vorhersagender Lieferkettensoftware für bessere Entscheidungsfindung.
00:15:04 Auswirkungen der Datenaggregation auf wahrgenommenen Leistungsgewinn und Verlust an Granularität.
00:16:00 Herausforderungen bei der Konsolidierung von Lieferkettenentscheidungen.
00:17:33 Überprüfung der grundlegenden statistischen Annahmen und mechanisches Verständnis.
00:20:01 Bedeutung des mechanischen Verständnisses im Supply Chain Management.
00:20:58 Vom Gesetz der kleinen Zahlen zur Perspektive von Big Data.
00:23:20 Fazit: Weniger Daten können in bestimmten Situationen mehr sein.

Zusammenfassung

Joannes Vermorel, der Gründer des Softwareunternehmens Lokad für Supply Chain-Optimierung, diskutiert mit Kieran Chandler das Gesetz der kleinen Zahlen und dessen Auswirkungen auf die Leistung der Lieferkette. Vermorel betont die Bedeutung von kleinen Zahlen in den Daten der Lieferkette und die Notwendigkeit, die richtigen Zahlen zur Optimierung von Rechengeschwindigkeit und Leistung auszuwählen. Die Diskussion hebt die Notwendigkeit eines größeren Designverständnisses zur Erzielung von Leistungsgewinnen hervor, den Kompromiss zwischen Recheneffizienz und der Untersuchung aller möglichen Zukunftsszenarien und Entscheidungen sowie die Herausforderung der Verwendung statistischer Modelle in komplexen Einzelhandelsumgebungen. Das Interview betont die Bedeutung des Ausgleichs von Rechenressourcen und anspruchsvoller Modellierung zur Optimierung der Leistung der Lieferkette.

Erweiterte Zusammenfassung

In diesem Interview spricht Kieran Chandler mit Joannes Vermorel, dem Gründer von Lokad, einem Softwareunternehmen, das sich auf die Optimierung von Lieferketten spezialisiert hat. Sie diskutieren das Gesetz der kleinen Zahlen und dessen Potenzial zur Verbesserung der Leistung der Lieferkette, die Bedeutung von kleinen Zahlen in den Daten der Lieferkette und die Auswirkungen der Auswahl der richtigen Zahlen auf Rechengeschwindigkeit und Leistung.

Vermorel erklärt, dass kleine Zahlen, insbesondere einstellige Zahlen, in Lieferketten allgegenwärtig sind. Während Barcodes viele Ziffern haben können, dienen sie eher als Identifikatoren als als Mengen. Mengen in Lieferketten neigen dazu, sehr kleine Zahlen zu beinhalten, was überraschend ist, da sich die meisten Statistiken auf die Gesetze der großen Zahlen konzentrieren. Diese Beobachtung ist wichtig, da sie die Notwendigkeit eines größeren Designverständnisses hervorhebt, um Leistungsgewinne zu erzielen, insbesondere da die Verbesserung der Rechenleistung immer langsamer wird.

Das Interview widmet sich dann der Auswirkung kleiner Zahlen auf die Berechnung. Vermorel erklärt, dass Computer zwar mit jeder Zahl umgehen können, aber Berechnungen viel schneller durchführen können, wenn die richtigen Zahlen ausgewählt werden. Zum Beispiel können Computer bei der Verwendung der richtigen Zahlen 10 bis 20 Mal schneller bei der Durchführung einfacher Operationen mit Zahlen sein. Dies kann einen erheblichen Unterschied in der Gesamtleistung eines Systems zur Optimierung der Lieferkette ausmachen.

Kieran bittet Vermorel, den Unterschied beim Senden von Zahlen zwischen Systemen und der physischen Realität von Computertechnologie zu erklären. Vermorel betont, dass die Kosten für die Datenverarbeitung und -analyse für die Optimierung der Lieferkette wichtig sind. Computer sind in Bezug auf die Rohrechenleistung günstiger geworden, was leistungsstärkere Algorithmen ermöglicht, um die Prognosegenauigkeit und die Leistung der Lieferkette zu verbessern. Das Gleichgewicht zwischen den Kosten der Datenverarbeitung und der Leistung der Lieferkette ist jedoch entscheidend.

Vermorel argumentiert, dass eine signifikante Reduzierung der Rohrechenkosten nicht bedeutet, dass die Computerkosten verschwinden. Stattdessen werden Unternehmen ihre neu gewonnenen Ressourcen nutzen, um komplexere Modelle zu entwickeln, was letztendlich zu höheren Rechenkosten führt. Daher muss die Auswirkung kleiner Zahlen auf die Rechenkosten beachtet werden, um die Leistung der Lieferkette zu optimieren.

Die Diskussion drehte sich um den Ursprung des arithmetischen Berechnungsbedarfs in Unternehmenssystemen, der hauptsächlich aus der Finanzwelt stammt. Die ersten Unternehmenssysteme wurden mit finanziellen Berechnungen im Hinterkopf entwickelt, und diese Geschichte hat Auswirkungen darauf, wie kleine Zahlen im Kontext der Optimierung der Lieferkette verwendet und verstanden werden.

Das Gesetz der kleinen Zahlen hat das Potenzial, die Leistung der Lieferkette erheblich zu verbessern, wenn Unternehmen die richtigen Zahlen erfolgreich in ihren Computersystemen nutzen können. Indem sie auf das Gleichgewicht zwischen den Rechenkosten und der Leistung der Lieferkette achten, können Unternehmen komplexere Modelle entwickeln und bessere Optimierungsergebnisse erzielen.

Vermorel erklärt, wie Lieferkettenpraktiken, die aus der Finanz- und Buchhaltungsbranche der 70er und 80er Jahre übernommen wurden, zur Verwendung hoher numerischer Genauigkeit in Lieferkettensystemen geführt haben. Der Bedarf an hoher Genauigkeit in Finanz- und Buchhaltungsfragen entstand aus einer Reihe von Betrugsfällen Anfang der 80er Jahre, bei denen Rundungsfehler ausgenutzt wurden, um Millionen von Dollar abzuzweigen.

Die hohe Genauigkeit, die in der Finanzbranche verwendet wird, ist jedoch nicht immer in der Supply-Chain-Verwaltung erforderlich. Vermorel stellt fest, dass in 80% der Geschäftsvorgänge die Menge eines gekauften Produkts nur eins ist. Das bedeutet, dass im Durchschnitt nur zwei Bits Genauigkeit benötigt werden, um Mengen in einem Geschäft darzustellen. Kieran hinterfragt die Bedeutung der Datengröße im Kontext der Supply-Chain-Verwaltung angesichts der Erschwinglichkeit von Speichergeräten mit Terabyte-Kapazität.

Vermorel stellt klar, dass die Leistung der meisten Berechnungen von der Größe der Daten abhängt, da der Flaschenhals im Laden und Entladen von Daten liegt und nicht in den Verarbeitungsfähigkeiten der CPU. Er betont, dass die Reduzierung der Datengröße zu erheblichen und manchmal sogar überlinearen Geschwindigkeitssteigerungen bei der Berechnung führen kann. Als Lokad es beispielsweise schaffte, die Daten um den Faktor 10 zu verkleinern, erlebten sie eine 50-fache Beschleunigung der Berechnung.

Die Herausforderung für das Supply-Chain-Management besteht darin, zwischen Daten zu unterscheiden, die hohe Genauigkeit erfordern, und Daten, die mit geringerer Genauigkeit dargestellt werden können. Vermorel schlägt vor, dass eine Plattform wie Lokad diese Aufgabe bewältigen kann und betont die Bedeutung einer Person, die auf den technologischen Stack oder die von der IT-Abteilung verwendeten Tools achtet. Die Vernachlässigung der Datenoptimierung kann zu Systemen mit massiven Rechenressourcen, aber enttäuschender Leistung führen.

Vermorel geht auch auf den Kompromiss zwischen Recheneffizienz und dem Ziel ein, alle möglichen Zukünfte und Entscheidungen in der Optimierung der Lieferkette zu untersuchen. Durch schnellere Berechnungen wird es möglich, mehr Szenarien zu analysieren, ohne die Rechenkosten signifikant zu erhöhen.

Sie diskutieren die Optimierung der Lieferkette und die Herausforderungen bei der Verwendung statistischer Modelle. Er betont, dass die Verwendung von gleitenden Durchschnitten und anderen einfachen Modellen für komplexe Einzelhandelsumgebungen wie Hypermärkte nicht ausreichend ist, wo es einen Bedarf an anspruchsvolleren Vorhersagewerkzeugen gibt, um Saisonalität, Trends und andere Faktoren zu berücksichtigen.

Vermorel hebt auch das Problem der “Gesetz der kleinen Zahlen” hervor, das entsteht, wenn man es mit einer großen Anzahl von Produkten mit wenigen täglichen Transaktionen zu tun hat. Traditionelle statistische Ansätze, die auf dem Gesetz der großen Zahlen beruhen, sind in solchen Situationen oft unzureichend. Um dies zu überwinden, aggregieren viele Unternehmen ihre Daten, z.B. indem sie Verkäufe nach Woche oder Monat konsolidieren. Allerdings geht dabei die Granularität verloren und es kann zu schlechten Entscheidungen führen, da Lieferkettenentscheidungen immer noch täglich getroffen werden.

Das Gespräch legt nahe, dass fortschrittliche Lieferkettensoftware, wie Lokad, bessere Orientierung bieten kann, indem sie historische Daten analysiert und Produktlebenszyklen berücksichtigt. Es ist entscheidend, dass solche Tools auf die Realität kleiner Zahlen ausgerichtet sind, da sie oft für einen erheblichen Teil der Lebensdauer eines Produkts relevant sein müssen. Letztendlich betont das Interview die Bedeutung des Ausgleichs von Rechenressourcen und anspruchsvoller Modellierung zur Optimierung der Leistung der Lieferkette.

Der Gründer betont die Bedeutung des Hinterfragens grundlegender Annahmen und der Verwendung geeigneter statistischer Werkzeuge bei der Optimierung der Lieferkette. Er betont, dass viele aktuelle statistische Methoden auf große Zahlen ausgerichtet sind, was für kleinere Lieferkettenentscheidungen möglicherweise nicht geeignet ist. Vermorel schlägt auch vor, dass Praktiker “mechanisches Verständnis” für ihre Lieferkettensysteme entwickeln sollten, ähnlich wie Formel-1-Fahrer für ihre Autos, um die Leistung zu maximieren. Trotz der Zunahme der Datensammlung argumentiert Vermorel, dass relevante Lieferketten-Daten oft begrenzt bleiben, was bei der Anwendung von Big-Data-Perspektiven irreführend sein kann.

Vollständiges Transkript

Kieran Chandler: Heute bei Lokad TV werden wir das Gesetz der kleinen Zahlen diskutieren und wie es genutzt werden kann, um die Leistung der Lieferkette zu verbessern. Also Joannes, als Unternehmen, das sich auf Big Data spezialisiert hat, ist es wahrscheinlich überraschend, dass wir heute über kleine Zahlen sprechen. Was steckt dahinter?

Joannes Vermorel: Die Idee ist, dass kleine Zahlen, nicht große Zahlen, in der Lieferkette allgegenwärtig sind. Wenn ich von kleinen Zahlen spreche, meine ich speziell alle numerischen Entscheidungen und Mengen, die wirklich wichtig sind. Ja, man kann einen Barcode mit 13 oder 14 Ziffern haben, aber das ist eher eine Kennung als eine Menge. Wenn man sich also Dinge ansieht, die Mengen ähneln, ist es sehr überraschend, dass es immer um sehr kleine Zahlen geht. Mit sehr kleinen Zahlen meine ich einstellige kleine Zahlen, also super kleine Zahlen. Es ist faszinierend, weil die meisten Statistiken auf die Gesetze der großen Zahlen ausgerichtet sind. In Bezug auf die Berechnung würde man denken, dass es keine Rolle spielt, aber es stellt sich heraus, dass es das doch tut, und zwar ziemlich stark.

Kieran Chandler: Können Sie etwas genauer erklären, warum das für die Berechnung wichtig ist?

Joannes Vermorel: Für einen Computer ist eine Zahl eine Zahl, oder? Es spielt keine Rolle. Es stellt sich jedoch heraus, dass, wenn man seine Zahlen richtig wählt, der Computer nicht nur schnell bei Additionen oder banalen Operationen mit Zahlen sein kann, sondern sogar etwa 10 bis 20 Mal schneller sein kann. Es macht also am Ende einen großen Unterschied. Es ist nicht nur ein kleiner Unterschied.

Kieran Chandler: Okay, für Leute, die vielleicht nicht wissen, was passiert, wenn Computer Informationen senden, was meinen Sie mit dem Senden einer Zahl? Wie kann das zwischen einem System und einem anderen unterschiedlich sein?

Joannes Vermorel: Hier gehen wir auf die Details der physikalischen Realität der von uns verwendeten Computerhardware ein. Es ist wichtig, weil, wenn Sie eine Optimierung der Lieferkette oder eine quantitative Optimierung der Lieferkette durchführen möchten, Sie eine Menge Datenverarbeitung und -analyse durchführen müssen, was Geld kostet. Obwohl Computer viel günstiger geworden sind als früher, gibt es immer ein Gleichgewicht zwischen den Kosten für die Berechnung und der Leistung der Lieferkette, die Sie erreichen können. Wenn Ihre Rohberechnungskosten stark gesenkt werden, könnten Sie sagen, dass die Computerkosten verschwinden werden. Das ist jedoch nicht wahr, denn Sie werden Ihre neu gewonnenen Ressourcen nutzen, um ein komplexeres Modell zu haben, das Ihnen wiederum die nächste Stufe der Prognosegenauigkeit oder Leistung in Bezug auf die Optimierung der Lieferkette bietet.

Kieran Chandler: Das kann besser funktionieren und somit, wissen Sie, dass es sich wiederum erhöht. Die Berechnungskosten, sodass Sie darauf achten müssen. Nun zurück zu diesen Zahlen und kleinen Zahlen in Computern. Insbesondere Unternehmenssysteme. Der Großteil des Bedarfs an Ihren Berechnungen, arithmetischen Berechnungen, stammt meiner Meinung nach aus der Finanzwelt. Die ersten Unternehmenssysteme waren alle auf Buchhaltung, Finanzen, Lieferkette ausgerichtet. Das ist in den 70er Jahren entstanden. Die Lieferkette kam etwas später in den 80er Jahren und viele der damals bereits etablierten Praktiken, insbesondere in Bezug auf die hochpräzisen Zahlen, wurden in die Lieferkette importiert. Warum benötigen Sie also eine sehr hohe numerische Genauigkeit für Geld?

Joannes Vermorel: Nun, es stellte sich heraus, dass es Anfang der 80er Jahre viele relativ spektakuläre Betrügereien gab, bei denen die Leute einfach die Tatsache ausnutzten, dass man, wenn man die Cent-Beträge rundet, tatsächlich Magie erschaffen kann. Man kann tatsächlich Geld stehlen, wenn man nur ein paar Cent in jeder einzelnen Transaktion rundet, die Ihr Unternehmen durchführt. Und es ist für das System völlig unsichtbar, weil es abgerundet wurde, aber tatsächlich war es echtes Geld. Und wenn man Milliarden von Transaktionen hatte, schafften es einige Leute, buchstäblich Millionen von Dollar aus dem System zu extrahieren, indem sie nur den Bruchteil eines Cents nahmen und sie auf ihre eigenen Konten umleiteten. Die Finanz- und Buchhaltungswelt hat sich auf sehr hohe Präzisionszahlen aktualisiert, bei denen diese Probleme nicht auftreten. Das Problem ist, dass, würde ich sagen, auch die Lieferkette, aber als Ergebnis haben Sie Zahlen, die standardmäßig in praktisch allen Systemen super, super hohe Präzision haben. Und Sie müssen sich fragen, welche übliche Menge von einem Kunden in einem Geschäft gekauft wird. Und unsere Antwort bei Lokad, weil wir die Daten beobachten, ist, dass 80% der Transaktionen im Geschäft die Menge eins für das Produkt ist. Also, buchstäblich, die Frage ist, Sie haben eine Zahl, wie viele Bits an Präzision benötigen Sie? Nun, die Antwort ist, dass Sie im Durchschnitt etwa zwei Bits an Präzision benötigen, um beispielsweise eine Zahl in einem Geschäft für den gekauften Betrag darzustellen.

Kieran Chandler: Aber warum sollten wir uns wirklich darum kümmern, wie viele Bits verwendet werden, um Daten zu senden? Denn wenn wir uns die gesamte Lieferkette ansehen, macht es dann wirklich so einen großen Unterschied?

Joannes Vermorel: Im großen Ganzen würde man denken, dass man heutzutage Festplatten mit Terabytes in den nahegelegenen Supermärkten für nur etwa 200 oder so kaufen kann. Also würde man denken, es ist super billig. Warum sollte ich mich überhaupt darum kümmern? Nun, es stellte sich heraus, dass die Leistung der meisten Berechnungen buchstäblich von der Größe der Daten abhängt. Wenn die Daten größer sind, wird es langsamer sein. Warum? Weil der Engpass nicht Ihre CPU ist. Es ist nur das Laden und Entladen der Daten. Ja, Sie können eine Festplatte mit einem Terabyte kaufen, aber wenn Sie tatsächlich versuchen, diese Festplatte mit Daten zu füllen, dauert es wahrscheinlich einen oder sogar zwei Tage, einfach weil die Festplatte langsam ist. Das Schreiben von Daten auf die Festplatte oder das Lesen der gesamten Festplatte dauert also sehr lange. Also, wenn Sie die Daten einfach minimieren können, können Sie sie buchstäblich beschleunigen.

Kieran Chandler: Also, Joannes, kannst du uns mehr darüber erzählen, wie die Größe der Daten die Geschwindigkeit der Berechnungen in der Optimierung der Lieferkette beeinflusst?

Joannes Vermorel: Die Berechnung wird signifikant beeinflusst, und wenn ich signifikant sage, gibt es normalerweise sogar überproportionale Gewinne. Wenn Sie die Größe der Festplatte halbieren, beschleunigen Sie die Berechnung nicht um das Zweifache, sondern um mehr als das Zweifache. Wir haben bei Lokad festgestellt, dass es viele Situationen gibt, in denen wir, wenn wir die Daten um den Faktor 10 verkleinern konnten, buchstäblich eine 50-fache Beschleunigung hatten. Und nochmal, wenn wir zu unseren Zahlen zurückgehen, nehmen wir an, wir haben eine Double-Precision-Zahl, also 64. Übrigens, was in der Informatik als Bit bezeichnet wird, ist einfach eine Null oder Eins. Und wenn Sie eine Zahl haben, die mit 64 Bits dargestellt wird, im Vergleich zu einer Zahl, die nur mit zwei Bits dargestellt wird, haben Sie buchstäblich 32-mal mehr. Eine Zahl nimmt buchstäblich 32-mal mehr Platz ein. Wenn Sie also diese Zahlen stark komprimieren und diese großen Daten in viel kleinere Daten umwandeln können, können Sie eine viel schnellere Berechnung haben. Und ja, Lieferketten haben immer noch mit solchen großen Finanzdaten zu tun, wenn es um einige der Transaktionen geht, die sie durchführen müssen.

Kieran Chandler: Wie sortieren Sie also zwischen dem, was kleinere Daten sein sollte und dem, was größere Daten sein sollte?

Joannes Vermorel: Sie möchten buchstäblich, dass Ihr Supply Chain Scientist darauf achtet. Sie möchten wirklich eine Plattform wie Lokad haben, eine schamlose Werbung, die das für Sie erledigt. Aber meine Botschaft, meine allgemeinere Botschaft ist, dass jemand darauf achten muss. Es kann Ihr Lieferant sein, wenn er sehr vorsichtig mit seinem technologischen Stack ist. Es kann Ihre IT-Abteilung sein, wenn sie sehr sorgfältig bei der Auswahl der Werkzeuge ist. Aber am Ende muss jemand darauf achten. Wenn niemand darauf achtet, enden Sie mit Systemen, bei denen Sie massive Mengen an Rechenhardware und Leistung haben, die in der Regel völlig enttäuschend ist. Es dauert buchstäblich Sekunden, um ein Ergebnis zu erhalten, und selbst scheinbar einfache Berechnungen dauern ziemlich lange. Die Idee, die Lieferkette auf alle möglichen Zukunftsszenarien, Wahrscheinlichkeiten zu betrachten und mit allen möglichen Entscheidungen zu konfrontieren, bleibt nur ein ferner Traum, einfach weil das System bereits so langsam ist, um mit einem Szenario umzugehen. Die Idee, dass das System mit Millionen möglicher Zukünfte umgeht, ist wie ein kompletter Wahnsinn.

Kieran Chandler: Aber wenn wir uns alle möglichen Zukünfte, alle möglichen Entscheidungen ansehen, geht das doch gegen das eigentliche Ziel, die Rechenkosten zu reduzieren. Aber wenn Sie sich alle möglichen Zukünfte ansehen, multipliziert das doch diese Rechenkosten um ein Vielfaches?

Joannes Vermorel: Ja, aber das ist der Kompromiss, den ich beschrieben habe. Wenn Sie Ihre Berechnung viel schneller machen, möchten Sie nicht nur einen supergünstigen Computer haben, um Ihre gesamte Lieferkette auszuführen. Wenn wir immer noch die Techniken verwenden würden, die in den 80er Jahren in Bezug auf die Optimierung der Lieferkette verwendet wurden, könnten wir auf einem Smartphone einen Walmart betreiben. Wir könnten buchstäblich Walmart auf einem Smartphone betreiben. Es ergibt keinen Sinn, dies zu tun, aber wenn Sie nur die Herausforderung haben, den Punkt zu beweisen, wie…

Kieran Chandler: Also, Joannes, du hast darüber gesprochen, wie die Idee ist, dass man, wenn die Berechnung billiger wird, ein mathematisches oder statistisches Modell übernimmt, das leistungsfähiger ist, richtig?

Joannes Vermorel: Ja, das ist richtig. Wenn die Berechnung billiger wird, können Sie ein leistungsfähigeres Modell übernehmen, das bessere Ergebnisse für die Lieferkette liefert, jedoch auf Kosten des Verbrauchs von mehr Rechenressourcen. Es ist ein Kompromiss.

Kieran Chandler: Und selbst wenn wir sagen, dass wir uns alle möglichen Zukünfte ansehen, gilt immer noch die Idee der Gesetze der kleinen Zahlen, oder?

Joannes Vermorel: Das ist korrekt. Selbst wenn wir uns alle möglichen Zukünfte ansehen, müssen wir nicht die Wahrscheinlichkeit betrachten, dass an einem einzigen Tag in einem einzigen Geschäft eine Million Flaschen von irgendetwas verkauft werden, denn die Wahrscheinlichkeit ist einfach null. Die Realität ist, dass selbst für ein Flaggschiffprodukt die Wahrscheinlichkeit, dass Sie an einem beliebigen Tag mehr als 100 Einheiten verkaufen, sehr gering ist, und für die große Mehrheit der Produkte betrachten Sie nur null Einheiten, die verkauft werden. Das ist tatsächlich die Mehrheit der Produkte. Etwa 80% der Produkte im Hypermarkt werden nicht einmal jeden Tag verkauft, und für 95% der Produkte lautet die Frage nur: Verkaufe ich dieses Produkt null, eins, zwei oder drei Einheiten an jedem beliebigen Tag? Und die Wahrscheinlichkeit, dass Sie überhaupt 10 Einheiten erreichen können, ist bereits verschwindend gering. Es geht also um die Gesetze der kleinen Zahlen.

Kieran Chandler: Okay, also in diesem Beispiel mit dem Hypermarkt haben sie es mit Tausenden von Transaktionen pro Tag zu tun und haben massive Lagerbestände. Wie wissen Sie, wo Sie die Grenzen für jedes einzelne Produkt ziehen müssen?

Joannes Vermorel: Dafür benötigen Sie geeignete Tools, die historische Daten analysieren. Sie werden bei Ihrer Analyse geleitet, weil Sie, wenn Sie sich die aufgezeichneten Daten ansehen, wissen, aber auch eine gute Supply-Chain-Software, insbesondere eine predictive Software wie Lokad, gibt es Dinge, die Sie im Voraus wissen. Sie entdecken das nicht zum ersten Mal in einem Hypermarkt. Und ja, Sie haben viele Transaktionen und viele Produkte, die verkauft werden, aber wenn Sie sich jedes einzelne Produkt ansehen, haben Sie nicht so viele Transaktionen. Ich meine, wenn Sie bedenken, dass ein Produkt einen Lebenszyklus auf dem Markt von vielleicht drei Jahren haben wird und dann durch ein anderes Produkt ersetzt wird. Wenn Sie bedenken, dass das Produkt nicht einmal jeden Tag verkauft wird, bedeutet das, dass Sie vielleicht einen Punkt erreichen, an dem Sie 100 Verkäufe in Ihrer gesamten Historie für dieses Produkt haben, was vielleicht das niedrigste Niveau ist, das Sie berücksichtigen müssen. Das ist schon eine große Zahl zu nennen, vor allem von einer…

Kieran Chandler: Also, aus statistischer Sicht, aber das wäre wie eine niedrige Hürde dafür. Es könnte tatsächlich mehr als ein Jahr dauern. Das bedeutet, dass, wenn Sie eine statistische Werkzeugausstattung haben, die um diese Idee herum konzipiert ist, dass Sie viele große Zahlen nutzen können, es vielleicht mehr als ein Jahr dauern wird, bis Ihr Werkzeug überhaupt relevant wird. Und denken Sie daran, wir sprechen von einem Produkt, das nur einen Lebenszyklus von drei Jahren haben wird, also bedeutet das, dass für ein Drittel seiner Lebensdauer Sie, die beiden vielen statistischen Werkzeuge, nicht einmal relevant sein werden.

Joannes Vermorel: Okay, viele Unternehmen konsolidieren ihre Verkäufe normalerweise wöchentlich oder monatlich. Wie gut funktioniert das, wenn Sie sich in einem wahrgenommenen Leistungsspiel befinden? Wie gut funktioniert das im Vergleich zum Kompromiss, den Sie eingehen, indem Sie ein wenig Granularität in Ihren Daten verlieren? Das ist sehr interessant, denn wie ich bereits sagte, haben Sie diese Probleme mit den Gesetzen der kleinen Zahlen, die allgegenwärtig sind, und das Problem ist, dass alle Werkzeuge, zumindest die klassischen Werkzeuge, sicherlich nicht darauf achten. Aber die klassischen Werkzeuge sind sicherlich auf die Gesetze der großen Zahlen ausgerichtet. Was tun Sie also? Nun, Sie aggregieren die Daten.

Kieran Chandler: Und warum aggregieren Sie? Nicht, weil es das Richtige ist, sondern nur, weil es eine Möglichkeit ist, damit Sie nicht völlig dysfunktionale Ergebnisse erhalten. Aber Sie tun dies nicht, weil es klug und relevant für Ihre Supply Chain ist. Sie tun es nur, weil sonst Ihre Logik, die von Durchschnittswerten gesteuert wird, zusammenbrechen würde, denn implizit versuchen Sie, das Gesetz der großen Zahlen zu nutzen.

Joannes Vermorel: Sie konsolidieren also tatsächlich, aber das Problem ist, dass Ihre Supply Chain-Entscheidungen immer noch täglich getroffen werden, auch wenn Sie beispielsweise Entscheidungen bis zur monatlichen Aggregation konsolidieren, um größere Zahlen zu haben. Ja, Sie haben eine bessere monatliche Analyse, nur weil Sie alle Daten konsolidiert haben, aber Sie treffen immer noch täglich Entscheidungen, und es stellt sich heraus, dass Ihre monatliche Analyse Ihnen nichts darüber sagt, was innerhalb des Monats passiert. Ja, Sie wissen, dass im Durchschnitt über einen Monat hinweg 100 Einheiten verbraucht werden. Aber was ist heute? Soll ich null, eins oder drei Einheiten in den Laden schicken? Und ähnliche Entscheidungen gibt es auch, wenn Sie nicht zeitlich, sondern kategorienweise aggregieren.

Kieran Chandler: Wenn Sie also zum Beispiel sagen: “Heute habe ich 500 Einheiten von Limonade verkauft”, ja, aber sie verteilen sich auf 100 Produktreferenzen, also hilft das nicht wirklich weiter, denn in der Supply Chain treffen Sie keine Entscheidung auf Kategorieebene, wie zum Beispiel im Bereich frische Lebensmittel. Sie treffen eine Entscheidung auf der Ebene dieser spezifischen Produktreferenz und was damit geschehen soll. Okay, wir fangen an, die Dinge zusammenzufassen. Was sollten Personen, die sich das ansehen, tun, um diese Design-Symphonie einzuführen und die bestmögliche Nutzung der vorhandenen Rechenleistung zu ermöglichen?

Joannes Vermorel: Sie sollten wirklich anfangen, die grundlegenden Annahmen zu überdenken. Ich meine, wann immer Ihnen jemand sagt: “Oh, wir haben Sicherheitsbestände”, ja, das sind Normalverteilungen. Fragen Sie sich wirklich, ob das der richtige Ansatz ist.

Kieran Chandler: Schau ich mir das Problem mit den statistischen Werkzeugen an, die für die Gesetze der kleinen Zahlen relevant sind, mit denen ich konfrontiert bin? Die meisten statistischen Methoden des 19. Jahrhunderts, die heutzutage verwendet werden, sind eindeutig auf die Gesetze der großen Zahlen ausgerichtet. Mein Vorschlag ist also, sich bewusst zu sein, dass die von Ihnen verwendeten Werkzeuge nicht für die Art von Situation entwickelt wurden, mit der Sie konfrontiert sind. Und wieder gehen wir zurück zur Pseudowissenschaft und zum falschen Rationalismus. Nur weil Sie ein mathematisches Werkzeug verwenden, bedeutet das nicht, dass es rational ist. Vielleicht basiert Ihr statistisches Framework auf grundlegenden Annahmen, die von Ihrer Domäne verletzt werden. Ich würde also sagen, überprüfen Sie die Grundlagen, stellen Sie sicher, dass Ihnen nichts Wichtiges entgeht.

Joannes Vermorel: Ja, das stimmt. Und dann, was die mechanische Sympathie betrifft, ist meine Botschaft, es ist wie bei den großen Champions der Formel 1. Wenn man Interviews mit den Champions sieht, wissen sie viel über ihre Autos. Sie wissen nicht, wie man ein Formel-1-Auto baut, aber sie kennen sich mit der Mechanik aus. Sie haben das, was man mechanische Sympathie nennt. Sie wissen viel darüber, wie das Auto funktioniert, damit sie das Beste aus der Maschine herausholen können, die sie haben. Und sie wissen wirklich viel über Verbrennung, Resonanz, die richtige Temperatur für die Reifen, um maximalen Halt auf dem Boden zu haben. Ich meine, sie wissen viel über die technischen Details und die Physik ihres Motors. Und so können sie wirklich großartige Piloten werden. Es geht nicht nur darum, gut fahren zu können, sondern auch darum, das Werkzeug zu kennen, das man benutzt. Und ich glaube, das gilt auch für die Supply Chain. Man steuert die Supply Chain nicht nur mit purer Muskelkraft. Heutzutage hat man Computer, die einen unterstützen. Aber wenn man wirklich gut sein will, muss man kein Ingenieur werden, der in der Lage ist, einen Formel-1-Motor der nächsten Generation zu entwerfen. Das ist kein Pilot. Ein Pilot ist nicht der Maschinenbauingenieur, der in der Lage ist, den nächsten Generation des Motors zu entwerfen. Aber er weiß viel, um das Beste daraus zu machen. Also mein Vorschlag ist, genug mechanische Sympathie für all diese Computersysteme zu entwickeln, die Ihre Supply Chain unterstützen, damit Sie intuitiv verstehen, was diese Dinge antreibt und wie Sie die Leistung, die Sie haben, wirklich maximieren können.

Kieran Chandler: Das ist eine wirklich gute Analogie. Was wir im Moment auch in der Branche sehen, ist…

Kieran Chandler: Also, es werden mehr Daten gesammelt, um alle Arten von Entscheidungen zu treffen. Würden Sie sagen, dass diese Perspektive sich wirklich von der Gesetzmäßigkeit kleiner Zahlen entfernt und die Leute eher zu einer Perspektive mit großen Datenmengen tendieren?

Joannes Vermorel: Das Problem dabei ist, dass die wichtigsten Daten immer in kleinen Zahlen vorliegen. Ja, Sie können eine riesige Menge an Daten über Ihren Website-Traffic sammeln, aber wenn Sie sich den Traffic für ein obskures Produkt ansehen, dann sind obskure Produkte im Durchschnitt etwa 80% dessen, was Unternehmen verkaufen. Sie wissen, es ist offensichtlich diese Einzelheit, und dann werden Sie feststellen, dass Sie nur eine Handvoll Webbesucher pro Tag haben. Also ja, Sie haben vielleicht Millionen von Klicks, aber wenn Sie es auf den relevanten Zeitrahmen skalieren, der normalerweise der Tag oder innerhalb des Tages ist, weil Ihre Supply-Chain-Entscheidungen täglich oder sogar untertägig getroffen werden. Wenn Sie sich die Granularität ansehen, die wichtig ist, nämlich das Produkt, die Referenz auf der niedrigsten Ebene, also die genaue Größe, die genaue Farbe, die genaue Form, wissen Sie, die genaue Variante, nicht das generische Produkt, denn in der Supply Chain entscheiden Sie sich nicht dafür, ein generisches T-Shirt herzustellen. Sie stellen ein T-Shirt in dieser Farbe, dieser Größe, dieser Form her. Wenn Sie also anfangen, es auf der niedrigsten Ebene zu betrachten, die die relevante ist, kommen Sie zu begrenzten Daten zurück. Also ja, die Leute sagen, sie machen Big Data, aber die Realität ist, wenn man die Supply Chain aus der Sicht dessen betrachtet, was relevant ist, ist es eigentlich nicht so groß. Und das größte, und ich wünschte, es wäre so, weil es aus statistischer Sicht so viel einfacher wäre, wissen Sie, aber das ist nicht der Fall. Also lassen Sie sich nicht täuschen. Ich glaube, Big Data gibt den Menschen, wissen Sie, es ist sehr irreführend, weil sie denken können: “Oh, das ist in Ordnung. Ich habe Millionen von Datenpunkten.” Nein, wenn Sie sich eine Fabrik ansehen, selbst die Fabriken, die Millionen von Einheiten produzieren, stellt sich die Frage, wie viele Chargen produzieren Sie, und vielleicht haben Sie in Bezug auf Chargen eine einstellige Anzahl von Chargen. Und die Fabrik arbeitet nur in diesem Modus seit den letzten zwei Jahren. Also reden wir von ein paar hundert Chargen, und das ist es. Das ist kein großes Ding, auch wenn Sie eine große Menge an Daten sammeln.

Kieran Chandler: Okay, wir müssen es dabei belassen, dass in Bezug auf Daten weniger vielleicht mehr ist. Das war alles für diese Woche. Vielen Dank fürs Zuschauen und wir sehen uns wieder in der nächsten Folge. Danke, dass ihr eingeschaltet habt.