00:00:07 Einführung und die Bedeutung kleiner Zahlen für die supply chain-Leistung.
00:01:00 Wie kleine Zahlen die Rechnerleistung und Kosten beeinflussen.
00:03:33 Die Geschichte und Entwicklung der numerischen Präzision in der Finanzwelt und in supply chain-Systemen.
00:06:00 Die Auswirkungen der Datengröße auf die rechnerische Leistung und Engpässe.
00:07:44 Erzielen eines signifikanten Geschwindigkeitszuwachses in der Berechnung durch Reduzierung der Datengröße.
00:08:47 Die Bedeutung der Beachtung des technologischen Stacks und der Werkzeuge bei der supply chain-Optimierung.
00:10:17 Das Gleichgewicht zwischen Rechenkosten und leistungsfähigeren mathematischen Modellen für bessere supply chain-Ergebnisse.
00:12:50 Analyse historischer Daten und der Einsatz vorausschauender supply chain-Software für bessere Entscheidungsfindung.
00:15:04 Auswirkungen der Datenaggregation auf den wahrgenommenen Leistungsvorteil und den Verlust an Granularität.
00:16:00 Herausforderungen bei der Konsolidierung von supply chain-Entscheidungen.
00:17:33 Neubewertung grundlegender statistischer Annahmen und mechanischer Sympathie.
00:20:01 Bedeutung mechanischer Sympathie im supply chain-Management.
00:20:58 Der Übergang vom Gesetz der kleinen Zahlen zu einer Big Data-Perspektive.
00:23:20 Fazit: Weniger Daten können in bestimmten Situationen mehr sein.
Zusammenfassung
Joannes Vermorel, der Gründer des supply chain optimization Softwareunternehmens Lokad, diskutiert das Gesetz der kleinen Zahlen und dessen Einfluss auf die supply chain-Leistung mit Kieran Chandler. Vermorel hebt die Bedeutung kleiner Zahlen in supply chain-Daten und die Wichtigkeit der richtigen Zahlenwahl zur Optimierung der Rechengeschwindigkeit und Leistung hervor. Die Diskussion betont die Notwendigkeit einer stärkeren Design-Sympathie, um Leistungsvorteile zu erzielen, den Kompromiss zwischen rechnerischer Effizienz und der Untersuchung aller möglichen Zukünfte und Entscheidungen sowie die Herausforderung, statistische Modelle in komplexen Einzelhandelsumgebungen einzusetzen. Das Interview unterstreicht die Bedeutung der Balance zwischen Rechnerressourcen und anspruchsvoller Modellierung zur Optimierung der supply chain-Leistung.
Erweiterte Zusammenfassung
In diesem Interview spricht Kieran Chandler mit Joannes Vermorel, dem Gründer von Lokad, einem Softwareunternehmen, das sich auf supply chain-Optimierung spezialisiert hat. Sie diskutieren das Gesetz der kleinen Zahlen und sein Potenzial zur Verbesserung der supply chain-Leistung, die Bedeutung kleiner Zahlen in supply chain-Daten und den Einfluss der Wahl der richtigen Zahlen auf die Rechengeschwindigkeit und Leistung.
Vermorel erklärt, dass kleine Zahlen, insbesondere einstellige Zahlen, in supply chains allgegenwärtig sind. Obwohl Barcodes viele Ziffern enthalten können, dienen sie mehr als Identifikatoren denn als Mengenangaben. Mengen in supply chains beinhalten in der Regel sehr kleine Zahlen, was überraschend ist, da sich die meisten Statistiken auf die Gesetze der großen Zahlen konzentrieren. Diese Beobachtung ist wichtig, weil sie die Notwendigkeit einer stärkeren Design-Sympathie hervorhebt, um Rechnerleistungsgewinne zu erzielen, insbesondere da sich die Verbesserung der Rechenleistung verlangsamt.
Das Interview wendet sich dann dem Einfluss kleiner Zahlen auf das Rechnen zu. Vermorel erklärt, dass, obwohl Computer jede Zahl verarbeiten können, sie Berechnungen wesentlich schneller durchführen können, wenn die richtigen Zahlen gewählt werden. Zum Beispiel können Computer 10- bis 20-mal schneller alltägliche Operationen mit Zahlen ausführen, wenn die korrekten Zahlen ausgewählt werden. Das kann einen signifikanten Unterschied in der Gesamtleistung eines supply chain-Optimierungssystems ausmachen.
Kieran bittet Vermorel, den Unterschied beim Übertragen von Zahlen zwischen Systemen und der physischen Realität der Computing-Hardware zu erklären. Vermorel betont, dass die Kosten für Datenverarbeitung und -analyse für die supply chain-Optimierung wichtig sind. Computer sind in Bezug auf reine Rechenleistung billiger geworden, was leistungsfähigere Algorithmen ermöglicht, um die Prognosegenauigkeit und die supply chain-Leistung zu verbessern. Dennoch ist das Gleichgewicht zwischen Rechenkosten und supply chain-Leistung entscheidend.
Vermorel argumentiert, dass, wenn die reinen Rechenkosten deutlich sinken, das nicht bedeutet, dass die Kosten für Computer verschwinden. Stattdessen werden Unternehmen ihre neu gewonnenen Ressourcen nutzen, um komplexere Modelle zu entwickeln, was letztlich zu höheren Rechenkosten führt. Daher muss auf den Einfluss kleiner Zahlen auf die Rechenkosten geachtet werden, um die supply chain-Leistung zu optimieren.
Die Diskussion drehte sich um die Ursprünge des Bedarfs an arithmetischen Berechnungen in Unternehmenssystemen, die vor allem aus dem Finanzbereich stammen. Die ersten Unternehmenssysteme wurden mit Blick auf finanzielle Berechnungen entwickelt, und diese Geschichte hat Auswirkungen darauf, wie kleine Zahlen im Kontext der supply chain-Optimierung verwendet und verstanden werden.
Das Gesetz der kleinen Zahlen hat das Potenzial, die supply chain-Leistung signifikant zu verbessern, wenn Unternehmen es schaffen, die richtigen Zahlen in ihren Rechensystemen erfolgreich zu nutzen. Durch die Beachtung des Gleichgewichts zwischen Rechenkosten und supply chain-Leistung können Unternehmen komplexere Modelle entwickeln und größere Optimierungsergebnisse erzielen.
Vermorel erklärt, wie aus der Finanz- und Buchhaltungsbranche in den 70er und 80er Jahren übernommene supply chain-Praktiken zur Verwendung hoher numerischer Präzision in supply chain-Systemen führten. Der Bedarf an hoher Präzision in Finanzen und Buchhaltung entstand durch eine Reihe von Betrugsfällen in den frühen 80er Jahren, bei denen Rundungsfehler ausgenutzt wurden, um Millionen von Dollar abzuzweigen.
Allerdings ist die in der Finanzwelt verwendete hohe Präzision nicht immer im supply chain-Management erforderlich. Vermorel stellt fest, dass in 80 % der Ladenkäufe die Menge eines gekauften Produkts lediglich eins beträgt. Das bedeutet, dass im Durchschnitt nur zwei Bits an Präzision benötigt werden, um Mengen in einem Geschäft darzustellen. Kieran hinterfragt die Bedeutung der Datengröße im Kontext des supply chain-Managements, angesichts der Erschwinglichkeit von Speichermedien mit Terabyte-Kapazität.
Vermorel erläutert, dass die Leistung der meisten Berechnungen von der Datenmenge abhängt, da der Flaschenhals im Laden und Entladen der Daten liegt und nicht in den Verarbeitungskapazitäten der CPU. Er hebt hervor, dass die Reduzierung der Datengröße zu signifikanten und manchmal superlinearen Geschwindigkeitssteigerungen in der Berechnung führen kann. Zum Beispiel, als Lokad es schaffte, die Daten um den Faktor 10 zu verkleinern, erlebten sie eine 50-fache Beschleunigung der Berechnungen.
Die Herausforderung im supply chain-Management besteht darin, zwischen Daten, die hohe Präzision erfordern, und Daten zu unterscheiden, die mit geringerer Präzision dargestellt werden können. Vermorel schlägt vor, dass eine Plattform wie Lokad diese Aufgabe bewältigen kann und betont die Bedeutung, dass jemand auf den technologischen Stack oder die von der IT-Abteilung verwendeten Werkzeuge achtet. Das Ignorieren der Datenoptimierung kann zu Systemen mit massiver Rechenhardware, aber enttäuschender Leistung führen.
Vermorel spricht auch den Kompromiss zwischen rechnerischer Effizienz und dem Ziel an, alle möglichen Zukünfte und Entscheidungen in der supply chain-Optimierung zu untersuchen. Durch schnellere Berechnungen wird es möglich, mehr Szenarien zu analysieren, ohne die Rechenkosten signifikant zu erhöhen.
Sie diskutieren die supply chain-Optimierung und die Herausforderungen beim Einsatz statistischer Modelle. Er betont, dass der Einsatz von gleitenden Durchschnitten und anderen einfachen Modellen für komplexe Einzelhandelsumgebungen, wie beispielsweise Hypermärkten, nicht ausreicht, wo es einen Bedarf an anspruchsvolleren vorausschauenden Werkzeugen gibt, um Saisonalität, Trends und andere Faktoren zu bewältigen.
Vermorel hebt auch das Problem des “Gesetzes der kleinen Zahlen” hervor, das auftritt, wenn man es mit einer großen Anzahl von Produkten bei wenigen täglichen Transaktionen zu tun hat. Traditionelle statistische Ansätze, die sich auf das Gesetz der großen Zahlen stützen, sind in diesen Situationen oft unzureichend. Um dem entgegenzuwirken, aggregieren viele Unternehmen ihre Daten, beispielsweise durch Konsolidierung der Verkäufe nach Woche oder Monat. Dieser Ansatz opfert jedoch die Granularität und kann zu schlechten Entscheidungen führen, da supply chain decisions weiterhin täglich getroffen werden.
Das Gespräch legt nahe, dass fortschrittliche supply chain software, wie Lokad, durch die Analyse historischer Daten und die Berücksichtigung von product life cycles, bessere Leitlinien bieten können. Es ist entscheidend, dass solche Werkzeuge an die Realität kleiner Zahlen angepasst entworfen werden, da sie oft für einen erheblichen Anteil der Produktlebensdauer relevant sein müssen. Letztlich unterstreicht das Interview die Bedeutung der Balance zwischen Rechnerressourcen und anspruchsvoller Modellierung zur Optimierung der supply chain-Leistung.
Der Gründer erörtert die Bedeutung, grundlegende Annahmen zu hinterfragen und geeignete statistische Werkzeuge in der supply chain-Optimierung einzusetzen. Er betont, dass viele der aktuellen statistischen Methoden auf große Zahlen ausgerichtet sind, die für Entscheidungen im kleineren Maßstab der supply chain möglicherweise nicht geeignet sind. Vermorel schlägt zudem vor, dass Praktiker eine “mechanical sympathy” für ihre supply chain-Systeme entwickeln sollten, ähnlich wie Formel-1-Fahrer für ihre Autos, um die Leistung zu maximieren. Trotz des Anstiegs der Datensammlung argumentiert Vermorel, dass relevante supply chain-Daten oft begrenzt bleiben, was irreführend sein kann, wenn man Big Data-Perspektiven anwendet.
Vollständiges Transkript
Kieran Chandler: Heute in Lokad TV werden wir das Gesetz der kleinen Zahlen besprechen und wie es genutzt werden kann, um die supply chain-Leistung zu verbessern. Also Joannes, als ein Unternehmen, das sich auf Big Data spezialisiert, ist es wahrscheinlich überraschend, dass wir heute über kleine Zahlen sprechen. Was ist die Idee dahinter?
Joannes Vermorel: Es geht darum, dass kleine Zahlen, nicht große Zahlen, in der supply chain allgegenwärtig sind. Wenn ich von kleinen Zahlen spreche, meine ich damit insbesondere alle numerischen Entscheidungen und Mengen, die wirklich zählen. Ja, ein Barcode kann 13 oder 14 Ziffern haben, aber das ist mehr ein Identifikator und keine Menge. Wenn man sich Dinge anschaut, die Mengen darstellen, ist es sehr überraschend, dass es immer um sehr kleine Zahlen geht. Wenn ich von sehr kleinen Zahlen spreche, meine ich einstellige Zahlen, also super klein. Es ist faszinierend, denn die meisten Statistiken sind auf die Gesetze der großen Zahlen ausgerichtet. Was das Rechnen betrifft, würde man denken, dass es keine Rolle spielt, aber es tut es – ganz erheblich.
Kieran Chandler: Kannst du etwas genauer erklären, wie das für das Rechnen relevant ist?
Joannes Vermorel: Für einen Computer ist eine Zahl eine Zahl, oder? Es spielt keine Rolle. Allerdings stellt sich heraus, dass, wenn man seine Zahlen richtig wählt, der Computer nicht nur bei solchen Additionen oder alltäglichen Operationen mit Zahlen schnell sein kann, sondern etwa 10- bis 20-mal schneller arbeitet. Somit macht es letztlich einen großen Unterschied. Es ist nicht nur ein kleiner Unterschied.
Kieran Chandler: Okay, für Leute, die vielleicht nicht wissen, was passiert, wenn Computer Informationen übertragen: Was meinst du mit dem Übertragen einer Zahl? Wie kann das von einem System zum anderen unterschiedlich sein?
Joannes Vermorel: Hier gehen wir auf die Details der physischen Realität der vorhandenen Computing-Hardware ein. Es ist wichtig, denn wenn man supply chain-Optimierung oder quantitative supply chain-Optimierung betreiben möchte, fällt eine Menge an Datenverarbeitung und -analyse an, die Geld kostet. Obwohl Computer in Bezug auf rohe Rechenleistung weitaus billiger geworden sind als früher, gibt es immer ein Gleichgewicht zwischen den Rechenkosten und der supply chain-Leistung, die man erreichen kann. Wenn die reinen Rechenkosten deutlich sinken, könnte man meinen, dass die Kosten für Computer verschwinden. Das ist jedoch nicht der Fall, da die neu gewonnenen Ressourcen genutzt werden, um ein komplexeres Modell zu entwickeln, was wiederum die nächste Stufe der Prognosegenauigkeit bzw. Leistung in der supply chain-Optimierung ermöglicht.
Kieran Chandler: Das kann zwar zu einer besseren Leistung führen, was wiederum zu höheren Kosten für das Rechnen führt. Daher muss man darauf ein wenig achten. Zurück zu diesen Zahlen und den kleinen Zahlen in Computern, insbesondere in Unternehmenssystemen. Der Großteil des Bedarfs an arithmetischen Berechnungen stammt, würde ich sagen, aus der Finanzwelt. Die ersten Unternehmenssysteme waren alle auf Buchhaltung, Finanzen und supply chain ausgerichtet. Das kam in den 70ern. Supply chain kam etwas später in den 80ern und viele der zu der Zeit bereits etablierten Praktiken, insbesondere in Bezug auf hochpräzise Zahlen, wurden in die supply chain übernommen. Warum braucht man also für Geld superhohe numerische Präzision?
Joannes Vermorel: Nun, es stellte sich heraus, dass es in den frühen ‘80er Jahren viele relativ spektakuläre Betrugsfälle gab, bei denen die Leute einfach die Tatsache ausnutzten, dass man, wenn man die Cent-Beträge rundet, tatsächlich Magie erzeugen kann. Man kann tatsächlich Geld stehlen, wenn man in jeder einzelnen Transaktion, die Ihr Unternehmen durchführt, nur ein paar Cent rundet. Und das ist für das System völlig unsichtbar, weil es weggereinigt wurde, aber tatsächlich war es echtes Geld. Und bei Milliarden von Transaktionen schafften es manche buchstäblich, Millionen Dollar aus dem System herauszuziehen, indem sie lediglich den Bruchteil eines Cents abzweigten und auf ihre eigenen Konten umleiteten. Also wurde die Finanz- und Buchhaltungswelt auf Zahlen mit sehr hoher Präzision umgestellt, bei denen diese Probleme nicht mehr auftreten. Das Problem ist, würde ich sagen, dass es auch im supply chain-Bereich so ist, aber infolgedessen hat man in nahezu allen Systemen standardmäßig Zahlen, die super, super präzise sind. Und man muss sich fragen: Was ist die übliche Menge, die ein Kunde in einem Geschäft kauft? Unsere Beobachtung bei Lokad zeigt, dass bei 80 % der Transaktionen im Geschäft die Menge pro Produkt schlicht eins beträgt. Also lautet buchstäblich die Frage: Man hat eine Zahl – wie viele Bits an Präzision benötigt man? Nun, durchschnittlich benötigt man etwa zwei Bits an Präzision, um beispielsweise die im Geschäft gekaufte Menge darzustellen.
Kieran Chandler: Aber warum sollten wir uns überhaupt darum kümmern, wie viele Bits verwendet werden, um Daten zu senden? Denn, ich meine, wenn man die ganze supply chain betrachtet, macht das wirklich so einen Unterschied?
Joannes Vermorel: Im Großen und Ganzen würde man meinen, dass man heutzutage Festplatten, die Terabyte groß sind, buchstäblich in den nahegelegenen Supermärkten für so etwas wie 200 oder so kaufen kann. Man würde also denken, sie seien super billig. Warum sollte mich das überhaupt interessieren? Nun, es stellte sich heraus, dass die Leistung der meisten Berechnungen buchstäblich von der Größe der Daten abhängt. Wenn die Daten größer sind, wird es langsamer. Warum? Weil der Flaschenhals nicht Ihre CPU ist. Es ist einfach das Laden und Entladen der Daten. Ja, man kann eine Festplatte mit einem Terabyte kaufen, aber wenn man versucht, diese Festplatte mit Daten zu füllen, kann es ein oder sogar zwei Tage dauern, einfach weil die Festplatte langsam ist. Und so nimmt allein das Schreiben von Daten auf die Platte oder das komplette Lesen der Platte sehr viel Zeit in Anspruch. Wenn man die Daten also einfach minimieren kann, lässt sich buchstäblich beschleunigen.
Kieran Chandler: Also, Joannes, kannst du uns mehr darüber erzählen, wie die Größe der Daten die Geschwindigkeit von Berechnungen in der supply chain-Optimierung beeinflusst?
Joannes Vermorel: Die Berechnungen werden erheblich schneller – und was ich sage, erheblich, denn oft erzielt man quasi überlineare Gewinnsteigerungen. Wenn man also die Größe der Daten halbiert, beschleunigt sich die Berechnung nicht einfach um den Faktor zwei, sondern um mehr als zwei. Bei Lokad haben wir viele Situationen beobachtet, in denen, wenn es uns gelang, die Daten um den Faktor 10 zu verkleinern, wir buchstäblich eine 50-fache Beschleunigung erzielen konnten. Und nochmals, wenn wir auf unsere Zahlen zurückkommen – wir hatten beispielsweise Zahlen in doppelter Genauigkeit, also 64 Bits. Übrigens, was in der Informatik als Bit bezeichnet wird, ist einfach eine Null oder Eins. Und wenn man also eine Zahl hat, die mit 64 Bits dargestellt wird, im Vergleich zu einer Zahl, die nur mit zwei Bits dargestellt wird, benötigt eine Zahl buchstäblich 32-mal mehr Speicherplatz. Wenn man diese Zahlen also enorm komprimieren und diese Big Data in viel kleinere Daten verwandeln kann, kann man einen Wettbewerbsvorteil erzielen, der viel schneller ist. Und ja, supply chains befassen sich immer noch mit all diesen großen finanziellen Datenmengen, was einige der Transaktionen angeht, die sie durchführen müssen.
Kieran Chandler: Also, wie sortierst du eigentlich, was zu den kleineren Daten gehört und was zu den größeren Daten?
Joannes Vermorel: Buchstäblich möchten Sie, dass Ihr Supply Chain Scientist darauf achtet. Man möchte wirklich eine Plattform wie Lokad haben – hier ein hoffnungsloser Eigenwerbungsplug – die das für einen übernimmt. Aber meine Botschaft, meine übergeordnete Botschaft ist: Irgendjemand muss darauf achten. Es kann Ihr Anbieter sein, wenn er mit seinem technologischen Stack sehr sorgfältig umgeht. Es kann auch Ihre IT-Abteilung sein, wenn sie die Werkzeuge, die sie wählen, sehr genau abstimmt. Aber letztendlich muss jemand darauf achten. Wenn niemand darauf achtet, erhalten Sie am Ende Systeme, in denen Sie massive Mengen an Rechenhardware besitzen und deren Leistung in der Regel völlig enttäuschend ist. Bei denen es buchstäblich Sekunden dauert, bis man ein Ergebnis erhält, und selbst scheinbar semitriviale Berechnungen erstaunlich lange dauern. Die Idee, dass die supply chain alle möglichen Zukünfte und Wahrscheinlichkeiten betrachtet und diese mit allen möglichen Entscheidungen konfrontiert, bleibt einfach ein ferner Traum – nur weil das System schon allein zum Abwickeln eines einzigen Szenarios so langsam ist. Die Idee, dass das System mit Millionen möglicher Zukünfte umgehen soll, ist buchstäblich völliger Wahnsinn.
Kieran Chandler: Aber wenn wir alle möglichen Zukünfte und Entscheidungen betrachten, widerspricht das nicht gerade dem Ziel, die Rechenkosten zu senken? Denn wenn man alle möglichen Zukünfte betrachtet, wird das die Rechenkosten doch um ein Vielfaches erhöhen, oder?
Joannes Vermorel: Ja, aber das ist der Kompromiss, den ich beschrieben habe. Wenn Sie Ihre Berechnungen wesentlich beschleunigen, möchten Sie nicht einfach nur einen super, super billigen Computer, der Ihre gesamte supply chain betreibt. Wissen Sie, wenn wir noch die in den 80er Jahren verwendeten Techniken der supply chain-Optimierung nutzen würden, könnten wir auf einem Smartphone einen Walmart betreiben. Wir könnten buchstäblich Walmart auf einem Smartphone laufen lassen. Das macht zwar überhaupt keinen Sinn, aber wenn Sie sich lediglich der Herausforderung stellen, den Punkt zu beweisen, dass wie…
Kieran Chandler: Also, Joannes, du hast darüber gesprochen, dass, sobald die Berechnungskosten sinken, man ein mathematisches oder statistisches Modell übernimmt, das leistungsfähiger ist, richtig?
Joannes Vermorel: Ja, genau. Wenn die Berechnungskosten sinken, kann man ein leistungsfähigeres Modell einsetzen, das bessere supply chain-Ergebnisse liefert – allerdings auf Kosten eines höheren Verbrauchs an Rechenressourcen. Es ist ein Kompromiss.
Kieran Chandler: Und selbst wenn wir sagen, dass wir alle möglichen Zukünfte betrachten, gilt die ganze Idee der Gesetze der kleinen Zahlen trotzdem, oder?
Joannes Vermorel: Das ist korrekt. Selbst wenn wir alle möglichen Zukünfte betrachten, müssen wir nicht die Wahrscheinlichkeit betrachten, in einem einzigen Geschäft an einem einzigen Tag eine Million Flaschen irgendeines Produkts zu verkaufen, denn die Wahrscheinlichkeit ist schlicht null. Die Realität ist, dass es selbst bei einem Vorzeigeprodukt sehr selten vorkommt, dass an einem beliebigen Tag mehr als 100 Einheiten verkauft werden, und bei der überwiegenden Mehrheit der Produkte werden buchstäblich null Einheiten verkauft. Das trifft sogar auf die Mehrzahl der Produkte zu. Etwa 80 % der Produkte im Hypermarkt werden nicht einmal täglich verkauft, und bei 95 % der Produkte lautet die Frage lediglich: Verkaufe ich dieses Produkt an einem beliebigen Tag null, eins, zwei oder drei Einheiten? Und die Wahrscheinlichkeit, überhaupt 10 Einheiten zu erreichen, ist bereits verschwindend gering. Es dreht sich also alles um die Gesetze der kleinen Zahlen.
Kieran Chandler: Okay, also in einem solchen Hypermarktbeispiel, in dem täglich Tausende von Transaktionen stattfinden und enorme Lagerbestände vorhanden sind – wie wissen Sie, wo die Grenzen für jedes einzelne Produkt gezogen werden sollten?
Joannes Vermorel: Dafür benötigt man passende Werkzeuge, die historische Daten analysieren. Sie werden in Ihrer Analyse angeleitet, denn wenn Sie sich die aufgezeichneten Daten ansehen, wissen Sie vieles – und zudem bietet eine gute supply chain-Software, insbesondere prädiktive Software wie Lokad, bereits im Vorfeld wichtige Informationen. Sie entdecken nicht zum ersten Mal etwas derartiges in einem Hypermarkt. Und ja, es gibt viele Transaktionen und viele verkaufte Produkte, aber wenn Sie jedes einzelne Produkt betrachten, haben Sie gar nicht so viele Transaktionen. Wenn man bedenkt, dass ein Produkt einen Lebenszyklus von vielleicht drei Jahren auf dem Markt haben wird und dann durch ein anderes Produkt ersetzt wird, bedeutet dies, dass es möglicherweise viel Zeit braucht, bis in der gesamten historischen Aufzeichnung für dieses Produkt 100 Verkäufe erreicht sind – was vielleicht die unterste Schwelle ist, die man berücksichtigen muss. Zu behaupten, dass 100 eine große Zahl sei, ist schon ziemlich weit hergeholt, besonders aus einer…
Kieran Chandler: Also, aus statistischer Perspektive wäre das eine niedrige Messlatte. Es könnte tatsächlich länger als ein Jahr dauern. Das bedeutet also, wenn Sie ein statistisches Tool nutzen, das auf der Annahme basiert, dass Sie von sehr großen Zahlen profitieren können, wird es vielleicht mehr als ein Jahr dauern, bis Ihr Tool überhaupt relevant wird. Und denken Sie daran, dass wir über ein Produkt sprechen, das nur einen Lebenszyklus von etwa drei Jahren hat – was bedeutet, dass für ein Drittel seiner Lebensdauer die ganzen statistischen Tools nicht einmal relevant sind.
Joannes Vermorel: Also, viele Unternehmen konsolidieren ihre Verkaufszahlen entweder wöchentlich oder monatlich – aber wie gut funktioniert das, wenn man sich in einem scheinbar leistungsbezogenen Wettbewerb befindet? Wie gut funktioniert das im Vergleich zu dem Trade-off, ein wenig an Granularität in den Daten zu verlieren? Das ist sehr interessant, denn ich sagte bereits, dass die Probleme der kleinen Zahlen allgegenwärtig sind, und das Problem ist, dass alle Tools – zumindest die klassischen Tools – sich definitiv nicht darauf ausrichten. Aber diese klassischen Tools sind eben auf die Gesetze der großen Zahlen ausgelegt. Also, was macht man? Man aggregiert eben.
Kieran Chandler: Und warum aggregiert man? Nicht weil es per se richtig ist, sondern einfach, weil es ein Weg ist, mit Ergebnissen zu enden, die nicht völlig dysfunktional sind – man tut es nicht, weil es etwas Kluges und Relevantes für die supply chain ist, sondern nur, weil sonst Ihre von Durchschnittswerten getriebene Logik auseinanderfällt, da Sie implizit das Gesetz der großen Zahlen nutzen.
Joannes Vermorel: Also, ja, Sie konsolidieren, aber der Punkt ist, dass wenn Sie beispielsweise Entscheidungen auf monatlicher Aggregation beruhen, um größere Zahlen zu erhalten, das Problem darin besteht, dass Ihre supply chain-Entscheidungen dennoch täglich getroffen werden. Sie haben zwar eine bessere Monatsanalyse, weil Sie die Daten konsolidiert haben, aber Sie treffen weiterhin tägliche Entscheidungen, und es stellt sich heraus, dass Ihre Monatsanalyse keinen Aufschluss darüber gibt, was innerhalb des Monats passiert. Sie wissen also, dass über einen Monat hinweg durchschnittlich 100 Einheiten verbraucht werden. Aber heute – sollen es null, eins oder drei Einheiten ins Geschäft? Ähnliche Entscheidungen ergeben sich auch, wenn Sie nicht zeitlich, sondern auf Kategorieebene aggregieren.
Kieran Chandler: Also, wenn Sie zum Beispiel sagen: „Okay, heute habe ich im Segment der Softdrinks 500 Einheiten verkauft“, ja, aber das war über 100 Produktreferenzen verteilt – das hilft nicht wirklich, denn letztlich treffen Sie in der supply chain keine Entscheidung auf Kategorienebene, wie etwa im Frischwarensegment Ihres Hypermarkts. Sie treffen eine Entscheidung über diese spezifische Produktreferenz und darüber, was damit geschehen soll. Fassen wir also mal zusammen für jemanden, der das hier anschaut: Worauf sollten sie achten, um diese Design-Symphonie einzuführen und die verfügbare Rechenleistung optimal zu nutzen?
Joannes Vermorel: Man sollte wirklich anfangen, sich umzuschauen, also neu zu überdenken. Zunächst würde ich sagen, im statistischen Bereich: Überdenken Sie unbedingt alle Kernannahmen. Ich meine, immer wenn Leute sagen: “Oh, wir haben Sicherheitsbestände”, ja, es seien Normalverteilungen – aber ist das wirklich so? Das sollten Sie sich unbedingt hinterfragen.
Kieran Chandler: Betrachte ich das Problem mit den statistischen Werkzeugen, die für die Gesetze der kleinen Zahlen, mit denen ich konfrontiert bin, relevant sind? Und die meisten statistischen Methoden des 19. Jahrhunderts, die heute verwendet werden, sind eindeutig auf die Gesetze der großen Zahlen ausgerichtet. Mein Vorschlag ist daher, sich bewusst zu machen, dass die Werkzeuge, die Sie einsetzen, nicht für die Art Situation, der Sie gegenüberstehen, entwickelt wurden. Und nochmals: Wir reden hier von Pseudowissenschaft und falschem Rationalismus. Es liegt nicht daran, dass Sie ein mathematisches Werkzeug nutzen, dass es rational wird. Vielleicht basiert Ihr statistischer Rahmen auf Kernannahmen, die in Ihrer Domäne schlicht verletzt werden. Also, überdenken Sie die Grundlagen – und stellen Sie sicher, dass Ihnen nichts Entscheidendes entgeht.
Joannes Vermorel: Ja, genau. Und was die mechanische Sympathie betrifft, lautet meine Botschaft: Es ist genau wie bei den großen Formel-1-Champions. Wenn man Interviews mit den Champions sieht, wissen sie sehr viel über ihre Autos. Sie wissen zwar nicht, wie man ein Formel-1-Auto baut, aber sie kennen die Mechanik. Sie besitzen das, was man mechanische Sympathie nennt. Sie wissen sehr genau, wie das Auto funktioniert, um das Beste aus der Maschine herauszuholen, die sie haben. Und sie kennen sich buchstäblich bestens aus mit Verbrennung, Resonanz und der optimalen Temperatur für ihre Reifen – also mit maximaler Bodenhaftung. Ich meine, sie wissen viel über die technischen Details und die Physik ihres Motors. Und so können sie zu wirklich großartigen Fahrern werden. Es geht nicht nur darum, gut zu fahren, sondern das Werkzeug zu kennen, das man benutzt. Und ich glaube, die supply chain ist ein bisschen so. Man steuert eine supply chain nicht allein mit schierer Muskelkraft. Heutzutage hat man Computer, die einen unterstützen. Aber wenn man wirklich sehr gut sein will, muss man kein Ingenieur werden, der in der Lage ist, ein Formel-1-Auto zu bauen. Das ist kein Pilot. Ein Pilot ist nicht der Maschinenbauingenieur, der die nächste Generation des Motors entwerfen kann, aber er weiß genau, wie er das Maximum herausholen kann. Mein Vorschlag ist also, sich genügend mechanische Sympathie für all jene Computersysteme anzueignen, die Ihre supply chain unterstützen, damit Sie intuitiv verstehen, was diese Systeme in Gang hält und wie Sie deren Leistung optimal ausschöpfen.
Kieran Chandler: Das ist wirklich eine gute Analogie. Also, was wir momentan auch in der Branche beobachten, ist…
Kieran Chandler: Also, mehr Daten und immer mehr Menschen sammeln weitere Daten, um alle ihre Entscheidungen zu treffen. Würdest du sagen, dass sich diese Perspektive wirklich von diesem Gesetz der kleinen Zahlen entfernt und dass die Menschen sich eher einer big data Perspektive zuwenden?
Joannes Vermorel: Nochmals, das Problem dabei ist, dass die wichtigsten Daten immer in kleinen Stückzahlen vorliegen. Ja, man kann eine gewaltige Menge an Daten auf seiner Website bezüglich des Traffics sammeln, aber wenn man sich den Traffic eines obskuren Produkts ansieht – leider machen obskure Produkte etwa 80 % dessen aus, was Unternehmen im Durchschnitt verkaufen. Sie wissen, es sind offensichtlich solche Details, und dann stellt man fest, dass man nur eine Handvoll Webseitenbesucher pro Tag hat. Also, es ist nicht so, dass man vielleicht Millionen von Klicks hat, aber wenn man es auf den relevanten Zeitraum herunterbricht – in der Regel der Tag oder ein Teil des Tages, weil Ihre supply chain Entscheidungen täglich oder sogar untertäglich getroffen werden – dann ist die Zahl der Datenpunkte wieder gering. Wenn man sich die Granularität anschaut, die wirklich zählt, nämlich das Produkt, die Referenz auf der untersten Ebene, also die exakte Größe, die exakte Farbe, Form, die exakte Variante – nicht das generische Produkt, denn in der supply chain entscheidet man nicht, ein generisches T-Shirt zu produzieren, sondern ein T-Shirt in genau dieser Farbe, in genau dieser Größe, in genau dieser Form – so gelangt man zurück zu begrenzten Daten. Ja, die Leute behaupten, sie setzen auf big data, aber wenn man die supply chain durch die Augen dessen betrachtet, was wirklich relevant ist, ist sie tatsächlich gar nicht so umfangreich. Und das Größte – und ich wünschte, es wäre so, denn aus statistischer Sicht wäre es so viel einfacher – wissen Sie, aber dem ist nicht so. Also, lassen Sie sich nicht täuschen. Ich glaube, dieses big data ist äußerst irreführend, weil die Menschen denken können: “Oh, das ist in Ordnung. Ich habe Millionen von Datenpunkten.” Nein, nochmals: Wenn man sich eine Fabrik anschaut, selbst solche Fabriken, die Millionen von Einheiten produzieren, lautet die Frage: Wie viele Chargen produzieren Sie? Und vielleicht haben Sie in Bezug auf Chargen eine einstellige Anzahl. Und die Fabrik arbeitet in diesem Modus erst seit den letzten zwei Jahren. Also sprechen wir von ein paar hundert Chargen, und damit ist es auch schon. Das ist keine große Sache, selbst wenn Sie eine große Menge Luft sammeln.
Kieran Chandler: Okay, wir belassen es dabei mit der Knaller-Nachricht, dass in Bezug auf Daten weniger vielleicht mehr ist. Das war also alles für diese Woche. Vielen Dank fürs Einschalten, und wir sehen uns in der nächsten Episode wieder. Danke fürs Zuschauen, ihr.