Vor einigen Tagen stellte ein Interessent mehrere scharfe Fragen zur Anwendbarkeit der die Quantitative Supply Chain Perspektive, um die supply chain Herausforderungen anzugehen, wie sie viele große Fertigungsunternehmen betreffen.

Betrachten wir den Fall, in dem zahlreiche Artikel aus relativ wenigen Arten von Arbeitszellen/Maschinen kommen, die jedes beliebige Produkt im Zyklus der nächsten Woche fertigen können, sofern die besetzte Kapazität und die Rohmaterialien vorhanden sind. Wie muss das Nachfrageverhalten eines Unternehmens und seine Lieferfähigkeit beschaffen sein, damit probabilistische Vorhersage signifikant überlegen zu einem guten, herkömmlichen APS wie JDA oder SAP APO ist? Wären aggregierte Prognosen, die weniger sprunghaft sind und daher besser zu traditionellen Vorhersagen und APS passen, nicht ausreichend für das jeweilige Problem?

Probabilistische Vorhersage bezieht sich nicht nur auf die Nachfrage, sondern umfasst alle Aspekte, die grundsätzlich unsicher bleiben: die Nachfrage, aber auch Durchlaufzeiten, Retouren, Preisänderungen usw. Je größer die Unsicherheit, desto größer der Wettbewerbsvorteil jeder numerischen Methode, die die Unsicherheit von vornherein in Angriff nimmt, anstatt sie ganz zu ignorieren. Das Aggregieren „klassischer“ Prognosen entspricht numerisch dem Verstecken des Schmutzes unter dem Teppich. Eine Monatsprognose mag – gemessen in Prozent – genauer sein als eine Tagesprognose; allerdings wird die zusätzliche Genauigkeit mit zusätzlicher Marktlatenz bezahlt, da der statistische Indikator – per Konstruktion – einen ganzen Monat abspannt.

Strukturelle Risiken zu ignorieren – etwa den Verlust eines Großkunden und dessen kontinuierlichen Auftragsstroms – ist das Rezept, um im Laufe der Zeit einen stetigen Strom an toten Beständen zu generieren, denn alle Kunden werden irgendwann abspringen – selbst wenn es nur darum geht, sie ein Jahr später zurückzugewinnen. Auf einer nüchterneren Ebene führt das Ignorieren von Schwankungen in der Durchlaufzeit dazu, dass Bestände ineffizient allokiert werden, weil gerade der Lagerbestand vorhanden ist, um die Variabilität der Durchlaufzeiten abzudecken. Ohne eine probabilistische Vorhersage wird die Unsicherheit nicht einmal richtig eingeschätzt. Als Faustregel gilt: Schwankende Durchlaufzeiten sind nie normalverteilt.

car manufacturing

Jedoch sind probabilistische Prognosen lediglich numerische Artefakte. Letztlich zählen nur Entscheidungen, deren Leistung in Euro gemessen wird, und nicht die dazwischen verwendeten numerischen Zwischenergebnisse – seien es klassische oder probabilistische Prognosen. Die größte Schwäche von APS besteht darin, dass sie die supply chain aus finanzieller Sicht einfach nicht optimieren. Die Verbesserung des Prognosefehlers (MAPE) ist Eitelkeit; nur der ROI zählt. Probabilistische Prognosen gewinnen nicht, weil sie genauer sind, sondern weil sie weitaus bequemer in Entscheidungen umsetzbar sind, die nach willkürlichen ROI-Kriterien optimiert werden.

Demnach, sofern die finanziellen Einsätze der supply chain nicht unerheblich sind, sind APS in meinen Augen nie „gut genug“, da APS nicht einmal den Versuch unternehmen, supply chain decisions aus finanzieller Perspektive zu optimieren. In der Praxis tragen die supply chain Teams letztlich die gesamte Verantwortung für die finanzielle Performance über ihre Excel-Tabellen; den APS gebührt dafür keinerlei Anerkennung.

Die Quantitative Supply Chain und DDMRP konkurrieren als jeweilige numerische Rezepte für den operativen Horizont. Leidet die Quantitative Supply Chain nicht unter ähnlichen Herausforderungen bei Lieferbeschränkungen? Oder modellieren Sie diese explizit? Wie steuern Sie den taktischen Horizont, sodass Engpässe in der Kapazität weit genug im Voraus projiziert werden, um dem Management die Chance zu geben, diese etwa durch Anforderung zusätzlicher Kapazitäten zu beheben?

Im Gegensatz zu DDMRP bringt die Quantitative Supply Chain (QSC) „verpackte“ numerische Rezepte mit. QSC ist lediglich ein prinzipbasierter Ansatz, um nützliche Rezepte zu entwickeln, die für den direkten Produktionsgebrauch vorgesehen sind, und diese im Laufe der Zeit zu verfeinern. Es geht bei QSC im Kern darum, numerische Werkzeuge zu sammeln und zu pflegen, die vielseitig genug sind, um mit der verrückten Vielfalt an supply chain constraints (z. B. MOQs, BOMs, Cashflows, SLA-Strafen usw.) umzugehen.

Bei Lokad iterieren wir seit mehr als einem Jahrzehnt aggressiv von einer Technologiegeneration zur nächsten. Wir haben zwei Algebren eingeführt, um diese Art von Problemen anzugehen, zusammen mit mehreren nichtlinearen Lösungsverfahren – die neueste Iteration zum jetzigen Datum ist differentiable programming. Der eigentliche Sinn dieser Werkzeuge ist es, einem Supply Chain Scientist – wie bereits erwähnt – die explizite Modellierung all dieser Einschränkungen zu ermöglichen. Da die Einschränkungen selbst vielfältig sind, bedarf es einer gewissen programmatic expressiveness, um überhaupt die Chance zu haben, diese adäquat zu modellieren.

Anschließend bietet die finanzielle Perspektive – eines der Kernprinzipien von QSC – bemerkenswerte Einblicke, wenn es um supply chain constraints geht. Insbesondere wird es möglich, den Nutzen, der mit der Aufhebung einer bestimmten Einschränkung verbunden ist, zu beziffern. Tatsächlich besteht die Herausforderung weniger darin, das Problem der Produktionskapazität in den Vordergrund zu rücken, als vielmehr darin, die Rentabilität jeder in diesem speziellen Bereich zu tätigen Investition zu rechtfertigen.

In der Praxis gibt es (fast) immer mehrere Optionen, die um die Lösung desselben Problems konkurrieren: Vielleicht ist es möglich, Bestände im Voraus aufzubauen, anstatt die Produktionskapazität zu erhöhen, vielleicht können die Produktionschargen vergrößert werden, um den Durchsatz zu steigern, oder es sollten höhere Preise bei Spitzenkapazität verlangt werden, usw. Der QSC-Ansatz ermöglicht eine ROI-basierte Priorisierung all dieser Optionen; die Prioritätenliste wird kontinuierlich zusammen mit den Eingangsdaten aktualisiert.

In der Praxis ist der einzige limitierende Faktor für den Blick weit in die Zukunft die statistische Unsicherheit, die damit einhergeht. Die meisten „data-driven“ Investitionen – zusätzliches Lager, zusätzliche Kapazität – werden durch Marktschwankungen negativ beeinflusst, was sie tendenziell irrelevant macht. Dieses Problem betrifft alle quantitativen Methoden – sowohl QSC als auch DDMRP – wobei mir als einziger Milderungsansatz die explizite probabilistische Vorhersage bekannt ist.

Einige der Demos von SAP auf IBP zeigen viele beeindruckende Funktionen, wie die Möglichkeit, die Auswirkungen einer verspäteten Lieferung zu projizieren und zu visualisieren, sowie die Fähigkeit, einen taktischen Horizont abzubilden. Sehen Sie Lokad dort im Einsatz, wodurch der Bedarf an solchen Werkzeugen entfällt? Oder betrachten Sie APO/IBP als eine relativ einfache Mittelschicht, die diese Stärken nutzt, während Lokad als ein System der Differenzierung/Innovation fungiert, das die auszuführenden Entscheidungen (Einkauf, Produktion, Transferaufträge) vorantreibt und diese über APO/IBP umsetzt?

Lokad ist als Analytik-Schicht konzipiert, die auf einer Transaktionsschicht aufsetzt, typischerweise einem ERP oder einem WMS. Ziel ist es, finalisierte Entscheidungen zu generieren, die bereits allen anwendbaren Einschränkungen entsprechen, wodurch der Bedarf an weiterer „intelligenter“ Datenverarbeitung entfällt. In dieser Hinsicht nimmt Lokad die gleiche funktionale Nische ein wie SAP APO und SAP IBP.

Was die Benutzererfahrung betrifft, so glaube ich, dass Lokads Web-Dashboards ebenfalls flüssig und flink sind. Heutzutage ist es für Softwarehersteller relativ einfach, ansprechende Dashboards und What-if-Funktionalitäten zu produzieren. Die Visualisierung der Auswirkungen einer verspäteten Lieferung ist schön, aber ich neige dazu zu glauben, dass dies keine besonders kapitalistische Methode ist, um die Zeit des supply chain Personals zu nutzen. Supply chain software verbraucht allzu oft eine übermäßige Menge an Arbeitskräften allein, um am Laufen zu bleiben.

Wir nehmen den entgegengesetzten Ansatz: Jede auf Lokad verbrachte Stunde sollte investiert werden in die Verbesserung der Lösung, deren Ausführung vollständig automatisiert ist. Kehrt man also zum Beispiel der verspäteten Lieferung zurück, so würde ich feststellen, dass diese lediglich das Symptom vorangegangener falscher Entscheidungen ist: vielleicht wurde reordering etwas zu wenig und zu spät durchgeführt, vielleicht war die Wahl eines unzuverlässigen Lieferanten oder Transporteurs fehlerhaft, oder die Priorisierung von Lieferungen zwischen Kunden, die um denselben Lagerbestand konkurrieren, war inkorrekt, usw.

Der Fokus auf das numerische Rezept, das all die alltäglichen supply chain Entscheidungen generiert, ist optisch nicht besonders ansprechend – sicherlich nicht so sehr wie What-if-Funktionalitäten. Lokad kann ebenfalls What-if-Funktionalitäten liefern, jedoch rate ich meinen Teams davon ab, diesen Weg zu beschreiten, sofern nicht ein klarer Pfad existiert, um diese Bemühungen in einen Strom besserer, von der Lösung automatisch generierter Entscheidungen umzusetzen.

Bei der Betrachtung von supply chain Konfigurationen (offene/geschlossene Produktionsstätten und Lagerhäuser; welche Kunden welchem DC zugeordnet werden, usw.), stellt sich die Frage, ob sich Investitionen in Agilität und kürzere Durchlaufzeiten von einem Lieferanten oder einer eigenen Fertigungszelle – also im Llamasoft supply chain design – lohnen, die typischerweise auf Szenarien basieren, die sich historisch nicht rekonstruieren lassen: Sind dies die Arten von Fragestellungen, für die man Lokad einsetzen könnte?

In den späten 90ern hatten viele Experten vorausgesehen, dass die Zukunft der Fotografie digital sein würde und dass die analoge Fotografie dem Untergang geweiht sei, doch 20 Jahre später sind wir noch Jahrzehnte davon entfernt, eine machine learning-Technologie zu besitzen, die in der Lage ist, derart tiefgehende Erkenntnisse allein durch das „Durchrechnen“ von Patentdatenbanken zu generieren.

Die Quantitative Supply Chain – und Lokad – sind im Kern statistisch. Wenn es darum geht, supply chain Entscheidungen zu optimieren, die sowohl in ihrer Größenordnung als auch in ihrer Häufigkeit vollständige statistische Ausreißer darstellen, z. B. die Entscheidung, ein neues Werk zu eröffnen, ist die statistische Perspektive bestenfalls schwach und häufig irreführend.

In Anbetracht der Durchlaufzeiten eignet sich Lokad viel besser dafür, für jede einzelne Sendung zu entscheiden, ob Luftfracht eingesetzt werden sollte – oder nicht – als dafür, zu entscheiden, ob strategische Lieferanten von Asien zurück nach Nordamerika verlagert werden sollten.

Als Faustregel gilt: Wann immer eine supply chain Entscheidung täglich überprüft werden kann, ist sie ein guter Kandidat für Lokad. Historische Daten müssen keine 1-zu-1 Übereinstimmung mit den geplanten Szenarien aufweisen. Die Erkundung alternativer Affinitäten zwischen Kunden und DCs ist genau die Art von Problem, für das Envision entwickelt wurde.