Überblick über die quantitative Lieferkette

Überblick über die quantitative Lieferkette












Startseite » Ressourcen » Hier

Die quantitative Lieferkettenoptimierung, kurz quantitative Lieferkette genannt, ist in einfachen Worten, ein breiter Ansatz zur Lieferkette, der versucht, das Beste aus menschlicher Intelligenz gekoppelt an die Fähigkeiten moderner Rechenressourcen zu holen. Doch diese Perspektive umfasst nicht alles. Sie erhebt nicht den Anspruch, die ultimative Lösung aller Herausforderungen im Bereich Lieferkette zu sein, vielmehr versteht sie sich als ergänzender Ansatz, der in fast jeder Situation eine Verbesserung erzielt.

Quantitative Lieferketten helfen Ihrem Unternehmen, die Qualität Ihrer Dienste zu erhöhen, Überbestände und Abschreibungen zu reduzieren, Produktivität zu steigern, Kaufpreise und Betriebskosten zu senken, und vieles mehr. Was die Lieferketten betrifft, treten je nach Fall sehr vielfältige Herausforderung auf. Diese Vielfalt macht sich die quantitative Lieferkette zu nutzen, die bei solcher Komplexität ihr Potential entfaltet. Doch für Fachkräfte im Bereich Lieferkette, die sich auf herkömmliche Ansätzen zur Lieferkettenoptimierung verlassen, kann die quantitative Lieferkette etwas verwirrend erscheinen.

In den nächsten Zeilen bieten wir einen Überblick über das Notwendige, um den quantitativen Ansatz an Lieferketten vollkommen zu nutzen. Hier besprechen und erläutern wir die Ziele einer geplanten quantitativen Lieferkettenoptimierung. Außerdem erläutern wir die verschiedenen Rollen, sowie die Fähigkeiten der Teams bei der Ausführung der Optimierung. Zuletzt bieten wir einen kurzen Überblick über die Methoden, die der quantitativen Lieferkettenoptimierung zu Grunde liegen.


Das Ziel

Lieferketten umfassen, außer bei sehr kleinen Unternehmen, Millionen von Entscheidungen täglich. Für jede Einheit im Bestand, muss ein Unternehmen täglich entscheiden, ob diese Einheit weiterhin gehalten wird oder, ob sie an einen anderen Standort gebracht wird. Diese Logik trifft ebenso für nicht-vorhandene Einheiten zu, die entweder hergestellt oder gekauft werden können. Dabei ist auch nichts zu machen eine Entscheidung.

Bei quantitativen Lieferketten geht es darum, diese Millionen von Entscheidungen, die im Unternehmen täglich anstehen, zu optimieren. Und da wir von Millionen, wenn nicht sogar Milliarden, von Entscheidungen sprechen, spielen Computer hier eine zentrale Rolle. Dies ist auch nicht verwunderlich, wenn man bedenkt, dass Lieferketten einer der ersten Prozesse im Betrieb waren, der nach der Buchhaltung, Ende der 70er digitalisiert wurde. Dennoch treiben quantitative Lieferketten die Digitalisierung einen Schritt weiter.

Hierzu müssen wir zugeben, dass in den letzten zwanzig Jahren mehrere irreführende Versuche unternommen wurden, das „Lieferkettensystem der Zukunft“ zu erstellen. Doch viel zu oft, haben solche Systeme in den Lieferketten nur verheerende Schäden angerichtet, indem Black-Box-Effekte mit fehlgeschlagener Automatisierung kombiniert wurden. So wurden jede Menge schlechte Entscheidungen getroffen, dass die Probleme nicht mehr durch menschlichen Eingriff gelöst werden konnten.

Bis zu einem gewissen Punkt, entstand die quantitative Lieferkette aus diesen Fehlern: doch statt davon auszugehen, dass das System das Unternehmen besser als das eigene Management-Team versteht, muss der Fokus darin liegen, die Einsicht des Managements mit einem höheren Grad an Zuverlässigkeit, Klarheit und Geschwindigkeit umzusetzen. Dieser Ansatz wird mit der richtigen Softwaretechnologie deutlich gefördert und unterstützt, denn Eine Lösung, in der Personen komplett ausgeschlossen werden, stellt keine realistische Option dar.

Dieses Ziel hat eine unmittelbare Folge: die Software, mit der das Unternehmen seine Produkte, Materialien und weitere Ressourcen kontrolliert, kann nicht dieselbe Software sein, die für die Optimierung der Entscheidungen getroffen wird. Denn ERP-, WMS-, MRP- oder OMS-Systeme konzentrieren sich alle in erster Linie auf die Ausführung der Unternehmensprozesse und der Dateneinträge. Verstehen Sie uns nicht falsch - die Rationalisierung der Dateneingaben und die Automatisierung aller Verwaltungsarbeiten bieten enorme Vorteile. Doch aus unserer Sicht befassen sich diese Aufgaben nicht im Geringsten mit unserer Herausforderung, nämlich der Fähigkeit, menschliche Einblicke in dem für Ihre Lieferkette notwendigen Ausmaß, umzusetzen.

Des Weiteren kann keine Optimierung ohne Messungen zustande kommen. Daher dreht es sich bei quantitativen Lieferketten vieles um Messungen, wie ja der Name schon ahnen lässt. Entscheidungen bezüglich der Lieferkette, Bestand kaufen oder bewegen, sowie die Qualität dieser Entscheidungen, sollten finanziell im Einklang mit der Geschäftsperspektive bewertet werden (z.B. in Euro). Doch gute und stabile Messungen sind auch mit deutlichem Aufwand verbunden. Dementsprechend ist eines der Ziele der quantitativen Lieferkette, Unternehmen bei der Einführung solcher Messungen zu helfen, die auch in späteren Projektphasen, bei der Ermittlung des ROI (return on investment) des Lieferkettenprojekts entscheidende Rolle spielen.

Zuletzt ist, wie bereits erwähnt, die quantitative Lieferkette kein allumfassendes Model. Ihr Ziel liegt nicht darin, in der Lieferkette des Unternehmens alles zu lösen oder zu verbessern. Es wird auch nicht behauptet, dass sie Ihnen hilft, zuverlässige Lieferanten oder Logistik-Partner zu finden. Sie verspricht auch nicht, Ihnen beim Anheuern von Teams zu helfen und deren Stimmung zu halten. Doch, dank des äußerst spezifischen Fokus, ist die quantitative Lieferkette in der Lage, greifbare Ergebnisse zu liefern.

Rollen im Projekt

Quantitative Lieferketten benötigen, sogar bei umfangreichen Lieferketten, eine überraschend geringe Anzahl an Personal. Dennoch ist für ein solches Vorhaben spezifisches Personal nötig, auf das wir in diesem Abschnitt eingehen werden. Bevor wir die verschiedenen Rollen und deren Besonderheiten erläutern, möchten wir hervorheben, dass das Unternehmen von jeglichem menschlichen Eingriff profitieren sollte.

Dieses Prinzip entspricht nicht der Praxis bei herkömmlichen Lösungen für die Lieferkette. Nach deren Ansicht werden Personalressourcen verbraucht nicht kapitalisiert. Zur Erstellung einer unendlichen Reihe von Entscheidungen, bedarf die Lösung einer unendlichen Reihe manueller Eingaben. Diese Eingaben können unterschiedliche Formen annehmen: Anpassung saisonabhängiger Profile, Bearbeitung von Ausnahmen und Warnungen, Berichtigung eigenartiger Prognosewerte, usw.

Durch die quantitativen Lieferketten soll diese Perspektive verändert werden. Es geht nicht nur darum, dass menschliche Arbeit kostspielig ist. Die Kombination von Expertise im Bereich Lieferkette mit tiefen Einblicken in das Unternehmen tritt äußerst selten auf. Daher ist es zu schade, solche Ressourcen für sich wiederholende Aufgaben zu vergeuden. Daher sollte stattdessen der ursprüngliche Grund manueller Eingriffe gelöst werden. Wenn Prognosewerte nicht stimmen, ist es nicht sinnvoll, die Werte selbst zu ändern. Vielmehr müssen die Eingabedaten oder der Prognosealgorithmus angepasst werden. An den Symptomen zu arbeiten bringt Ihnen nur eine endlose Arbeit am selben Problem.

Die Größe des Teams zur Umsetzung einer quantitativen Lieferkette hängt vom Ausmaß der Lieferkette ab. Im unteren Bereich des Spektrums, allgemein für Unternehmen mit weniger als 20 Mio. USD Umsatz, kann dies bei weniger als einen Vollzeitmitarbeitet liegen. Im höheren Teil des Spektrums können einige Dutzende Mitarbeiter involviert sein. In solchen Fällen dreht es sich um einige Milliarden Bestandswert.

Der Supply Chain Leader: Quantitative Lieferketten stellen einen Paradigmenwechsel dar. Um den Wechsel voranzutreiben sind Leitung und Unterstützung von der oberen Führungsebene nötig. Oft ist man bei der Leitung der Lieferkette der Ansicht, man habe keine Zeit, sich mit den als „technische Besonderheiten“ wahrgenommenen Aspekten einer Lösung auseinanderzusetzen. Doch bei quantitativen Lieferketten geht es um die Umsetzung strategischer Einblick im großen Ausmaß. Es ist demnach ein Fehler, diese strategischen Einblicke nicht mit dem Lieferketten-Team zu teilen. Das Management muss nicht alleine auf alle relevanten Kennzahlen und KPIs kommen - eine sehr mühsame und anspruchsvolle Aufgabe - doch das Management muss diese auf jeden Fall in Frage stellen.

Der Supply Chain Coordinator: Während Projekte zur quantitativen Lieferketten nicht allzu viel Personal in Anspruch nehmen, haben die wenigsten Lieferketten einen so geringen Umfang. Wenn nicht alle Bescheid wissen, kann es zu Verwirrung und folglich zur Verzögerung des Projekts kommen. So liegt die Aufgabe des Koordinators darin, das für das Projekt notwendige interne Feedback zu sammeln und die Kommunikation zwischen den involvierten Parteien aufrechtzuerhalten. Der Koordinator klärt die Prozesse und Entscheidungen, die getroffen werden müssen und holt Feedback zu den Kennzahlen und KPIs, die zur Optimierung dieser Entscheidungen genutzt werden, ein. Außerdem stellt er sicher, dass die Lösung die bereits im Unternehmen vorhandene Abläufe im Ist-Zustand übernimmt, während die Möglichkeit besteht, diese in einer späteren Phase des Projekts zu überarbeiten.

Der Data Officer: Quantitative Lieferketten haben eine große Abhängigkeit zu Daten und jedes Projekt muss aus der Perspektive der Stapelverarbeitung Zugriff auf zuverlässige Daten haben. In der Tat geht es beim Projekt nicht nur um das Lesen einiger Zeilen des Unternehmenssystems. Vielmehr müssen die gesamte Umsatzhistorie, die Kaufhistorie, der gesamte Produktkatalog, usw. gelesen werden. Der Data Officer ist gewöhnlich ein Mitglied der IT-Abteilung, der dieses Projekt unterstützt. Seine Aufgaben liegen in der Automatisierung der gesamten Datenextraktionslogik und der Programmierung täglicher Extraktionen. In der Praxis leistet der Data Officer die meiste Arbeit am Anfang des Projekts.

Der Supply Chain Scientist: Dieser nutzt Technologie (hierauf wird später eingegangen) zur Kombination der Einblicke, die vom Koordinator gesammelt wurden, mit den Daten, die vom Data Officer zur Automatisierung der Entscheidungen extrahiert wurden. Der erste Schritt des Wissenschaftlers ist die Vorbereitung der Daten, eine besonders komplexe Aufgabe, für die die Unterstützung des Koordinators erforderlich ist. Dieser muss mit den vielen Personen, die bei der Datenerstellung involviert waren, Rücksprache halten, um mögliche Unklarheiten aus dem Weg zu räumen. Der Supply Chain Scientist formalisiert dann die Strategie, sodass sie für die Entscheidungsfindung, beispielsweise vorgeschlagene Nachbestellmengen, genutzt werden kann. Zuletzt richtet der Wissenschaftler die gesamte Datenpipeline mit Dashboards und KPIs ein, um für Klarheit, Transparenz und Kontrolle zu sorgen.

Für mittelständige Unternehmen kann es besonders effizient sein, einer Person die Rollen des Koordinators und des Data Officers zuzuteilen. Oft ist es schwer jemanden zu finden, der über diese verschiedenen Fähigkeiten verfügt. Doch sollte so jemand im Unternehmen vorhanden sein, treibt diese Person gewöhnlich das Projekt deutlich an. Bei größeren Unternehmen ist es von Vorteil, falls der Koordinator am Anfang des Projekts noch nicht mit der Datenbank des Unternehmens vertraut ist, wenn er sich im Laufe des Projekts mit der Datenbank etwas auseinandersetzt. Im IT-Bereich ändert sich so einiges, weshalb es für einen reibungslosen Ablauf von großer Hilfe ist, die Auswirkungen dieser Änderungen zu antizipieren.

Lokads Managed Accounts. Die Besetzung der Rolle des Supply Chain Scientist kann für Unternehmen, in denen jahrzehntelang keine Expertise bezüglich der Daten aufgebaut wurde, eine Herausforderung sein. Lokad unterstützt daher Unternehmen bei ihrem quantitativen Lieferkettenprojekt, indem es „Experten als Dienstleistung“ über den Premiumplan anbietet. Zusätzlich zu den nötigen Schulungen zum Projekt, widmet sich Lokad mit Zeit und Hingabe der Umsetzung der Logik. Anhand dieser werden die Entscheidungen getroffen und das Dashboard erstellt, das die notwendige Klarheit und Kontrolle verschafft, sodass das Management mit dem Projekt vertraut wird.

Die Technologie

Auf die Softwaretechnologie, die zur Unterstützung quantitativer Lieferketten nötig ist, sind wir bisher nicht eingegangen. Doch quantitative Lieferketten hängen stark von der Technologieplattform ab, auf der sie implementiert werden. Während konzeptionell jedes Softwareelement von Grund auf erneut implementiert werden kann, erfordert der Supply Chain Scientist eine Menge Unterstützung von seiner Plattform, um überhaupt vernünftig produktiv zu sein. Außerdem sind für manche Vorgänge, wie Prognose und numerische Optimierung ein deutlicher F&E-Aufwand nötig, der deutlich über das hinausgehen, was der Supply Chain Scientist während des Projekts liefern kann.

Die erste Voraussetzung quantitativer Lieferketten ist eine Datenplattform mit Programmierungsmöglichkeiten und natürlich ist auch der Zugang zu einer Datenplattform, die eigens für Lieferkettendaten und -Problemen entwickelt wurde, ein großer Pluspunkt. Wir sprechen hier über eine Datenplattform, da Arbeitsstationen, die heutzutage jeweils mehrere Terabytes speichern können, nicht unbedingt weitere Eigenschaften liefern, die zur Umsetzung des Projekts wünschenswert wären, wie Zuverlässigkeit bei Hardware-Fehlern, Überprüfbarkeit aller Zugriffe, Kompatibilität mit Datenexport, etc. Außerdem sollten Datenplattformen, da Datasets für den Bereich Lieferkette gewöhnlich ziemlich groß sind, skalierbar sein, also in anderen Worten, in der Lage sein, große Datenmengen in geringer Zeit zu verarbeiten.

Die Datenplattformen erfordern Programmierungsmöglichkeiten, was sich auf die Möglichkeit bezieht, praktisch jede beliebige Datenverarbeitungslogik auszuführen. Solche Fähigkeiten werden über eine Programmiersprache zur Verfügung gestellt. Das Programmieren wird oft, zurecht, als eine sehr technische Fähigkeit betrachtet. So spielen viele Anbieter mit der Angst vor einer Lösung, bei der die Benutzer sogar für die einfachsten Benutzeroberflächen mit Buttons und Menüs „programmieren“ müssen. Doch wenn das Lieferkettenteam keine Programmiermöglichkeiten erhält, wendet es sich an Excel, gerade weil Excel durch beliebig komplizierte Formeln solche Programmierungsmöglichkeiten bietet. So handelt es sich bei Programmierungsmöglichkeiten nicht um ein Gadget, sondern um eine Kernanforderung.

Zusätzlich bieten besonders für Lieferkette entwickelte Datenplattformen deutliche Vorteile. So sind eigentlich spezifische Datenplattformen nicht nur im Bereich der Lieferkette nötig, auch Handelssysteme, wie die von Banken und Fonds, haben ähnliche Anforderungen. Doch Entscheidungen bezüglich von Lieferketten benötigen keiner Latenzzeiten, die unter einer Millisekunde liegen, wie etwa bei Handelssystemen. Der Entwurf von Datenplattformen ist mit technischen Kompromissen, sowie der Softwareumgebung verbunden, was schon bei den unterstützten Datenformaten beginnt. Diese technische Kompromisse, sowie die Softwareumgebung sollten mit der Lieferkette abgestimmt sein.

Die zweite Anforderung einer quantitativen Lieferkette liegt am probabilistischen Prognose-Engine. Diese Software ordnet jeder möglichen Zukunft eine Wahrscheinlichkeit zu. Obwohl diese Art von Prognose anfänglich etwas verwirrend wirken kann, da sie etwas kontraintuitiv, was die Prognose der Zukunft betrifft, ist, liegt die Besonderheit in der Ungewissheit: Die Zukunft ist ungewiss und eine einzige Prognose ist auf jeden Fall falsch. Bei klassischen Prognosen werden Ungewissheit und Schwankungen geleugnet. Folglich müssen sich Unternehmen mit einer Prognose auseinandersetze, die genau sein sollte, aber es nicht ist. Bei uns löst eine probabilistischer Prognose-Engine das Problem direkt vom Anfang an durch Wahrscheinlichkeiten.

Der Prozess der probabilistische Prognosen im Bereich Lieferkette besteht meistens aus zwei Phasen, mit einer Prognose der Durchlaufzeit und der darauffolgenden Bedarfsprognose. Die Prognose der Durchlaufzeit ist eine probabilistische Vorhersage: jeder möglichen Dauer der Durchlaufzeit, gewöhnlich in Tagen ausgedrückt, wird eine Wahrscheinlichkeit zugeordnet. Die Bedarfsprognose, auch eine probabilistische Prognose wird auf Grundlage der Prognose der Durchlaufzeit, die als Eingabe genutzt wird, erstellt. Und so muss die Zeitspanne, die von der Bedarfsprognose gedeckt wird, auch mit den Durchlaufzeiten übereinstimmen, die per se ungewiss sind.

Da der probabilistische Prognose-Engine eine Reihe Wahrscheinlichkeitsverteilungen liefert, bietet die Ausgabe der Prognosen viel mehr Daten, als die von klassischen Prognose-Engines. Das ist keineswegs ein unüberwindbares Problem. Doch, für die Verarbeitung einer massiven Anzahl von Wahrscheinlichkeiten ist ein hohes Maß Zusammenarbeit zwischen der Datenplattform und dem Prognose-Engine erforderlich.

Lokads Technologieplattform. Man könnte sagen, dass Lokads Technologie eigens für den Ansatz quantitativer Lieferketten geschaffen wurde, doch eigentlich war dies andersherum. Lokads F&E erzielte einen Durchbruch bei der Entdeckung von Datenverarbeitungsmodellen, die sich besser für Lieferkettenprobleme eigneten, als herkömmliche Ansätze. Doch das Ausmaß dieses Durchbruchs begriffen wir erst, als wir die höhere Leistung dieser Elemente in der Produktion beobachteten. Dadurch erschloss sich uns bei Lokad die quantitative Lieferkette als eine Erklärung zur eigentlichen Arbeit bei Lokad. So bietet Lokad sowohl eine Datenplattform - Codename Envision - und einen probabilistischen Prognose-Engine. Quantitative Lieferketten haben also einen äußerst empirischen Ursprung.

Die Projektphasen

Quantitative Lieferketten beruhen stark auf die F&E im Bereich Softwareentwicklung und auf bewährte Verfahren der Supply Chain Scientist. Die Methodik ist äußerst iterativ, wobei der Fokus auf Geschwindigkeit und der Fähigkeit, sich von unerwarteten Problemen oder Ergebnissen zu erholen, liegt und Spezifikationen im Voraus wenig Bedeutung beigemessen wird. Folglich erscheint diese Methodik Unternehmern aus der Softwareindustrie fremden Bereichen etwas überraschend.

Die erste Phase ist die Zielsetzungsphase, in der die Entscheidungen bezüglich der Lieferkette, die im Projekt gedeckt werden sollen, definiert werden. In dieser Phase werden auch die Komplexität der Entscheidungsfindung, sowie der relevanten Daten geprüft.

Die zweite Phase ist die Datenaufbereitungsphase, in der eine automatisierte Einrichtung erstellt wird, die alle relevanten Daten aus den Unternehmenssystemen in eine getrennte analytische Plattform kopiert. In dieser Phase werden außerdem diese Daten für eine quantitative Analyse vorbereitet.

Die dritte Phase ist die Pilotphase. Hier wird eine anfängliche Entscheidungslogik implementiert, die Entscheidungen generiert, wie etwa empfohlene Kaufmengen, was bereits die ehemaligen Unternehmensabläufe übertrifft. Von dieser Logik wird eine totale Automatisierung erwartet.

Die vierte Phase ist die Produktionsphase. Hier soll die Lösung zum Laufen gebracht werden. Hierbei wird die Leistung beobachtet und gewartet. In dieser Phase soll auch ein Konsens über den gewünschten Grad an Feinheit für das Modell der Lieferkette erreicht werden.

Die Zielsetzungsphase ist die verständlichste und besteht darin, die Routineentscheidungen, die vom Projekt der quantitativen Lieferkette gedeckt werden sollen, zu erkennen. Diese Entscheidungen können sich um Bedingungen drehen: Mindestbestellmengen (MOQ), volle Container, maximale Lagerkapazität, etc. Und solche Bedingungen sollten genau überprüft werden. Dann werden Entscheidungen finanzielle Faktoren zugeordnet: Lagerhaltungskosten, durch Fehlbestände verursachte Kosten, Bruttogewinnspanne... Auch diese finanziellen Faktoren sollten analysiert werden. Zuletzt müssen die relevanten historischen Daten, sowie das System, aus dem diese extrahiert werden, erkannt werden.

Die Datenaufbereitungsphase ist die schwierigste Phase, in der die meisten Fehler unterlaufen. Es geht nicht nur darum, Zugang zu den Daten zu verschaffen und diese zu verstehen. Unternehmenssysteme wie ERP, MRP, WMS oder MS wurden für den Betrieb geschaffen, um das Unternehmen am Laufen zu halten. Historische Daten sind ein reines Nebenprodukt solcher Systeme, da das Speichern dieser Daten nicht das vorrangige Ziel dieser Systeme war. Daher sind die meisten Schwierigkeiten in dieser Phase zu erwarten. Leider tendieren die meisten Unternehmen bei Schwierigkeiten zu einem bedauerlichen Reflex, nämlich einen Schritt zurückzugehen und eine ganze Spezifikation zu schreiben. Solche Spezifikationen können aber leider nur die bekannten oder erwarteten Schwierigkeiten decken. Doch die meisten Probleme, die in dieser Phase auftreten, bestehen aus Elementen, die man leider nicht planen kann.

In Wirklichkeit werden Probleme meistens erst festgestellt, wenn jemand die Daten bei der Erzeugung von datengestützten Entscheidungen testet. Wenn eine für richtig gehaltene Lösung falsche Entscheidungen ergibt, liegt das Problem wahrscheinlich an den Daten. Datengestützte Entscheidungen sind besonders anfällig für Datenprobleme und stellen daher hervorragend dar, wie viel Kontrolle ein Unternehmen über die eigenen Daten besitzt. Außerdem werden durch diesen Vorgang die Daten auf eine für das Unternehmen sinnvolle Art hinterfragt. Denn Datenqualität und das Verständnis der Daten sind ein reiner Mittel zum Zweck, etwas Wertvolles für das Unternehmen zu liefern. Es ist daher sehr vernünftig, sich auf die Datenprobleme zu konzentrieren, die die datengestützte Entscheidungen am deutlichsten beeinflussen.

In der Pilotphase wird das Lieferkettenmanagement getestet. Tatsächlich ist die Betrachtung der Ungewissheit bei probabilistischen Prognosen nicht sehr intuitiv. Gleichzeitig richten herkömmliche Methoden, wie wöchentliche oder monatliche Prognosen, Sicherheitsbestände, Bestandsdeckung, Bestandswarnungen oder ABC-Analysen mehr Schaden an, als sie nützlich sind. Das bedeutet nicht, dass die Lieferkettenlösung frei laufen sollte. Eigentlich ist es das genaue Gegenteil, da sich bei quantitativen Lieferketten alles um messbare Leistung dreht. Doch viele herkömmliche Vorgänge bei Lieferketten formulieren Probleme in einer bestimmten Art, die für die Lösung dieser eher kontraproduktiv ist. Daher ist während der Pilotphase eine der Hauptherausforderungen, dass die Leitung der Lieferkette sich auf neue Ansätze einlässt und keine Elemente einführt, die zu einem späteren Zeitpunkt Leistungsschwächen hervorruft.

Dann werden auch der Supply Chain Scientist und die Technologie auf die Probe gestellt, da in relativ kurzer Zeit die Logik zur Erstellung von Entscheidungen umgesetzt werden muss. Das anfängliche Ziel ist von Fachkräften als vernünftig erachtete Entscheidungen zu erstellen, also solche, die keiner manuellen Korrekturen bedürfen. Dazu möchten wir ausdrücklich empfehlen, die Herausforderung, die die Erstellung „vernünftiger“ automatisierter Entscheidungen darstellt, nicht zu unterschätzen. Herkömmliche Lieferkettensysteme benötigen jede Menge manueller Korrekturen, um überhaupt zu funktionieren: neue Produkte, Aktionen, Fehlbestände, usw. Quantitative Lieferketten, hingegen, legen eine neue Regel fest: es werden keine manuellen Einträge mehr für alltägliche Operationen zugelassen, alle Faktoren sollten in die Logik eingebaut werden.

Es ist die Aufgabe des Supply Chain Coordinator alle Faktoren, Workflows und Spezifitäten, die in die Entscheidungslogik eingebaut werden müssen, zu sammeln. Auf Grundlage dieser implementiert der Supply Chain Scientist den ersten Stapel der den Entscheidungen zugeordneten KPIs. Die Einführung dieser KPIs dient dazu, Black-Box-Effekte zu vermeiden, die bei der Anwendung von erweiterten numerischen Methoden auftreten können. Wichtig ist, dass die KPIs zusammen mit dem Supply Chain Leader formuliert werden, der sicherstellt, dass die Messungen mit der Unternehmensstrategie im Einklang stehen.

In der Produktionsphase wird die Lösung stabilisiert und unter echten Bedingungen getestet. Die von der Logik erstellten Entscheidungen werden aktiv benutzt und die entsprechenden Ergebnisse genau verfolgt. Da die Durchlaufzeiten mitwirken, werden die Folgen einer bestimmten Entscheidung bezüglich der Lieferkette erst einige Wochen oder Monate später beurteilt. So werden auch Veränderungen im Lieferkettenprojekt nur langsam vorgenommen, um die Leistung der automatisierten Entscheidungen zuverlässig zu beurteilen. Die Lösung kommt somit in eine Phase der ständigen Verbesserung. Während weitere Verbesserungen wünschenswert sind, muss ein Gleichgewicht zwischen den Vorteilen möglicher Verfeinerungen der Logik und der entsprechenden Komplexität dieser Verfeinerungen erreicht werden, sodass die gesamte Lösung wartbar bleibt.

Der Supply Chain Coordinator, der jetzt nicht mehr mit alltäglichen Einträgen beschäftigt ist, kann sich nun auf die strategischen Einblicke des Lieferkettenmanagements konzentrieren. Oft wurden schon während der Pilotphase wünschenswerte Änderungen des Lieferkettenprozesses erkannt doch noch nicht umgesetzt, um den Betrieb nicht mit allen möglichen gleichzeitigen Änderungen zu stören. Doch jetzt, wo das Tempo der Änderungen der Entscheidungslogik nachlässt, wird es möglich, stufenweise die Prozesse zu überprüfen, um Leistungssteigerungen, die mehr als besser Routineentscheidungen benötigen, zu ermöglichen.

Der Supply Chain Scientist schleift an der Logik weiter, indem er sich auf die KPIs und die Qualität der Daten konzentriert. Er ist auch verantwortlich für die Überprüfung der Logik, da subtile Fehler oder Einschränkungen hauptsächlich in seltenen Situationen nach und nach festgestellt werden. Im Laufe der Veränderung der Prozesse wird die Entscheidungslogik überprüft, um sicherzustellen, dass sie weiterhin mit den Workflows und der Strategie übereinstimmt. Auch wenn sich die internen Prozesse nicht ändern, entwickeln sich die IT- und die Unternehmenslandschaft weiter. Daher muss der Supply Chain Scientist sicherstellen, dass die Entscheidungslogik in diesem ständigen Wandel auf dem Laufenden bleibt.