Initiative der Quantitative Supply Chain

learn menu

Quantitative Supply Chain Optimierung, oder kurz die Quantitative Supply Chain, ist eine umfassende Perspektive auf supply chains, die, einfach gesagt, darauf abzielt, die menschliche Intelligenz, ergänzt um die Möglichkeiten moderner Rechenressourcen, bestmöglich zu nutzen. Dennoch ist diese Perspektive nicht allumfassend. Sie behauptet nicht, die endgültige Lösung für supply chain challenges zu sein, sondern ist ein ergänzender Ansatz, der nahezu immer genutzt werden kann, um die Situation zu verbessern.

Die Initiative

Die Quantitative Supply Chain hilft Ihrem Unternehmen, die Servicequalität zu verbessern, Überbestände und Abschreibungen zu reduzieren, die Produktivität zu steigern, Einkaufspreise und Betriebskosten zu senken … und die Liste ließe sich fortsetzen. Supply chain challenges variieren stark je nach Situation. Die Quantitative Supply Chain nimmt diese Vielfalt an und strebt danach, trotz der daraus resultierenden Komplexität erfolgreich zu sein. Dennoch mag sie für supply chain Praktiker, die an klassischere Ansätze zur Optimierung ihrer supply chains gewöhnt sind, etwas verwirrend erscheinen.

Im Folgenden prüfen wir die Bestandteile, die erforderlich sind, um die Vorteile der quantitativen Perspektive auf supply chain voll auszuschöpfen. Wir untersuchen und erläutern die Ambitionen einer Quantitative Supply Chain-Initiative. Wir beleuchten die Rollen und Fähigkeiten des Teams, das mit der Umsetzung der Initiative betraut ist. Abschließend geben wir einen kurzen Überblick über die Methodik, die mit der Quantitative Supply Chain verbunden ist.

Das Ziel

Bis auf sehr kleine Unternehmen umfasst eine supply chain täglich Millionen von Entscheidungen. Für jede Einheit im Lager trifft das Unternehmen täglich die Entscheidung, die Einheit dort zu belassen, anstatt sie an einen anderen Ort zu verlagern. Zudem gilt dieselbe Logik für nicht vorhandene Lagerbestände, die produziert oder eingekauft werden könnten. Untätig zu bleiben, ist selbst schon eine Entscheidung.

Die Quantitative Supply Chain dreht sich darum, die Millionen von Entscheidungen zu optimieren, die das Unternehmen täglich treffen muss, und da es sich um Millionen, wenn nicht sogar Milliarden von Entscheidungen pro Tag handelt, spielen Computer in diesem Vorhaben eine zentrale Rolle. Dies ist nicht überraschend, denn supply chains waren historisch gesehen nach der Buchhaltung eine der ersten betrieblichen Funktionen, die bereits in den späten 1970er Jahren digitalisiert wurden. Dennoch geht es bei der Quantitative Supply Chain darum, die Digitalisierung noch einen Schritt weiterzuführen.

Hier muss man anerkennen, dass fehlgeleitete Versuche, das “supply chain system of the future” einzuführen, in den letzten zwei Jahrzehnten häufig vorgekommen sind. Zu oft haben solche Systeme nichts anderes bewirkt, als das Durcheinander in supply chains zu vergrößern, indem sie Black-Box-Effekte mit fehlgeschlagener Automatisierung kombinierten und so eine derart Vielzahl schlechter Entscheidungen erzeugten, dass Probleme nicht mehr durch menschliches Eingreifen behoben werden konnten.

Bis zu einem gewissen Grad ist die Quantitative Supply Chain aus diesen Fehlern hervorgegangen: Anstatt vorzugeben, dass das System das Geschäft besser kennt als das eigene Management, muss der Fokus darauf liegen, die vom Management gewonnenen Erkenntnisse mit höherer Zuverlässigkeit, Klarheit und Agilität umzusetzen. Gut gemachte Softwaretechnologie ist ein leistungsfähiger Enabler, aber angesichts der derzeitigen Möglichkeiten von Software ist es keine realistische Option, die Menschen vollständig aus der Lösung zu entfernen.

Diese Ambition hat eine unmittelbare Konsequenz: Die Software, die das Unternehmen zur Überwachung seiner Produkte, Materialien und anderer Ressourcen einsetzt, wird nicht dieselbe sein wie die Software, die das Unternehmen zur Optimierung seiner Entscheidungen benötigt. Sei es nun ein ERP, ein WMS, ein MRP oder ein OMS – all diese Softwarelösungen konzentrieren sich in erster Linie auf die Steuerung der Unternehmensprozesse und den Datenstrom. Verstehen Sie uns nicht falsch, es gibt enorme Vorteile, wenn man Dateneingaben rationalisiert und alle administrativen Aufgaben automatisiert. Dennoch bleibt unser Punkt bestehen: Diese Aufgaben lösen bei Weitem nicht die eigentliche Herausforderung, nämlich die Fähigkeit Ihres Unternehmens zu erhöhen, menschliche Erkenntnisse in dem für Ihre supply chain erforderlichen Umfang umzusetzen.

Dann gibt es keine Optimierung ohne Messung. Daher dreht sich die Quantitative Supply Chain, wie der Name schon sagt, sehr um Messungen. Supply chain decisions – Lagerbestände einkaufen, Lagerbestände bewegen – haben Konsequenzen, und die Qualität dieser Entscheidungen sollte finanziell (zum Beispiel in Dollar) unter soliden wirtschaftlichen Gesichtspunkten bewertet werden. Allerdings erfordert es erheblichen Aufwand, gute und verlässliche Metriken zu etablieren. Eines der Ziele der Quantitative Supply Chain ist es, dem Unternehmen dabei zu helfen, solche Metriken zu etablieren, die auch in den späteren Projektphasen eine entscheidende Rolle bei der Beurteilung der Kapitalrendite (ROI) der gesamten supply chain Initiative spielen.

Schließlich, wie bereits erwähnt, ist die Quantitative Supply Chain kein allumfassendes Paradigma. Sie hat nicht die Ambition, alles in der supply chain des Unternehmens zu reparieren oder zu verbessern. Sie behauptet nicht, Ihnen dabei zu helfen, vertrauenswürdige Lieferanten oder zuverlässige Logistikpartner zu finden. Sie verspricht nicht, großartige Teams einzustellen und deren Motivation hoch zu halten. Doch dank ihres sehr spezifischen Fokus ist die Quantitative Supply Chain durchaus in der Lage, greifbare Ergebnisse zu liefern.

Die Projektrollen

Die Quantitative Supply Chain erfordert überraschend wenig personelle Ressourcen, selbst wenn es um relativ groß angelegte supply chains geht. Trotzdem benötigt eine solche Initiative spezifische Ressourcen, deren Details wir in diesem Abschnitt darlegen werden. Doch bevor wir auf die verschiedenen Rollen und deren Besonderheiten eingehen, möchten wir ein zentrales Prinzip der Quantitative Supply Chain erwähnen: Das Unternehmen sollte jeden menschlichen Eingriff gewinnbringend nutzen.

Dieses Prinzip widerspricht den herkömmlichen supply chain Lösungen: Menschliche Anstrengungen werden von der Lösung aufgebraucht und nicht gewinnbringend genutzt. Um einen unendlichen Strom von Entscheidungen zu erzeugen, benötigt die Lösung einen unendlichen Strom manueller Eingaben. Solche Eingaben können viele Formen annehmen: Anpassung saisonaler Profile, Umgang mit Ausnahmen und Warnmeldungen, Korrektur seltsamer Prognosewerte usw.

Die Quantitative Supply Chain strebt an, diese Perspektive umzukehren. Es geht nicht nur darum, dass menschliche Arbeitskraft teuer ist, sondern auch, dass supply chain Expertise in Kombination mit ausgeprägten geschäftlichen Einsichten zu selten und zu wertvoll ist, um sie in repetitiven Aufgaben zu verschwenden. Die Ursache manueller Eingriffe sollte vielmehr behoben werden: Wenn Prognosewerte falsch sind, macht es keinen Sinn, die Werte selbst zu ändern – stattdessen müssen die Eingangsdaten oder der Prognosealgorithmus korrigiert werden. Das Bekämpfen der Symptome garantiert einen endlosen Umgang mit denselben Problemen.

Die Größe des Teams, das zur Umsetzung einer quantitativen supply chain Initiative erforderlich ist, variiert je nach Umfang der supply chain selbst. Am unteren Ende des Spektrums kann es weniger als eine FTE (Vollzeitäquivalent) erfordern, typischerweise bei Unternehmen mit einem Umsatz von unter 20 Millionen Dollar. Am oberen Ende des Spektrums kann es ein Dutzend Personen umfassen; in diesem Fall stehen jedoch in der Regel Inventare im Wert von mehreren Milliarden Dollar auf dem Spiel.

Der Supply Chain Leader: Die Quantitative Supply Chain ist ein Paradigmenwechsel. Wandel voranzutreiben erfordert Führung und Unterstützung durch das Top-Management. Allzu oft haben supply chain Führungskräfte nicht das Gefühl, dass sie die Zeit haben, sich zu sehr in das als “Technikalitäten” wahrgenommene einer Lösung einzumischen. Doch bei der Quantitative Supply Chain geht es darum, strategische Einsichten in großem Maßstab umzusetzen. Die strategischen Einsichten nicht mit dem für die Initiative zuständigen Team zu teilen, ist ein Rezept für Misserfolg. Von der Geschäftsführung wird nicht erwartet, dass sie alle relevanten Metriken und KPIs erarbeitet – da dies einen enormen Aufwand bedeutet – aber sie wird sicherlich dazu angehalten, diese kritisch zu hinterfragen.

Der Supply Chain Coordinator: Während die Quantitative Supply Chain-Initiative selbst sehr personalkundig ausgelegt sein soll, sind die meisten supply chains es nicht, oder zumindest nicht so schlank. Wird nicht jeder mit einbezogen, kann dies zu Verwirrung und einer Verlangsamung der Initiative führen. Daher besteht die Aufgabe des Coordinators darin, sämtliches erforderliches internes Feedback für die Initiative zu sammeln und mit allen beteiligten Parteien zu kommunizieren. Der Coordinator klärt die Prozesse und Entscheidungen, die getroffen werden müssen, und holt Rückmeldungen zu den Metriken und KPIs ein, die zur Optimierung dieser Entscheidungen verwendet werden sollen. Er stellt zudem sicher, dass die Lösung die bestehenden Unternehmensabläufe so übernimmt, wie sie sind, wobei die Möglichkeit erhalten bleibt, diese Abläufe in einem späteren Stadium der Initiative zu überarbeiten.

Der Data Officer: Die Quantitative Supply Chain ist stark abhängig von Daten, und jede Initiative muss zuverlässigen Zugang zu Daten aus der Batch-Verarbeitung haben. Tatsächlich beinhaltet die Initiative nicht nur das Auslesen einiger weniger Zeilen im Unternehmenssystem, sondern das Auslesen der gesamten sales history, der gesamten Einkaufshistorie, des gesamten Produktkatalogs usw. Der Data Officer wird in der Regel von der IT-Abteilung delegiert, um die Initiative zu unterstützen. Er ist dafür verantwortlich, die gesamte data extraction Logik zu automatisieren und dafür zu sorgen, dass diese Logik für tägliche Extraktionen eingeplant wird. In der Praxis konzentrieren sich die Bemühungen des Data Officer vorwiegend auf den ganz Anfang der Initiative.

Der Supply Chain Scientist: Er nutzt die Technologie – dazu später mehr – um die vom Coordinator gesammelten Erkenntnisse mit den vom Data Officer extrahierten Daten zu kombinieren, um so die automatisierte Entscheidungsfindung zu ermöglichen. Der Scientist beginnt mit der Aufbereitung der Daten, was eine überraschend schwierige Aufgabe ist und viel Unterstützung vom Coordinator erfordert, der mit den vielen Personen interagieren muss, die die Daten ursprünglich erzeugt haben, um Unklarheiten zu beseitigen. Er formalisert die Strategie, sodass sie zur Generierung von Entscheidungen genutzt werden kann – zum Beispiel die vorgeschlagenen Nachbestellmengen . Abschließend statuiert der Supply Chain Scientist die gesamte Datenpipeline mit dashboards und KPIs, um Klarheit, Transparenz und Kontrolle sicherzustellen.

Für mittelständische Unternehmen kann es äußerst effizient sein, wenn dieselbe Person sowohl die Rolle des Coordinators als auch die des Data Officer übernimmt. Dies erfordert ein Spektrum an Fähigkeiten, das nicht immer in einem einzelnen Mitarbeiter zu finden ist; existiert jedoch eine solche Person in der Organisation, gilt sie als Gewinn zur Beschleunigung der Initiative. Bei größeren Unternehmen ist es zudem ein großer Vorteil, wenn der Coordinator, auch wenn er zu Beginn der Initiative nicht bestens mit den Unternehmensdatenbanken vertraut ist, im Laufe der Initiative ein gewisses Maß an Vertrautheit erwerben kann. Tatsächlich verändert sich die IT-Landschaft ständig, und die Voraussicht, wie diese Veränderungen die Initiative beeinflussen werden, trägt maßgeblich zu einem reibungslosen Ablauf bei.

Managed subscription plans of Lokad. Die Besetzung der Supply Chain Scientist Position könnte für Unternehmen, die seit Jahren keine Data-Science-Expertise kultiviert haben, eine Herausforderung darstellen. Lokad unterstützt quantitative supply chain Initiativen solcher Unternehmen, indem es über seinen Premier-Abonnementplan einen “expert-as-a-service” bereitstellt. Neben der Bereitstellung des notwendigen Coachings, damit die Initiative stattfinden kann, stellt Lokad auch die Zeit und das Engagement zur Verfügung, die erforderlich sind, um die Logik zu implementieren, welche die Entscheidungen berechnet, sowie die Dashboards, die Klarheit und Kontrolle bieten, die das Management für den Vertrauensaufbau und das Verständnis der Initiative benötigt.

Die Technologie

Bisher sind wir hinsichtlich der Softwaretechnologie, die zur Unterstützung der Quantitative Supply Chain erforderlich ist, eher vage geblieben. Dennoch ist die Quantitative Supply Chain entscheidend von dem Technologie-Stack abhängig, der zu ihrer Implementierung genutzt wird. Während theoretisch jede Software von Grund auf neu entwickelt werden könnte, benötigt der Supply Chain Scientist eine enorme Unterstützung durch seinen Stack, um auch nur einigermaßen produktiv zu sein. Darüber hinaus erfordern bestimmte Fähigkeiten wie Prognosen und numerische Optimierung erhebliche vorausgehende F&E-Bemühungen, die weit über das hinausgehen, was der Supply Chain Scientist im Laufe der Initiative leisten kann.

Die erste Anforderung der Quantitative Supply Chain ist eine Datenplattform mit programmatischen Fähigkeiten, und es ist selbstverständlich ein großer Vorteil, Zugriff auf eine Datenplattform zu haben, die speziell auf den Umgang mit supply chain Daten und supply chain Problemen zugeschnitten ist. Wir sprechen von einer Datenplattform, denn obwohl heutzutage jeder Desktop-Arbeitsplatz mehrere Terabyte speichern kann, bedeutet das nicht, dass dieser Arbeitsplatz auch andere wünschenswerte Eigenschaften für die Durchführung der Initiative bietet: Zuverlässigkeit gegen Hardwareausfälle, Prüfbarkeit aller Zugriffe, Kompatibilität mit Datenausfuhren usw. Zudem tendieren supply chain Datensätze dazu, groß zu sein, weshalb die Datenplattform skalierbarer sein sollte bzw. in der Lage sein muss, große Datenmengen in kurzer Zeit zu verarbeiten.

Die Datenplattform erfordert programmatische Fähigkeiten, also die Möglichkeit, nahezu jede beliebige Datenverarbeitungslogik zu implementieren und auszuführen. Solche Fähigkeiten werden mittels einer Programmiersprache bereitgestellt. Programmieren gilt zu Recht als eine sehr technische Fähigkeit, und viele Anbieter nutzen die Angst vor der Vorstellung, mit einer Lösung konfrontiert zu werden, die “Programmierung” erfordert, um den Nutzern einfache Benutzeroberflächen mit Buttons und Menüs aufzuzwingen. Sobald den supply chain Teams jedoch programmatische Fähigkeiten verwehrt werden, übernehmen Excel-Tabellen, gerade weil Excel programmatische Fähigkeiten mit der Möglichkeit bietet, Formeln zu schreiben, die beliebig komplex sein können. Weit davon entfernt, ein Gimmick zu sein, sind programmatische Fähigkeiten eine Kernanforderung.

Schließlich gibt es erhebliche Vorteile, eine Datenplattform zu haben, die speziell auf supply chain zugeschnitten ist. Tatsächlich ist das Bedürfnis nach irgendeiner Art von Datenplattform kaum spezifisch für supply chain: Quantitative Trading, wie er von Banken und Fonds betrieben wird, bringt ähnliche Anforderungen mit sich. Allerdings erfordern supply chain Entscheidungen nicht submillisekundige Latenzen, wie sie beim High-Frequency Trading nötig sind. Das Design einer Datenplattform ist sowohl eine Frage technischer Kompromisse als auch eine Frage eines Software-Ökosystems, das mit den unterstützten Datenformaten beginnt. Diese technischen Kompromisse und das Software-Ökosystem sollten mit den Herausforderungen von supply chain in Einklang stehen.

Die zweite Anforderung der die Quantitative Supply Chain ist eine probabilistische forecasting engine. Dieses Softwaremodul ist dafür verantwortlich, jeder möglichen Zukunft eine Wahrscheinlichkeit zuzuweisen. Obwohl diese Art der Prognose zunächst etwas beunruhigend ist, da sie dem intuitiven Verständnis der Zukunftsvorhersage widerspricht, liegt der “Knackpunkt” tatsächlich in der Unsicherheit: Die Zukunft ist ungewiss und eine einzelne Prognose ist garantiert falsch. Eine probabilistic forecasting Engine geht dieses Problem direkt an, indem sie Wahrscheinlichkeiten zur Problemlösung einsetzt.

Probabilistische Prognosen in supply chain sind typischerweise ein zweistufiger Prozess, der mit einer Lieferzeit Prognose beginnt und von einer Bedarfsprognose gefolgt wird. Die Lieferzeit-Prognose ist eine probabilistische Prognose: Allen möglichen Lieferzeitdauern, üblicherweise in Tagen ausgedrückt, wird eine Wahrscheinlichkeit zugeordnet. Anschließend ist auch die Bedarfsprognose probabilistisch, wobei diese Prognose auf der als Eingabe bereitgestellten Lieferzeit-Prognose aufbaut. So muss der von der Bedarfsprognose abzudeckende Horizont zu den – unsicheren – Lieferzeiten passen.

Da die probabilistische Prognosemaschine Mengen von Wahrscheinlichkeitsverteilungen liefert, beinhalten ihre Prognoseausgaben viel mehr Daten als die einer klassischen Prognosemaschine. Dies stellt per se kein unüberwindbares Problem dar, jedoch erfordert die Verarbeitung einer massiven Anzahl von Wahrscheinlichkeiten ein hohes Maß an Zusammenarbeit zwischen der Datenplattform und der Prognosemaschine, um allzu große Reibungsverluste zu vermeiden.

Lokad’s technology stack. Man könnte sagen, dass Lokad’s Technologie darauf ausgelegt wurde, die Perspektive der die Quantitative Supply Chain zu unterstützen, doch in Wirklichkeit verlief es genau umgekehrt. Lokad’s F&E-Teams erzielten einen Durchbruch in der probabilistischen Prognose und entdeckten Datenverarbeitungsmodelle, die wesentlich besser zu den Herausforderungen von supply chain passten als herkömmliche Ansätze. Wir erkannten das Ausmaß dieses Durchbruchs, als wir beobachteten, dass einmal in Produktion genommene Elemente überlegene Leistungsniveaus aufwiesen. Dies führte Lokad folgerichtig zur Perspektive der die Quantitative Supply Chain, um zu verdeutlichen, was die Lokad-Teams tatsächlich taten. Lokad verfügt sowohl über eine Datenplattform – im Codenamen Envision – als auch über eine probabilistische Prognosemaschine. Wie Sie sehen können, hat die die Quantitative Supply Chain sehr empirische Wurzeln.

Die Projektphasen

Die die Quantitative Supply Chain ist stark inspiriert von der F&E im Bereich Software Engineering und den in der Data Science bekannten Best Practices. Die Methodik ist hochiterativ, legt wenig Wert auf vorherige Spezifikationen und setzt stattdessen stark auf Agilität sowie die Fähigkeit, sich von unerwarteten Problemen und/oder Ergebnissen zu erholen. Dadurch wird diese Methodik von Unternehmen, die selbst nicht tief in der Softwarebranche involviert sind, oft als ziemlich überraschend empfunden.

Die erste Phase ist die Scoping-Phase, die definiert, welche supply chain Entscheidungen mit der Initiative abgedeckt werden sollen. Diese Phase dient auch dazu, die erwartete Komplexität des Entscheidungsprozesses sowie der relevanten Daten zu diagnostizieren.

Die zweite Phase ist die Datenvorbereitungsphase. Sie besteht darin, ein automatisiertes Setup zu etablieren, das alle relevanten Daten aus den Unternehmenssystemen auf eine separate Analyseplattform überträgt. Außerdem werden diese Daten für die quantitative Analyse vorbereitet.

Die dritte Phase ist die Pilotphase und besteht darin, eine erste Entscheidungssystemlogik zu implementieren, die Entscheidungen generiert – zum Beispiel die vorgeschlagenen Einkaufsmengen, die bereits die bisherigen Prozesse des Unternehmens übertreffen. Es wird erwartet, dass diese Logik vollständig automatisiert ist.

Die vierte Phase ist die Produktionsphase, die die Initiative auf Reiseflughöhe bringt, wobei die Leistung überwacht und aufrechterhalten wird und ein Konsens über den gewünschten Grad an Verfeinerung der supply chain Modelle erreicht wird.

Die Scoping-Phase ist die unkomplizierteste und identifiziert die Routineentscheidungen, die die die Quantitative Supply Chain Initiative abdecken soll. Diese Entscheidungen können viele Einschränkungen beinhalten: MOQ (Mindestbestellmengen), full containers, maximale warehouse-Kapazität, … und diese Einschränkungen sollten genau untersucht werden. Anschließend werden den Entscheidungen auch wirtschaftliche Treiber zugeordnet: carrying costs, Kosten von stock-outs, Bruttomargen, … und auch diese wirtschaftlichen Treiber sollten analysiert werden. Schließlich müssen die relevanten historischen Daten identifiziert werden, zusammen mit den Systemen, aus denen diese Daten extrahiert werden.

Die Datenvorbereitungsphase ist die schwierigste Phase; in diesem Stadium treten die meisten Fehler auf. Der Zugang zu Daten und deren sinnvolle Interpretation sind nahezu immer unterschätzte Herausforderungen. Operative Systeme (z.B. ERP / MRP / WMS / OMS) wurden entwickelt, um das Unternehmen zu betreiben und am Laufen zu halten. Historische Daten sind ein Nebenprodukt dieser Systeme, da die Erfassung von Daten nicht der Grund für deren Implementierung war. Daher sind in dieser Phase zahlreiche Schwierigkeiten zu erwarten. Bei Problemen haben die meisten Unternehmen einen bedauerlichen Reflex: Einen Schritt zurücktreten und eine vollständige Spezifikation anfertigen. Leider kann eine Spezifikation nur die bekannten oder erwarteten Schwierigkeiten abdecken, während nahezu alle wesentlichen Probleme in dieser Phase Elemente betreffen, die nicht im Voraus geplant werden können.

In Wirklichkeit treten Probleme meist erst dann zutage, wenn jemand beginnt, die Daten im Hinblick auf ihre Fähigkeit zur Erzeugung datengetriebener Entscheidungen zu testen. Wenn Entscheidungen fehlerhaft ausfallen, obwohl die Logik als fundiert gilt, liegt vermutlich ein Problem mit den Daten vor. Datengetriebene Entscheidungen sind oft empfindlich gegenüber Datenproblemen und stellen daher einen hervorragenden Ansatzpunkt dar, um zu hinterfragen, wie viel Kontrolle das Unternehmen über seine eigenen Daten hat. Darüber hinaus fordert dieser Prozess die Daten in einer für das Unternehmen bedeutsamen Weise heraus. Datenqualität und Datenverständnis sind letztlich nur Mittel zum Zweck: etwas von Wert für das Unternehmen zu liefern. Es erscheint sehr sinnvoll, die Anstrengungen auf Datenprobleme zu konzentrieren, die einen signifikanten Einfluss auf datengetriebene Entscheidungen haben.

Die Pilotphase ist die Phase, in der das Supply Chain Management auf die Probe gestellt wird. Die Akzeptanz von Unsicherheit mittels probabilistischer Prognosen kann ziemlich kontraintuitiv erscheinen. Gleichzeitig bewirken viele traditionelle Praktiken, wie wöchentliche oder monatliche Prognosen, safety stocks, Lagerabdeckungen, Lagerwarnungen oder ABC analysis, tatsächlich mehr Schaden als Nutzen. Das bedeutet nicht, dass die die Quantitative Supply Chain Initiative unkontrolliert ablaufen sollte. Im Gegenteil, die die Quantitative Supply Chain dreht sich ganz um messbare Leistung. Allerdings neigen viele traditionelle Supply Chain Praktiken dazu, Probleme in einer Weise zu rahmen, die deren Lösung entgegenwirkt. Daher besteht während der Pilotphase eine wesentliche Herausforderung für die Supply Chain Führung darin, offen zu bleiben und der Initiative nicht die Elemente zuzuführen, die zu einem späteren Zeitpunkt Ineffizienzen hervorrufen. Man kann die Ursache nicht lieben, während man die Folge verflucht.

Anschließend werden sowohl der Supply Chain Scientist als auch die Technologie auf die Probe gestellt, da die Logik implementiert werden muss, um in relativ kurzer Zeit Entscheidungen zu generieren. Das anfängliche Ziel besteht lediglich darin, von den Fachleuten als vernünftige Entscheidungen wahrgenommene Ergebnisse zu erzeugen – Entscheidungen, die nicht zwingend manuelle Korrekturen erfordern. Wir empfehlen, die Herausforderung, „solide“ automatisierte Entscheidungen zu generieren, nicht zu unterschätzen. Traditionelle Supply Chain Systeme erfordern zahlreiche manuelle Korrekturen, damit sie überhaupt funktionieren: new products, promotions, stock-outs… Die die Quantitative Supply Chain setzt eine neue Regel: Für alltägliche Abläufe sind keine manuellen Eingaben mehr erlaubt, alle Faktoren müssen in die Logik integriert werden.

Der Supply Chain Coordinator ist dafür da, alle Faktoren, Arbeitsabläufe und Besonderheiten zu sammeln, die in die Entscheidungssystemlogik integriert werden sollen. Anschließend implementiert der Supply Chain Scientist den ersten Satz an KPIs, die mit den Entscheidungen verknüpft sind. Diese KPIs werden eingeführt, um Black-Box-Effekte zu vermeiden, die typischerweise auftreten, wenn fortgeschrittene numerische Methoden zum Einsatz kommen. Es ist wichtig zu beachten, dass die KPIs gemeinsam mit dem Supply Chain Leader entwickelt werden, der sicherstellt, dass die Messungen mit der Strategie des Unternehmens übereinstimmen.

Die Produktionsphase stabilisiert die Initiative und bringt sie auf Reiseflughöhe. Die von der Logik generierten Entscheidungen werden aktiv genutzt und deren zugehörige Ergebnisse genau überwacht. Aufgrund der beteiligten Lieferzeiten dauert es in der Regel einige Wochen bis Monate, um die Auswirkungen einer bestimmten supply chain Entscheidung zu bewerten. Somit verlangsamt sich das Veränderungstempo der Initiative in der Produktionsphase, sodass verlässliche Bewertungen der Leistung der automatisierten Entscheidungen möglich werden. Die Initiative geht in eine Phase der kontinuierlichen Verbesserung über. Obwohl weitere Optimierungen stets wünschenswert sind, muss ein Gleichgewicht zwischen dem Nutzen möglicher Verfeinerungen der Logik und der entsprechenden Komplexität dieser Anpassungen gefunden werden, um die gesamte Lösung wartbar zu halten.

Der Supply Chain Coordinator, der von seinen alltäglichen Dateneingabeaufgaben befreit ist, kann sich nun auf die strategischen Einsichten konzentrieren, die vom Supply Chain Management vorgeschlagen werden. Üblicherweise wurden wünschenswerte Supply Chain Prozessänderungen, die während der Pilotphase identifiziert wurden, zurückgestellt, um den Betrieb nicht durch umfassende Umstellungen zu stören. Da sich das Veränderungstempo der Entscheidungssystemlogik nun verlangsamt hat, wird es möglich, die Prozesse schrittweise zu überarbeiten, um Leistungsverbesserungen zu erzielen, die weit über bloß bessere Routineentscheidungen hinausgehen.

Der Supply Chain Scientist bringt die Logik kontinuierlich in Feinabstimmung, indem er den KPIs und der Datenqualität immer mehr Gewicht verleiht. Er ist zudem dafür verantwortlich, die Logik zu überarbeiten, da im Laufe der Zeit subtile Fehler oder Einschränkungen, typischerweise in Bezug auf seltene Situationen, zutage treten. Anschließend wird, sobald sich die Prozesse ändern, auch die Entscheidungssystemlogik angepasst, um vollumfänglich mit den Arbeitsabläufen und der Strategie in Einklang zu bleiben. Selbst wenn sich interne Prozesse nicht ändern, wandeln sich die allgemeine IT- und Geschäftslandschaft kontinuierlich: Der Supply Chain Scientist muss sicherstellen, dass die Entscheidungssystemlogik in diesem konstanten Wandel stets aktuell bleibt.

Die Ergebnisse

Das Ziel der die Quantitative Supply Chain ist es, umsetzbare Entscheidungen zu liefern – vorgeschlagene Mengen für Bestellungen sind ein archetypisches Beispiel. Im Folgenden erläutern wir die spezifische Form sowie den Liefermechanismus dieser Entscheidungen. Klare Erwartungen an die Ergebnisse zu setzen, ist ein wichtiger Schritt auf dem Weg, den die die Quantitative Supply Chain repräsentiert. Zudem sind die optimierten numerischen Resultate nicht der einzige wünschenswerte Output: Weitere Outputs, insbesondere die Überwachung der Datenqualität und Management-KPIs, sollten ebenfalls Bestandteil des Ergebnisses sein. In der Praxis hängen die Ergebnisse einer die Quantitative Supply Chain Initiative von der Flexibilität der zur Unterstützung der Initiative eingesetzten Softwarelösung ab. Dennoch werden sie vor allem durch ihre Intention definiert, die technologieneutral ist.

Skripte als Ergebnis

Die die Quantitative Supply Chain betont vollautomatisierte Datenpipelines. Dies impliziert nicht, dass das Software-Setup autonom laufen soll. Ein hohes Maß an enger Überwachung ist natürlich wünschenswert, wenn eine groß angelegte supply chain betrachtet wird. Dennoch wird erwartet, dass die Datenpipeline vollautomatisiert ist, in dem Sinne, dass kein einziger Schritt in der Pipeline von einer manuellen Operation abhängt. Wie im Manifest dargelegt, skaliert die Lösung in der Praxis schlichtweg nicht, wenn manuelle Eingriffe in die Unterstützung der supply chain Datenverarbeitung involviert sind.

In direkter Folge dieser Erkenntnis sind die Ergebnisse einer die Quantitative Supply Chain Initiative immer vollständige Softwarelösungen. Das heißt nicht, dass das verantwortliche Team alles neu implementieren muss: Eine Softwarelösung, die der die Quantitative Supply Chain gewidmet ist, bietet die Möglichkeit, sich ausschließlich auf die relevanten Aspekte supply chain Herausforderungen zu konzentrieren. Alle technischen Details auf niedriger Ebene, wie zum Beispiel der Einsatz verteilter Rechenressourcen, die automatisch innerhalb einer Cloud-Computing-Plattform zugewiesen werden, sollen abstrahiert werden. Das Team muss sich nicht mit diesen Angelegenheiten befassen, da davon ausgegangen wird, dass diese Aspekte von den entsprechenden Tools angemessen verwaltet werden.

Die Ergebnisse werden als Skripte realisiert, die typischerweise in einer Programmiersprache verfasst sind, welche die supply chain Anforderungen erfüllt und ein hohes Maß an Produktivität aufweist. Der Begriff „Skript“ wird hier anstelle von „Quellcode“ verwendet, doch beide Begriffe sind eng miteinander verwandt: Ein „Skript“ hebt die Idee eines hohen Abstraktionsgrades und den Fokus auf die eigentliche Aufgabe hervor, während „Quellcode“ eine detailliertere, hardwarebezogene Perspektive betont. Für die die Quantitative Supply Chain zählt eindeutig die supply chain Perspektive, nicht die Rechenhardware, die ein technisch untergeordneter Aspekt ist.

Im letzten Jahrzehnt hat der Erfolg von WYSIWYG (what-you-see-is-what-you-get) Benutzeroberflächen für Endkunden-Apps viele supply chain software vendors dazu veranlasst, diesen Ansatz mit einer WYSIWYG-Lösung für supply chain Planung und Optimierung nachzuahmen. Allerdings lehrt das nahezu systematische Scheitern dieser Arten von Oberflächen, dass supply chains komplex sind und die Notwendigkeit programmatischer Werkzeuge nicht umgehen können. Nach unserer Erfahrung ist die Erwartung, dass ein Drag-and-Drop-Werkzeug die komplexen Nichtlinearitäten, die beispielsweise bei sich überschneidenden MOQ (Mindestbestellmengen) auftreten, angemessen abbilden kann, bestenfalls illusorisch. Programmatische Ausdruckskraft ist erforderlich, da sich die supply chain Herausforderung sonst nicht einmal innerhalb des Werkzeugs ausdrücken lässt.

Natürlich erwarten supply chain Praktiker aus der Sicht des Endnutzers nicht, Skripte als greifbares Ergebnis der Quantitative Supply Chain Initiative zu sehen. Die Menschen werden mit Dashboards interagieren, die konsolidierte KPIs und Tabellen enthalten, welche empfohlene Entscheidungen zusammenfassen. Diese Dashboards sind jedoch flüchtig und wegweisbar; sie werden lediglich durch erneutes Ausführen der Skripte auf den relevanten supply chain Daten erzeugt. Auch wenn der Unterschied etwas subtil ist, ist es wichtig, das Skript, das das eigentliche Ergebnis darstellt, nicht mit dessen numerischer Darstellung zu verwechseln, die typischerweise für den Endnutzer der Lösung sichtbar ist.

Dashboards zur Datenqualität

Bevor wir optimierte Entscheidungen für die supply chain liefern, müssen wir sicherstellen, dass die vom System verarbeiteten Daten, das die Quantitative Supply Chain Initiative unterstützt, sowohl numerisch als auch semantisch korrekt sind. Der Zweck der Daten-Gesundheits-Dashboards, oder einfach Daten-Gesundheits-Dashboards, besteht darin, ein hohes Maß an Vertrauen in die Richtigkeit der Daten zu gewährleisten – was natürlich eine wesentliche Voraussetzung für die Prognosegenauigkeit aller von der Lösung zurückgegebenen numerischen Ergebnisse ist. Diese Dashboards unterstützen außerdem das supply chain Team dabei, die Qualität der vorhandenen Daten zu verbessern.

Numerische Fehler sind eindeutig: Die aus dem ERP exportierte CSV-Datei zeigt an, dass das Produkt ABC 42 Einheiten im Lager hat, während die ERP-Webkonsole nur 13 Einheiten meldet. Hier wird deutlich, dass wir unterschiedliche Zahlen vorfinden, wo sie eigentlich übereinstimmen müssten. Die Dashboards zur Datenqualität gehen diese relativ offensichtlichen Probleme an, indem sie einfach überprüfen, ob die Datenaggregate innerhalb der erwarteten numerischen Bereiche bleiben.

Semantische Fehler sind subtiler und in der Praxis viel schwerer zu identifizieren. Der Großteil der Arbeiten bei der Datenaufbereitung besteht tatsächlich darin, alle semantischen Fehler zu erkennen und zu beheben. Zum Beispiel könnte das Feld stockinv im ERP als der stock on hand dokumentiert sein. Daraus schließt das supply chain Team, dass dieser Wert niemals negativ sein kann, da, offensichtlich, wenn diese Einheiten physisch im Regal vorhanden sind, es sich um eine positive Menge handeln muss. Doch die ERP-Dokumentation könnte irreführend sein, sodass dieser Wert treffender als stock available bezeichnet worden wäre, denn immer wenn ein Lagerausfall eintritt und der Kunde einen rückständiger Auftrag erteilt, kann der Wert negativ werden, um anzuzeigen, dass eine bestimmte Anzahl von Einheiten bereits einem Kunden zugewiesen ist. Dieser Fall illustriert einen semantischen Fehler: Die Zahl ist an sich nicht falsch – es ist das Verständnis der Zahl, das ungenau ist. In der Praxis können semantische Unschärfen viele inkonsistente Verhaltensweisen hervorrufen, die wiederum fortlaufende Reibungskosten innerhalb der supply chain verursachen.

Die Dashboards zur Datenqualität konsolidieren Zahlen, die es dem Unternehmen ermöglichen, sofort zu entscheiden, ob den Daten ausreichend vertraut werden kann oder nicht. Tatsächlich ist es, da die Lösung täglich für Produktionszwecke eingesetzt wird, unerlässlich, dass ein signifikantes Datenproblem nahezu augenblicklich erkannt wird. Andernfalls besteht die Gefahr, dass die supply chain tagelang – wenn nicht wochenlang – auf fehlerhaften Daten operiert. Insofern ist das Dashboard zur Datenqualität vergleichbar mit einer Ampel: Grün, und man passiert es; Rot, und man hält an.

Darüber hinaus gibt es bei Betrachtung einer umfangreichen supply chain in der Regel eine unumstößliche Menge an beschädigten oder anderweitig fehlerhaften Daten. Diese Daten entstehen durch fehlerhafte manuelle Eingaben oder durch seltene Grenzfälle in den firmeneigenen Systemen. In der Praxis ist es für jede umfangreiche supply chain unvernünftig zu erwarten, dass die supply chain Daten zu 100 % korrekt sind. Stattdessen müssen wir sicherstellen, dass die Daten genau genug sind, um die durch diese Fehler verursachten Reibungskosten nahezu vernachlässigbar zu halten.

Daher wird auch erwartet, dass die Dashboards zur Datenqualität Statistiken über die identifizierten Datenfehler erfassen. Diese Statistiken sind maßgeblich dafür, zu belegen, dass auf die Daten vertraut werden kann. Zu diesem Zweck wird häufig ein Supply Chain Scientist hinzugezogen, um gut gewählte Alarmgrenzen festzulegen, die typischerweise mit einem harten Stopp der Lösung einhergehen. Es muss sorgfältig vorgegangen werden, da bei zu niedrigen Schwellenwerten die Lösung unbrauchbar wird, weil sie zu häufig wegen „identifizierter Datenprobleme“ angehalten wird; bei zu hohen Werten können hingegen die durch Datenfehler verursachten Reibungskosten erheblich werden und den Nutzen der Initiative selbst untergraben.

Über die Rot-Grün-Signalisierung hinaus sollen die Dashboards zur Datenqualität auch priorisierte Einblicke in die Maßnahmen zur Datenverbesserung bieten. In der Tat können viele Datenpunkte zwar falsch, aber auch unwesentlich sein. Zum Beispiel spielt es keine Rolle, ob der Einkaufspreis eines Produkts falsch ist, wenn die Marktnachfrage für dieses Produkt bereits vor Jahren verschwunden ist, da es keine weiteren Bestellungen für dieses Produkt geben wird.

Die Quantitative Supply Chain betont, dass die feingranulare Auflösung der Datenfehler, die einen beträchtlichen manuellen Aufwand mit sich bringen kann, gegenüber dem geschätzten finanziellen Einfluss des Datenfehlers selbst versus den Arbeitskosten der Korrektur priorisiert werden sollte. Tatsächlich variiert – abhängig von der jeweiligen Situation – der mit der Korrektur eines einzelnen fehlerhaften Datenpunkts verbundene Kostenaufwand enorm und muss in die vorgeschlagene Priorisierung einbezogen werden. Schließlich, wenn die Kosten für Korrekturen als teurer erachtet werden als die durch diese Fehler verursachten supply chain Kosten, kann der Datenverbesserungsprozess eingestellt werden.

Priorisierte Entscheidungs-Dashboards

Wie wir gesehen haben, können supply chain Entscheidungen nur aus einer quantitativen Perspektive wirklich bewertet werden. Es ist daher nicht überraschend, dass eines der zentralen operativen Ergebnisse einer Quantitative Supply Chain Initiative die Dashboards sind, welche die als finales numerisches Ergebnis der gesamten Datenpipeline ermittelten Entscheidungen konsolidieren. Ein solches Dashboard kann so einfach sein wie eine Tabelle, die für jedes Produkt die exakte Anzahl an Einheiten auflistet, die sofort nachbestellt werden sollen. Falls MOQs (Mindestbestellmengen) – oder alternative Bestellrestriktionen – vorhanden sind, könnten die vorgeschlagenen Mengen die meiste Zeit null betragen, bis die entsprechenden Schwellenwerte erreicht werden.

Der Einfachheit halber nehmen wir hier an, dass diese numerischen Ergebnisse in einem Dashboard zusammengefasst werden, welches eine spezifische Form der Benutzeroberfläche darstellt. Das Dashboard selbst ist jedoch nur eine Option, die relevant sein kann oder auch nicht. In der Praxis wird erwartet, dass die Software, die die Quantitative Supply Chain Initiative unterstützt, hoch flexibel ist, also programmatisch flexibel und viele Wege bietet, diese Ergebnisse in verschiedenen Datenformaten aufzubereiten. Zum Beispiel können die numerischen Ergebnisse in Flachdateien konsolidiert werden, die automatisch in das primäre ERP importiert werden sollen, das zur Verwaltung der Unternehmensressourcen verwendet wird.

Obwohl das Format der Entscheidungen stark von der jeweiligen supply chain Aufgabe abhängt, erfordert die Mehrheit der Aufgaben die Priorisierung dieser Entscheidungen. So kann der Vorgang, empfohlene Mengen für eine Bestellung zu berechnen, in eine priorisierte Liste der zu erwerbenden Einheiten zerlegt werden. Die profitabelste Einheit wird an erster Stelle eingereiht. Da der Lagerbestand mit abnehmenden Erträgen verbunden ist, deckt die zweite für dasselbe Produkt erworbene Einheit einen immer geringeren Anteil der Marktnachfrage ab. Daher muss die zweite Einheit dieses Produkts nicht zwingend der zweite Eintrag in der Gesamtliste sein. Stattdessen kann die zweitprofitabelste Einheit einem anderen Produkt zugeordnet werden, usw. Die priorisierte Liste der zu erwerbenden Einheiten ist konzeptionell endlos: Es ist immer möglich, eine weitere Einheit zu kaufen. Um diese Prioritätenliste in die endgültigen Bestellmengen zu überführen, bedarf es lediglich der Einführung eines Abbruchkriteriums und der Summierung der Mengen je Produkt. In der Praxis erschweren nichtlineare Bestellrestriktionen diese Aufgabe zusätzlich, aber der Einfachheit halber lassen wir diese Einschränkungen in dieser Diskussion beiseite.

Das Priorisieren von Entscheidungen ist aus der Sicht der Quantitative Supply Chain eine sehr natürliche Operation. Da jede Entscheidung mit einem finanziellen Ergebnis, ausgedrückt in Dollar, verbunden ist, ist es unkompliziert, die Entscheidungen von der profitabelsten bis zur unprofitabelsten zu sortieren. Somit kann man in der Praxis erwarten, dass viele, wenn nicht die meisten, der Dashboards, welche die vorgeschlagenen supply chain Entscheidungen zusammenfassen, priorisierte Listen von Entscheidungen sind. Diese Dashboards enthalten Listen, in denen hochprofitabele Entscheidungen oben und sehr unprofitabele unten aufgeführt sind. Alternativ können supply chain Praktiker entscheiden, die Listen zu kürzen, wenn Entscheidungen unprofitabel sind. Dennoch lassen sich häufig Erkenntnisse gewinnen, wenn man Entscheidungen betrachtet, die knapp unterhalb der Profitabilitätsschwelle liegen – auch wenn vom Unternehmen offensichtlich nicht erwartet wird, auf diese unprofitablen Einträge zu reagieren.

Um diese Art von entscheidungsorientierten Dashboards bereitzustellen, muss die Softwarelösung, die die Quantitative Supply Chain unterstützt, numerisch eine Vielzahl möglicher Entscheidungen durchspielen. Beispielsweise sollte die Lösung in der Lage sein, den finanziellen Einfluss des Einkaufs jeder einzelnen Einheit – Einheit für Einheit – für jedes einzelne Produkt an jedem einzelnen Standort zu berücksichtigen. Nicht überraschend erfordert dieser Vorgang erhebliche Rechenressourcen. Glücklicherweise ist heutige Computerhardware in der Lage, selbst die größten globalen supply chains zu bewältigen. Vorausgesetzt, dass die zugrunde liegende Softwarelösung angemessen für die Quantitative Supply Chain konzipiert ist, sollte die Skalierbarkeit der Datenverarbeitung für das supply chain Team kein Problem darstellen.

Whiteboxing der numerischen Ergebnisse

Systeme, die in der supply chain – und auch in anderen Bereichen – abschätzig als black boxes bezeichnet werden, sind solche, die Ausgaben generieren, die von den Praktikern, die mit diesen Systemen interagieren, nicht erklärt werden können. Die Quantitative Supply Chain, mit ihrem spezifischen Fokus auf eine automatisierte Datenpipeline, läuft ebenfalls Gefahr, etwas zu liefern, was supply chain Teams als „black boxes“ klassifizieren würden. In der Tat sind die finanziellen Auswirkungen von supply chain Entscheidungen für ein Unternehmen sehr wichtig, und während ein neueres System die Situation verbessern kann, kann es auch potenziell disasters verursachen. Obwohl Automatisierung sehr wünschenswert ist, bedeutet dies nicht, dass vom supply chain Team nicht erwartet wird, ein gründliches Verständnis dafür zu haben, was von der Datenpipeline, welche die Quantitative Supply Chain Initiative unterstützt, geliefert wird.

Der Begriff whiteboxing bezieht sich auf den Aufwand, der erforderlich ist, um die Lösung für den Nutzen des supply chain Teams vollständig transparent zu machen. Dieser Ansatz betont, dass keine Technologie von Natur aus transparent ist. Transparenz ist das Endergebnis eines gezielten Aufwands, der Teil der Initiative selbst ist. Selbst eine einfache lineare Regression kann in der Praxis verblüffende Ergebnisse liefern. Abgesehen von einigen wenigen außergewöhnlichen Individuen haben die meisten Menschen kein intuitives Verständnis dafür, was der „erwartete“ Output eines linearen Modells ist, sobald vier oder mehr Dimensionen involviert sind. Doch supply chain Probleme beinhalten oft Dutzende von Variablen, wenn nicht Hunderte. Somit gelten selbst einfache statistische Modelle de facto als black boxes für supply chain Praktiker. Natürlich, wenn Machine-Learning-Algorithmen verwendet werden, wie es von der Quantitative Supply Chain empfohlen wird, bleiben die Praktiker noch mehr im Dunkeln.

Obwohl der black box Effekt ein reales Problem darstellt, liegt die realistische Lösung nicht darin, die Datenverarbeitung in unmittelbar für den menschlichen Verstand intuitive Berechnungen zu vereinfachen. Dieser Ansatz ist ein Rezept für extreme Ineffizienz, das alle Vorteile der modernen Rechenressourcen, die zur Bewältigung der rohen Komplexität moderner supply chains eingesetzt werden können, vollständig zunichte macht. Den Prozess zu vereinfachen, ist nicht die Lösung. Whiteboxing ist es.

Sogar die komplexesten supply chain Empfehlungen können für die supply chain Praktiker weitgehend transparent gemacht werden, indem die inneren Berechnungen einfach mit gut gewählten finanziellen Indikatoren zerlegt werden, die die wirtschaftlichen Treiber darstellen, welche die Empfehlung untermauern. Zum Beispiel sollte anstatt lediglich eine schlichte Tabelle mit zwei Spalten – Produkt und Menge – als empfohlene Bestellung anzuzeigen, die Tabelle einige zusätzliche Spalten enthalten, die die Entscheidungsfindung unterstützen. Diese zusätzlichen Spalten können den aktuellen Lagerbestand, die Gesamtnachfrage des letzten Monats, die erwartete Lieferzeit, die erwarteten finanziellen Kosten eines stock out (falls keine Bestellung erfolgt), die erwarteten finanziellen Kosten einer Überbestellung (Risiko in Verbindung mit der vorgeschlagenen Bestellung) usw. umfassen. Die Spalten sind so gestaltet, dass das supply chain Team schnelle Plausibilitätsprüfungen der vorgeschlagenen Mengen durchführen kann. Über diese Spalten kann das Team rasch Vertrauen in das numerische Ergebnis aufbauen und auch einige der Schwächen einer Lösung identifizieren, die weiterer Verbesserung bedürfen.

Die Erweiterung der Dashboards für Whiteboxing-Zwecke ist teilweise eine Kunst. Es ist einfach, Millionen von Zahlen zu generieren – selbst wenn man nicht über mehr Rechenressourcen verfügt, als auf einem Smartphone verfügbar sind. Doch 10 Zahlen zu erzeugen, die es wert sind, täglich betrachtet zu werden, ist sehr schwierig. Daher besteht die Kernherausforderung darin, ein Dutzend oder weniger KPIs zu identifizieren, die ausreichen, um Licht auf die empfohlenen supply chain Entscheidungen zu werfen. Gute KPIs erfordern typischerweise viel Arbeit; sie sollten keine naiven Definitionen sein, die in der supply chain üblicherweise irreführend sind. Zum Beispiel kann selbst eine so einfache Spalte wie der “unit purchase price” äußerst irreführend sein, wenn der Lieferant Mengenrabatte anbietet, wodurch der Einkaufspreis von der bestellten Menge abhängt.

Strategische Dashboards

Obwohl der Fokus auf Entscheidungen im kleinen Maßstab notwendig ist – da es einer der wenigen Ansätze ist, der sich quantitativen Leistungsbewertungen eignet – muss die supply chain möglicherweise auch in größeren, disruptiveren Maßnahmen angepasst werden, um die Leistung auf das nächste Niveau zu heben. Zum Beispiel erhöht der Einkauf von mehr sorgfältig ausgewählten Lagerbeständen den service level nur marginal. Allerdings ist das Lager irgendwann voll, und es kann keine zusätzliche Einheit erworben werden. In diesem Fall sollte ein größeres Lager in Betracht gezogen werden. Um die Auswirkungen der Aufhebung dieser Einschränkung zu beurteilen, können wir die Lagerkapazitätsbegrenzung aus den Berechnungen entfernen und den insgesamt finanziellen Nutzen des Betriebs mit einem beliebig großen Lager evaluieren. Das supply chain management kann dann den finanziellen Indikator im Auge behalten, der mit den Reibungskosten, die durch die Lagerkapazität selbst entstehen, verbunden ist, und entscheiden, wann es an der Zeit ist, die Erhöhung der Lagerkapazität in Betracht zu ziehen.

In der Regel arbeiten supply chains auf der Grundlage zahlreicher Einschränkungen, die nicht täglich überarbeitet werden können. Diese Einschränkungen können unter anderem das Betriebskapital, die Lagerkapazität, Transportverzögerungen, Produktionsdurchsatz etc. umfassen. Jede Einschränkung ist mit impliziten Opportunitätskosten für die supply chain verbunden, was typischerweise zu mehr Lagerbestand, längeren Verzögerungen oder zu mehr Lagerausfällen führt. Die Opportunitätskosten können anhand der Leistungssteigerungen bewertet werden, die erzielt würden, wenn die Einschränkung entfernt oder abgeschwächt würde. Zwar können einige dieser Simulationen sich als schwer umsetzbar erweisen, doch häufig sind sie nicht schwieriger als die Optimierung der Routineentscheidungen, also die Festlegung der Bestellmengen.

Die Quantitative Supply Chain betont, dass die mit diesen Einschränkungen verbundenen Opportunitätskosten Teil der Produktionsdaten-Pipeline sein sollten und typischerweise mit dedizierten Dashboards materialisiert werden, die speziell dazu dienen, dem supply chain management zu helfen, zu entscheiden, wann es an der Zeit ist, größere Änderungen an der supply chain vorzunehmen. Diese Art von Dashboards wird als strategische Dashboards bezeichnet. Dieser Ansatz unterscheidet sich von der traditionellen supply chain-Praxis, die auf ad hoc-Initiativen setzt, sobald es den Anschein hat, dass die supply chain an ihre operativen Grenzen stößt. In der Tat werden die KPIs, die von strategischen Dashboards geliefert werden, täglich oder bei Bedarf noch häufiger aktualisiert – genau wie der Rest der Daten-Pipeline. Sie müssen keinen Last-Minute-Notfallanlauf unternehmen, da sie stets aktuell und bereit sind, die Erkenntnisse aus einer langanhaltenden Initiative zu nutzen.

Die strategischen Dashboards unterstützen den Entscheidungsprozess des supply chain management. Da sie Teil der Daten-Pipeline sind, bleiben die KPIs, sobald sich der Markt schneller als üblich entwickelt, auf dem neuesten Stand bezüglich der aktuellen Situation des Unternehmens. Dieser Ansatz vermeidet die traditionellen Fallstricke von ad hoc-Untersuchungen, die immer wieder zusätzliche Verzögerungen bei bereits überfälligen Problemen verursachen. Zudem mildert dieser Ansatz weitgehend das alternative Problem übereilter strategischer Entscheidungen, die sich als unrentabel erweisen – eine bedauerliche Situation, die von Anfang an hätte vorhergesehen werden können.

Inspektor-Dashboards

Supply chains sind sowohl komplex als auch unberechenbar. Diese Eigenschaften machen das Debuggen der Daten-Pipeline zu einer äußerst herausfordernden Aufgabe. Dennoch ist diese Daten-Pipeline das Rückgrat der Quantitative Supply Chain-Initiative. Fehler bei der Datenverarbeitung, also Bugs, können überall innerhalb der Daten-Pipeline auftreten. Schlimmer noch, der häufigste Fehler ist nicht die falsche Formel, sondern die mehrdeutige Semantik. So könnte etwa zu Beginn der Pipeline die Variable stockinv den verfügbaren Lagerbestand (bei dem negative Werte möglich sind) bezeichnen, während dieselbe Variable später mit der Interpretation des vorhandenen Bestands verwendet wird (bei der positive Werte erwartet werden). Die mehrdeutige Interpretation der Variablen stockinv kann eine Vielzahl fehlerhafter Verhaltensweisen hervorrufen – von Systemabstürzen, die offensichtlich sind und daher nur mäßig schädlich, bis hin zur stillen und allgegenwärtigen Korruption der supply chain-Entscheidungen.

Da supply chains fast immer aus einem einzigartigen Mix von über die Jahre implementierten Softwarelösungen bestehen, gibt es keine Hoffnung, Zugriff auf eine „bewährte“ Softwarelösung zu erhalten, die fehlerfrei ist. Tatsächlich treten die meisten Probleme an den Systemgrenzen auf, wenn Daten, die aus verschiedenen Systemen stammen – oder selbst lediglich Daten, die aus verschiedenen Modulen innerhalb desselben Systems stammen – abgeglichen werden. Unabhängig davon, wie bewährt die Softwarelösung auch sein mag, muss das Tooling in der Lage sein, den Debugging-Prozess zuverlässig zu unterstützen, da solche Probleme unvermeidlich sind.

Der Zweck der Inspektor-Dashboards besteht darin, detaillierte Ansichten für eine minutengenaue Überprüfung der supply chain-Datensätze bereitzustellen. Allerdings sind diese Dashboards keine einfachen Drill-Downs, um die Eingangsdaten-Tabellen zu inspizieren. Solche Drill-Downs oder ähnliche Slice-and-Dice-Ansätze auf den Daten würden am Wesentlichen vorbeigehen. Supply chains drehen sich um Flüsse: Materialfluss, Zahlungsfluss etc. Einige der schwerwiegendsten Datenprobleme treten auf, wenn die Kontinuität des Flusses „logisch“ verloren geht. So kann es beispielsweise vorkommen, dass beim Transport von Waren von Lager A zu Lager B in der Datenbank von Lager B einige Produkteinträge fehlen, was zu subtilen Datenkorruptionen führt, weil Einheiten, die aus Lager A stammen, in Lager B empfangen werden, ohne korrekt ihrem Produkt zugeordnet zu werden. Wenn numerische Ergebnisse seltsam erscheinen, sind diese Inspektor-Dashboards die erste Anlaufstelle für den Supply Chain Scientist, um eine schnelle Stichprobenuntersuchung der Daten vorzunehmen.

In der Praxis bietet ein Inspektor-Dashboard einen Low-Level-Einstiegspunkt, wie etwa einen Produktcode oder eine SKU, und fasst alle Daten, die mit diesem Einstiegspunkt verbunden sind, in einer einzigen Ansicht zusammen. Wenn Waren an vielen Orten fließen – wie es beispielsweise bei aerospace supply chains der Fall ist –, versucht das Inspektor-Dashboard in der Regel, die Trajektorien der Waren nachzuvollziehen, die möglicherweise nicht nur durch mehrere physische Standorte, sondern auch durch mehrere Systeme hindurchgegangen sind. Durch das Zusammenführen all dieser Daten an einem Ort wird es dem Supply Chain Scientist möglich, zu beurteilen, ob die Daten sinnvoll erscheinen: Lässt sich ermitteln, woher die versandten Waren stammen? Stimmen die Lagerbewegungen mit den offiziellen supply chain-Richtlinien überein etc.? Das Inspektor-Dashboard ist ein „Debugging“-Tool, weil es darauf ausgelegt ist, Daten, die eng miteinander gekoppelt sind, zusammenzuführen – nicht aus IT-Sicht, sondern aus der Sicht der supply chain.

Eines der bizarrsten Probleme, denen Lokad bei der Untersuchung von supply chain-Datensätzen begegnete, war der Fall der teleportierten Teile. Das Unternehmen – in diesem Fall eine Fluggesellschaft – hatte Flugzeugteile sowohl in Kontinentaleuropa als auch in Südasien auf Lager. Da die Sicherheit von Flugzeugen eine absolute Voraussetzung für den Betrieb ist, führte das Unternehmen makellose Aufzeichnungen über sämtliche Lagerbewegungen seiner Teile. Doch mithilfe eines neu entwickelten Inspektor-Dashboards stellte das Lokad-Team fest, dass einige Teile angeblich in nur 2 oder 3 Minuten von Asien nach Europa und umgekehrt transportiert wurden. Da Flugzeugteile per Flugzeug befördert werden, hätte die Transportzeit erwartungsgemäß mindestens ein Dutzend Stunden betragen müssen – sicherlich nicht Minuten. Wir vermuteten sofort ein Zeitzonen- oder ein anderes Computerzeitproblem, doch auch die Zeitaufzeichnungen erwiesen sich als makellos. Bei weiterer Untersuchung der Daten stellte sich dann heraus, dass die teleportierten Teile tatsächlich verwendet und an den Landeorten der Flugzeuge montiert wurden – eine umso verblüffendere Erkenntnis. Indem die supply chain-Teams selbst einen Blick auf die Inspektor-Dashboards warfen, wurde das Rätsel schließlich gelöst. Die teleportierten Teile waren Flugzeugräder, die aus zwei Hälften plus einem Reifen bestanden. Das Rad konnte demontiert werden, indem man die beiden Radhälften und den Reifen auseinander nahm. Im extremsten Fall, wenn die beiden Radhälften und der Reifen entfernt wurden, blieb physisch nichts übrig. Somit konnte das komplett demontierte Rad an beliebiger Stelle wieder montiert werden, ohne Rücksicht auf seinen ursprünglichen Standort.

Die Inspektor-Dashboards sind das Low-Level-Gegenstück zum Data-Health-Dashboard. Sie konzentrieren sich auf vollständig aufgeschlüsselte Daten, während Data-Health-Dashboards in der Regel einen eher übergeordneten Blick auf die Daten bieten. Außerdem sind Inspektor-Dashboards typischerweise ein integraler Bestandteil des Whiteboxing-Prozesses. Wenn supply chain-Praktiker mit einer rätselhaften Empfehlung konfrontiert werden, müssen sie einen genauen Blick auf eine SKU oder ein Produkt werfen, um herauszufinden, ob die empfohlene Entscheidung sinnvoll ist oder nicht. Das Inspektor-Dashboard wird in der Regel genau zu diesem Zweck angepasst, indem viele Zwischenergebnisse einbezogen werden, die zur Berechnung der endgültigen Empfehlung beitragen.

Bewertung des Erfolgs

Es mag paradox erscheinen, aber während die Quantitative Supply Chain erheblichen Wert auf numerische Methoden und Messungen legt, zeigt unsere Erfahrung, dass Metriken uns oft zu wenig und häufig zu spät darüber verraten, ob eine Initiative auf dem richtigen Weg ist. Fast alle Metriken können manipuliert werden – und das meist auf Kosten der Nachhaltigkeit des gewählten Ansatzes. Daher strebt die Quantitative Supply Chain offensichtliche Verbesserungen an: Wenn Verbesserungen so subtil sind, dass es fortgeschrittener Messungen bedarf, um sie zu erkennen, war die Initiative höchstwahrscheinlich nicht den Aufwand wert und sollte als Misserfolg betrachtet werden. Im Gegenteil, wenn Verbesserungen deutlich und über viele Metriken hinweg konsistent sind und die supply chain als Ganzes agiler und reaktionsschneller wirkt als je zuvor, dann ist die Initiative höchstwahrscheinlich erfolgreich gewesen.

Metriken können manipuliert werden

Es gibt einen Grund, warum Ingenieure selten anhand von Metriken bewertet werden: Sie sind einfach zu gut darin, die Metriken zu ihrem eigenen Vorteil auszunutzen, anstatt den Interessen des Unternehmens zu dienen. Supply chains sind komplex und fast alle einfachen Metriken können auf eine Weise ausgenutzt werden, die für das Unternehmen völlig zerstörerisch sein kann. Es mag den Anschein haben, dass dieses Problem lediglich darin besteht, die Schlupflöcher in den Metriken zu schließen. Unsere Erfahrung zeigt jedoch, dass immer noch ein weiteres Schlupfloch zu finden ist.

Eine Geschichte des metrischen Reverse Engineerings

Nehmen wir als Beispiel einen fiktiven E-Commerce. Das Management entscheidet, dass die service level verbessert werden müssen und so wird der service level zur Leitmetrik. Das supply chain-Team beginnt, entsprechend dieser Metrik zu arbeiten, und entwickelt eine Lösung, die darin besteht, die Lagerbestände erheblich zu erhöhen, wodurch dem Unternehmen massive Kosten entstehen.

Infolgedessen ändert das Management die Regeln, es wird eine maximale Lagerbestandsmenge definiert, und das Team muss innerhalb dieses Limits arbeiten. Das Team überprüft seine Zahlen und stellt fest, dass der einfachste Weg, die Lagerbestände zu senken, darin besteht, große Mengen an Beständen als „tot“ zu kennzeichnen, was aggressive Werbeaktionen auslöst. Die Lagerbestände werden zwar reduziert, aber gleichzeitig sinken auch die Bruttomargen erheblich.

Auch dieses Mal bleibt das Problem nicht unbemerkt, und die Regeln werden erneut geändert. Es wird eine neue Begrenzung für die Menge an Lagerbeständen eingeführt, die als „tot“ markiert werden dürfen. Die Umsetzung dieser neuen Regel erfordert erheblichen Aufwand, da die supply chain plötzlich mit „altem“ Lagerbestand zu kämpfen hat, der stark rabattiert werden muss. Um mit dieser neuen Regel zurechtzukommen, erhöht das Team den Anteil des Lufttransports im Vergleich zum Seetransport. Die Lieferzeiten werden reduziert, die Bestände gesenkt, aber gleichzeitig steigen die Betriebskosten rapide.

Um den außer Kontrolle geratenen Betriebskosten entgegenzuwirken, ändert das Management die Regeln erneut und legt eine Obergrenze für den Prozentsatz der Güter fest, die per Lufttransport befördert werden dürfen. Wieder einmal verursacht die neue Regel Chaos, da sie eine Reihe von Lagerausfällen auslöst, die durch den Einsatz von Lufttransport hätten verhindert werden können. Da das Team gezwungen ist, unter immer enger werdenden Einschränkungen zu arbeiten, beginnt es, auf die Preisnachlässe der Lieferanten zu verzichten. Der Einkauf kleinerer Mengen ist auch ein Weg, die Lieferzeiten zu reduzieren. Doch erneut sinken dabei die Bruttomargen.

Die Kaufpreise wieder in den Griff zu bekommen, erweist sich für das Management als ein weitaus schwer greifbareres Ziel. Keine einfache Regel kann diese Herausforderung bewältigen, und stattdessen wird eine Vielzahl von Preiszielen für jede Produktunterkategorie eingeführt. Viele Ziele erweisen sich als unrealistisch und führen zu Fehlern. Insgesamt wird das Bild der supply chain immer undeutlicher. Von vielen Seiten unter Druck gerät, beginnt das supply chain-Team, ein obskures Merkmal des Bedarfsplanungsprozesses zu optimieren: die Produktersatzliste.

Tatsächlich stellte das Management früh im Prozess fest, dass einige Lagerausfälle weitaus weniger gravierend waren als andere, da einige der fehlenden Produkte mehrere nahezu perfekte Ersatzvarianten aufwiesen. Folglich war man sich einig, dass Lagerausfälle bei diesen Produkten bei der Berechnung des gesamten service level weitgehend außer Acht gelassen werden können. Allerdings beginnt das supply chain-Team, das nun unter enormem Druck steht, den ursprünglichen Zweck dieser Liste um ein oder zwei Stufen zu überdehnen: Produkte, die nicht ähnlich genug sind, werden als nahezu perfekte Ersatzprodukte gelistet. Zwar verbessern sich die service level-Metriken, doch das Geschäft tut es nicht.

Die Falle des Erfolgs

Metriken können manipuliert werden, und wenn Teams toxische Anreize erhalten, werden die Metriken höchstwahrscheinlich auf irreführende Weise eingesetzt. Allerdings ist die Situation keineswegs so schlimm, wie sie scheinen mag. Tatsächlich zeigt unsere Erfahrung, dass – abgesehen von wirklich dysfunktionalen Unternehmenskulturen – Mitarbeiter im Allgemeinen nicht dazu neigen, ihre Arbeit zu sabotieren. Ganz im Gegenteil: Wir haben beobachtet, dass die meisten Mitarbeiter stolz darauf sind, das Richtige zu tun, selbst wenn das bedeutet, dass Unternehmensrichtlinien ein wenig angepasst werden müssen.

Daher ist es wichtig, dem Team, das für die Umsetzung der supply chain-Optimierungsstrategie verantwortlich ist, nicht die Freiheit zu entziehen, sondern es zu ermutigen, ein Set von Metriken zu entwickeln, das der gesamten supply chain-Initiative Aufschluss gibt. Die Rolle des Managements besteht nicht darin, Regeln auf Basis dieser Metriken durchzusetzen, sondern das strategische Denken, das diesen Metriken zugrunde liegt, herauszufordern. Häufig sollte das unmittelbare Ziel nicht einmal darin bestehen, die Metrikwerte zu verbessern, sondern die eigentliche Definition der Metriken zu optimieren.

Tatsächlich sind nicht alle Kennzahlen für ein Unternehmen gleichermaßen wertvoll. Es erfordert in der Regel erheblichen Aufwand, Kennzahlen zu entwickeln, die einen aussagekräftigen Blick auf das Unternehmen bieten. Diese Arbeit erfordert nicht nur ein gutes Verständnis der Unternehmensstrategie, sondern auch profundes Wissen über die zugrundeliegenden Daten, die mit einer Vielzahl von Artefakten und anderen numerischen Unregelmäßigkeiten einhergehen. Daher sollten Kennzahlen vor allem als ein fortlaufender Prozess betrachtet werden.

Wir haben festgestellt, dass ein starker Erfolgsindikator in jedem supply chain Projekt die Qualität der im Rahmen der Initiative etablierten Kennzahlen ist. Dennoch ist es ein kleines Paradoxon, da es keine vernünftige Kennzahl gibt, um die Relevanz dieser Kennzahlen tatsächlich zu bewerten. Hier sind einige Elemente, die dabei helfen können, die Qualität der Kennzahlen zu evaluieren:

  • Gibt es einen Konsens innerhalb der verschiedenen supply chain Teams, dass die Kennzahlen das Wesentliche des Unternehmens erfassen? Oder dass die durch die Kennzahlen implizit vermittelten Perspektiven des Unternehmens weder kurzsichtig noch unbedacht sind?
  • Haben die Kennzahlen eine echte Tiefe, wenn es darum geht, die Zahlen mit wirtschaftlichen Treibern in Einklang zu bringen? Einfachheit ist wünschenswert, aber nicht auf Kosten davon, das große Ganze falsch zu erfassen.
  • Werden die Datenartefakte ordnungsgemäß behandelt? In der Regel gibt es Dutzende subtiler “gotchas”, die bei der Verarbeitung der aus den Unternehmenssystemen extrahierten Daten beachtet werden müssen. Unsere Erfahrung lehrt uns, misstrauisch zu sein, wenn Rohdaten gut genug erscheinen, da dies in der Regel bedeutet, dass Probleme noch nicht einmal als solche erkannt wurden.
  • Ergibt es Sinn, dass Entscheidungen, die aus den gewählten Kennzahlen abgeleitet werden, vernünftig sind? Wenn eine Entscheidung, die ansonsten mit den Kennzahlen übereinstimmt, nicht vernünftig erscheint, dann tut sie es höchstwahrscheinlich auch nicht – und das Problem liegt häufig in der Kennzahl selbst.

In vielerlei Hinsicht ist die Erstellung guter Kennzahlen vergleichbar damit, die Schwerkraft zur Grube des Erfolgs auszurichten: Sofern nicht etwas eingreift, ist der natürliche Verlauf, den Hang hinunter zur Basis zu rollen – was zufällig genau dort ist, wo der Erfolg liegt. Es ist nicht einmal zwingend erforderlich, die genaue Tiefe des Tiefpunkts zu kennen, solange jeder Schritt der Reise nach unten das Unternehmen verbessert.

Vernünftige Entscheidungen führen zu besserer Leistung

Im supply chain kommen selbst die besten Kennzahlen mit einem großen Nachteil: Zahlen kommen meist zu spät. Die Lieferzeit kann lang sein und die heute getroffenen Entscheidungen haben möglicherweise wochen- oder gar monatelang keine sichtbaren Auswirkungen. Darüber hinaus erschwert die die Quantitative Supply Chain, die großen Wert auf iterative und inkrementelle Verbesserungen legt, diese Angelegenheit noch weiter. Dennoch wären nicht-inkrementelle Methoden – wenn auch aus anderen Gründen – noch schlimmer. Daher können Kennzahlen nicht die einzigen Signale sein, um zu beurteilen, ob die Initiative auf dem richtigen Weg ist.

Die Erzeugung vernünftiger Entscheidungen ist ein einfaches, aber unterschätztes Signal für überlegene Leistung. Tatsächlich, sofern Ihr Unternehmen nicht bereits außergewöhnlich gut im supply chain agiert, ist es höchstwahrscheinlich, dass die Systeme weiterhin “insane” Entscheidungen produzieren, die von den supply chain Teams manuell entdeckt und behoben werden. Der Zweck aller “alerts” oder ähnlicher reaktiver Mechanismen besteht genau darin, die laufenden Probleme durch fortwährende manuelle Korrekturmaßnahmen abzumildern.

Die Quantitative Supply Chain-Initiative so weit zu bringen, dass alle Entscheidungen – die vollständig robotisiert erzeugt werden – als vernünftig oder sicher eingestuft werden, ist eine viel größere Leistung, als die meisten Praktiker erkennen. Der Schwerpunkt auf “robotized” Entscheidungen ist hier wichtig: Um nach den Regeln zu spielen, sollte keine menschliche Intervention erforderlich sein. Mit “vernünftig” meinen wir dann Entscheidungen, die selbst nach mehreren Stunden der Falluntersuchung für Praktiker immer noch gut erscheinen; was naturgemäß aufgrund der schieren Anzahl ähnlicher Entscheidungen, die täglich getroffen werden, nicht regelmäßig möglich ist.

Unsere Erfahrung zeigt, dass sobald die automatisierten Entscheidungen als zuverlässig eingestuft werden, sich die Leistung erst später bemerkbar macht, wenn diese Entscheidungen tatsächlich unter der Prüfung des Einsatzes “in production” stehen. Tatsächlich ist der “sanity” Test ein sehr strenger Test für die Logik der Entscheidungsfindung. Sofern Ihr Unternehmen nicht bereits etwas sehr Ähnliches wie die Quantitative Supply Chain einsetzt, ist es höchstwahrscheinlich, dass die bestehenden Systeme Ihres Unternehmens bei weitem nicht dazu in der Lage sind, diesen Test zu bestehen. Infolgedessen werden ständig unbeachtete Fehler gemacht, und das Unternehmen bezahlt am Ende einen hohen Preis für diesen andauernden Strom von Problemen.

Aus operativer Sicht gilt: Sobald supply chain Entscheidungen automatisiert werden, sind die supply chain Teams von der Last befreit, ihr eigenes System mit einem endlosen Strom manueller Eingaben zu füttern. Diese Produktivitätsgewinne können dort reinvestiert werden, wo sie tatsächlich zählen: sei es, um die Feinheiten der supply chain Strategie zu verfeinern, oder um Lieferanten intensiver zu überwachen, um supply chain Probleme, die von deren Seite ausgehen, anzugehen. Die Leistungssteigerung, die durch die reine quantitative Optimierung der supply chain erreicht wird, wird durch die Gewinne verstärkt, die die supply chain Teams erzielen, wenn sie endlich die Zeit finden, die Prozesse und Arbeitsabläufe zu verbessern.