In den letzten zwei Jahrzehnten habe ich beobachtet, wie sich das “supply chain management” schneller mit Schlagwörtern füllte als mit Ergebnissen. Wir sprechen von digitalen Zwillingen, Control Towers, integrierter Geschäftsplanung, Nachfrageerkennung, Resilienz, Nachhaltigkeit. Doch wenn man die Bilanzen und Gewinn- und Verlustrechnungen genau betrachtet, haben viele Unternehmen kaum Fortschritte darin gemacht, wie sie Umlaufvermögen, Kapazität und Komplexität in ökonomische Erträge umsetzen.

Unter den Stimmen, die versuchen, diese Stagnation zu erklären, haben einige für marktorientierte und outside-in Wertnetzwerke plädiert und beträchtliche Anstrengungen unternommen, die Leistung über lange Zeiträume zu messen. Meine eigene Arbeit betrachtet dieselbe ökonomische Realität aus einer anderen Perspektive. Ziel dieses Essays ist es, diese Perspektive zu klären.

abstraktes Bild zu supply chain Entscheidungen, die als ökonomische Wetten betrachtet werden

In meinem Buch Introduction to Supply Chain, besonders in den einleitenden Kapiteln, habe ich versucht, das “supply chain management” als eine rigorose ökonomische Disziplin neu zu definieren, die darauf fokussiert, wie Unternehmen knappe Ressourcen unter Unsicherheit zuteilen. Das Buch geht ins Detail, mehr als ich hier kann, aber die zentrale Idee ist einfach: Immer wenn wir entscheiden, was wir kaufen, herstellen, bewegen oder preislich festlegen, setzen wir kleine ökonomische Wetten mit ungewissen Ergebnissen. Ein moderner supply chain sollte anhand der Qualität dieser Wetten und der langfristigen finanziellen Konsequenzen, die sie erzeugen, bewertet werden.

Eine einflussreiche Forschungsrichtung beginnt von einem anderen Ausgangspunkt. Sie betrachtet lange Zeitreihen finanzwirtschaftlicher Kennzahlen in Peer-Gruppen und fragt: Welche Unternehmen haben ihre Stellung hinsichtlich Wachstum, Marge, Lagerumschlag und Anlagenauslastung tatsächlich verbessert? Einige bezeichnen dies als eine „effektive Frontier“. Ich finde diese Perspektive nützlich. Wir unterscheiden uns weniger im Ziel als vielmehr im Mechanismus, von dem wir glauben, dass er uns dorthin führen kann.

Zwei Perspektiven auf dasselbe Problem

Eine gängige Beschreibung stellt supply chains als marktorientierte Wertnetzwerke dar. Der Schwerpunkt liegt darauf, Märkte zu erfassen, von außen nach innen. Anstatt Bestellungen von der nächsten Stelle in der Kette als „Nachfrage“ zu behandeln, besteht das Argument darin, dass wir den realen Markt lesen müssen: Verkaufsdaten, Kanalbestände, Promotionen, soziale Signale, Lieferantenbeschränkungen, makroökonomische Schocks. Der supply chain ist dann eine Reihe miteinander verbundener Prozesse, die diese Signale in koordinierte Reaktionen übersetzen: Planung, Beschaffung, Produktion, Lieferung.

Meine eigene Perspektive mag auf den ersten Blick enger erscheinen, ist aber absichtlich präzise. Ich konzentriere mich auf den Moment der Entscheidung. Sollten wir noch eine Einheit dieses Artikels für jenes Lager kaufen, die an diesem Datum eintreffen soll? Sollten wir die Produktion dieses Loses vorantreiben, verzögern oder ganz abbrechen? Sollten wir den Preis dieses SKU für diesen Kanal morgen senken oder unverändert lassen? Jede dieser Entscheidungen verbraucht etwas Knappes: Bargeld, Kapazität, Regalfläche, menschliche Aufmerksamkeit, Vertrauen seitens der Kunden oder Lieferanten. Außerdem schafft sie eine Exposition gegenüber einer Vielzahl möglicher Zukünfte.

Aus diesem Blickwinkel ist ein supply chain eine Maschine, die Ungewissheit in Entscheidungen und Entscheidungen in finanzielle Ergebnisse verwandelt. Ich interessiere mich weniger für die Eleganz des Prozessdiagramms, sondern mehr für die Qualität der nächsten Entscheidung und der darauf folgenden – und das in großem Maßstab.

Die outside-in Perspektive betrachtet die Landschaft aus 10.000 Metern Höhe: wie sich das Unternehmen im Vergleich zu seinen Mitbewerbern an einer multidimensionalen Leistungsfront bewegt. Ich stehe näher am Boden und frage, ob die Millionen winziger Wetten, die den täglichen Betrieb ausmachen, angesichts der tatsächlich vorhandenen Unsicherheit ökonomisch sinnvoll sind. Diese Perspektiven widersprechen sich nicht. Sie zoomen lediglich auf unterschiedliche Ebenen desselben Systems.

Was genau wollen wir optimieren?

Entfernen wir den Jargon, sprechen all diese unterschiedlichen Perspektiven von Leistung. Aber sie wählen unterschiedliche Blickwinkel, um diese zu definieren.

Ein Blickwinkel ist explizit vergleichend und mehrjährig. Es geht darum, wie ein Unternehmen im Vergleich zu seinen direkten Konkurrenten bei Umsatzwachstum, operativer Marge, Lagerumschlag und manchmal auch bei Cash-to-Cash-Zyklen oder Anlagenauslastung abschneidet. Ein Unternehmen, das schnell wächst, aber an Marge verliert, ist nicht exzellent. Ein Unternehmen, das sein Inventar reduziert, aber auch seinen Marktanteil, ist nicht exzellent. Exzellenz liegt an einer effektiven Frontier, auf der diese Kennzahlen gemeinsam verbessert oder zumindest gut ausbalanciert werden.

Mein eigener Blickwinkel ist einheitlich und marginal. Ich konzentriere mich auf die risikoadjustierte Rendite der marginalen Entscheidung. Wenn ich noch eine Einheit des Produkts X kaufe, um sie in Standort Y für Woche Z zu platzieren, was ist dann, basierend auf dem, was ich jetzt weiß, der erwartete finanzielle Ertrag? Wie viel Gewinn bringt diese zusätzliche Einheit im Durchschnitt, wenn wir berücksichtigen, dass sie rechtzeitig verkauft wird, eventuell spät zu einem Rabatt verkauft wird oder überhaupt nicht verkauft wird und obsolet wird? Wie verhält sich das im Vergleich dazu, dass dieselbe Einheit des Umlaufkapitals in ein anderes Produkt, einen anderen Standort investiert oder einfach nicht investiert wird?

Um darüber vernünftig nachzudenken, brauchen wir einen gemeinsamen Maßstab. Geld ist nicht alles, aber es ist die Einheit, in der das Unternehmen seine Verpflichtungen erfüllt und Überleben misst. Daher bestehe ich darauf, alle Kompromisse, die supply chain Diskussionen überfrachten, in konsistente finanzielle Begriffe zu übersetzen. Ein Mangel ist nicht abstrakt „schlecht“; er kostet an entgangener Marge, verlorenen zukünftigen Geschäften und Imageschäden. Überschüssiger Lagerbestand ist nicht einfach „Verschwendung“; es ist eine Option, die sich noch auszahlen könnte oder verrotten könnte. Kapazitäten, die auf einem Dashboard als ungenutzt erscheinen, könnten als Puffer gegen Volatilität, die noch nicht in den historischen Daten enthalten ist, wertvoll sein.

Die effektive Frontier und die marginale, risikoadjustierte Rendite sind zwei Arten, über dasselbe zugrunde liegende Phänomen zu sprechen. Eine Perspektive betrachtet das Integral: den langfristigen, mehrjährigen Verlauf des Unternehmens. Ich betrachte die Ableitung: die inkrementelle Wirkung der nächsten Entscheidung. In der Praxis kann man nicht allzu lange ein gutes Integral mit einer schlechten Ableitung haben. Anhaltende Exzellenz an der Frontier erfordert letztlich, dass die täglichen Entscheidungen über tausende Artikel und Standorte hinweg angesichts der Unsicherheit ökonomisch sinnvoll getroffen werden.

Prognosen, Pläne und die Illusion der Sicherheit

Einige der hartnäckigsten Kritiker des „inside-out“ Denkens haben darauf hingewiesen, dass Unternehmen ihre eigenen Bestellungen und historischen Lieferungen so behandeln, als ob sie eine getreue Abbildung der Nachfrage wären. Diese Sichtweise ist sowohl veraltet als auch voreingenommen. Bestellungen werden durch Promotionen, Zuteilungsregeln, Ausverkäufe bei vorgelagerten Stufen, mangelhafte Datenintegration und eine Vielzahl anderer Verzerrungen beeinflusst. Aus dieser alternativen Sicht sollte ein moderner supply chain „outside-in“ sein: ausgehend von realen Markt- und Angebotsignalen, die dann in koordinierte Reaktionen überführt werden.

Ich stimme der Kritik am inside-out Planen zu, aber ich gehe es aus einer probabilistischen Perspektive an. Prognosen, wie sie üblicherweise praktiziert werden, verleihen eine trügerisch komfortable Sicherheit. Wir nehmen eine chaotische, unsichere Zukunft und komprimieren sie in eine einzelne Zahl: die „erwartete Nachfrage“ für einen bestimmten Zeitraum. Daraufhin bauen wir Sicherheitsbestände und deterministische Pläne um diese Zahl herum auf, als ob Fehler nur ein Randphänomen und nicht das Hauptereignis wären.

Diese Arbeitsweise verwirft genau die Informationen, die wir am dringendsten benötigen: die Bandbreite plausibler Zukünfte und deren Wahrscheinlichkeiten. In meiner eigenen Arbeit behaupte ich, dass Prognosen Verteilungen und keine Einzelwerte sein sollten. Die Frage lautet nicht „Wie lautet die Verkaufsprognose für den nächsten Monat?“, sondern „Wie sieht die Wahrscheinlichkeitsverteilung der möglichen Verkäufe aus?“ Wie groß ist die Chance, nichts zu verkaufen? Oder das Doppelte des üblichen Volumens? Wie sehen die Randbereiche aus?

Sobald wir solche Verteilungen haben, hört der Plan auf, eine einzige „Konsenszahl“ zu sein, die in Meetings ausgehandelt wurde, und wird zu einer Reihe von Entscheidungen, die von Algorithmen berechnet werden und Kosten und Chancen unter diesen Verteilungen abwägen. Dieselbe Nachfrageverteilung kann sehr unterschiedliche Bestands- oder Produktionsentscheidungen rechtfertigen, je nach den finanziellen Konsequenzen eines Mangels gegenüber einem Überschuss, den beteiligten Vorlaufzeiten und der Verfügbarkeit von Ersatzprodukten.

Auch hier reagieren diese Kritiken auf dasselbe Versagen: der Behauptung, dass ungewisses, nichtlineares Verhalten in einer einzigen Spalte einer Tabelle festgehalten werden könne. Eine Denkrichtung fordert reichhaltigere, frühere Signale und Prozessneugestaltungen, die die Planung „outside-in“ verlagern. Ich plädiere für probabilistische Modelle, die uns dazu zwingen, der Unsicherheit explizit ins Auge zu sehen, und für Entscheidungssysteme, die diese Modelle in großem Maßstab verarbeiten können.

In einer gesunden Praxis sollten diese beiden Anliegen zusammenfinden. Man möchte gute Signale und eine realistische Darstellung der Unsicherheit; outside-in Flüsse, die probabilistische, ökonomisch fundierte Entscheidungen speisen.

Technologie: Architektur versus Entscheidungsmaschine

Viele Beobachter betonen die Beschränkungen des Technologie-Stacks, den die meisten Unternehmen geerbt haben. Diese Stacks wurden in erster Linie für transaktionale Effizienz entwickelt – zur Erfassung von Bestellungen, Lieferungen, Rechnungen usw. Sie integrieren Daten über Funktionen hinweg, helfen den Unternehmen aber nicht zwangsläufig, bessere Entscheidungen zu treffen. Die übliche vorgeschlagene Lösung besteht darin, die Architektur um die Ströme von Nachfrage- und Angebotsinformationen neu zu gestalten: externe Datenschichten, bessere Taxonomien, nahezu Echtzeit-Inventarsichtbarkeit und flexiblere Analysetools.

Ich stimme zu, dass der geerbte Stack ein großer Teil des Problems ist. Den Schwerpunkt setze ich jedoch woanders. Die zentral fehlende Fähigkeit ist meiner Ansicht nach nicht eine weitere Integrationsebene oder ein weiteres Dashboard, sondern eine Entscheidungsmaschine.

Damit meine ich ein Softwarestück, das täglich alle relevanten Daten, alle aktuellen Einschränkungen und eine Reihe ökonomischer Bewertungen einbezieht und dann konkrete Entscheidungen vorschlägt oder direkt trifft: welche Bestellungen aufgegeben, welche Produktionsaufträge geplant, welche Transfers durchgeführt und welche Preise angepasst werden sollen. Diese Entscheidungsmaschine muss programmierbar, prüfbar und schnell genug sein, um Millionen solcher Entscheidungen in angemessener Zeit zu bewältigen. Sie muss auch in der Lage sein, im Nachhinein zu erklären, warum eine bestimmte Entscheidung getroffen wurde, basierend auf den damals vorliegenden Daten und Bewertungen.

Außenorientierte Architekturen sind nützlich, weil sie bessere Eingaben für eine derartige Maschine liefern. Aber ohne die Maschine laufen sie Gefahr, zu ausgeklügelteren Berichtssystemen zu werden. Man wird das Problem klarer sehen, in mehr Farben und mit mehr Latenz-Metriken, aber man wird dennoch von Horden von Planern abhängig sein, die Zahlen in Tabellen verschieben und versuchen, widersprüchliche Ziele manuell in Einklang zu bringen.

Es ist nicht umstritten zu sagen, dass Technologie besseres Modellieren und bessere Entscheidungen unterstützen sollte und nicht nur eine bessere Integration. Ein Schwerpunkt auf der Architektur hebt hervor, wohin Daten fließen sollen und wie Prozesse organisiert werden sollten. Mein Schwerpunkt auf der Entscheidungsmaschine verdeutlicht, was letztlich mit diesen Daten geschehen muss: eine Vielzahl ökonomisch sinnvoller Entscheidungen unter Unsicherheit. Diese Anliegen ergänzen einander, aber ich würde die Maschine persönlich in den Mittelpunkt stellen, mit der Architektur als Dienstleister.

Organisation, Governance und die Rolle von S&OP

Zeitgenössische Schriften drehen sich häufig um Sales and Operations Planning (S&OP) und dessen Entwicklung. Es gibt Reifegradmodelle, in denen S&OP von einfachen Machbarkeitsprüfungen zu gewinnorientierter Planung, dann zu nachfragegesteuerter und schließlich zu marktorientierter Orchestrierung fortschreitet. In diesen Darstellungen ist S&OP der zentrale horizontale Prozess, der Silos durchbricht und Funktionen aufeinander abstimmt. Hier werden Kompromisse verhandelt und die outside-in Perspektive eingebracht.

Ich teile die Einschätzung, dass Silos eine wesentliche Quelle der Wertvernichtung darstellen. Wenn jede Funktion ihre eigenen Kennzahlen optimiert – hier der Servicelevel, dort die Auslastung, anderswo die Prognosegenauigkeit –, leidet das Gesamtsystem. Die Menschen setzen enorme Anstrengungen daran, Konflikte zwischen Plänen zu lösen, die niemals kompatibel konzipiert waren.

Meine Auffassung weicht darin ab, wie zentral S&OP als Planungstreffen langfristig bleiben sollte. Meiner Ansicht nach, wenn wir unsere Arbeit auf der Technologie-Seite richtig machen, sollte der Großteil der operativen Planung der zuvor beschriebenen Entscheidungsmaschine überlassen werden. Diese Maschine wird mit den aktuellsten Daten und den gegenwärtigen ökonomischen Bewertungen gespeist (zum Beispiel die relativen Kosten eines Mangels gegenüber einem Überschuss für einen bestimmten Artikel oder der Wert einer um einen Tag verkürzten Durchlaufzeit für eine bestimmte Strecke). Sie berechnet optimale Entscheidungen neu, wenn sich die Bedingungen ändern – und das viel häufiger und konsistenter, als es irgendein menschlicher Prozess vermag.

Für S&OP oder integrierte Geschäftsplanung bleibt lediglich die Governance und nicht die Planung übrig. Anstatt ihre Zeit damit zu verbringen, Mengen in einer Tabelle anzupassen, sollten Führungskräfte ihre Zeit damit verbringen, die Regeln des Spiels anzupassen: die finanziellen Bewertungen, die Einschränkungen, die Risikobereitschaft. Sie sollten untersuchen, wie die Entscheidungen der Maschine in realisierte Ergebnisse umgesetzt werden, und dieses Feedback nutzen, um die ökonomischen Parameter und strukturellen Annahmen zu verfeinern.

Dies ist ein subtiler, aber tiefgreifender Wandel. Er verwandelt S&OP von einem kollektiven Versuch, einen einzigen „richtigen“ Plan handgefertigt zu erstellen, in eine periodische Überprüfung, wie gut ein automatisiertes Entscheidungssystem angesichts der Ziele des Unternehmens funktioniert. Der menschliche Fokus verlagert sich vom Mikromanagement von Mengen hin zur Kalibrierung von Anreizen und Einschränkungen.

Reifegradmodelle dieser Art können in diesem Kontext immer noch nützlich sein, insbesondere als diagnostisches Werkzeug, um festzustellen, wo ein Unternehmen kulturell und organisatorisch steht. Aber ich würde argumentieren, dass der Endzustand weniger in ausgeklügelteren Planungstreffen und mehr in einer besseren ökonomischen Governance automatisierter Entscheidungssysteme liegt.

Woher wissen wir, was wir wissen?

Supply chain ist aus erkenntnistheoretischer Sicht ein schwieriges Fachgebiet. Experimente sind teuer, Umgebungen sind lärmend und die Anzahl der Variablen ist überwältigend. Es ist leicht, plausible Geschichten mit belastbarem Wissen zu verwechseln.

Einige Forscher, wie zum Beispiel Lora Cecere, haben erhebliche Anstrengungen unternommen, um ihre Ansichten auf finanzielle Daten zu stützen. Anstatt sich auf selbstberichtete Umfragen oder Consulting-Anekdoten zu verlassen, haben sie die Leistungsbilanzen von Unternehmen anhand öffentlicher Finanzberichte rekonstruiert und im Zeitverlauf nach Mustern gesucht. Dies beweist zwar keine Kausalität, aber es setzt Disziplin voraus: Die Praktiken, die wir als “best” feiern, sollten zumindest mit langfristigen Verbesserungen bei Wachstum, Margen und Lagerumschlägen korrelieren.

Meine eigene Skepsis nimmt eine andere Form an. Ich sorge mich um das Überleben von Techniken, deren Haupttugend einst in der rechnerischen Bequemlichkeit lag – Sicherheitsbestandformeln, die auf heroischen Annahmen beruhen, linearisierten Modellen klar nicht-linearer Phänomene und vereinfachten Planungshierarchien, die mehr organisatorische Diagramme als die wirtschaftliche Realität widerspiegeln. Viele dieser Artefakte hielten sich, weil sie auf Papier oder mit frühen Computern leicht zu berechnen waren. Heute verfügen wir über weitaus mehr Rechenleistung, und dennoch halten wir an ihnen fest.

Ich sorge mich auch um Anreizstrukturen. Softwareanbieter, Berater, Akademiker und interne Stakeholder haben alle Gründe, Narrative zu bevorzugen, die große Projekte, komplexe Rahmenwerke oder inkrementelle Anpassungen rechtfertigen. Es gibt vergleichsweise wenig Anreiz, zu belegen, dass eine geschätzte Methode in der Praxis systematisch Geld verliert.

Die Antwort ist meiner Ansicht nach, die supply chain näher an die angewandte Ökonomie mit einer starken empirischen und rechnergestützten Komponente zu rücken. Wir sollten unsere Annahmen explizit formulieren, sie in Algorithmen kodieren und sie anhand der eigenen finanziellen Ergebnisse des Unternehmens mit der Realität abgleichen. Wenn eine Richtlinie in einem bestimmten Kontext systematisch Wert vernichtet, sollten wir sie außer Dienst stellen, unabhängig davon, wie elegant oder weit verbreitet sie gelehrt wird.

In diesem Punkt konvergieren diese Perspektiven. Es herrscht ein gemeinsamer Widerspruch gegen die Vorstellung, dass es zeitlose „best practices“ gibt, die nur darauf warten, implementiert zu werden. Es gibt nur Praktiken, die im jeweiligen Kontext eine Zeit lang funktionieren, bis sich das Umfeld oder das Wettbewerbsumfeld ändert.

Auf dem Weg zu einer Synthese

Wenn Sie ein Entscheider oder Praktiker sind, der versucht, sich in diesen Ideen zurechtzufinden, kann es hilfreich sein, in Schichten zu denken.

Die von außen nach innen gerichtete, finanziell fundierte Arbeit ist auf der strategischen und diagnostischen Ebene von unschätzbarem Wert. Sie hilft Ihnen, die richtigen Fragen zu stellen: Wo stehen wir an der effektiven Grenze im Vergleich zu unseren Mitbewerbern? Wachsen wir, sind wir profitabel und kapitaleffizient, oder opfern wir eine Dimension zugunsten einer anderen? Bleiben unsere Prozesse weiterhin von innen nach außen, dominiert von der Trägheit von ERP-Transaktionen und funktionalen Silos, oder haben wir uns tatsächlich in Richtung marktorientierter, von außen nach innen gerichteter Abläufe bewegt?

Meine eigene Arbeit konzentriert sich stärker auf die operative und rechnergestützte Ebene. Ich möchte, dass Sie in der Lage sind, Fragen wie die folgenden zu beantworten: Angesichts unseres aktuellen Verständnisses von Nachfrage- und Angebotsunsicherheiten und unserer finanziellen Bewertungen – maximieren die täglichen Entscheidungen tatsächlich unsere risikoadjustierte Rendite auf knappe Ressourcen? Können wir diese Entscheidungen konsequent und in größerem Maßstab mithilfe von Software treffen, anstatt sie manuell vorzunehmen, und dabei die Möglichkeit bewahren, die zugrunde liegende Logik zu prüfen und zu verbessern?

Diese Ebenen sind keine Alternativen. In einer idealen Welt würde ein Unternehmen das strategische Blickfeld nutzen, um zu definieren, wie Exzellenz aussieht und den Fortschritt über Jahre hinweg zu messen, während es eine ökonomische, probabilistische Entscheidungsmaschine einsetzt, um die täglichen Abläufe in Richtung dieses Ziels zu steuern. Die von außen nach innen gerichtete Architektur würde die Maschine mit reichhaltigen, zeitnahen Signalen versorgen. Governance-Foren würden sich darauf konzentrieren, wirtschaftliche Parameter zu kalibrieren, anstatt Mengen zu bearbeiten. Und der Begriff „best practice“ würde durch einen demütigeren, empirischen Ansatz ersetzt – das, was hier und jetzt in diesem spezifischen Netzwerk funktioniert, wie es anhand tatsächlicher finanzieller Ergebnisse offenbart wird.

Insofern ist jede scheinbare Konfrontation zwischen diesen Ansichten kein Zusammenstoß unvereinbarer Theorien. Es ist ein Gespräch darüber, wo der Schwerpunkt liegen sollte: auf Architektur und Prozessen oder auf Algorithmen und Ökonomie; auf langfristigen Entwicklungen oder auf marginalen Entscheidungen. Beide Perspektiven sind notwendig. Aber wenn ich meine eigene Position in einem Satz zusammenfassen müsste, dann wäre es so:

Supply chain ist im Kern eine ökonomische Disziplin, die durch Software als Kunst, unter Unsicherheit gute Wetten zu platzieren, praktiziert werden sollte.

Alles andere – Prozesse, Architekturen, Dashboards, sogar Reifegradmodelle – sollte danach beurteilt werden, inwieweit sie diese zentrale Aufgabe unterstützen oder behindern.