In den letzten zwei Jahrzehnten habe ich beobachtet, wie sich “supply chain management” schneller mit Schlagwörtern füllte als mit Ergebnissen. Wir sprechen von digitalen Zwillingen, Kontrolltürmen, integrierter Geschäftsplanung, Nachfrageerkennung, Resilienz, Nachhaltigkeit. Doch wenn man sich Bilanzen und Gewinn- und Verlustrechnungen genau ansieht, haben viele Unternehmen kaum Fortschritte darin gemacht, wie sie Betriebskapital, Kapazität und Komplexität in wirtschaftliche Erträge umwandeln.

In meinem Buch Introduction to Supply Chain, habe ich versucht, supply chain management als eine strenge wirtschaftliche Disziplin neu zu definieren, die sich darauf konzentriert, wie Unternehmen knappe Ressourcen unter Unsicherheit zuteilen. Das Buch geht detaillierter darauf ein, als ich es hier kann, aber die zentrale Idee ist einfach: Immer wenn wir entscheiden, was wir kaufen, herstellen, bewegen oder bepreisen, platzieren wir kleine wirtschaftliche Wetten mit ungewissen Ergebnissen. Eine moderne supply chain sollte an der Qualität dieser Wetten und den langfristigen finanziellen Konsequenzen, die sie erzeugen, gemessen werden.

abstraktes Bild zu supply chain Entscheidungen, betrachtet als wirtschaftliche Wetten

Dieser Essay legt diese “Wetten”-Perspektive dar und untersucht, was sich daraus ableiten lässt: wie wir Leistung definieren, wie wir Prognosen und Pläne behandeln, welche Art von Technologie wir tatsächlich benötigen und welche Rollen die Menschen übernehmen sollten, sobald sich der Staub gelegt hat.

supply chain als ein Portfolio von Wetten

Das Alltagsgeschäft einer supply chain ist trügerisch unspektakulär. Jemand entscheidet, noch eine Einheit dieses Artikels für jenes Lager zu kaufen, die zu dem vorgesehenen Datum eintreffen soll. Jemand zieht eine Produktionscharge vor, verzögert sie oder storniert sie. Jemand passt morgen den Preis für eine bestimmte SKU in einem spezifischen Kanal an.

Jede dieser Entscheidungen verbraucht etwas Knappes: Bargeld, Kapazität, Regalfläche, menschliche Aufmerksamkeit, Kunden- oder Lieferantenvertrauen. Jede Entscheidung schafft zudem eine Exponierung gegenüber einer Vielzahl möglicher Zukünfte. Die Einheit könnte pünktlich zum vollen Preis verkauft werden, verspätet mit Rabatt oder gar nicht verkauft und somit veralten. Eine Produktionscharge könnte eine profitable Lücke füllen oder Kapazitäten binden, die anderswo wertvoller gewesen wären.

Für sich genommen sind die meisten dieser Wetten klein. In der Gesamtschau definieren sie das Risikoprofil des Unternehmens und dessen wirtschaftliches Ergebnis. Was wir als “supply chain performance” bezeichnen, ist schlichtweg das langfristige finanzielle Resultat von Millionen solcher unter Unsicherheit getätigten Wetten.

Deshalb ist für mich supply chain im Grunde eine wirtschaftliche Disziplin. Ihr Gegenstand ist die Zuteilung knapper Ressourcen unter Unsicherheit. Ihre Maßeinheit, ob es uns gefällt oder nicht, ist Geld. Geld ist nicht alles, aber es ist die Einheit, in der das Unternehmen seine Verpflichtungen erfüllt und sein Überleben misst. Wenn wir es ernst meinen mit der Verbesserung von supply chains, müssen wir es auch mit der Ökonomie dieser Wetten ernst meinen.

Was genau versuchen wir zu optimieren?

Wenn man den Fachjargon weglässt, behaupten die meisten Unternehmen, die “Performance” zu optimieren. Aber Performance ist ein tückisches Wort.

Ein natürlicher Blickwinkel ist vergleichend und langfristig. Man kann eine Vergleichsgruppe über ein Jahrzehnt hinweg betrachten und fragen: Welche Unternehmen haben ihre Position in Bezug auf Wachstum, operative Marge, Lagerumschlag und Kapitalrendite tatsächlich verbessert? Einige Analysten nennen dies die “effektive Grenze”: eine mehrdimensionale Kurve, über die die Peers nicht einfach hinausgeschoben werden können. Ein Unternehmen, das schnell wächst, aber die Marge schmälern lässt, ist nicht hervorragend. Ein Unternehmen, das sein Inventar verringert, aber gleichzeitig seinen Marktanteil reduziert, ist nicht hervorragend. Exzellenz liegt dort, wo diese Kennzahlen gemeinsam verbessert oder zumindest gut ausbalanciert werden.

Dieser Blickwinkel ist nützlich, weil er uns dazu zwingt, Kompromisse in Kauf zu nehmen. Es reicht nicht, ein internes Service-Level-KPI zu erreichen, wenn dabei stillschweigend die Marge erodiert oder das Inventar anschwillt. Im Laufe der Zeit bleibt die Anzeigetafel unerbittlich.

Mein eigener Blickwinkel ist einheitsbasiert und marginal. Ich konzentriere mich auf die risikoadjustierte Rendite der marginalen Entscheidung. Wenn ich noch eine Einheit des Produkts X kaufe, um sie in Standort Y für Woche Z zu platzieren, basierend auf meinem jetzigen Wissen, wie hoch ist der erwartete finanzielle Ertrag? Wie viel Gewinn bringt diese zusätzliche Einheit im Durchschnitt, wenn wir berücksichtigen:

  • die Wahrscheinlichkeit, dass sie pünktlich zum vollen Preis verkauft wird,
  • die Wahrscheinlichkeit, dass sie verspätet mit Rabatt verkauft wird,
  • die Chance, dass es überhaupt nie verkauft wird und veraltet?

Wie verhält sich das im Vergleich dazu, dieselbe Einheit an Betriebskapital in ein anderes Produkt, an einen anderen Standort oder einfach gar nicht zu investieren?

Um darüber nachzudenken, benötigen wir eine gemeinsame Skala. Alle Zielkonflikte, die supply chain discussions überfrachten – Servicelevels, Auslastung, Transportkosten, Obsoleszenz, Werbeaktionen – müssen in konsistenten finanziellen Begriffen ausgedrückt werden. Ein Engpass ist nicht im Abstrakten „schlecht“; er verursacht Kosten in Form von verlorener Marge, verlorenem zukünftigen Geschäft und Rufschädigung. Überschüssiger Lagerbestand ist nicht einfach „Verschwendung“; er ist eine Option, die sich eventuell noch auszahlen oder verrotten könnte. Eine Kapazität, die auf einem Dashboard ungenutzt erscheint, könnte als Puffer gegen Volatilität wertvoll sein, die noch nicht in den historischen Daten erfasst ist.

Die effektive Frontier und die marginale risikoadjustierte Rendite sind zwei Möglichkeiten, über dasselbe zugrunde liegende Phänomen zu sprechen. Die eine betrachtet das Integral: den langfristigen, mehrjährigen Verlauf des Unternehmens im Vergleich zu Wettbewerbern. Die andere sieht die Ableitung: die inkrementelle Wirkung der nächsten Entscheidung. In der Praxis kann man nicht lange ein gutes Integral mit einer schlechten Ableitung haben. Anhaltende Spitzenleistungen an der Frontier erfordern letztlich, dass die täglichen Entscheidungen, über tausende von Artikeln und Standorten hinweg, wirtschaftlich sinnvoll angesichts von Unsicherheiten getroffen werden.

Prognosen, Pläne und die Illusion der Gewissheit

Traditionelle Planungsprozesse beginnen in der Regel mit einer Prognose. In vielen Organisationen besteht diese Prognose aus einer einzigen Zahl pro Periode und pro Artikel: der „wahrscheinlichsten“ Verkaufsmenge. Diese Zahl wird zum Anker für Produktionspläne, Beschaffungspläne, Transferpläne, Kapazitätsreservierungen und so weiter. Abweichungen werden als Fehler behandelt, die nachträglich zu erklären sind.

Diese Praxis erzwingt eine trügerisch komfortable Illusion der Gewissheit. Wir nehmen eine unordentliche, unsichere Zukunft und komprimieren sie zu einer einzigen Zahl – der „erwarteten Nachfrage“ für eine gegebene Periode. Daraufhin bauen wir Sicherheitsbestände und deterministische Pläne um diese Zahl herum, als ob Fehler lediglich ein Randphänomen und nicht das Hauptproblem wären.

In Wirklichkeit ist die Information, die wir am dringendsten benötigen, genau das, was dieser Ansatz verwirft: die Bandbreite plausibler Zukünfte und deren Wahrscheinlichkeiten. Für jeden einzelnen Artikel sind die folgenden Fragen entscheidend:

  • Wie hoch ist die Wahrscheinlichkeit, dass die Verkäufe im nächsten Monat nur die Hälfte des üblichen Niveaus erreichen?
  • Zweimal so hoch wie üblich? Dreimal so hoch?
  • Wie sehen die Verteilungsschwänze aus? Sind sie breit, schief, multimodal?

Sobald wir dies akzeptieren, verliert die Idee eines einzigen „Konsensplans“ an Überzeugungskraft. Anstatt zu fragen „Was ist die Prognose?“ und daraufhin einen Plan auszuhandeln, sollten wir fragen:

„Angesichts dieser Verteilung möglicher Zukünfte und dieser finanziellen Konsequenzen von Lieferengpässen, Überschüssen und Verzögerungen, welche Entscheidungen sind sinnvoll?“

Die gleiche Nachfrageverteilung kann sehr unterschiedliche Bestands- oder Produktionsentscheidungen rechtfertigen, abhängig von:

  • der Margenstruktur,
  • der Verfügbarkeit von Ersatzprodukten,
  • den Lieferzeiten,
  • den Kosten für Kapazität und Umrüstungen,
  • vertraglichen Einschränkungen und Strafen.

In meiner eigenen Arbeit argumentiere ich, dass Prognosen Verteilungen und keine einzelnen Punkte sein sollten. Die Frage lautet nicht „Was ist die Verkaufsprognose für den nächsten Monat?“, sondern „Wie sieht die Wahrscheinlichkeitsverteilung möglicher Verkäufe aus?“ Sobald wir solche Verteilungen haben, hört der Plan auf, eine einzige „Konsenszahl“ zu sein, die in Meetings ausgehandelt wird, und wird zu einer Reihe von Entscheidungen, die von Algorithmen berechnet werden, welche Kosten und Chancen unter diesen Verteilungen abwägen.

Technologie: Architektur versus Motor

Die meisten Unternehmen haben einen Technologie-Stack geerbt, der in erster Linie für transaktionale Effizienz entwickelt wurde: Erfasst werden Bestellungen, Lieferungen, Rechnungen, Bestandsbewegungen. Diese Systeme integrieren Daten über Funktionen hinweg, helfen den Unternehmen jedoch nicht unbedingt dabei, bessere Entscheidungen zu treffen. Mehr Dashboards auf einen solchen Stack zu setzen, behebt nicht das zugrunde liegende Problem. Es gibt Ihnen mehr Möglichkeiten, zu sehen, was vor sich geht, aber kaum Hilfe bei der Entscheidungsfindung.

Heute wird viel über Architekturen diskutiert, die eher „outside-in“ sind: Integration externer Nachfragesignale, Aufbau umfangreicherer Taxonomien, Bereitstellung nahezu in Echtzeit sichtbarer Bestände und Kapazitäten sowie Angebot flexiblerer Analysewerkzeuge. All dies ist nützlich. Ich glaube jedoch, dass die zentrale Fähigkeit fehlt.

Was fehlt, ist nicht einfach nur eine weitere Integrationsschicht oder ein weiteres Dashboard, sondern eine Entscheidungs-Engine.

Damit meine ich eine Software, die in regelmäßigen Abständen:

  1. alle relevanten Daten und aktuellen Einschränkungen aufnimmt,

  2. ein explizites ökonomisches Modell von Kosten und Chancen anwendet, und

  3. konkrete Entscheidungen vorschlägt oder direkt trifft:

    • welche Bestellaufträge aufgegeben werden sollen,
    • welche Produktionsaufträge geplant werden sollen,
    • welche Transfers durchzuführen sind,
    • welche Preise angepasst werden sollen.

Eine solche Entscheidungs-Engine muss sein:

  • Programmierbar von Personen, die das Geschäft verstehen.
  • Auditierbar, im Sinne dessen, dass sie im Nachhinein erklären kann, warum angesichts der damaligen Daten und Bewertungen eine bestimmte Entscheidung getroffen wurde.
  • Schnell und skalierbar genug, um Millionen von Entscheidungen in den durch physische Vorlaufzeiten vorgegebenen Zeitfenstern zu bewältigen.
  • Wahrscheinlichkeitsbasiert, fähig, mit Verteilungen statt mit Einzelprognosen zu arbeiten.

„Outside-in“-Architekturen sind nützlich, weil sie bessere Eingangsdaten für eine solche Engine liefern. Ohne die Engine laufen sie jedoch Gefahr, sich in ausgeklügeltere Berichtssysteme zu verwandeln. Sie werden das Problem klarer sehen, in mehr Farben und mit mehr Latenzmetriken, aber trotzdem sind Sie auf Heerscharen von Planern angewiesen, die Zahlen in Tabellenkalkulationen hin- und herschieben und versuchen, widersprüchliche Zielsetzungen manuell in Einklang zu bringen.

Meine Betonung liegt daher darauf, die Entscheidungs-Engine in den Mittelpunkt zu stellen, wobei die Architektur ihr untergeordnet ist.

Organisation, Governance und die Rolle von S&OP

Ein großer Teil der organisatorischen Überlegungen rund um den supply chain hat sich um Sales and Operations Planning (S&OP) und seine Derivate verfestigt. Diese Prozesse sollen über Abteilungsgrenzen hinweg wirken und Funktionen in Einklang bringen. Hier werden die Kompromisse ausgehandelt und wo Finanzen, Vertrieb, Betrieb und supply chain angeblich zu einem einzigen Plan zusammenlaufen.

Ich teile die Einschätzung, dass Silos eine wesentliche Quelle der Wertvernichtung sind. Wenn jede Funktion ihre eigenen Kennzahlen optimiert – hier den Servicegrad, dort die Auslastung, anderswo die Prognosegenauigkeit – leidet das Gesamtsystem. Die Menschen investieren enorm viel Aufwand, um Konflikte zwischen Plänen zu lösen, die nie dafür ausgelegt waren, kompatibel zu sein.

Wo ich von herkömmlichen S&OP-Überlegungen abweiche, ist die Frage, wie zentral das Planungstreffen langfristig bleiben sollte.

Meiner Ansicht nach sollte, wenn wir unsere Arbeit auf der technologischen Seite ordnungsgemäß erledigen, der Großteil der operativen Planung der oben beschriebenen Entscheidungs-Engine übertragen werden. Diese Engine wird mit den aktuellsten Daten und den derzeitigen wirtschaftlichen Bewertungen gespeist (zum Beispiel den relativen Kosten eines Bestandsausfalls im Vergleich zu einem Überschuss für einen bestimmten Artikel oder dem Wert eines Tages Vorlaufzeitreduktion für eine bestimmte Strecke). Sie berechnet optimale Entscheidungen neu, sobald sich die Bedingungen ändern – und das viel häufiger und konsistenter, als es irgendein menschlicher Prozess vermag.

Was für S&OP oder integrierte Geschäftsplanung übrig bleibt, ist nicht die Planung, sondern die Governance.

Statt ihre Zeit damit zu verbringen, Mengen in einer Tabellenkalkulation anzupassen, sollten Führungskräfte ihre Zeit damit verbringen, die Spielregeln anzupassen:

  • die finanziellen Bewertungen,
  • die Einschränkungen,
  • die Risikobereitschaft,
  • die in der Entscheidungslogik verankerten strukturellen Annahmen.

Sie sollten untersuchen, wie sich die Entscheidungen der Engine in realisierte Ergebnisse übersetzen, und dieses Feedback nutzen, um die ökonomischen Parameter und strukturellen Annahmen zu verfeinern. Die Hauptfragen lauten:

  • Sind wir mit dem aktuellen Kompromiss zwischen Service und Bestand in dieser Produktfamilie zufrieden?
  • Wird das Risiko in diesem Markt angemessen bepreist?
  • Sind unsere Annahmen zur Vorlaufzeit angesichts der jüngsten Störungen realistisch?

Dies ist ein subtiler, aber tiefgreifender Wandel. Er verwandelt S&OP von einem kollektiven Versuch, einen einzigen „richtigen“ Plan von Hand zu fertigen, in eine periodische Überprüfung, wie gut ein automatisiertes Entscheidungssystem im Hinblick auf die Ziele des Unternehmens funktioniert. Der menschliche Fokus verlagert sich vom Mikromanagement der Mengen hin zur Kalibrierung von Anreizen und Einschränkungen.

Woher wissen wir, was wir wissen?

Der supply chain ist aus erkenntnistheoretischer Sicht ein schwieriges Feld. Experimente sind teuer, die Umgebungen sind lärmig und die Anzahl der Variablen ist überwältigend. Es ist leicht, plausiblen Geschichten robuste Erkenntnisse beizumessen.

Historisch gesehen haben viele Techniken, die immer noch weit verbreitet gelehrt und umgesetzt werden, ihr Fortbestehen eher ihrer rechnerischen Bequemlichkeit zu verdanken als ihrer empirischen Leistungsfähigkeit. Sicherheitsbestandsformeln, die auf heroischen Annahmen beruhen, linearisierte Modelle offensichtlich nichtlinearer Phänomene, vereinfachte Planungshierarchien, die mehr Organisationsdiagrammen als der wirtschaftlichen Realität entsprechen – diese Artefakte waren verständlich, als Rechenleistung knapp und teuer war. Heute ist es schwieriger, sie zu rechtfertigen.

Ich mache mir auch Sorgen um Anreizstrukturen. Softwareanbieter, Berater, Akademiker und interne Interessengruppen haben alle Gründe, Narrative zu bevorzugen, die große Projekte, komplexe Rahmenwerke oder schrittweise Anpassungen rechtfertigen. Es gibt vergleichsweise wenig Anreiz, zu beweisen, dass eine geschätzte Methode in der Praxis systematisch Geld verliert.

Meiner Ansicht nach besteht die Antwort darin, den supply chain näher an angewandte Ökonomie mit einem starken empirischen und rechnerischen Bestandteil zu rücken. Wir sollten:

  • unsere Annahmen explizit formulieren,
  • sie in Algorithmen kodieren,
  • sie anhand der finanziellen Ergebnisse des Unternehmens mit der Realität konfrontieren, und
  • bereit sein, Richtlinien, die Wert vernichten, aus dem Verkehr zu ziehen, unabhängig davon, wie elegant oder weit verbreitet sie gelehrt werden.

Es gibt keine zeitlosen „Best Practices“, die darauf warten, umgesetzt zu werden. Es gibt nur Praktiken, die im Kontext funktionieren, eine Zeit lang, bis sich das Umfeld oder die Wettbewerbssituation ändert.

Auf dem Weg zu einer ehrlicheren Praxis

Wenn Sie als Führungskraft oder Praktiker versuchen, sich in diesen Konzepten zurechtzufinden, kann es hilfreich sein, in Begriffen von Ebenen zu denken:

  • Auf der strategischen und diagnostischen Ebene geht es Ihnen um Ihre Entwicklung im Vergleich zu Ihren Mitbewerbern hinsichtlich Wachstum, Marge, Lagerumschlag und Kapitalrendite. Bewegen Sie sich tatsächlich in Richtung einer effektiven Grenze oder ordnen Sie lediglich interne KPIs um?
  • Auf der operativen und rechnerischen Ebene geht es Ihnen darum, ob die Millionen täglichen Entscheidungen – Einkaufen, Herstellen, Bewegen, Preisgestaltung – angesichts der Ungewissheit, der Sie ausgesetzt sind, und der finanziellen Abwägungen, die Sie in Kauf genommen haben, gute Wetten sind.
  • Auf der Governance-Ebene geht es Ihnen darum, ob die im Entscheidungsautomaten kodifizierten Spielregeln Ihre tatsächliche Strategie und Risikobereitschaft widerspiegeln und ob sie aktualisiert werden, wenn sich die Welt verändert.

Diese Ebenen sind keine Alternativen. Sie sind unterschiedliche Blickwinkel auf dasselbe Thema.

Aus meiner Sicht lässt sich das Wesentliche in einem Satz zusammenfassen:

supply chain ist im Kern eine ökonomische Disziplin, die durch Software als die Kunst, gute Wetten unter Ungewissheit zu platzieren, betrieben werden sollte.

Alles andere – Prozesse, Architekturen, Dashboards, sogar Reifegradmodelle – sollte danach beurteilt werden, inwieweit sie diese zentrale Aufgabe unterstützen oder behindern.