Probabilistische Prognose in supply chains: Lokad vs. Andere Enterprise-Softwareanbieter, Juli 2025

Von Léon Levinas-Ménard
Zuletzt geändert: 23. Juli 2025

Zusammenfassung

Lokads Einzigartiger Probabilistischer Ansatz: Lokad war ein Pionier beim Einsatz von probabilistischer Prognose in der supply chain optimization, indem es über Einzelwertschätzungen hinausging, um vollständige Verteilungen von Nachfrage- und Angebotsunsicherheiten zu modellieren. Seit 2012 hat Lokad seine Plattform um dieses Konzept herum aufgebaut – es schätzt gesamte Wahrscheinlichkeitsverteilungen (nicht nur Einzelprognosen oder einige Quantile) und nutzt sie zur Optimierung von Entscheidungen 1 2. Dies ermöglicht es, alle Unsicherheitsquellen zu prognostizieren (z. B. Nachfrage und Variabilität der Lieferzeiten) und optimierte Lager- oder Produktionspläne zu berechnen, die diese Unsicherheiten berücksichtigen 2. Das Ergebnis ist ein entscheidungszentrierter Ansatz, der Prognosen in optimierte Maßnahmen umsetzt unter Unsicherheit, statt Prognose und Planung als getrennte Schritte zu behandeln.

Behauptungen der Wettbewerber zu “Probabilistic” vs. Realität: Im Zuge von Lokads Vorreiterrolle haben viele große supply chain software Anbieter die Sprache der probabilistischen Prognose übernommen – jedoch weitgehend ohne denselben Gehalt. Anbieter wie ToolsGroup, Blue Yonder, o9 Solutions, SAP IBP, RELEX und Kinaxis streuen nun Begriffe wie “probabilistic” oder “stochastic” in ihr Marketing. Ein genauerer Blick offenbart jedoch wesentliche Unterschiede:

  • ToolsGroup (SO99+): Ein langjähriger Pionier in “stochastic”, doch die moderne Verwendung von probabilistic ist nur teilweise. Sie erzeugen Nachfragedistributionen (Quantilprognosen) für Lagerbestände, prognostizieren jedoch nicht Lieferzeiten als Zufallsvariablen, sondern stützen sich auf feste Lead-Time-Eingaben 3. Bemerkenswert: Seit 2018 pries ToolsGroup “probabilistic forecasts”, während sie gleichzeitig MAPE-Genauigkeitsverbesserungen in den Vordergrund stellten – ein Widerspruch, da MAPE nicht für probabilistic forecasts gilt 4. Dies legt nahe, dass ihr probabilistischer Vorstoß eher ein Schlagwort als eine fundamentale Veränderung war.

  • Kinaxis (RapidResponse/Maestro): Historisch fokussiert auf deterministische, in-memory Planung. Erst kürzlich (2022–2023) hat Kinaxis probabilistische Methoden übernommen, indem es eine Partnerschaft mit Wahupa (für probabilistische Bestandsoptimierung) einging und ein KI-Prognoseunternehmen erwarb. Kinaxis meldete sogar 2023 Patente für ML-basierte Quantilprognosen 5 6, was auf eine Hinwendung zu probabilistischen Techniken hinweist. Diese Funktionen sind jedoch neu und ungetestet, im Wesentlichen werden Quantilprognosen (Prognoseintervalle) bereitgestellt anstatt der vollständigen Verteilungsmodellierung, wie sie Lokad praktiziert. Die Wahupa-Initiative (probabilistische Multi-Echelon-Engine) hat bislang nur begrenzte sichtbare Wirkung gezeigt, was die Herausforderungen bei der Nachrüstung probabilistischer Logik in eine etablierte Plattform hervorhebt.

  • Blue Yonder (ehemals JDA): Ein Riese im Bereich supply chain software mit überlieferten (deterministischen) Planungsalgorithmen. Die jüngste Kommunikation der Luminate-Plattform von Blue Yonder erwähnt “autonomous” und “probabilistic” forecasting, aber die Belege sind spärlich, dass die Kernsysteme tatsächlich vollständige Wahrscheinlichkeitsverteilungen ausgeben 7. In der Praxis scheint BY bei traditionellen Einzelprognosen (Zeitreihenmethoden wie ARIMA) mit Sicherheitsbestandsformeln zu bleiben, eventuell mit ML-gestützten Anpassungen. Es gibt keinen Hinweis darauf, dass Blue Yonder die Unsicherheit der Lieferzeiten modelliert oder die Art von End-to-End-probabilistischer Optimierung liefert, wie sie Lokad betreibt 8 9. Die Terminologie “probabilistic” scheint somit größtenteils ein Branding geringfügiger Erweiterungen eines grundsätzlich deterministischen Ansatzes zu sein.

  • SAP IBP (Integrated Business Planning): SAPs Planungssuite erbte eine probabilistische Engine durch die Übernahme von SmartOps im Jahr 2013 (welches eine Multi-Echelon-Bestandsoptimierung unter Einsatz von Modellen der Nachfragevariabilität durchführte). Theoretisch kann IBP for Inventory die Nachfragevariabilität und sogar einige Angebotsvariabilitäten berücksichtigen 10. In der Praxis liegt SAPs Schwerpunkt auf Integration und Prozessen; die probabilistische Prognose wird in ihrer Kommunikation nicht hervorgehoben 11. Die meisten SAP IBP Implementierungen verwenden immer noch Einzelprognosen und benutzerdefinierte Sicherheitsbestände; Lieferzeiten sind typischerweise feste Eingaben (mit optionalen Puffern) anstatt systematisch prognostizierte Unsicherheiten 11. Somit, obwohl die Fähigkeit tief in der Software existiert, hat SAP probabilistische Methoden nicht als zentrales Unterscheidungsmerkmal operationalisiert, und viele Nutzer könnten diese erweiterten Funktionen nicht ausnutzen.

  • o9 Solutions: Eine neuere Plattform, die ein “Digital Brain” für supply chain planning vermarktet. o9 konzentriert sich auf Echtzeit-integrierte Planung (Nachfrage, Angebot, Finanzen) mit Szenarioanalysen und Big-Data-Integration. Ihre Stärke liegt in der Vereinheitlichung von Daten und Planungssilos, jedoch nicht speziell in probabilistic forecasting der Art, in der Lokad spezialisiert ist 12. Die AI/ML-Funktionen von o9 unterstützen größtenteils prädiktive Analysen und What-if-Simulationen, anstatt explizite Wahrscheinlichkeitsverteilungen für jede Variable zu erzeugen. Kurz gesagt, o9 bietet ein breites Planungstoolkit (mit graphbasierten Datenmodellen und schnellen What-if-Neuberechnungen), während Lokad ein tiefergehendes Modellieren von Unsicherheiten und Optimierung bereitstellt. Unternehmen, die vollständige probabilistische Strenge in ihren Prognosen anstreben, könnten o9s Ansatz als eher inkrementell (erweiterte Einzelprognosen) im Vergleich zu Lokads umfassender stochastischer Optimierung empfinden 12.

  • RELEX Solutions: Ein schnell wachsender, auf den Einzelhandel ausgerichteter Anbieter, bekannt für Hochfrequenz-Prognosen und automatisierte Wiederbefüllung (beliebt im Lebensmitteleinzelhandel und in der Modebranche). RELEX wirbt mit “AI-driven” Nachfrageprognosen und Echtzeitanalysen, gibt jedoch nicht vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage aus, wie es Lokad tut 13. Prognosen werden mittels maschinellen Lernens (und kurzfristiger Nachfragerfassung) verbessert, bleiben aber im Wesentlichen verbesserte Einzelprognosen. Kritisch ist, dass RELEX auch Lieferzeiten nicht als probabilistisch betrachtet 14 – Nutzer geben Lieferzeiten und möglicherweise manuelle Variabilitätsfaktoren ein. Somit verlässt sich RELEX trotz moderner Cloud-Architektur und AI-Behauptungen im Hintergrund auf konventionelle Methoden (mit etwas ML). Die Verwendung des Begriffs “probabilistic” ist minimal; der Schwerpunkt liegt mehr auf kurzfristiger Reaktionsfähigkeit als auf der mathematischen Modellierung jeder Unsicherheit.

Fazit: Lokads probabilistischer Ansatz bleibt hoch differenziert. Er zeichnet sich dadurch aus, dass er Unsicherheiten von Anfang bis Ende wirklich integriert – es werden alle relevanten Verteilungen prognostiziert und Entscheidungen entsprechend optimiert. Andere Anbieter haben in unterschiedlichem Maße das Schlagwort ausgeliehen oder einzelne Elemente probabilistischer Technik hinzugefügt (oft nur Quantilprognosen oder Risikopuffer), um modern zu erscheinen. Wie in diesem Bericht detailliert, erreicht jedoch keiner die Tiefe von Lokads Ansatz in der Praxis. Die meisten greifen immer noch auf deterministische Planungsparadigmen zurück, mit nur oberflächlichen Hinweisen auf Unsicherheit (z. B. durch die Verwendung einiger Quantile oder “safety stock”-Logik anstelle einer echten stochastischen Optimierung). Neueste Entwicklungen – wie Kinaxis’ Patente und Partnerschaften oder Blue Yonder’s Neupositionierung im Bereich AI – zeigen, dass die Branche probabilistische Methoden als die Zukunft erkennt. Dennoch hinkt der Gehalt der Marketingpräsentation bei diesen etablierten Anbietern hinterher. Führungskräfte, die “probabilistic” supply chain Lösungen bewerten, sollten daher genau prüfen, ob das Angebot eines Anbieters nur das Wort verwendet oder wirklich das von Lokad eingeführte probabilistische Paradigma umsetzt.


Einführung

Im letzten Jahrzehnt hat sich probabilistic forecasting als wegweisende Innovation in der supply chain planning etabliert. Im Gegensatz zu traditionellen deterministischen Prognosen, die einen einzigen erwarteten Wert liefern, bietet eine probabilistische Prognose eine Spanne möglicher Ergebnisse mit zugehörigen Wahrscheinlichkeiten 15. Dies ist entscheidend für die Optimierung der supply chain: Entscheidungen wie die Bestandsmenge oder die Produktionsplanung müssen die Variabilität in der Nachfrage, in den Lieferzeiten von Zulieferern, Transportverzögerungen und andere Unsicherheiten berücksichtigen. Bereits 2012 erkannte Lokad, dass klassische Prognosen (selbst “best guess” oder Medianprognosen) für solche Entscheidungen unzureichend waren, da sie das Risiko höherer oder niedrigerer Ergebnisse außer Acht lassen. Lokad begann 2012 mit der Erstellung von Quantilprognosen – im Wesentlichen voreingenommene Prognosen, die auf bestimmte Serviceniveaus oder Kostenabwägungen abzielen – und entwickelte sich bis 2015 dahin, ganze Verteilungen zu prognostizieren (mittels “quantile grids”) 16 17. Im Jahr 2016 hat Lokad den Ansatz des probabilistic forecasting vollständig übernommen, indem es explizit vollständige Nachfragedistributionen anstelle einzelner Werte schätzt 18 19. Darauf folgte die Entwicklung stochastischer Optimierungstechniken, die diese Verteilungen als Eingaben nutzen, um optimale Entscheidungen unter Unsicherheit zu berechnen 19 20.

Heute integriert Lokads Ansatz (manchmal als “Forecasting & Optimization” oder “Quantitative Supply Chain” bezeichnet) eng die Prognose mit der Entscheidungsoptimierung 21 22. Mit seiner domänenspezifischen Sprache Envision modelliert Lokad die Unsicherheiten (z. B. Nachfragevariabilität, Zuverlässigkeit der Zulieferer, Lieferzeitverteilungen etc.) und die geschäftlichen Randbedingungen (Lagerkosten, Serviceziele, Kapazitätsgrenzen) und erstellt dann einen optimierten Plan (Bestellmengen, Produktionspläne etc.), der die erwartete Leistung unter Berücksichtigung der Unsicherheiten maximiert 23 2. Das Wesentliche ist, dass Unsicherheit keine nachträgliche Überlegung ist – sie ist in die Berechnungen einbezogen. Dies steht im Gegensatz zu traditionellen Werkzeugen, die oft nur eine einzelne Prognose erstellen und dann Puffer (Sicherheitsbestand, Sicherheitszeit) heuristisch hinzufügen. Lokads Erfolg im M5-Prognosewettbewerb 2020 (mit der Spitzenposition in der Genauigkeit auf SKU-Ebene weltweit) demonstrierte weiter seine Führungsrolle im Bereich prädiktives Modellieren 24. Noch wichtiger ist, dass Lokad argumentiert, dass Alleinigkeit in der Genauigkeit nicht ausreicht – es sei notwendig, aus diesen probabilistischen Prognosen optimale Entscheidungen abzuleiten 25 22.

Da Lokad mit diesem probabilistischen Ansatz an Bedeutung gewonnen hat, haben andere supply chain software Anbieter aufmerksam geworden. Mitte der 2010er Jahre begannen Begriffe wie “stochastic”, “probabilistic forecasting” und “AI-driven planning” in den Broschüren der Wettbewerber aufzutauchen. Ende der 2010er Jahre begannen eine Reihe von Anbietern, irgendeine Form probabilistischer Fähigkeit zu vermarkten – zumindest namentlich. Die Herausforderung für Führungskräfte in der supply chain besteht darin, dieses Marketing zu durchschauen: Wie definieren diese Anbieter “probabilistic” und wie unterscheiden sich ihre Lösungen von Lokads? Dieser Bericht untersucht Lokads Ansatz gegenüber den Ansätzen mehrerer führender Anbieter: ToolsGroup, Kinaxis, Blue Yonder (BY), SAP IBP, o9 Solutions und RELEX Solutions. Wir konzentrieren uns darauf, wie jeder Anbieter mit Unsicherheiten in der Prognose und Planung umgeht:

  • Produzieren sie vollständige Wahrscheinlichkeitsverteilungen oder nur Einzelprognosen / Einzelwertvorhersagen?
  • Falls Verteilungen erwähnt werden, sind diese nur für die Nachfrage oder auch für Lieferzeiten und andere Faktoren?
  • Haben sie ihre Prognosefähigkeiten unter Beweis gestellt (z. B. in Wettbewerben oder anhand veröffentlichter Kennzahlen), oder handelt es sich hauptsächlich um Schlagwörter?
  • Wie integrieren sie Unsicherheit in die Entscheidungsfindung (z. B. echte stochastische Optimierung vs. einfache Sicherheitsbestandsformeln)?
  • Werden ihre “AI/ML”-Behauptungen durch technische Details untermauert, oder werden alte Methoden mit neuer Terminologie neu verpackt?

Durch die Beantwortung dieser Fragen können wir die Kluft zwischen Lokad und seinen Wettbewerbern im Bereich der probabilistischen supply chain optimization verstehen. Im Folgenden erläutern wir die Haltung und Fähigkeiten jedes Anbieters und zeigen auf, wie “probabilistic” in der Praxis interpretiert wird – und ob es dem Versprechen entspricht, das Lokad verkörpert.

Lokads Probabilistischer Ansatz: Volle Verteilungen & Entscheidungsoptimierung

Lokads Philosophie lautet, dass bessere Entscheidungen aus einem besseren Verständnis von Unsicherheit resultieren. Konkret bedeutet dies, die vollständige Wahrscheinlichkeitsverteilung der zukünftigen Nachfrage (und anderer Unsicherheiten) zu prognostizieren und daraus direkt die Entscheidungen zu berechnen, die Kennzahlen (wie Servicegrad, Kosten oder Gewinn) optimieren, indem diese Verteilungen als Eingaben dienen. Mehrere Elemente machen Lokads Ansatz einzigartig:

  • Frühe Übernahme und Innovation: Lokad war fast ein Jahrzehnt voraus dem Markt, als es probabilistische Prognosen vorantrieb. Bereits 2012 setzte sich Lokad öffentlich für Prognosen jenseits von Durchschnittswerten ein – indem es Quantilprognosen einführte, die auf Geschäftsziele zugeschnitten waren 26 1. Zwischen 2015 und 2016 wechselte Lokad zu vollständigen probabilistischen Prognosen, was bedeutet, dass für jeden Artikel eine vollständige Wahrscheinlichkeitsverteilung der Nachfrage über die Lieferzeit (oder jeden anderen interessierenden Zeitraum) erstellt wird 18 19. Dies war ein radikaler Wandel gegenüber der Branchenpraxis, für jeden Artikelzeitraum nur eine Zahl zu generieren. Lokads Investition in diesen Bereich machte es “einer der wenigen Anbieter, der probabilistic forecasting (für Nachfrage und Angebot) und echte stochastische Optimierung in der Praxis implementiert hat” 2.

  • Modellierung aller Unsicherheitsquellen: Im Gegensatz zu den meisten Werkzeugen, die nur die Nachfrageunsicherheit modellieren (wobei Lieferzeiten oder andere Faktoren als fest betrachtet werden), modelliert Lokad explizit jeden signifikanten stochastischen Faktor. Zum Beispiel, wenn die Lieferzeiten von Zulieferern variieren, prognostiziert Lokad eine Lieferzeitverteilung (z. B. eine 10%-ige Wahrscheinlichkeit, dass sich eine Lieferzeit auf 8 Wochen verlängert statt des Durchschnitts von 6 Wochen). Gibt es Unsicherheiten in der Fertigungsausbeute oder ein Risiko von Transportverzögerungen, können auch diese als probabilistische Eingaben modelliert werden. Lokads Dokumentation betont, sowohl Nachfrage als auch Angebots-Unsicherheiten zu prognostizieren und beide in die Optimierung einzuspeisen 2. Dieser umfassende Ansatz bedeutet, dass die resultierenden Entscheidungen (wie viel Bestand gehalten wird) gegen jegliche wesentliche Variabilität schützen, nicht nur gegen Nachfrageschwankungen.

  • Wahrscheinlichkeitsbasierte Inputs zur Optimierung (Nicht nur Forecasts): Entscheidend ist, dass Lokad nicht bei der Vorhersage von Verteilungen stehen bleibt; es verwendet diese in mathematischen Optimierungsmodellen, um Entscheidungen abzuleiten. Die Envision-Plattform von Lokad ermöglicht es, eine Zielfunktion zu erstellen (z. B. den erwarteten Gewinn maximieren oder die Gesamtkosten minimieren), welche über das gesamte Spektrum probabilistischer Ergebnisse evaluiert wird 25 22. Techniken wie stochastische diskrete Ereignissimulation und stochastische Optimierung (Lokad führte Methoden wie Stochastic Discrete Descent in 2021 ein, um diese Probleme zu lösen 19) berechnen die beste Entscheidung, indem tausende möglicher zukünftiger Szenarien (abgeleitet aus der Prognoseverteilung) abgewogen werden. Dies liefert Empfehlungen wie: Bestelle jetzt X Einheiten (oder setze den Nachbestellpunkt auf Y), mit bekannten Wahrscheinlichkeiten für Stockout oder Überbestand basierend auf der Vorhersage. Es ist eine ganzheitliche Forecast-to-Decision-Pipeline: Daten → probabilistische Vorhersage → optimierte Entscheidung. Viele Anbieter liefern hingegen entweder nur Forecasts und überlassen den Rest den Planern oder verwenden simple Regeln (wie „Safety Stock = Z * σ der Nachfrage“), die keine echten Optimierungen darstellen.

  • Transparenz und Anpassungsfähigkeit: Lokad hat sich bemüht, seinen Ansatz zu white-boxen. Envision ist eine vollständig programmierbare Engine, in der ein Unternehmen das Modell an seine Realitäten anpassen kann. Beispielsweise kann, falls Veralterung ein Thema ist, eine Wahrscheinlichkeit modelliert werden, dass die Nachfrage nach einem bestimmten Datum auf null sinkt; bei einer möglichen Lieferantenausfall-Situation kann dieses Szenario einbezogen werden. Diese Flexibilität stellt sicher, dass das „probabilistische Modell“ keine Black Box ist – es ist verständlich und anpassbar, im Gegensatz zu einigen Anbietern, die eine Einheitslösung in Form einer Black-Box-KI anbieten. Zudem sind Lokads Ergebnisse und Methoden detailliert auf ihrer Website und in YouTube-Vorträgen (Supply Chain „Lokad TV“) dokumentiert, was ein Maß an technischer Transparenz widerspiegelt, das in Unternehmenssoftware selten ist 27 25.

  • Bewährte Leistung: Lokads Glaubwürdigkeit in probabilistischen Forecasts wird durch externe Benchmarks untermauert. Ein häufig zitiertes Highlight ist Lokads Leistung im M5-Wettbewerb (ein globaler Forecasting-Wettbewerb), bei dem es höchste Genauigkeit auf SKU-/Artikelebene erreichte 24. Das ist bedeutsam, da es objektiven Beweis dafür liefert, dass Lokads Prognosetechnologie auf dem neuesten Stand ist. Darüber hinaus sorgt Lokad durch seine Cloud-Native- und vollautomatisierte Arbeitsweise dafür, dass diese fortschrittlichen Techniken in großem Maßstab ohne manuelle Eingriffe laufen können – tägliche oder wöchentliche Re-Optimierungen geschehen „hands-off“, was für die Praxis unerlässlich ist. Kurz gesagt, Lokad verbindet State-of-the-Art-Wissenschaft mit Automatisierung, um den traditionellen Zielkonflikt zwischen ausgefeilten Modellen und Benutzerfreundlichkeit zu beseitigen.

Zusammenfassend bedeutet Lokads probabilistischer Ansatz eine echte End-to-End-stochastische Planung: Feingliedrige Unsicherheiten werden prognostiziert und direkt in Entscheidungen umgewandelt, die die Ergebnisse unter Unsicherheit optimieren. Dies ist nicht nur ein Modul oder Feature, sondern der Kern der Lokad-Plattform. Der Rest dieses Berichts verwendet Lokads Standard als Maßstab, um zu untersuchen, wie andere Anbieter probabilistische Forecasts (oder eben nicht) implementiert haben.

Wettbewerber und ihre “probabilistischen” Ansätze

Während probabilistische Methoden an Aufmerksamkeit gewannen, reagierten andere Anbieter von Supply-Chain-Software auf unterschiedliche Weise. Einige haben ihre Wurzeln in stochastischen Techniken, diese in jüngerer Zeit jedoch nicht weiterentwickelt; andere haben neue Funktionen hinzugefügt oder einfach Aspekte ihrer bestehenden Tools mit probabilistischer Terminologie umgewandelt. Im Folgenden untersuchen wir den Ansatz jedes wesentlichen Anbieters:

ToolsGroup – Früher stochastischer Innovator, aber quantilfokussiert und nur nachfrageorientiert

Hintergrund: ToolsGroup ist ein Veteran in der Supply-Chain-Planung (gegründet 1993) und wird oft für den frühen Einsatz von stochastischen Modellen, insbesondere bei der Ersatzteilprognose, gelobt. In den 1990er Jahren führte ToolsGroup Methoden ein, die die rein deterministische Planung infrage stellten, indem sie die Nachfragevariabilität statistisch modellierten (z. B. unter Verwendung der Poisson- oder anderer Verteilungen für intermittierende Nachfrage) 28. Dieses Erbe bedeutet, dass ToolsGroup seit langem über probabilistische Forecasts spricht – tatsächlich errechnet ihr Flaggschiff-System Service Optimizer 99+ (SO99+) seit Jahren „statistische Sicherheitsbestände“ basierend auf der Variabilität. In der modernen Vermarktung behauptet ToolsGroup weiterhin, dass „probabilistische Nachfrageprognosen (auch als stochastische Forecasts bekannt) das Fundament einer effektiven Planung darstellen“ 29.

Probabilistisch in der Praxis: Trotz dieses Erbes erscheint ToolsGroups aktueller Ansatz im Vergleich zu Lokads umfassendem probabilistischen Rahmen eingeschränkt. Bemerkenswert:

  • Nachfrageverteilungen, aber statische Lieferparameter: ToolsGroup erzeugt Nachfrageverteilungen statt Einzelpunktprognosen. So kann SO99+ beispielsweise eine „Stock-to-Service“-Kurve erstellen, welche im Wesentlichen die Wahrscheinlichkeitsverteilung der Nachfrage über die Lieferzeit und das für einen gegebenen Lagerbestand erreichte Serviceniveau zeigt 30. Dies impliziert, dass ToolsGroups Engine die Verteilung der Nachfrage während einer Wiederauffüllungszeit entweder simuliert oder analytisch ableitet – ein nützliches probabilistisches Ergebnis. Allerdings bleibt ToolsGroup hinter einer vollständigen probabilistischen Modellierung zurück, da sie die Lieferzeit als Eingabe behandelt und nicht als prognostizierte Unsicherheit. In der Dokumentation von ToolsGroup werden Lieferzeiten unter den „Lieferparametern“ aufgeführt, die der Nutzer in das Modell einbringt 31. Es gibt keinen Hinweis darauf, dass SO99+ die historische Leistung eines Lieferanten analysiert und daraus eine Wahrscheinlichkeitsverteilung der Lieferzeit ableitet. Höchstens gibt der Nutzer einen Mittelwert und eine Standardabweichung für die Lieferzeit ein, woraufhin das Tool dies deterministisch in die Sicherheitsbestandsberechnung einbezieht 32. Dies bedeutet, dass ToolsGroup eine wesentliche Quelle der Unsicherheit ignoriert – sollte sich die Lieferzeit eines Lieferanten gelegentlich aufgrund von Störungen verdoppeln, dürfte die Optimierung von ToolsGroup dieses Risiko nicht vollständig berücksichtigen, da sie dieses Szenario nicht nativ prognostiziert 33. Im Gegensatz dazu würde Lokad oder ein „vollständiger“ probabilistischer Ansatz explizit beispielsweise eine 10%ige Chance modellieren, dass sich die Lieferzeit verdoppelt, und die Lagerempfehlungen entsprechend anpassen. Das Fehlen einer probabilistischen Lieferzeitprognose veranlasste eine Analyse zu folgender Schlussfolgerung: „ToolsGroup besteht den vollständigen probabilistischen Test nicht – es führt Lieferzeiten nur als statische Eingaben an, nicht als prognostizierte Unsicherheiten“ 31.

  • „Probabilistischer“ Schub 2018 und MAPE-Verwirrung: ToolsGroup begann um 2018 herum, intensiv mit „probabilistischen Forecasts“ zu werben – vermutlich als Reaktion auf Markttrends. Dieser Marketing-Schub wurde jedoch durch ein offensichtliches mangelndes Verständnis (oder mangelnde Transparenz) darüber untergraben, wie die Leistung probabilistischer Prognosen gemessen werden soll. Konkret kombinierten die Materialien von ToolsGroup aus jener Zeit Behauptungen über probabilistische Forecasts mit Aussagen über einen verbesserten MAPE (Mean Absolute Percentage Error) 4. MAPE ist ein Maß für die Genauigkeit von Einzelpunktprognosen – es misst die Abweichung eines einzelnen Prognosewerts von der tatsächlichen Nachfrage. Bei einer probabilistischen Prognose (die eine Verteilung oder mehrere Quantile liefert) ist MAPE nicht anwendbar 34. Man kann „den MAPE einer Verteilungsprognose“ nicht berechnen, ohne diese zuvor auf einen Einzelpunktwert zu reduzieren (wodurch der Sinn der probabilistischen Ausgabe unterlaufen würde). Somit deutet ToolsGroups Prahlerei über einen besseren MAPE nebeneinander mit probabilistischen Forecasts entweder darauf hin, dass intern dennoch effektiv eine Einzelpunktprognose (vielleicht der Median) zur Fehlerermittlung verwendet wurde, oder dass es sich schlicht um ein Marketingversehen handelte. So oder so weckte dies Skepsis: „Eine so offensichtliche Verwechslung legt nahe, dass ToolsGroups probabilistische Initiative mehr Hype als Realität sein könnte“ 4. Anders formuliert, ToolsGroup hat möglicherweise probabilistische Funktionen (wie die Ausgabe eines Bereichs oder einiger Quantile) hinzugefügt, bewertet und intern jedoch weiterhin in deterministischen Bahnen gedacht.

  • Fokus auf Quantile (Service Levels): Nach vorliegenden Informationen dient der Einsatz probabilistischer Daten bei ToolsGroup überwiegend dazu, Ziel-Serviceniveaus zu erreichen. Ein ToolsGroup-Anwender legt typischerweise ein gewünschtes Serviceniveau fest (beispielsweise 95% oder 99%), und das System berechnet die erforderlichen Lagerbestände, um dieses Niveau unter Berücksichtigung der Nachfrageschwankungen zu erreichen. Dies geschieht durch die Betrachtung der oberen Quantile der Nachfrageverteilung. Wenn beispielsweise ein 95%-Service angestrebt wird, sorgt ToolsGroup dafür, dass der Lagerbestand das 95. Perzentil der Nachfrage während der Lieferzeit abdeckt. Dies ist im Grunde Quantile Forecasting: die Berechnung des 95. Perzentils der Nachfrage. Zwar ist dies nützlich, allerdings stellt es eine eingeschränkte Form der probabilistischen Prognose dar – das System könnte ein oder zwei Quantile (z. B. P50 und P95) zur Festlegung der Sicherheitsbestände berechnen, anstatt die komplette Form der Verteilung für eine kostenoptimierte Entscheidung zu nutzen. Im Gegensatz dazu könnte Lokad die gesamte Verteilung sowie die Kosten von Über- versus Unterbestand berücksichtigen, um dynamisch ein optimales Quantil zu wählen (vielleicht ist es das 87. Perzentil, das den erwarteten Gewinn maximiert), anstatt lediglich ein fest vorgegebenes Serviceniveau zu erreichen.

  • Keine umfassenden Durchbrüche in KI/ML: ToolsGroup integriert maschinelles Lernen in seine Forecasts, jedoch deuten Bewertungen darauf hin, dass es sich um relativ standardisierte Techniken handelt (Regression, Zeitreihenmodelle mit eventuell ein wenig ML-Anpassung). ToolsGroups Behauptungen in Bezug auf „KI“ stießen auf Skepsis 35 36 – Experten wiesen darauf hin, dass öffentliche Informationen über ToolsGroup den Einsatz von „Prognosemodellen aus der Vor-2000-Ära“ zeigen 37 (wie Crostons Methode für intermittierende Nachfrage). Das Unternehmen hat keine neuen probabilistischen Algorithmen demonstriert (zum Beispiel gibt es keine Anzeichen für tiefenlern-basierte probabilistische Forecasts oder eine Teilnahme an Wettbewerben). Somit ist die probabilistische Prognose bei ToolsGroup als Erweiterung seiner klassischen statistischen Modelle (mit zusätzlichen Outputs) zu verstehen, nicht als ein ganz neues Paradigma.

Urteil zu ToolsGroup: ToolsGroup bleibt eine glaubwürdige, bewährte Lösung für die Bestandsoptimierung mit einer langen Erfolgsgeschichte. Es hat vor Jahrzehnten probabilistische Konzepte angenommen, doch scheint der Umfang dieser Annahme heute begrenzt zu sein. Es modelliert die Nachfrageschwankungen und berechnet entsprechende Sicherheitsbestände, was wertvoll ist. Doch indem es explizite Lieferzeitprognosen ignoriert und probabilistische Ergebnisse mit deterministischem Denken (z. B. MAPE) vermischt, fehlt ToolsGroups „probabilistischer“ Ansatz die Vollständigkeit und Strenge von Lokads 31. Wie eine kritische Rezension feststellte, entspricht der Einsatz moderner Schlagwörter bei ToolsGroup nicht immer der zugrunde liegenden Realität – „die Vermischung moderner Buzzwords mit altmodischen Techniken“ 37. Unternehmen sollten verstehen, dass ToolsGroup dabei hilft, Bestandsziele für ein gegebenes Serviceniveau unter Nachfrageunsicherheit zu bestimmen, jedoch nicht unbedingt alle Risiken quantifiziert oder Entscheidungen in jedem stochastischen Szenario so re-optimiert, wie es eine vollständige probabilistische Optimierung tun würde.

Kinaxis – Deterministische Ursprünge mit neuer Quantile-Prognose und probabilistischen Bestands-Erweiterungen

Hintergrund: Kinaxis ist bekannt für seine RapidResponse-Plattform (kürzlich umbenannt in „Kinaxis Maestro“), die seit Jahren führend in der Supply-Chain-Planung ist, insbesondere im Bereich Sales & Operations Planning (S&OP) und Szenarioanalysen. Das Markenzeichen von Kinaxis ist eine schnelle, im Speicher arbeitende Rechen-Engine, die es Planern ermöglicht, Echtzeitsimulationen durchzuführen – z. B. „was wäre, wenn die Nachfrage um 10% steigt“ – und sofort die Auswirkungen auf die gesamte Lieferkette zu erkennen. Historisch lag der Fokus von Kinaxis nicht darauf, selbst als Prognose-Engine zu fungieren; vielmehr wurden Forecasts aus externen Quellen bezogen oder einfache Methoden genutzt, wobei der Schwerpunkt auf Integration und Geschwindigkeit bei der Neuplanzierung von Angebot, Kapazität und Beständen lag. Die Planung war weitgehend deterministisch – Szenarien stellten einzelne Versionen der Wahrheit dar, und Sicherheitsbestände oder Puffer wurden von Planern oder anhand einfacher Regeln festgelegt.

Übergang zu probabilistischen Methoden: In den letzten Jahren hat Kinaxis den Branchentrend (und die Kundennachfrage) nach fortschrittlicheren Prognosen und einem besseren Unsicherheitsmanagement eindeutig erkannt. Mehrere Entwicklungen veranschaulichen diesen Wandel:

  • Wahupa-Partnerschaft (2022): Im Mai 2022 kündigte Kinaxis eine Partnerschaft mit Wahupa an – einem kleinen Softwareunternehmen, das sich auf probabilistische Multi-Echelon Inventory Optimization (MEIO) 38 spezialisiert hat. Wahupas Engine ist darauf ausgelegt, Unsicherheiten (bei Nachfrage und Angebot) zu quantifizieren und Lagerpuffer in komplexen Netzwerken mithilfe probabilistischer Modelle zu optimieren. Die Idee war, Wahupas probabilistisches MEIO in die Kinaxis-Plattform einzubetten (als eine „Solution Extension“) 39 40. Dadurch sollten Kinaxis-Kunden Bestandsziele mithilfe probabilistischer Logik berechnen können, anstatt auf die traditionellen deterministischen oder regelbasierten Methoden zurückzugreifen. Kinaxis veröffentlichte sogar gemeinsam mit dem CEO von Wahupa Blogbeiträge, in denen probabilistische versus deterministische Planung diskutiert wurden, was zeigte, dass sie diesen Ansatz propagierten 41 42. Allerdings scheint die Integration von Wahupa auf Schwierigkeiten gestoßen zu sein. Bis Ende 2023/Anfang 2024 stellten Branchenbeobachter fest, dass diese Allianz nur wenig sichtbare Fortschritte gemacht hatte – die probabilistische MEIO-Funktion wurde in Kinaxis-Fallstudien oder Anwenderberichten noch kaum erwähnt. Unbestätigte Berichte (und der Ton in Lokads Recherchen) deuten darauf hin, dass die Wahupa-Integration keinen Durchbruch erzielt hat und möglicherweise stillschweigend zurückgestellt oder auf Eis gelegt wurde, im Grunde ein „kleiner Fiasko.“ Der Kinaxis-Jahresbericht 2024 listet Wahupa zwar noch als Partner auf, aber es gibt kaum Hinweise auf Erfolg. Dies unterstreicht, wie herausfordernd es für eine etablierte Planungsplattform sein kann, eine neue probabilistische Optimierungs-Engine zu integrieren, die ursprünglich nicht in das eigene Datenmodell eingebaut war 43 44.

  • Rubikloud-Akquisition (2020): Kinaxis erwarb 2020 Rubikloud, ein Machine-Learning-Unternehmen, das sich auf die Prognose der Einzelhandelsnachfrage und KI konzentrierte. Die Technologie von Rubikloud umfasste vermutlich moderne ML-Prognosen, die nicht nur Einzelpunktprognosen, sondern auch Konfidenzintervalle (ein grundlegendes probabilistisches Ergebnis) erzeugen konnten. Diese Akquisition war ein frühes Signal dafür, dass Kinaxis versuchte, seine Nachfrageprognose-Fähigkeiten mit KI zu stärken. Bis 2023 begann Kinaxis, eine Suite namens „Planning.AI“ zu vermarkten, die fortschrittliche ML-Prognosen in die Planungsplattform integriert 45. Während die Details begrenzt sind, ist es wahrscheinlich, dass dies Kinaxis in die Lage versetzt, Prognosen mit zugehörigen Vertrauensbereichen (Quantilen) für die Nachfrage zu erstellen, die in seine Planungsszenarien einfließen.

  • Patent für ML-basierte Quantilprognose (2023): Im Jahr 2023 reichte Kinaxis einen US-Patentantrag für eine Methode der Prognose unter Verwendung von Machine-Learning-Modellen und der Bestimmung eines Satzes von Quantilen für eine unbekannte Nachfrageprobe ein 5 46. Das Patent beschreibt das Training von baumbasierten Modellen anhand historischer Daten und anschließend das Generieren synthetischer Werte, um eine Reihe von Quantilen als Ausgangsprognose zu berechnen 47 48. Das Ziel ist ausdrücklich, „das Inventar basierend auf dem Satz von Quantilen zu optimieren“ 49. Im Wesentlichen ist dies eine Formalisierung der Quantilprognose mit ML – das Ergebnis könnte in etwa so aussehen: Für ein bestimmtes Produkt könnte das Modell Prognosen für P50, P75, P90 (oder beliebige angegebene Quantile) ausgeben, die dann zur Bestimmung der Lagerbestände verwendet werden. Dass Kinaxis hier ein Patent verfolgt hat, zeigt, dass sie firmeneigenes IP für probabilistische Nachfrageprognosen entwickeln (obwohl, wie korrekt angemerkt, Quantilprognosen immer noch eine Teilmenge vollständiger Verteilungsprognosen und eine vergleichsweise „schwache“ Form probabilistischer Modellierung sind).

  • Vorsichtige Kommunikation & Entwicklung: Kinaxis ist in seinem Marketing rund um KI und probabilistische Prognosen etwas vorsichtig vorgegangen. Im Gegensatz zu einigen Wettbewerbern hat es sein Branding nicht mit „KI-Magie“-Behauptungen überzogen. Stattdessen betont es häufig eine Kombination aus menschlicher und maschineller Intelligenz sowie den Begriff „gleichzeitige Planung“ (Echtzeit-Wenn-was-wäre-wenn). Allerdings diskutiert Kinaxis, seit es diese neuen Fähigkeiten hinzugefügt hat, die Unsicherheit nun offener. Die Tatsache, dass ein Kinaxis-Blog sich intensiv mit Konzepten der Wahrscheinlichkeitstheorie befasst hat, ist ein positives Zeichen 41. Dennoch räumt Kinaxis ein, dass es sich auf einer Reise befindet: „in Richtung mehr Entscheidungsautomatisierung unter Unsicherheit, wenn auch aus einem deterministischen Erbe heraus“ 50. Ab Anfang 2025 sind die probabilistischen Funktionen noch im Entstehen. So hat Kinaxis beispielsweise nicht an offenen Prognosewettbewerben teilgenommen oder technische White Papers veröffentlicht, die die Wirksamkeit seiner neuen probabilistischen Engines belegen. Somit ist der Nachweis der Reife begrenzt 51.

Was Kinaxis derzeit anbietet: Mit diesen Änderungen bietet Kinaxis nun (oder wird bald anbieten) zwei wesentliche probabilistische Elemente:

  1. Probabilistisches MEIO (via Wahupa): Eine Lagerbestandsoptimierung, die optimale Puffer berechnen kann, indem sie die Nachfrageschwankungen über mehrere Ebenen hinweg berücksichtigt. Bei erfolgreicher Umsetzung wäre dies analog zur Funktionalität von ToolsGroup oder SmartOps, könnte jedoch fortschrittlicher sein, falls etwa Monte-Carlo-Simulationen oder Ähnliches verwendet werden. Es würde Fragen beantworten wie „Angesichts der Verteilung der Nachfrage an jedem Knotenpunkt und der Unsicherheit in der Versorgung, welchen Sicherheitsbestand sollte ich an jedem Standort halten, um einen Servicelevel von X zu erreichen oder die Kosten zu minimieren?“.

  2. ML-basierte Nachfrageprognose mit Quantilen: Ein KI-Prognosemodul (von Rubikloud/Planning.AI), das nicht nur eine Prognose liefert, sondern auch eine Bandbreite (z. B. ein Hoch-Tief-Band). Dies kann die Planung verbessern, indem es ein Gefühl für Risiken vermittelt (z. B. besteht eine 10%-ige Wahrscheinlichkeit, dass die Nachfrage die P90-Prognose übersteigt). Planer oder Algorithmen können daraufhin die Pläne entsprechend anpassen (z. B. höhere Produktion, um diesen Rand abzudecken, sofern das Risiko es rechtfertigt).

Es ist jedoch wichtig zu beachten, dass diese Fähigkeiten derzeit möglicherweise getrennt sind und nicht tief in der Plattform integriert wurden. Kinaxis’ Stärke liegt weiterhin in der Fähigkeit, Pläne schnell neu zu berechnen, sobald neue Eingaben vorliegen. Aber wenn diese Eingaben (Prognosen, Sicherheitsbestandparameter) nun probabilistisch sind, muss Kinaxis sicherstellen, dass seine Benutzeroberfläche und seine Prozesse damit umgehen können (zum Beispiel, indem den Planern nicht ein einzelner Plan, sondern Verteilungsergebnisse präsentiert werden). Dies ist nicht trivial.

Fazit zu Kinaxis: Kinaxis holt im probabilistischen Trend auf. Es hat konkrete Schritte unternommen (Partnerschaften, Akquisitionen, F&E), um Unsicherheitsmodellierung zu integrieren. Dennoch lässt sich der Ansatz von Kinaxis derzeit als das Hinzufügen von Quantilprognosen und stochastischen Add-ons zu einem grundsätzlich szenariobasierten Planungstool charakterisieren. Es ist (noch) kein Paradigma, bei dem jede Berechnung intern in Verteilungsform erfolgt. Das Unternehmen selbst räumt den Übergang ein – es wird weiterhin betont, dass Planer das Tool zur Bewertung von Szenarien nutzen und dass die Automatisierung kontrolliert angewendet wird 52 53 (z. B. das automatische Ausführen bestimmter Planungsentscheidungen, sofern sie innerhalb von Schwellenwerten liegen, statt vollständig autonom zu agieren). Kurz gesagt, die probabilistischen Fähigkeiten von Kinaxis sind inkrementelle Verbesserungen und keine grundlegende Neuerfindung. Sie liefern mehr Einblicke in die Unsicherheit als zuvor, aber die grundlegende Planungskompetenz muss noch auf dem Niveau der Raffinesse von Lokads Ansatz bewiesen werden. Potenzielle Nutzer sollten beobachten, wie tief integriert das Wahupa MEIO wird (falls überhaupt) und ob Kinaxis nachweist, dass seine Quantilprognosen zu besseren supply chain outcomes führen. Ab 2025 könnte man sagen, dass Kinaxis auf dem Papier probabilistisch ist, mit Patenten und Partnerschaften, aber die Substanz baut sich noch auf.

Blue Yonder – Legacy-Planungsriese, der probabilistische Terminologie übernimmt, ohne tiefgreifende Änderungen vorzunehmen

Hintergrund: Blue Yonder (BY), früher bekannt als JDA Software, ist ein Schwergewicht in supply chain Software und bietet Lösungen für Nachfrageprognosen, Versorgungsplanung, Merchandising und mehr. Es hat eine lange Vorgeschichte: JDA hatte Manugistics und i2 Technologies, zwei große Akteure aus den frühen 2000er Jahren, übernommen und dabei deren Technologien geerbt. Im Jahr 2020 erfolgte ein Rebranding von JDA zu Blue Yonder, und später wurde das Unternehmen von Panasonic übernommen. Die moderne Plattform von Blue Yonder heißt Luminate und zielt darauf ab, KI und eine Cloud-Architektur auf diesen Legacy-Modulen zu integrieren.

Einsatz von “probabilistisch” und KI im Marketing: Das Marketing von Blue Yonder in den letzten Jahren hat stark auf Schlagworte wie „autonome Planung“, „cognitive supply chain“ und KI/ML gesetzt. In einigen Kontexten wurde explizit von „probabilistischen Prognosen“ gesprochen – so erwähnt beispielsweise die Azure Marketplace-Beschreibung von Blue Yonder’s Demand Forecasting „autonome und probabilistische Prognosen“ 54. Blue Yonder hat zudem Blogartikel zu Themen wie der Bewertung probabilistischer Prognosen (Kalibrierung, Schärfe) veröffentlicht 55, was darauf hindeutet, dass deren Data-Science-Teams mit diesen Konzepten vertraut sind. Die entscheidende Frage ist jedoch, wie viel davon theoretische Diskussion und wie viel ein implementiertes Produkt ist.

Realität in den Produkten: Die Belege deuten darauf hin, dass Blue Yonders Kernansatz für Prognosen und Planung weitgehend deterministisch bleibt, wenn auch mit einigen Erweiterungen:

  • Prognose-Engine: Blue Yonder’s Demand Planning (jetzt Teil von Luminate Planning) verwendet traditionell Zeitreihenalgorithmen (wie exponentielle Glättung, ARIMA), möglicherweise ergänzt durch Machine Learning zur Nachfrageerfassung. Blue Yonder hat bestimmte Tools wie „tsfresh“ (zur Merkmalsextraktion aus Zeitreihen) und Bibliotheken namens „PyDSE“ sowie „VikOS“, die sich auf ARIMA und Optimierung beziehen, als Open Source bereitgestellt oder darauf verwiesen 56. Eine Analyse der Open-Source-Beiträge von Blue Yonder ergab, dass sie auf jahrzehntealte Methoden (ARIMA, Regression) setzen, trotz des KI-Marketings 57 56. Dies deutet darauf hin, dass Blue Yonder unter der Haube keine hochmodernen probabilistischen Algorithmen (wie Deep-Learning-Quantilsregressoren oder probabilistische graphische Modelle) verwendet, sondern vermutlich auf bewährte Prognosemethoden setzt und ML eventuell dazu verwendet, Modelle anzupassen oder auszuwählen.

  • Probabilistische Outputs: Produziert Blue Yonder tatsächlich probabilistische Prognosen (Verteilungen)? Es gibt wenige öffentliche Belege dafür, dass standardmäßig vollständige Verteilungen erstellt werden. Es wurde über einen „dynamischen Sicherheitsbestand“ gesprochen, was impliziert, dass Sicherheitsbestände basierend auf der Prognosevolatilität neu berechnet werden – das könnte fälschlicherweise als probabilistische Prognose interpretiert werden. Ein wahrscheinliches Szenario ist, dass Blue Yonder eine Basisprognose und eine Fehlerverteilung (z. B. die Berechnung der Prognosefehlervarianz) erstellt. Anschließend könnte beispielsweise eine P90-Nachfrage über die Durchlaufzeit berechnet werden, um den Sicherheitsbestand festzulegen (ähnlich dem Ansatz von ToolsGroup). Dies würde ein Quantil ergeben, aber keinen vollständigen Verteilungsbericht. Die eigene Literatur von Blue Yonder zum „cognitive inventory“ formulierte im Wesentlichen die probabilistische Lagerbestandsoptimierung (Lagerbestände basierend auf Wahrscheinlichkeiten) um, lieferte jedoch „keine technische Unterstützung“ dafür, wie sie sich unterscheidet 58. Zusammenfassend weiß Blue Yonder die richtigen Worte – sie räumen ein, dass man anstelle statischer Sicherheitsbestände die Nachfrageschwankungen dynamisch (probabilistisch) berücksichtigen sollte. Die tatsächliche Umsetzung greift jedoch wahrscheinlich auf traditionelle Sicherheitsbestandformeln zurück (die davon ausgehen, dass die Nachfrageschwankung normalverteilt ist oder eine einfache Abfrage von Perzentilen aus einer Normal-/Poissonverteilung unter Verwendung des Prognosemittels und der Varianz vornehmen).

  • Unsicherheit bei den Durchlaufzeiten: Es wurde kein Hinweis darauf gefunden, dass Blue Yonder Durchlaufzeiten prognostiziert oder diese in seinen Planungslösungen als stochastisch behandelt. Es ist anzunehmen, dass BY, wie die meisten, die Durchlaufzeit als festen Parameter betrachtet (eventuell mit einem von den Planern hinzugefügten Puffer). Daher erfüllt Blue Yonder auch nicht die vollständigen probabilistischen Kriterien, da die Unsicherheit auf der Angebotsseite explizit ignoriert wird 9. Das Unternehmen konzentriert sich auf Nachfrageprognosen (und dort meist auf Punktprognosen).

  • Integration vs. Innovation: Blue Yonder ist im Wesentlichen eine Ansammlung vieler Module. Einige Module (wie ihr ESP – Enterprise Supply Planning oder IO – Inventory Optimization) stammen aus den Algorithmen von Manugistics oder i2. Diese beinhalten vermutlich eine mehrstufige Lagerbestandsoptimierung, die in den frühen 2000er Jahren als Stand der Technik galt (bei der die Nachfragevarianz analytisch berücksichtigt wurde). Die Herausforderung bei Blue Yonder besteht jedoch darin, dass es sich nicht um eine einheitliche Engine handelt, sondern um „eine willkürliche Sammlung von Produkten, von denen die meisten veraltet sind59. Sie haben versucht, sich zu modernisieren, indem sie eine KI-Schicht (Luminate) darübergelegt haben, was oft jedoch nur zu übersichtlichen Dashboards und geringfügigen ML-gesteuerten Verbesserungen führt, statt die Kern-Engines neu zu gestalten. Daher müssen alle probabilistischen Behauptungen im Lichte dieses Flickwerks betrachtet werden: Ein Teil von BY könnte ein Prognose-Konfidenzintervall erzeugen; ein anderer Teil (die Lagerbestandsoptimierung) könnte eine klassische Formel verwenden; ein weiterer Teil könnte einfach deterministische supply planning sein. Die Konsistenz ist fraglich, und die Integration eines wirklich probabilistischen Workflows von Anfang bis Ende würde eine erhebliche Umstrukturierung erfordern, die bislang nicht erkennbar ist.

  • Vage KI-Behauptungen: Analysten haben darauf hingewiesen, dass Blue Yonders KI-Behauptungen vage und substanzlos sind. Beispielsweise hat BY erwähnt, ML zur Ergänzung probabilistischer Modelle einzusetzen 56, ohne jedoch Details zu den verwendeten Algorithmen oder deren Leistungsfähigkeit zu liefern. Blue Yonder hat auch einige KI-Startups übernommen (wie Blue Yonder GmbH, ein deutsches KI-Unternehmen, von dem – ironischerweise – der neue Name stammt, nachdem JDA dieses Unternehmen 2018 akquirierte). Zudem kooperiert man mit universitärer Forschung. All das hat jedoch nicht zu klaren, veröffentlichten Durchbrüchen in der probabilistischen supply chain Prognose geführt. Das Marketing bleibt somit eine Ebene über der technischen Realität.

Fazit zu Blue Yonder: Blue Yonder ist ein klares Beispiel für „Buzzwords vor der Realität.“ Sie verwenden Begriffe wie probabilistisch, kognitiv, autonom, aber wenn es darauf ankommt, scheinen ihre Lösungen ziemlich standardisierte Prognose- und Planungstechniken zu implementieren 56 60. Um fair zu sein, verfügt Blue Yonder über immense Branchenerfahrung und ein breites Portfolio – ihre Stärke liegt darin, alles von Nachfrageprognosen bis zur Auftragsabwicklung abzudecken, mit vielen branchenspezifischen Funktionen (wie spezialisierten Retail-Planungsfeatures). Aber im engen Kontext der probabilistischen Prognose: Blue Yonder weiß davon und hat wahrscheinlich eine quantilbasierte Sicherheitsbestandslogik sowie ML-Prognoseverbesserungen hinzugefügt. Es wurde nicht die Art probabilistischer Optimierung demonstriert, wie sie Lokad praktiziert (bei der jede Entscheidung aus simulierten Szenarien abgeleitet wird). Eine interne Kritik fasste es treffend zusammen: Der Einsatz von „probabilistisch“ im cognitive inventory von Blue Yonder war im Wesentlichen ein Rebranding, „wiederaufbereitet … mit schicken Begriffen“, jedoch ohne neue Algorithmen 58. Unternehmen, die Blue Yonder in Betracht ziehen, sollten nicht davon ausgehen, dass sie eine hochmoderne probabilistische Prognose-Engine erhalten; vielmehr bekommen sie ein solides, wenn auch etwas veraltetes, Prognose-Toolset mit einer modernen Benutzeroberfläche, und die probabilistischen Vorteile werden eher durch inkrementelle Verbesserungen erzielt (wie häufigere Prognoseaktualisierungen, eventuell automatisiertes Ausnahmemanagement) als durch eine fundamentale stochastische Optimierung.

SAP IBP – Leistungsstarke, aber komplexe Suite mit probabilistischen Wurzeln (SmartOps), die weitgehend ungenutzt bleibt

Hintergrund: SAPs Integrated Business Planning (IBP) ist der Nachfolger von SAPs APO (Advanced Planning & Optimization) und umfasst verschiedene Module für Nachfrageprognosen, Versorgungsplanung und Lagerbestandsoptimierung. SAP, als ERP-Riese, konkurriert oft mit dem Versprechen einer end-to-end integrierten Plattform (von Finanzen und Vertrieb bis hin zur supply chain Ausführung). Historisch gesehen waren SAPs Planungstools meist deterministisch: Die APO-Nachfrageplanung lieferte Punktprognosen, und die APO-Lagerbestandsplanung berechnete Sicherheitsbestände mithilfe einfacher Formeln oder bestenfalls eindimensionaler Berechnungen. Um diese Lücke zu schließen, tätigte SAP strategische Akquisitionen: SmartOps im Jahr 2013 (ein führendes Unternehmen im Bereich der mehrstufigen Lagerbestandsoptimierung, bekannt für probabilistische Modelle) und zuvor SAF AG im Jahr 2009 (ein Unternehmen für Nachfrageprognosen). Insbesondere brachte SmartOps eine probabilistische Engine ein, die Lagerbestände über mehrere Ebenen (Standorte) hinweg optimieren konnte, um Servicelevels bei minimalen Kosten zu erreichen 10. Im Wesentlichen modellierte SmartOps mathematisch die Nachfrageunsicherheit (und in gewissem Maße die Variabilität der Durchlaufzeiten anhand bestimmter Annahmen), um den Sicherheitsbestand zu empfehlen. Dies wurde zum SAP-Modul IBP for Inventory.

Aktueller Stand der probabilistischen Funktionen in SAP:

  • Nachfrageprognose: SAP IBP verfügt über ein Demand-Modul, das fortgeschrittene statistische Methoden und sogar Machine Learning einsetzen kann (SAP bietet eine Analytics Cloud, die für Prognosen verwendet werden kann, einschließlich Techniken wie Gradient Boosting etc.). Allerdings präsentiert SAP diese in der Regel als Verbesserung der Prognosegenauigkeit (MAPE etc.) und nicht als Bereitstellung vollständiger Wahrscheinlichkeitsverteilungen. Das übliche Ergebnis ist nach wie vor eine einzelne Prognose (eventuell mit einem Konsensprozess drumherum). Das Konzept probabilistischer Nachfrageprognosen steht nicht im Vordergrund; SAP verwendet diesen Begriff im Marketing kaum.

  • Bestandsoptimierung (SmartOps): Grundsätzlich nutzt SmartOps in IBP wirklich probabilistische Modelle. SmartOps war bekannt dafür, Wahrscheinlichkeitsverteilungen der Bestandspositionen zu berechnen und die optimalen Bestände zu ermitteln. Es berücksichtigt sowohl Nachfrageschwankungen als auch Versorgungsvariabilität (Letzteres in eingeschränktem Maße, oft unter Verwendung einer „Sicherheitszeit“ oder eines Variabilitätsfaktors bei der Lieferzeit). Wird IBP for Inventory implementiert, kann ein Unternehmen Prognosefehlverteilungen sowie Lieferzeitvariabilität eingeben und erhält empfohlene Sicherheitsbestände für jeden Standort, die ein Ziel-Servicelevel bei minimalem Bestand erreichen. Dies ist eine Form der stochastischen Optimierung, wenngleich eine, die auf Servicelevels ausgerichtet ist (ähnlich dem Ansatz von ToolsGroup, aber mehrstufig). Allerdings setzen nur wenige SAP-Kunden dies tatsächlich in vollem Umfang ein. Ein Grund ist die Komplexität: IBP ist modular, und nicht jede Implementierung beinhaltet das Modul der Bestandsoptimierung (manche führen eventuell nur S&OP und Bedarfsplanung durch). Ein weiterer Grund ist die Benutzerfreundlichkeit: Die SmartOps-Algorithmen könnten eine Blackbox sein und erfordern viele statistische Daten, die es Unternehmen schwerfallen, bereitzustellen oder zu pflegen (z. B. benötigt man ein gutes Verständnis der Prognosefehlverteilung pro Artikel, was nicht jeder unmittelbar hat).

  • Fokus auf Probabilistik (oder das Fehlen davon): SAP betont in seiner Kommunikation nicht die probabilistische Prognose, wie bereits erwähnt. Sie verkaufen IBP aufgrund der Integration („eine Version der Wahrheit“), für Szenarioplanung, als cloudbasierte Lösung etc., anstatt zu behaupten, sie hätten die besten Prognosealgorithmen. Tatsächlich beruht SAPs Ruf mehr auf Breite als auf Tiefe: „funktionsreich, aber nicht algorithmisch fortgeschritten“ 61. Dies scheint ein Eingeständnis zu sein, dass, obwohl SAP die Bausteine (wie die Mathematik von SmartOps) besitzt, diese nicht weiter vorangetrieben wurden. Eine Kritik erwähnte, dass selbst mit Übernahmen wie KXEN (einem Predictive-Analytics-Unternehmen, das SAP 2013 erwarb), SAPs Prognosen nicht unbedingt besser seien als herkömmliche Methoden 62. Eine Forschungspublikation wies darauf hin, dass moderne ML-Methoden die älteren statistischen Modelle in diesem Bereich nicht eindeutig übertroffen haben, was impliziert, dass SAPs Integration dieser Übernahmen keine dramatischen Verbesserungen bewirkte 62.

  • Lieferzeit und andere Unsicherheiten: Die Standardplanung von SAP geht von festen Lieferzeiten aus. Wird der Bestandsoptimierer verwendet, kann man eine Lieferzeitvariabilität eingeben (oder die Lieferzeit einfach auf ein höheres Perzentil anheben). Aber SAP lernt nicht automatisch eine Lieferzeitverteilung aus den Daten. Es wird von den Nutzern erwartet, einen „service time“ (wie eine Perzentil-Lieferzeit) als Parameter bereitzustellen, falls erforderlich. Also, wie bei anderen, schafft es SAP nicht, intern probabilistische Prognosen für die Versorgung zu generieren; es verlässt sich auf Konfiguration.

  • Komplexität und Fragmentierung: Ein wesentlicher Nachteil ist, dass SAPs Lösung durch mehrere Übernahmen fragmentiert ist. Die Nachfrageprognose könnte aus einem Modul kommen (mit einem Satz Annahmen) und die Bestandsoptimierung aus einem anderen. Wenn diese nicht perfekt aufeinander abgestimmt sind, könnte man eine Punktprognose von IBP Demand in IBP Inventory einspeisen, welches intern eine Normalverteilung der Nachfrage mit einer bestimmten Standardabweichung annimmt. Wenn der Prognosefehler dieser Annahme nicht folgt, könnten die Bestandsausgaben suboptimal sein. Ein Zitat aus einer Rezension: „Unternehmenssoftware lässt sich durch M&A nicht mischen“ – SAPs Komponenten vermischten sich nicht nahtlos 63. Solange eine Implementierung nicht sorgfältig abgestimmt ist, kann der probabilistische Aspekt verloren gehen oder inkonsistente Ergebnisse liefern. In vielen Fällen vereinfachen Unternehmen mit SAP die Lösung – z. B. indem sie IBP verwenden, um einen Sicherheitsbestand anhand eines groben statistischen Modells zu berechnen und SmartOps nicht vollständig zu nutzen, oder den Optimierer sogar abschalten, weil er zu schwer vertrauenswürdig bzw. einzustellen ist, und stattdessen den Sicherheitsbestand über einfachere Regeln festlegen.

Fazit zu SAP IBP: SAP IBP verfügt theoretisch über probabilistische Optimierungsfähigkeiten (via SmartOps), die es näher an Lokads Ansatz bringen als bei einigen anderen. Doch in der Praxis setzt SAP diese Fähigkeiten nicht aktiv durch und entwickelt sie nicht weiter, und viele Kunden erkennen sie möglicherweise nicht oder nutzen sie nicht 11. Der probabilistische Aspekt ist effektiv ein Bolt-on, um Funktions-Checklisten zu erfüllen (für diejenigen, die eine mehrstufige Bestandsoptimierung benötigen). SAPs Hauptverkaufsargument ist, dass es Teil eines umfassenden SAP-Ökosystems ist – nicht, dass es die fortschrittlichste Analytics-Engine ist. Somit ist der Einsatz probabilistischer Methoden in SAP IBP im Vergleich zu Lokad zufällig und etwas stagnierend. Unternehmen, die SAP IBP für probabilistische Prognosen in Betracht ziehen, sollten sicherstellen, dass sie das Modul zur Bestandsoptimierung gezielt implementieren und über die notwendigen Expertenservices (oder Berater) verfügen, um es zu kalibrieren. Tatsächlich heißt es, dass man für den Erfolg mit SAPs erweiterten Planungsfunktionen „die allerbesten Integratoren – plus ein paar Jahre“ benötigt 64. Dies unterstreicht, dass SAPs probabilistische Technologie, obwohl vorhanden, unter Komplexität begraben ist und nicht sofort einen Mehrwert liefert.

o9 Solutions – Integrierte “Digital Brain” Plattform mit begrenzter Betonung auf Wahrscheinlichkeitsverteilungen

Hintergrund: o9 Solutions ist ein jüngerer Anbieter (gegründet 2009 von ehemaligen i2-Führungskräften), der sich schnell den Ruf als „Next-Generation“-Planungsplattform erworben hat. Der Schwerpunkt von o9 liegt darauf, ein einheitliches Geschäftsmodell (Enterprise Knowledge Graph) zu erstellen und in Echtzeit über Nachfrage, Supply Chain und Finanzdomänen hinweg zu planen. Es ist sehr buzzword-freundlich: o9 vermarktet Konzepte wie einen Digital Twin der Organisation, Echtzeit-Szenarioplanung und preist jüngst sogar generative KI-Funktionen an. Angesichts seines Ursprungs ist o9 in gewisser Weise wie ein geistiger Nachfolger von i2 Technologies, der integrierte Planung gegenüber isolierten Tools betont.

Ansatz zur Prognose und Unsicherheit: o9 nutzt zweifellos fortschrittliche Analytik zur Erstellung von Prognosen, jedoch scheint es nicht, dass probabilistische Prognoseverfahren als Alleinstellungsmerkmal in den Vordergrund gestellt werden. Bemerkenswerte Punkte:

  • Predictive Analytics mit ML: o9 bietet statistische Prognosen und maschinelles Lernen für das Demand Sensing. In Fallstudien wird erwähnt, dass eine Vielzahl von Daten (Point of Sale, Wetter, Web-Suchen etc.) genutzt wird, um kurzfristige Prognosen zu verbessern 65. Dies impliziert, dass sich o9 auf die Genauigkeit der Prognosen konzentriert – indem versucht wird, durch die Einbeziehung zusätzlicher Signale bessere Punktprognosen zu erzielen (der „Sensing“-Ansatz). Es wird auch von Szenariosimulationen berichtet: o9s „Supply Sensing“ überwacht externe Faktoren und kann deren Einfluss auf die supply chain simulieren 65. Obwohl dies die Unsicherheit anerkennt (man simuliert verschiedene Szenarien), erfolgt es dennoch auf deterministische Weise (jedes Szenario ist ein What-if, nicht eine Wahrscheinlichkeitsverteilung über viele automatisch berücksichtigte What-ifs).

  • Enterprise Knowledge Graph: Die Verwendung eines graphbasierten Modells durch o9 (das Beziehungen zwischen Produkten, Standorten, Kunden etc. erfasst) ist mächtig für die Szenarioanalyse. Beispielsweise kann der Graph, wenn sich eine bestimmte Komponente verspätet, schnell alle betroffenen Produkte aufzeigen und den Planern ermöglichen, einen neuen Plan zu erstellen. Aber auch hier ist es nicht inhärent probabilistisch – es handelt sich um ein strukturelles Datenmodell, das Geschwindigkeit und Erkenntnis unterstützt.

  • Keine Hinweise auf probabilistische Ausgaben: Es gibt keine Anzeichen dafür, dass o9 vollständige Wahrscheinlichkeitsverteilungen für Prognosen liefert. Ihre öffentlichen Materialien (und eine von Lokad skeptische Rezension) deuten darauf hin, dass o9 bei Punktprognosen und deterministischer Optimierung bleibt, wenn auch sehr schnell und integriert 12. Es wird dabei auf What-if-Analysen gesetzt – was impliziert, dass man Eingaben manuell variieren kann, um verschiedene Ergebnisse zu beobachten, anstatt dass das System automatisch die Unsicherheit quantifiziert. Im Wesentlichen könnte o9 den Nutzern ermöglichen, verschiedene Möglichkeiten zu erkunden, aber es teilt nicht automatisch die Wahrscheinlichkeit jedes Szenarios mit oder optimiert für das beste erwartete Ergebnis. Die häufige Verwendung der Begriffe „Digital Twin“ und „Echtzeit-Szenarioplanung“ weist auf eine interaktive Planungshaltung hin: Planer erstellen Szenarien, und das System berechnet schnell Ergebnisse (z. B. wie sich der Bestand verändert, wenn die Nachfrage um 10 % steigt). Dies unterscheidet sich leicht von Lokads Ansatz, bei dem das System im Hintergrund tausende Szenarien durchrechnet, um einen optimalen Plan auszuwählen.

  • Vergleich mit Lokad: Ein direkter Vergleich stellte fest, dass o9 auf Breite setzt (viele Planungsfunktionen vereinend, IoT-Daten einbeziehend etc.), während Lokad auf Tiefe in quantitativer Optimierung fokussiert 12. Die Stärke von o9 liegt darin, großen Unternehmen eine einheitliche Plattform zu bieten, die alle Daten und Pläne (Nachfrage, Supply Chain, Finanzen) verbindet und abteilungsübergreifende Zusammenarbeit ermöglicht. Lokads Stärke liegt darin, spezifische numerische Probleme (wie Bestands- oder Produktionsoptimierung) mit möglichst viel mathematischer Strenge zu lösen (probabilistisches Modellieren, kundenspezifische Algorithmen). Mit anderen Worten, o9 bietet einen breiteren Planungshorizont – verwendet möglicherweise jedoch konventionelle Prognosetechniken – während Lokad eine engere, jedoch fortschrittlichere analytische Perspektive liefert. Wie die Lokad-Rezension feststellte, geht es bei o9 darum, verschiedene Planungsfunktionen in ein einheitliches Framework zu integrieren, während Lokad präzise, umsetzbare Empfehlungen durch tiefgehende analytische Automatisierung generiert 12.

  • Aktuelle Entwicklungen: o9 fügt sicherlich KI-Elemente hinzu (sie erwähnen generative KI, um das System abzufragen etc.), aber es ist unklar, ob sie probabilistische Prognoseverfahren einführen. Es ist möglich, dass o9 letztlich eine probabilistische Prognosebibliothek integriert oder zumindest die Integration mit Python/R ermöglicht, in dem solches Modellieren erfolgen kann. Aber derzeit liegt ihre Differenzierung nicht darin, dass sie neue Prognosealgorithmen erfunden haben; vielmehr zeigt sie sich in der Art und Weise, wie die Software bereitgestellt wird (cloudbasiert, in Echtzeit, benutzerfreundliche Analytik).

Fazit zu o9: o9 Solutions ist ein beeindruckendes Planungswerkzeug für Organisationen, die eine einheitliche Plattform wünschen, um viele Aufgaben schnell und kollaborativ zu erledigen. Wenn es jedoch speziell um probabilistische Prognosen geht, scheint o9 in diesem Bereich weder führend noch innovativ zu sein. Es liefert vermutlich „gut genug“ Prognosen mithilfe von ML und konzentriert sich darauf, die Ergebnisse unmittelbar in den Planungsszenarien nutzbar zu machen. Der Verweis auf probabilistische Prognosen ist in ihren öffentlichen Inhalten nahezu abwesend. Sollte man o9 implementieren und dabei probabilistische Prognosen wünschen, müsste man diese möglicherweise außerhalb des Systems oder über kundenspezifischen Code generieren. Zusammenfassend ist o9s Wertversprechen Agilität und Integration, nicht fortschrittliche stochastische Optimierung. Unternehmen, die einen rigorosen probabilistischen Ansatz priorisieren, könnten o9 mit externen Data-Science-Bemühungen ergänzen oder prüfen, ob ein spezialisiertes Werkzeug (wie Lokad) für diesen speziellen Bedarf geeigneter ist.

RELEX Solutions – Einzelhandelsspezialist mit KI-Behauptungen, unter Verwendung deterministischer Prognosen + schneller Neuprogrammierung

Hintergrund: RELEX Solutions ist ein finnisches Unternehmen (gegründet 2005), das insbesondere im Einzelhandels- und Lebensmittelsektor rasch gewachsen ist. Die Plattform von RELEX deckt Nachfrageprognosen, Auffüllung, Allokation und Planogramm-Optimierung ab, mit besonderem Fokus auf den Umgang mit frischen Lebensmitteln (Verderbliches), Promotionen und Ladenplanungen. RELEX überzeugt häufig bei Einzelhändlern durch seine Fähigkeit, sehr detaillierte, hochfrequente Planungen (tägliche Prognosen pro Laden/SKU, intraday etc.) durchzuführen sowie durch benutzerfreundliche Analysen (Echtzeit-Dashboards der Bestandsniveaus etc.). Sie positionieren sich als hochautomatisiert und „KI-getrieben“.

Probabilistische Aspekte (oder das Fehlen derselben): Der Ansatz von RELEX für Prognosen und Bestände ist im Kern auf Geschwindigkeit und Frequenz statt auf explizite stochastische Modellierung ausgerichtet:

  • Häufige Neuprogrammierung (Demand Sensing): RELEX betont seine Fähigkeit, Nachfrageänderungen frühzeitig zu erkennen und Prognosen schnell zu aktualisieren. Beispielsweise werden die Verkaufszahlen des Vortages, Wetteränderungen, Trends in sozialen Medien etc. erfasst, um kurzfristige Prognosen anzupassen (dies wird oft als Demand Sensing bezeichnet, ein Buzzword für sich). Dies kann den Prognosefehler im kurzfristigen Horizont reduzieren (z. B. um besser auf einen plötzlichen Rückgang oder Anstieg der Verkäufe reagieren zu können). Allerdings wird damit immer noch eine einzelne aktualisierte Prognose erzeugt (nur häufiger oder mit mehr Daten), nicht eine Verteilung von Prognosen. RELEXs Anspruch auf „KI-getriebene Prognosen“ bezieht sich üblicherweise auf den Einsatz von Machine-Learning-Modellen (wie Gradient Boosting, neuronale Netze etc.) auf aktuellen Daten zur Verbesserung der Genauigkeit 13. Nirgendwo wird behauptet, dass vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage jeder SKU ausgegeben werden. Tatsächlich ergab eine Analyse von RELEX „keine Hinweise darauf, dass vollständige Wahrscheinlichkeitsverteilungen der Nachfrage in der Art generiert werden wie bei Lokad“ 13. Es scheint, dass der Erfolg von RELEX weiterhin anhand traditioneller Genauigkeitsmetriken gemessen wird (wie nah die Prognose an den tatsächlichen Werten liegt), was eine deterministische Denkweise widerspiegelt.

  • Methode der Bestandsoptimierung: RELEX führt eine mehrstufige Auffüllung und Allokation durch (insbesondere Push-Allokation für Promotionen etc.), aber wie wird mit Unsicherheiten umgegangen? Wahrscheinlich werden traditionelle Sicherheitsbestandsberechnungen im Hintergrund verwendet. Das System kennt Lieferzeiten und Nachfragevolatilität (z. B. über einen gleitenden Durchschnitt des Prognosefehlers oder eine Servicelevel-Einstellung) und berechnet den Sicherheitsbestand pro Artikel-Standort entsprechend (wie es viele Systeme tun). Die Lieferzeiten in RELEX sind Eingabegrößen, keine Zufallsvariablen, die das System prognostiziert 14. Erkennt ein Nutzer, dass ein bestimmter Lieferant inkonsistent ist, könnte er die Lieferzeit oder deren Sicherheitsmarge manuell anpassen. Die Dokumentation von RELEX hebt weder stochastische Optimierung noch Monte-Carlo-Methoden hervor, sodass man davon ausgeht, dass es das tut, was herkömmliche Tools taten: Für jede SKU wird der Sicherheitsbestand anhand einer angenommenen Verteilung (vielleicht Normal- oder Poissonverteilung) basierend auf dem Prognosefehler festgelegt, um ein Ziel-Servicelevel zu erreichen. Dies ist ein deterministischer, formularbasierter Ansatz, keine Simulation zahlreicher Szenarien. Tatsächlich deutet RELEXs starke Orientierung an In-Memory-Verarbeitung (OLAP-Stil) darauf hin, dass schnelles Abfragen über tiefgehende Berechnungen priorisiert wird 66 67. Wie ein Kommentar bemerkte, steht ihre Architektur, die einem OLAP-Würfel ähnelt, „im Widerspruch zur netzwerkweiten Optimierung“ bei Themen wie Substitutionen oder komplexen stochastischen Problemen 68. Das Design, das extrem schnelle Dashboards ermöglicht, ist möglicherweise nicht ideal, um umfangreiche Monte-Carlo-Simulationen zur Unsicherheit durchzuführen – stattdessen verlässt es sich auf analytische (einfachere) Methoden, die im Speicher Platz finden.

  • Behauptungen vs. Beweise: Das Marketing von RELEX verwendet Buzzwords wie „autonomous supply chain, AI-driven, machine learning, digital twin,“ etc. 69. Allerdings spezifizieren sie selten, welche Algorithmen zum Einsatz kommen oder liefern Fallstudien, die den Einfluss ihrer KI über Anekdoten hinaus quantifizieren. Analysen von Dritten haben Zweifel geweckt, indem beispielsweise angemerkt wurde, dass RELEXs Prognosetechnologie „anscheinend Modelle von vor 2000 verwendet“ (was bedeutet, dass wahrscheinlich klassische Methoden mit einem ML-Wrapper zum Einsatz kommen, anstatt grundsätzlich neuer Ansätze) 70. Zudem verwenden sie vermutlich weiterhin Konzepte wie MAPE oder Bias, um die Prognosequalität intern zu messen – ein Hinweis auf eine deterministische Denkweise.

  • Umgang mit Unsicherheit in spezifischen Szenarien: RELEX ist in einigen Bereichen, die mit Unsicherheit verbunden sind, hervorragend, jedoch oft durch Geschäftsregeln oder heuristische Ansätze statt durch probabilistische Mathematik. Zum Beispiel:

    • Frische Lebensmittel und Verfallsdatum: RELEX verfügt über Funktionen zur Verwaltung von Verfallsdaten bei Produkten, um das Prinzip „first-expiry-first-out“ sicherzustellen, Nachschubvorschläge zu unterbreiten, um Verschwendung zu vermeiden, usw. 71. Obwohl damit die Unsicherheit der Nachfrage vor dem Verderben adressiert wird, ist die Lösung eher heuristisch (Überwachung der Vorratstage versus Haltbarkeit) als eine probabilistische Vorhersage des Verderbnisrisikos.
    • Promotionseffekte und Kannibalisierung: RELEX kann Promotionseffekte modellieren und möglicherweise auch etwas Kannibalisierung (wenn ein Produkt den Umsatz eines anderen beeinträchtigt), jedoch legt die Analyse nahe, dass RELEX’ OLAP-Grundlage eine anspruchsvolle Modellierung dieser Interaktionen 68 erschwert. Es wird eventuell den Planern überlassen, manuelle Anpassungen vorzunehmen oder einfache Regressionsanalysen für den Promo-Uplift zu verwenden.
    • „Intelligente“ Bestellbündelung: Es wird auf Aspekte wie die Optimierung von LKW-Ladungen oder das Vorkaufen zu Rabattkonditionen hingewiesen 72. Dies sind wertvolle Features, die die Kosten unter gegebenen Einschränkungen optimieren, allerdings wird dabei vermutlich eine bekannte Nachfrage (oder zumindest die durchschnittliche Nachfrage) vorausgesetzt, anstatt explizit gegen Unsicherheit abzusichern.
  • Keine vollständige stochastische Optimierung: Ausschlaggebend ist, dass RELEX nichts in der Art von Lokads stochastischer Optimierung bewirbt. Es wird nicht davon gesprochen, dass eine erwartete Kostenminimierung unter Unsicherheit gelöst wird; vielmehr geht es darum, eine hohe Verfügbarkeit sicherzustellen (es wird häufig damit geprahlt, dass Kunden ca. 98–99 % Lagerverfügbarkeit erreichen). Tatsächlich werden einige der behaupteten Ergebnisse (99 %+ Verfügbarkeit) in der Branche skeptisch betrachtet, da die durchschnittliche Regalverfügbarkeit in der Regel niedriger ist 73. Dies legt nahe, dass dies möglicherweise in kontrollierten Pilotprojekten erreicht wurde oder ein optimistisches Szenario darstellt, das nicht unbedingt allgemein reproduzierbar ist. Auch dies weist darauf hin, dass ihr Ansatz im Umgang mit Unsicherheit das Spiel nicht grundlegend verändert, sondern vielmehr die Ausführung und Überwachung verbessert, um Lagerausfälle zu reduzieren.

Bewertung von RELEX: RELEX ist ein schnelles, reaktionsfähiges Supply-Chain-Tool, das insbesondere für den Einzelhandel geeignet ist, wo tägliche Agilität wichtig ist. Es automatisiert viele Entscheidungen (zum Beispiel Filialnachschub) mit hoher Benutzerfreundlichkeit. Allerdings ist seine wissenschaftliche Tiefe in der probabilistischen Prognose begrenzt. Es nutzt maschinelles Lernen (ML) für bessere Prognosen, jedoch nicht, um die Art von Wahrscheinlichkeitsverteilungen zu erzeugen, die einen Lokad-ähnlichen Optimierer speisen würden 13. Es stützt sich weitgehend auf dieselbe Logik für Sicherheitsbestände und Prognoseverbesserungen wie andere – wenn auch sehr effizient in großem Maßstab und hoher Frequenz ausgeführt. Für einen Einzelhändler könnte RELEX allein dadurch eine bessere Regalverfügbarkeit erzielen, dass häufiger neu geplant und aktuelle Daten verwendet werden (ein pragmatischer Ansatz), während Lokad dies grundlegend durch Optimierung der Lagerbestände mit probabilistischen Berechnungen erreicht. Es handelt sich um unterschiedliche Philosophien: die eine lautet „Passe den Plan fortlaufend an, während sich die Realität entfaltet“ (RELEXs nahezu Echtzeit-Mentalität), die andere „Plane von Anfang an optimal unter Berücksichtigung möglicher Ereignisse“ (Lokads ex-ante Optimierung). Beide Ansätze können koexistieren, jedoch ist RELEX, wenn es um probabilistische Prognosen an sich geht, kein Vorreiter. Es hat zwar die Schlagwörter der KI übernommen und verwendet implizit einige probabilistische Konzepte (wie die Varianz zur Berechnung von Sicherheitsbeständen), bietet jedoch nicht die explizite probabilistische Lösung, die Lokad liefert.

Fazit

Im Supply-Chain-Softwaremarkt ist „probabilistisch“ zu einem Buzzword geworden, ähnlich wie „KI“ und „Machine Learning“. Lokad sticht als der Anbieter hervor, der seine Lösung tatsächlich um probabilistische Prinzipien herum aufgebaut hat – indem er Unsicherheit sowohl in der Prognose als auch in der Optimierung als primären Faktor behandelt. Seit der Pionierarbeit dieses Ansatzes in 2012–2015 hat Lokad die Narration der Branche maßgeblich beeinflusst. Wettbewerber haben – bis zu einem gewissen Grad – die Terminologie übernommen und die Bedeutung von Unsicherheit anerkannt, jedoch offenbaren ihre Lösungen eine erhebliche Umsetzungsdefizit.

Um die Kontraste zusammenzufassen:

  • Lokad bietet vollständige probabilistische Prognosen (Nachfrage und Angebot) und nutzt diese in einer maßgeschneiderten Optimierungs-Engine. Es quantifiziert die Unsicherheiten explizit und erzeugt Entscheidungen, die auf erwartete Ergebnisse optimiert sind 2. Anders ausgedrückt, es „lebt, was es predigt“ im probabilistischen Supply-Chain-Management.

  • Andere (ToolsGroup, Blue Yonder, SAP, RELEX, o9, Kinaxis) bieten meist teilweise oder pseudo-probabilistische Features an:

    • ToolsGroup und SAP verfügen seit Jahren über Komponenten zur probabilistischen Bestandsmodellierung, konzentrieren sich jedoch auf die Nachfragestreuung und behandeln wichtige Parameter (wie Lieferzeit) als fix oder vereinfacht, was ihre probabilistische Strenge einschränkt 3 11.
    • Blue Yonder und RELEX, trotz neuem KI-Branding, setzen weiterhin auf traditionelle Prognosemethoden und deterministische Planungslogik, wobei „probabilistisch“ überwiegend im Marketing oder in geringfügigen Tools (wie der dynamischeren Neuberechnung von Sicherheitsbeständen) auftaucht 8 13.
    • Kinaxis und o9, als moderne Plattformen, haben begonnen, probabilistische Ansätze zu integrieren (Kinaxis über Partner/Patente, o9 durch Szenarioflexibilität), befinden sich jedoch noch weitgehend im Übergang von deterministischen Grundlagen. Die Quantil-Prognosen von Kinaxis sind ein Fortschritt, stellen jedoch Prognosen an einigen Perzentilwerten dar, anstatt die gesamte Verteilung abzubilden – was einen schwächeren Ersatz für vollständige probabilistische Prognosen darstellt 49 48.

Auffällig oberflächliche Übernahme zeigt sich, wenn Anbieter „probabilistisch“ oder „stochastisch“ behaupten, aber dennoch deterministische Kennzahlen oder Prozesse verwenden. Das frühere Beispiel, bei dem ToolsGroup MAPE für probabilistische Prognosen einsetzte, ist ein solches Warnsignal 4. Ebenso hat jeder Anbieter, der die Unsicherheit der Lieferzeit ignoriert oder nicht erläutert, wie er die probabilistische Genauigkeit bewertet, vermutlich das Paradigma nicht wirklich verinnerlicht. Lokads Kritik an diesen Inkonsistenzen wird durch Beispiele aus der gesamten Branche gestützt: „Behauptungen probabilistischer Prognosen werden zusammen mit MAPE-Reduktionen beworben, was inkonsistent ist… Anbieter streuen Begriffe wie ‚stochastisch‘ in Broschüren, während sie in einer deterministischen Welt verbleiben.“ 4 74. Die Substanz hinkt oft den Slogans hinterher.

Aus der Perspektive aktueller Entwicklungen wird deutlich, dass Lokads Wettbewerber nun bloß Lippenbekenntnisse zu probabilistischen Methoden ablegen – was als Bestätigung von Lokads Ansatz gewertet werden kann. Allerdings variiert das tatsächliche Leistungsvermögen erheblich. Unternehmen, die Lösungen bewerten, sollten Fragen stellen wie: Prognostiziert das Tool eine Verteilung oder nur einzelne Szenarien? Optimiert es Entscheidungen mittels Monte-Carlo-Simulation oder lediglich anhand fester Sicherheitsbestandsformeln? Kann es alle wesentlichen Unsicherheiten berücksichtigen oder nur die Nachfrage? Die Antworten zeigen oft, dass viele Anbieter im Grunde genommen weiterhin das tun, was sie schon immer taten, lediglich mit einer dünnen probabilistischen Fassade.

Zusammenfassend ist Lokad vs. der Rest in der probabilistischen Supply-Chain-Optimierung eine Geschichte von Tiefe versus Breite und von früher Innovation versus Nachzüglern. Lokad bietet eine tiefe, quantitativ rigorose Lösung, die speziell rund um die Unsicherheit konzipiert wurde. Die anderen großen Anbieter offerieren umfassendere Supply-Chain-Planungssuiten, in denen probabilistische Funktionen als Zusatz oder in Entwicklung integriert sind – in vielen Fällen handelt es sich hierbei um reaktive Maßnahmen auf die Marktnachfrage nach fortschrittlicher Analytik, ohne dass die Kernmethoden grundlegend überarbeitet werden. Führungskräfte sollten beim Buzzword „probabilistisch“ vorsichtig sein und nach konkreten technischen Belegen suchen, wie ein Anbieter dies umsetzt. Ab 2025 bleibt Lokad als Anbieter echter probabilistischer Prognose und Optimierung herausragend, während die meisten Wettbewerber entweder an deterministischen Ansätzen festhalten oder lediglich eingeschränkte probabilistische Fähigkeiten offerieren, die nicht mit Lokads umfassender Behandlung von Unsicherheit mithalten können 31 8.

Fußnoten


  1. Supply Chain Planung und Prognose-Software, Februar 2025 ↩︎ ↩︎

  2. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  3. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎

  4. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  5. Kinaxis Inc Patent: Prognose des Bestands mit Machine Learning Modellen ↩︎ ↩︎

  6. Kinaxis Inc Patent: Prognose des Bestands mit Machine Learning Modellen ↩︎

  7. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  8. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎

  9. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎

  10. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎

  11. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎

  12. Rezension von o9 Solutions, Anbieter integrierter Planung-Software ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  13. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  14. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎

  15. Probabilistische Prognose (Supply Chain) ↩︎

  16. Prognose- und Optimierungstechnologien ↩︎

  17. Prognose- und Optimierungstechnologien ↩︎

  18. Prognose- und Optimierungstechnologien ↩︎ ↩︎

  19. Prognose- und Optimierungstechnologien ↩︎ ↩︎ ↩︎ ↩︎

  20. Prognose- und Optimierungstechnologien ↩︎

  21. Prognose- und Optimierungstechnologien ↩︎

  22. Prognose- und Optimierungstechnologien ↩︎ ↩︎ ↩︎

  23. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  24. Prognose- und Optimierungstechnologien ↩︎ ↩︎

  25. Prognose- und Optimierungstechnologien ↩︎ ↩︎ ↩︎

  26. Prognose- und Optimierungstechnologien ↩︎

  27. Marktanalyse Supply Chain Optimierungsanbieter ↩︎

  28. Rezension von ToolsGroup, Anbieter von Supply-Chain-Planungssoftware ↩︎

  29. Probabilistic Demand Forecasting: Revolutionierung der supply chain | ToolsGroup ↩︎

  30. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  31. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎

  32. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  33. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  34. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  35. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  36. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  37. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎ ↩︎

  38. Kinaxis und Wahupa kooperieren, um Unternehmen bei der Navigation durch Bestandskomplexität in Krisenzeiten zu unterstützen | MarketScreener ↩︎

  39. Wahupa | Kinaxis ↩︎

  40. Wahupa | Kinaxis ↩︎

  41. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎ ↩︎

  42. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  43. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  44. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  45. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  46. Kinaxis Inc Patent: Vorhersage des Inventars mit Machine Learning Models ↩︎

  47. Kinaxis Inc Patent: Vorhersage des Inventars mit Machine Learning Models ↩︎

  48. Kinaxis Inc Patent: Vorhersage des Inventars mit Machine Learning Models ↩︎ ↩︎

  49. Kinaxis Inc Patent: Vorhersage des Inventars mit Machine Learning Models ↩︎ ↩︎

  50. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  51. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  52. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  53. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎

  54. Microsoft Azure Marketplace ↩︎

  55. Man hätte nicht immer besser wissen sollen: Verstehen und vermeiden Sie den Rückschau-Auswahlfehler bei der Bewertung probabilistischer Vorhersagen ↩︎

  56. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎

  57. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  58. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎ ↩︎

  59. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  60. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  61. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  62. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎ ↩︎

  63. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  64. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  65. Vorhersagen & Verhindern: o9 Supply Sensing for Supply Chain ↩︎ ↩︎

  66. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  67. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  68. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎ ↩︎

  69. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  70. Enterprise Inventory-Optimierungssoftware, Februar 2025 ↩︎

  71. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  72. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  73. Enterprise Inventaroptimierungssoftware, Februar 2025 ↩︎

  74. Supply Chain Planung und Vorhersage Software, Februar 2025 ↩︎