Supply Chain Planung und Forecasting-Software, Februar 2025

Von Léon Levinas-Ménard
Zuletzt geändert: 2. Februar 2025

Supply chain planning software soll Entscheidungen optimieren (was produziert, gelagert oder transportiert wird und wann) unter Unsicherheit – und nicht nur Transaktionen protokollieren. Wie eine Definition formuliert, ist supply chain „die quantitative und zugleich praxisnahe Beherrschung von Optionalität angesichts von Variabilität und Einschränkungen … mit dem Fokus auf das Fördern und Auswählen von Optionen, statt der direkten Steuerung der zugrunde liegenden Operationen.“ 1 Anders ausgedrückt, konzentrieren sich die besten Planungstools auf Optimierung (z. B. die Festlegung optimaler Bestands- oder Produktionsniveaus) statt auf transaktionale Verwaltung (Verfolgung von Bestellungen und Lagerbeständen). Diese Studie vergleicht führende supply chain planning and forecasting software Anbieter weltweit und legt dabei greifbare technische Belege über Marketing in den Vordergrund. Wir bewerten jeden Anbieter anhand wesentlicher Kriterien:

  • Probabilistisches Forecasting – Gehen sie über Punktprognosen hinaus, um vollständige Verteilungen oder fortgeschrittene Modelle bereitzustellen? Falls „AI/ML“-Forecasting behauptet wird, gibt es Belege (z. B. starke Leistungen bei globalen Forecasting-Wettbewerben wie dem M5), die dies untermauern?
  • Automatisierungsgrad – Kann das System Forecasts und Planung automatisch (vollständig robotisiert) ausführen, ohne ständiges menschliches Eingreifen? Wie autonom ist die Entscheidungsfindung?
  • Skalierbarkeit & Leistung – Bewältigt die Technologie groß angelegte Daten effizient? (Vorsicht vor In-Memory-Architekturen, die mit wachsenden Datenmengen und stagnierenden Speicherpreisen nicht gut skalieren.)
  • Technologieintegration & Übernahmen – Ist die Lösung auf einem zusammenhängenden Technologiestack aufgebaut oder ein Flickenteppich aus erworbenen Modulen? Lange M&A-Geschichten können zu fragmentierter, inkonsistenter Technologie führen.
  • Technische Glaubwürdigkeit – Werden die technischen Behauptungen des Anbieters durch wissenschaftliche Prinzipien oder ingenieurtechnische Belege gestützt? Wir blicken über Schlagwörter („AI/ML“, „demand sensing“) hinaus und verlangen konkrete Erklärungen oder Peer-Validierung.
  • Konsistenz & Widersprüche – Stimmen die Botschaften des Anbieters überein? (So wäre es ein Warnsignal, probabilistische Forecasts zu versprechen und gleichzeitig deterministische Genauigkeitsmetriken wie MAPE zu propagieren.)
  • Überholte Praktiken – Wir prangern veraltete Methoden (wie simple Sicherheitsbestandsformeln) an, die im Widerspruch zu moderner probabilistischer Optimierung stehen.
  • Entscheidungsorientierte Ergebnisse – Produziert die Software bloß Forecasts oder liefert sie optimierte Entscheidungen (Bestellpläne, Lagerzielwerte) auf Basis dieser Forecasts? Das eigentliche Ziel besteht darin, Entscheidungen zu steuern und nicht nur Zahlen zu liefern.

Vorgehensweise: Für jeden Anbieter stützen wir uns auf veröffentlichte technische Dokumentationen, seriöse Analysen und (falls vorhanden) offene Benchmarks oder Wettbewerbe, um die Fähigkeiten zu bewerten. Anbieter-Hype, bezahlte Analystenberichte und glänzende Fallstudien werden ignoriert, sofern sie nicht durch harte Belege verifiziert werden. Der Ton ist bewusst skeptisch – Behauptungen müssen sich durch Daten oder ingenieurtechnische Substanz bewähren. Inkonsistenzen oder mangelnde Transparenz werden als gravierende Schwächen betrachtet.

Im Folgenden listen wir zunächst die Top-Anbieter von supply chain planning software nach technologischer Exzellenz auf, jeweils mit einer kurzen Begründung. Nach der Rangliste folgt ein detaillierter Vergleich, der anhand der oben genannten technischen Kriterien gegliedert ist. Alle Aussagen werden durch Zitate glaubwürdiger Quellen (im Format【source†line】) belegt.

Top-Anbieter, sortiert nach technologischer Exzellenz

  1. Lokad – Bahnbrechende probabilistische Optimierung Lokad führt in technologischer Innovation, indem es probabilistisches Forecasting sowie wahrhaft entscheidungszentrierte Planung vorantreibt. Bereits 2012 setzte Lokad auf probabilistische Forecasts (fast ein Jahrzehnt vor den anderen) und baute seine gesamte Lösung darauf auf 2. Im Gegensatz zu Anbietern, die Forecasting und Planung als separate Schritte behandeln, liefert Lokads System (entwickelt in einer domänenspezifischen Sprache namens Envision) direkt optimierte Entscheidungen (Bestellungen, Lagerbestände) aus probabilistischen Modellen. Die technische Glaubwürdigkeit von Lokad ist außergewöhnlich – es dokumentiert seine Methoden offen, und sein Team erreichte #1 Genauigkeit auf SKU-Ebene im renommierten M5-Forecasting-Wettbewerb (von 909 Teams) 3. Dieser reale Erfolg bei der detaillierten Forecasting unterstreicht Lokads modernste prädiktive Leistungsfähigkeit. Die Plattform ist cloud-native und vollautomatisiert (Forecasts und Optimierungen laufen selbstständig nach Zeitplan) und vermeidet Einschränkungen von In-Memory-Designs durch den Einsatz skalierbarer Cloud-Computing-Lösungen. Zusammenfassend setzt Lokad mit seinem probabilistischen, auf Automatisierung ausgerichteten und evidenzbasierten Ansatz zur Optimierung der supply chain Maßstäbe.

  2. Kinaxis – Schnelle, In-Memory-Planung mit aufkommender AI Kinaxis ist ein etablierter Marktführer, bekannt für seine blitzschnelle „Concurrent Planning“-Engine. Seine RapidResponse-Plattform verwendet eine In-Memory-Architektur, die Echtzeitsimulationen von Szenarien in den Bereichen Angebot, Nachfrage und Bestand ermöglicht. Dieses Design bietet Planern sofortige What-if-Analyse-Fähigkeiten, was ein großer Pluspunkt für die Reaktionsfähigkeit ist. Allerdings kann die starke Abhängigkeit von In-Memory-Berechnungen hohe Hardwarekosten und Skalierungsgrenzen bedeuten, wenn die Datenmenge wächst (große Implementierungen erfordern massiven RAM) 4. Traditionell setzte Kinaxis auf deterministische Planung (unter Nutzung benutzerdefinierter Regeln und manueller Anpassungen). Angesichts des Branchentrends hat Kinaxis kürzlich probabilistische Techniken durch Integration von Akquisitionen/Partnern übernommen: So wurde beispielsweise eine probabilistische Multi-Echelon-Inventory-Optimization (MEIO)-Engine (von Partner Wahupa) hinzugefügt und ein AI-Unternehmen für die Nachfrageprognose (Rubikloud) akquiriert. Diese Ergänzungen bringen fortschrittliches Forecasting und eine Modellierung von Unsicherheiten zu Kinaxis, wenngleich sie als Add-ons Fragen zur Kohärenz des Technologiestacks aufwerfen. Die Kommunikation von Kinaxis in Bezug auf „AI“ und maschinelles Lernen ist im Vergleich zu einigen Mitbewerbern zurückhaltend – es betont die Kombination aus menschlicher und maschineller Intelligenz. In der Praxis glänzt Kinaxis bei der Automatisierung der Plan-Neuberechnung (jedes Mal, wenn sich Daten ändern, kann das System autonom Angebot-Nachfrage-Pläne neu ausbalancieren), setzte historisch jedoch noch auf Planer zur Festlegung von Parametern und automatisierte finale Entscheidungen nicht vollständig um. Mit seinen neuen probabilistischen Modulen bewegt sich Kinaxis in Richtung Entscheidungsautomatisierung unter Unsicherheit, wenngleich aus einer deterministischen Vergangenheit. Zusammenfassend bietet Kinaxis eine leistungsstarke Echtzeit-Planungsplattform und holt im AI-gesteuerten Forecasting auf, muss aber beweisen, dass seine neueren probabilistischen Funktionen tief integriert und nicht oberflächlich sind.

  3. o9 Solutions – Große Ambitionen und Big Data o9 Solutions ist ein neuerer Akteur (gegründet 2009), der häufig als „digitales Gehirn“ für supply chain bezeichnet wird. Technologisch ist o9 außerordentlich ehrgeizig – es hat eine umfassende Plattform mit einem graphbasierten Datenmodell (Enterprise Knowledge Graph, „EKG“) aufgebaut und bedient riesige, komplexe Datensätze (was es bei großen Unternehmen, die ein End-to-End-Planungstool suchen, beliebt macht). Dennoch geht der Ansatz von o9 mit Kompromissen einher. Das System verwendet Berichten zufolge ein In-Memory-Design, das zwar schnelle Analysen ermöglicht, aber für großflächigen Einsatz hohe Hardwarekosten garantiert 4. Dies wirft Skalierungsfragen auf, da das Hinzufügen von mehr RAM teuer wird und letztlich an Grenzen stößt (zumal die Speicherpreise nicht mehr rapide sinken). o9 setzt stark auf AI/ML, doch man muss den tatsächlichen Gehalt vom Hype trennen: Viele seiner Behauptungen (zum Beispiel, dass sein Knowledge Graph das Forecasting einzigartig verbessert) sind zweifelhaft ohne wissenschaftliche Untermauerung 5. Tatsächlich deuten Analysen der öffentlich zugänglichen technischen Elemente von o9 auf GitHub darauf hin, dass größtenteils standardisierte Techniken verwendet werden (nichts Grundlegend Neues, das das großspurige „AI“-Branding rechtfertigen würde) 6. o9 unterstützt in gewissem Maße probabilistische Szenarioplanung – es kann mehrere Nachfrageszenarien modellieren und Simulationen durchführen – jedoch ist unklar, ob es echte probabilistische Forecast-Verteilungen oder nur Szenarioanalysen liefert. Die Plattform kann bestimmte Planungstätigkeiten automatisieren, positioniert sich aber oft als Entscheidungshilfe, wobei letztlich der Mensch das „digitale Gehirn“ steuert. Insgesamt ist o9 eine technologieintensive Plattform mit breitem Funktionsumfang, deren Abhängigkeit von In-Memory-Computing und die Unklarheiten bezüglich der AI-Behauptungen ihre wahrgenommene technologische Führungsposition dämpfen. Sie ist mehr ein Vorreiter für ihre integrierte Vision und den Umgang mit Big Data als für nachweislich einzigartige Forecasting-Genauigkeit.

  4. Relex Solutions – Einzelhandelsfokussierte Automatisierung (mit Grenzen) Relex Solutions (gegründet 2005) spezialisiert sich auf die Einzelhandelsnachfrageprognose, Bestückung und Raumplanung. Es hat sich den Ruf erworben, hochautomatisierte Filialbestückung zu ermöglichen – mehrere große Lebensmittelhändler nutzen Relex, um die Nachfrage auf Filialebene automatisch zu prognostizieren und mit minimalem menschlichem Eingreifen Bestellungen zu generieren. Diese End-to-End-Automatisierung in einem herausfordernden Einzelhandelsumfeld ist eine bemerkenswerte Stärke. Relex wirbt zudem mit modernen, maschinellen Lernverfahren für Forecasting, die auf den Einzelhandel zugeschnitten sind (unter Berücksichtigung von Werbeaktionen, lokalen Ereignissen etc.). Allerdings offenbart ein Blick unter die Haube einige architektonische und methodische Einschränkungen. Das System von Relex verwendet ein In-Memory-, OLAP-artiges Data-Cube-Design 7, um sehr schnelle Analysen und Berichte zu liefern. Während dies zu flotten Dashboards führt, treibt es die Hardwarekosten in die Höhe und löst nicht grundlegend komplexe Optimierungsprobleme. Tatsächlich kann der Echtzeit-Ansatz von Relex, der auf detaillierte Ergebnisse abzielt, mit einer netzwerkweiten Optimierung kollidieren – es könnte Schwierigkeiten haben, Entscheidungen in einem großen supply network optimal zu koordinieren, wenn Phänomene wie Produktkannibalisierung oder Substitutionen auftreten 8. Es gibt zudem Hinweise darauf, dass die Forecasting-Modelle von Relex nicht so „next-gen“ sind, wie beworben – Belege deuten darauf hin, dass ein Großteil ihres Ansatzes auf Methoden vor 2000 beruht (z. B. Regression, Zeitreihen-Glättung) 9, wenn auch in großem Maßstab angewendet. Sie rühmen sich oft mit einer über 99%igen Verfügbarkeit im Bestand für Einzelhändler, doch Branchenumfragen (z. B. von ECR-Verbänden) zeigen, dass die übliche Regalverfügbarkeit niedriger ist, was solche pauschalen Behauptungen in Frage stellt 10. Relex verfügt über einen überwiegend kohärenten Technologiestack (in-house für den Einzelhandel entwickelt) und ist nicht durch große Übernahmen gewachsen, was für Konsistenz spricht. Zusammenfassend ist Relex ein Marktführer in der Einzelhandelsautomatisierung und ermöglicht beeindruckend weitgehend betriebene Prozesse, jedoch ist seine technische Tiefe in der Forecasting-Wissenschaft umstritten, und die In-Memory-Architektur teilt die Skalierungsprobleme anderer Anbieter.

  5. ToolsGroup – Früher Innovator, der nun „AI“ in den Vordergrund stellt ToolsGroup (gegründet 1993) bietet die SO99+ Software an, die historisch bekannt ist für service-orientiertes Forecasting und Bestandsoptimierung. Jahre bevor „AI“ zu einem Schlagwort wurde, trug ToolsGroup dazu bei, probabilistische Konzepte in supply chain zu popularisieren – etwa indem Nachfrageschwankungen modelliert wurden, um die erforderlichen Sicherheitsbestände zur Erreichung eines gewünschten Servicelevels zu bestimmen. In der Praxis kann ihr Tool eine Wahrscheinlichkeitsverteilung der Nachfrage erzeugen (insbesondere für langsam drehende Artikel) und Bestandsziele berechnen, um eine angestrebte Füllrate zu erreichen. In den letzten Jahren hat sich die Kommunikationsstrategie von ToolsGroup jedoch verändert, um dem AI/ML-Hype zu folgen, und hier zeigen sich die Glaubwürdigkeitsrisse. Sie bewerben stark das „AI-gestützte“ Planen, aber öffentliche Hinweise deuten darauf hin, dass ihre Kernalgorithmen im Wesentlichen noch veraltete (pre-2000) statistische Modelle sind 11. Bemerkenswert ist, dass sie seit etwa 2018 begannen, ihre Ergebnisse als „probabilistische Forecasts“ zu brandmarken, während sie gleichzeitig MAPE-Verbesserungen rühmen 12 – eine offensichtliche Inkonsistenz, da MAPE (eine deterministische Fehlerkennzahl für Forecasts) „nicht auf probabilistische Forecasts anwendbar ist.“ 13 Dies deutet entweder auf ein Missverständnis oder auf einen Marketing-Trick hin (z. B. erzeugen sie probabilistische Forecasts, bewerten sie aber dennoch, indem sie den Median mit den tatsächlichen Werten vergleichen – was den Sinn probabilistischer Methoden verfehlt). ToolsGroup wirbt zudem mit „demand sensing“ für kurzfristige Forecast-Anpassungen, doch solche Behauptungen werden nicht durch wissenschaftliche Literatur gestützt 13 und entsprechen oft lediglich verpackten gleitenden Durchschnitten. Positiv anzumerken ist, dass die Lösung von ToolsGroup für supply chain planning äußerst funktionsreich ist (mit Abdeckung von Nachfrageprognosen, Bestandsoptimierung, S&OP etc.) und im Lights-out-Modus betrieben werden kann (wodurch automatisch nächtliche Bestellvorschläge generiert werden). Ihr Optimierungsfokus (Erreichen von Serviceniveaus bei minimalem Bestand) stimmt mit entscheidungsorientiertem Forecasting überein. Allerdings schmälert das jüngste AI-Demonstrieren des Unternehmens ohne klare technische Belege sowie eine Architektur, die möglicherweise nicht modern cloud-native ist (vermutlich stärker serverzentriert), seine technologische Führungsposition etwas.

  6. Blue Yonder – Mächtiges Erbe, Flickentechnologie Blue Yonder (gegründet 1985 als JDA Software, nach der Übernahme eines kleineren KI-Unternehmens namens Blue Yonder umbenannt) ist ein Gigant in der Supply-Chain-Planung. Es bietet Lösungen in den Bereichen Bedarfsplanung, Produktionsplanung, Einzelhandel und mehr. Über Jahrzehnte hat Blue Yonder (BY) ein großes Portfolio durch viele Akquisitionen aufgebaut – von Manugistics (Supply-Chain-Optimierung) bis hin zu Anteilen von i2 Technologies und kürzlich dem KI-Startup Blue Yonder. Das Ergebnis ist eine „wirre Sammlung von Produkten, von denen die meisten veraltet sind,“ selbst wenn sie unter einer Marke zusammengefasst sind 14. Technologisch nutzen Blue Yonders Legacy-Module (wie Demand Forecasting oder Fulfillment) oft ältere Techniken (z. B. heuristische Prognosen, regelbasierte Planung mit Sicherheitsbeständen). Das Unternehmen prahlt nun in seinem Marketing mit „AI/ML“, doch die Aussagen sind tendenziell vage und wenig substanziell 15. Ein aufschlussreicher Hinweis: Blue Yonder hat nur wenige Open-Source-Projekte auf GitHub (z. B. tsfresh, PyDSE, Vikos), die auf die zugrunde liegenden Prognoseansätze hinweisen – es handelt sich dabei hauptsächlich um traditionelle Methoden wie Merkmalsextraktion + ARIMA/lineare Regressionsmodelle 16 und nicht um modernste Deep-Learning- oder probabilistische Modelle. Anders ausgedrückt, BYs „KI“ ist wahrscheinlich mehr Buzz als bahnbrechend. Die Kohäsion der Plattform bereitet Sorgen – Planung, Auffüllung und Bestandsoptimierung können als separate Engines existieren, die nicht nahtlos zusammenarbeiten (die Integration erfordert einen hohen Implementierungsaufwand). Blue Yonder verfügt in bestimmten Bereichen über sehr starke Optimierungsfähigkeiten (z. B. können ihre alten i2-Algorithmen zur Optimierung des Supply-Chain-Netzwerks, wenn modernisiert, mächtig sein). Und viele große Unternehmen setzen Blue Yonder ein, um Planungsaufgaben zu automatisieren (zum Beispiel zur Erstellung von Prognosen, die einen MRP-Prozess steuern, zur Festlegung von Sicherheitsbeständen etc., wobei Planer nach Ausnahmen anpassen). Doch im Vergleich zu neueren Technologieführern scheint Blue Yonder technisch stagniert: Es hält weitgehend an deterministischen Prognosen fest (oft gemessen an alten Metriken wie MAPE oder Verzerrung), verwendet veraltete Praktiken wie Sicherheitsbestandsformeln als zentrales Planungselement und setzt nur dünn KI-Terminologie ein. Angesichts seiner Ressourcen könnte Blue Yonder sich weiterentwickeln, aber derzeit verkörpert es den Kompromiss eines großen Anbieters: breite Funktionalität aber ein zersplitterter, alternder Tech-Stack 14. Wir bewerten es aus technologischer Sicht hinter Wettbewerbern, die zukunftsorientierter agieren.

(Andere bemerkenswerte Anbieter: SAP IBP und Oracle SCM Cloud bieten ebenfalls Supply-Chain-Planungspakete an, sind jedoch größtenteils Erweiterungen ihrer transaktionalen ERP-Systeme. Sie erben erhebliche technische Schulden und Komplexitäten aus Altsystemen und Übernahmen. Zum Beispiel ist das Planungsangebot von SAP ein Mix aus Komponenten wie SAP APO, SAP HANA sowie erworbenen Werkzeugen (SAF für Prognosen, SmartOps für Bestandsmanagement) – im Grunde „eine Sammlung von Produkten“, die viel Integrationsaufwand erfordert 17. Diese ERP-gebundenen Lösungen, obwohl in mancher Hinsicht leistungsstark, sind allgemein keine Vorreiter in der Prognosewissenschaft oder Automatisierung, weshalb sie in den Spitzenrängen ausgelassen werden.)


Nachdem wir die Top-Anbieter vorgestellt haben, tauchen wir nun in eine Kriterium-für-Kriterium-Analyse ein, in der hervorgehoben wird, wie sich die einzelnen Anbieter hinsichtlich probabilistischer Prognosen, Automatisierung, Skalierbarkeit usw. schlagen – mit einem Schwerpunkt auf Belegen und Beispielen. Dieser vergleichende Blick bringt die Stärken und Schwächen jeder Lösung detailliert zum Vorschein.

Probabilistische Prognosen: Über deterministische Modelle hinaus

Die moderne Optimierung der Supply Chain profitiert enorm von probabilistischen Prognosen – der Schätzung eines Spektrums oder einer Verteilung möglicher Ergebnisse (mit Wahrscheinlichkeiten) anstelle einer einzigen „am wahrscheinlichsten“ Zahl. Probabilistische Prognosen erfassen die Nachfragevariabilität besser und ermöglichen robustere Entscheidungen (z. B. indem sie die Wahrscheinlichkeit eines Lagerbestandsengpasses bei Lagerung von X Einheiten angeben). Wir haben untersucht, welche Anbieter probabilistische Methoden wirklich umsetzen und welche bei deterministischen Prognosen bleiben. Zentrale Erkenntnisse:

  • Lokad sticht hervor, indem es probabilistische Prognosen tief integriert. Es war früh dabei, probabilistische Modelle zu fördern (seit 2012) 2 und hat diese Fähigkeit kontinuierlich weiterentwickelt. Lokads Ansatz verwendet probabilistische Nachfragedistributionen als Grundlage für alle Optimierungen – zum Beispiel, indem der erwartete Gewinn verschiedener Lagerbestände durch Integration über die Nachfrageverteilung berechnet wird. Die Glaubwürdigkeit von Lokads Prognosetechnologie wird durch globale Wettbewerbe bestätigt: Ein Lokad-Team erreichte höchste Genauigkeit auf SKU-Ebene im M5 Forecasting Competition 3, einem hoch angesehenen Benchmark-Wettbewerb. Wichtig ist, dass es bei M5 ausschließlich um probabilistische Prognosen ging (die Platzierungen basierten auf gewichteten, verteilungsbezogenen Fehlerkennzahlen), und Lokads Leistung zeigt, dass seine Methoden wirklich auf dem neuesten Stand sind, wenn es darum geht, präzise Wahrscheinlichkeitsverteilungen auf granularer Ebene zu generieren. In der Praxis produziert Lokad nicht nur eine Zahl, sondern eine vollständige Wahrscheinlichkeitsverteilung (oder Szenarien) für die Nachfrage jedes Artikels, die direkt in Entscheidungsoptimierungsskripte einfließt.

  • ToolsGroup hat lobenswerterweise seit Jahren probabilistische Funktionen im Kontext der Service-Level-Optimierung angeboten. Ihre Software kann eine explizite Nachfragedistribution erstellen (oft über ein intermittierendes Nachfrage-Modell oder eine andere statistische Anpassung) und anschließend Lagerziele berechnen, um eine gewünschte Servicewahrscheinlichkeit zu erreichen. Es gibt jedoch einen Unterschied zwischen der bloßen Existenz eines probabilistischen Modells im Hintergrund und dessen vollständiger, geistreicher Umsetzung. Das Marketing von ToolsGroup ab 2018 deutet darauf hin, dass man sich als führender Anbieter probabilistischer Prognosen positionieren möchte, untergräbt dies jedoch, indem gleichzeitig von MAPE-Verbesserungen zusammen mit probabilistischen Prognosen 13 gesprochen wird. Das ist ein Widerspruch – wenn man tatsächlich eine Verteilung prognostiziert, würde man den Erfolg nicht primär anhand von MAPE messen (das von einer einzigen „richtigen“ Zahl ausgeht). Die Tatsache, dass sie weiterhin deterministische Metriken verwenden, weist darauf hin, dass sie vermutlich nach wie vor Punktprognosen erstellen und die Verteilungen nur zur Simulation von Lageranforderungen heranziehen. Somit, obwohl ToolsGroup probabilistische Fähigkeiten besitzt, könnte die Raffinesse dieser Methoden nicht auf dem neuesten Stand sein, und wie sehr sie sich tatsächlich auf probabilistische Ansätze einlassen oder diese nur als Zusatz nutzen, bleibt unklar.

  • Kinaxis hat in seinem Kernangebot historisch keine probabilistischen Prognosen bereitgestellt (es verließ sich auf von Nutzern eingegebene oder durch einfache Statistiken erzeugte Punktprognosen). Als Antwort auf diese Lücke ging Kinaxis eine Partnerschaft mit Wahupa ein, um eine probabilistische MEIO (Multi-Echelon Inventory Optimization)-Engine zu integrieren 18. Darüber hinaus erwarb Kinaxis ein KI-Unternehmen (Rubikloud), das sich auf maschinelles Lernen in der Nachfrageprognose spezialisierte (wahrscheinlich naturgemäß probabilistisch, z. B. durch die Erzeugung von Prognoseintervallen). Ab 2023 begann Kinaxis, „Planning.AI” oder ähnliche Fähigkeiten zu vermarkten, wobei explizit die Notwendigkeit anerkannt wird, „Unsicherheit zu umarmen“ und Wahrscheinlichkeitswissenschaft in Entscheidungsprozesse einzubeziehen 19. Dies ist eine positive Entwicklung, aber da sie relativ neu ist, befindet sich die Reife der probabilistischen Prognosen von Kinaxis noch in der Entwicklung. Wir haben Kinaxis oder seine Partner weder in öffentlichen Prognosewettbewerben noch in detaillierten methodologischen Veröffentlichungen gesehen, sodass der technische Nachweis ihrer probabilistischen Kompetenz sich auf ihre Behauptungen beschränkt.

  • o9 Solutions betont auch im Konzept die Unsicherheitsmodellierung – ihr Wissensgraph kann viele ursächliche Faktoren speichern, und sie behaupten, durch die Verknüpfung von Daten bessere Vorhersagen zu generieren. Aber auch hier finden wir keine öffentlichen Belege dafür, dass o9 in der Praxis probabilistische Prognosen liefert (keine veröffentlichten Genauigkeits-Benchmarks oder offenen Algorithmen). Die Erwähnung von Bayesschen Netzwerken oder Monte-Carlo-Methoden in ihren Unterlagen ist spärlich. Elemente, die in den Code-Repositories von o9 entdeckt wurden, scheinen sich auf typische Prognosetechniken zu konzentrieren, statt auf neuartige probabilistische Algorithmen 6. Bis o9 etwas Gegenteiliges demonstriert, müssen wir davon ausgehen, dass es in erster Linie verbesserte deterministische Prognosen liefert (vielleicht mit Szenarioanalysen) und jede „probabilistische“ Bezeichnung eher Marketing ist.

  • Relex Solutions ist im Einzelhandel tätig, wo die Variabilität (insbesondere bei Aktionen oder frischen Artikeln) hoch ist. Sie verwenden vermutlich intern einige probabilistische Ansätze (zum Beispiel, um die Verteilung der Nachfrage für beworbene Produkte zu schätzen oder um den Sicherheitsbestand pro Filiale bei einem angestrebten Serviceniveau zu berechnen). Allerdings bewerben Relexs öffentlich zugängliche Materialien nicht explizit „probabilistische Prognosen“; sie betonen vielmehr, dass maschinelles Lernen die Prognosegenauigkeit verbessert (was üblicherweise auf bessere Punktprognosen hindeutet). Das Peer-Review von Relex deutet darauf hin, dass ihre Prognosetechnologie vor 2000 zu liegen scheint 9, was wahrscheinlich primär deterministische Methoden wie exponentielle Glättung – eventuell mit Saisonalität und Trend – bedeutet, also Techniken, die Punktprognosen und möglicherweise eine Standardabweichung für Sicherheitsbestände erzeugen. Somit könnte Relex noch am alten Paradigma festhalten: Prognose, dann Puffer hinzufügen, anstatt dem Nutzer eine vollständige Wahrscheinlichkeitskurve bereitzustellen.

  • Blue Yonder verwendet in seiner traditionellen Bedarfsplanung eine Vielzahl statistischer Modelle (ARIMA, exponentielle Glättung, möglicherweise auch ML für ursächliche Faktoren), um Prognosen zu erstellen, die typischerweise aggregiert und im Konsensverfahren ermittelt werden – grundsätzlich deterministisch. Blue Yonder hat begonnen, in einigen Kontexten probabilistische Begriffe zu erwähnen (da dies mittlerweile üblich ist), aber da ihre Open-Source-Beiträge die Abhängigkeit von ARIMA und Regression zeigen 16, kann man sicher sagen, dass probabilistische Prognosen nicht zu ihren Stärken zählen. Sie setzen auch weiterhin auf Metriken wie MAPE, Verzerrung usw., die deterministisch sind. Wir haben Blue Yonder auch nicht an bekannten Prognose-Benchmarks teilnehmen sehen.

  • Andere Anbieter: John Galt Solutions vermarktet einen „Procast“-Algorithmus, der überlegene Genauigkeit verspricht, doch eine Überprüfung stellte fest, dass diese Behauptung zweifelhaft ist, da Procast in den Top-Rängen großer Prognosewettbewerbe wie M5 fehlte 20. Tatsächlich schneiden leicht zugängliche Open-Source-Prognosetools (z. B. Prophet oder Hyndmans R-Pakete) wahrscheinlich ebenso gut oder besser ab 21. Dies unterstreicht ein häufiges Thema: wahre Innovation zeigt sich dort, wo es eine offene Bewertung gibt. Das Fehlen der meisten Anbieter (außer Lokad) bei öffentlichen Wettbewerben legt nahe, dass viele im Bereich Prognosen nicht wirklich der Wissenschaft oder dem Open-Source voraus sind – wenn dem so wäre, würden sie dies in diesen Foren beweisen.

Zusammenfassend lässt sich sagen, dass probabilistische Prognosen ein Unterscheidungsmerkmal sind: Lokad führt eindeutig mit nachgewiesener Kompetenz und vollständig integrierten probabilistischen Entscheidungen. ToolsGroup und Kinaxis erkennen deren Bedeutung an, haben sie aber erst kürzlich eingeführt (und müssen ihre Metriken und Prozesse damit in Einklang bringen, um überzeugend zu sein). Andere verbleiben überwiegend in einer deterministischen Welt, selbst wenn sie Begriffe wie „stochastisch“ in ihren Broschüren verwenden. Dieser Unterschied ist entscheidend, denn ohne echte probabilistische Prognosen greift ein Planungssystem auf grobe Sicherheitsbestände zurück und kann Risiken und Kosten nicht optimal ausbalancieren.

Grad der Automatisierung: Planung ohne Eingriff vs. Mensch im Entscheidungsprozess

Automatisierung in der Prognose und Planung bezieht sich auf die Fähigkeit des Systems, den gesamten Prozess – von der Datenerfassung, über die Erstellung von Prognosen, die Optimierung der Planung bis hin zur Umsetzung von Entscheidungen – ohne manuelles Eingreifen durchzuführen, abgesehen von Überwachung und gelegentlicher Parametereinstellung. Hohe Automatisierung ist entscheidend für groß angelegte Operationen (bei denen die manuelle Anpassung von Tausenden von Prognosen unpraktikabel ist) und um schnell auf Veränderungen zu reagieren (Roboter reagieren schneller als Menschen). Wir haben bewertet, wie automatisiert jede Lösung sein kann und ob sie „unbeaufsichtigte“ Planungsdurchläufe unterstützt (und ob Kunden sie tatsächlich so nutzen). Beobachtungen umfassen:

  • Lokad ist mit Blick auf Automatisierung konzipiert. Seine Envision-Skripting-Umgebung ermöglicht es, die gesamte Logik für Prognosen und Auffüllungen zu programmieren und zu terminieren. Viele Lokad-Einsätze laufen auf einer vollständig robotisierten Basis, bei der das System jeden Tag oder jede Woche automatisch neue Daten einliest, Prognosen neu berechnet, Entscheidungen optimiert (z. B. Bestellmengen oder Zuweisungspläne generiert) und diese an das ERP- oder Ausführungssystem übermittelt – alles ohne manuelle Anpassung. Die Philosophie lautet, dass bei korrekt eingerichteten Modellen manuelle Eingriffe minimal sein sollten und sich die Planer auf Ausnahmen oder Modellverbesserungen konzentrieren können, statt Routineanpassungen vorzunehmen. Lokads Erfolgsgeschichten heben häufig die drastische Reduzierung der Arbeitslast der Planer dank dieser Automatisierung hervor. Im Wesentlichen behandelt Lokad Planer eher wie Data Scientists oder Prozessüberwacher, nicht als Personen, die täglich manuell an den Planungsparametern drehen.

  • Relex Solutions ermöglicht ebenfalls einen hohen Automatisierungsgrad, insbesondere bei der Auffüllung. So kann Relex beispielsweise für Lebensmittelhändler täglich automatisch Filialbestellungen generieren, wobei Prognosen, vorhandene Lagerbestände und Lieferzeiten berücksichtigt werden. Einige Händler, die Relex einsetzen, vertrauen dem System so sehr, dass der Großteil der Bestellungen automatisch erfolgt, während Planer lediglich Ausreißer überprüfen. Das System von Relex unterstützt Workflows für Ausnahmefälle (z. B. kann es einen Alarm auslösen, wenn eine Prognose deutlich von der Norm abweicht, sodass ein Mensch nachprüft), ist jedoch ansonsten darauf ausgelegt, die Bedarfsplanung und Bestellung automatisch auszuführen. Dies ist ein entscheidendes Verkaufsargument im Einzelhandel, wo das Ausmaß (Millionen von SKU-Filial-Kombinationen) eine manuelle Planung unmöglich macht. Es ist jedoch anzumerken, dass die Erreichung dieser Automatisierung oft stabile, ausgereifte Modelle und einen engen Fokus erfordert (z. B. auf Lebensmittelgrundnahrungsmittel). In komplexeren, mehrstufigen Produktionsplanungen ist Relex weniger präsent. Dennoch zeigt Relex in seinem Bereich, dass unbeaufsichtigte Prognose und Auffüllung erreichbar sind, wenn auch im Rahmen der Einschränkungen seiner In-Memory-Architektur.

  • Kinaxis bietet Automatisierung bei Neuberechnungen – seine Gleichzeitigkeit bedeutet, dass wann immer sich Daten ändern, es Veränderungen im supply chain model (Stückliste, Lagerbestand, Kapazitäten) weiterleiten kann, um alle abhängigen Pläne automatisch zu aktualisieren. Dies ist eine Form der Automatisierung (die Notwendigkeit, separate Planungscycles für jede Ebene manuell neu zu starten, entfällt). Allerdings erwartet Kinaxis traditionell, dass Planer bis zu einem gewissen Grad involviert sind: Sie erstellen Szenarien, prüfen die Ergebnisse und entscheiden, welches Szenario umgesetzt wird. Kinaxis kann routinemäßige Entscheidungen über sein Alarmsystem automatisieren (z.B. einen Plan automatisch genehmigen, wenn der Lagerbestand einen Schwellwert überschreitet), wird jedoch im Allgemeinen als Entscheidungsunterstützungstool und nicht als „dunkler“ Autopilot verwendet. Dennoch, mit der Integration von KI und fortschrittlicheren Prognosen strebt Kinaxis vermehrt automatisierte Entscheidungsfindung an. Beispielsweise kann sein neues MEIO bei jedem Planungsdurchlauf automatisch die Lagerpuffer über die Ebenen hinweg neu ausbalancieren, was der Benutzer akzeptieren könnte, sofern nichts Auffälliges vorliegt. Das Unternehmen investiert auch in das, was es „self-healing supply chains“ nennt, was auf eine größere Autonomie hindeutet. Dennoch ist bei seiner Kundenbasis (oft in der Luft- und Raumfahrt, Automobilindustrie etc., wo Planer vorsichtig agieren) eine vollständig autonome Planung bei Kinaxis-Einführungen nicht die Norm.

  • o9 Solutions wird ähnlich in der Regel als Planungsplattform eingesetzt, auf der Benutzer (Planer, Nachfrageverantwortliche etc.) intensiv interagieren – sie passen Prognosen an, arbeiten an S&OP-Plänen zusammen und führen Szenarien durch. Es verfügt zwar über die technische Fähigkeit, Berechnungen zu automatisieren (z.B. können wiederkehrende Prognoseaktualisierungen eingerichtet werden), aber die Philosophie von o9 tendiert dazu, menschliche Planer mit KI-Einblicken zu unterstützen, anstatt sie zu ersetzen. Der Marketingbegriff „digitaler Zwilling der Organisation“ legt nahe, dass es Ihre supply chain in Software abbildet; ein Spiegel reflektiert jedoch typischerweise, was Sie tun – er entscheidet nicht eigenständig. Wir fanden keine Hinweise darauf, dass ein Unternehmen o9 in vollständig autonomer Weise einsetzt; vielmehr ist es ein Werkzeug, das ein einheitliches Datenmodell und Analysen bereitstellt, um funktionsübergreifende Planung zu erleichtern. Automatisierung konzentriert sich mehr auf Integration (Automatisierung von Datenflüssen zwischen Modulen) als auf Entscheidungsautomatisierung.

  • ToolsGroup stellte traditionell einen Ansatz der „Low-Touch-Planung“ vor. Ihr SO99+ Werkzeug kann so eingerichtet werden, dass es automatisch statistische Prognosen für jedes SKU generiert, dann Lagerzielwerte berechnet und sogar Nachbestellvorschläge unterbreitet. Viele mittelständische Unternehmen haben es tatsächlich zur automatischen Generierung von Bestell- oder Produktionsvorschlägen genutzt, wobei Planer lediglich Ausnahmen überprüfen (z.B. wenn das System aufgrund ungewöhnlicher Umstände unsicher ist). Das erreichte Maß an Automatisierung hängt vom Vertrauen in die Empfehlungen des Systems ab. ToolsGroup betont häufig, dass ihr probabilistischer Ansatz zu zuverlässigeren Lagerbestands-Empfehlungen führt, was es den Unternehmen wiederum erleichtert, Bestellungen in höherem Maße zu automatisieren. Sollte jedoch das Modell von ToolsGroup nicht richtig abgestimmt sein, könnten Benutzer vieles manuell überschreiben. In technischer Hinsicht kann ToolsGroup definitiv im Batch-Modus ohne Aufsicht für Prognosen und erste Planungen laufen. Allerdings ist es möglicherweise nicht in der Lage, eine on-the-fly Neuprogrammierung so gut zu handhaben wie etwas wie Kinaxis (es ist eher auf batch-orientierte Nachtplanungen ausgelegt).

  • Blue Yonder (JDA) verfügt über Komponenten wie ESP (Enterprise Supply Planning) und Fulfillment, die auf Basis von Prognosen und Bestandsrichtlinien automatisch Lieferaufträge oder Lagertransfervorschläge freigeben können. Viele Nutzer von Blue Yonder verlassen sich tatsächlich auf automatisch generierte Ergebnisse: Beispielsweise könnte das System automatisch Distributionsaufträge erstellen, um regionale Lager bis zu definierten Zielbeständen wieder aufzufüllen. Das Demand-Modul von Blue Yonder kann automatisch Basisprognosen jede Woche oder jeden Monat erstellen. Historisch gesehen beinhalten JDA/Blue Yonder Implementierungen jedoch viel manuelle Arbeitsprozesse: Nachfrageplaner passen die Prognosen an, Lieferplaner überprüfen die vom System empfohlenen Aufträge usw. Die Software unterstützt die Automatisierung, fördert jedoch nicht unbedingt eine „hands-off“ Mentalität – sie ist mehr eine Werkbank für Planer. Zudem, bedingt durch den Flickenteppich-Charakter von BYs Suite, kann es erheblichen Integrationsaufwand erfordern, eine End-to-End-Automatisierung zu erreichen (sicherzustellen, dass der Nachfrageplan in das Lieferplan-Modul übergeht, welches dann ohne manuelles Eingreifen in die Ausführung mündet, kann schwierig sein). Auch wenn es technisch machbar ist, haben Blue Yonder Standorte in der Praxis oft eine beträchtliche menschliche Überwachung der Pläne.

Zusammenfassend lässt sich sagen, dass die Automatisierungsfähigkeit bei allen führenden Tools in unterschiedlichem Maße vorhanden ist, aber die Philosophie und der praktische Einsatz variieren. Lokad und Relex sind bemerkenswert darin, im Bereich der wirklich autonomen Planung in ihren jeweiligen Nischen voranzuschreiten (wobei Lokad vollständig skriptgesteuerte „supply chain autopilots“ für verschiedene Industrien ermöglicht und Relex dies im Einzelhandel tut). Traditionelle Großanbieter behandeln Automatisierung vorsichtiger und überlassen dem Planer meist die endgültigen Entscheidungen. Dies liegt manchmal an Vertrauensproblemen – wenn die Prognosen eines Systems nicht zuverlässig sind, wird dem System nicht zugestanden, im Autopilotmodus zu laufen. Es unterstreicht, dass Automatisierung nur so gut ist wie die dahinter stehende Intelligenz: Ein wesentlicher Grund, weshalb probabilistische, entscheidungsorientierte Werkzeuge benötigt werden, ist, die Automatisierung praktikabel zu machen (das System muss in der Lage sein, gute Entscheidungen eigenständig zu treffen). Bei der Bewertung von Anbietern sollten Unternehmen fragen: Kann dieses System einen Monat lang eigenständig laufen und dabei unsere Leistungsfähigkeit erhalten oder verbessern? Die besten Technologien nähern sich bei dieser Frage einem „Ja“, während andere grundsätzlich weiterhin auf menschliche Betreuung angewiesen sind.

Skalierbarkeit & Leistung: Architektur ist entscheidend

Supply chain Planung muss oft mit Big Data umgehen (große Mengen an SKUs, Filialen, Bestellungen, IoT-Signalen etc.) und komplexen Berechnungen (Optimierung über viele Variablen hinweg). Die zugrunde liegende Architektur jeder Lösung – ob im Speicher oder verteilt, wie sie zunehmende Datenvolumen handhabt – wirkt sich direkt auf ihre Skalierbarkeit und Leistung aus. Schlechte architektonische Entscheidungen können entweder zu träger Leistung oder exorbitanten Hardwarekosten (oder beidem) führen, besonders wenn ein Unternehmen wächst. Wichtige Punkte zur Skalierbarkeit für die Anbieter:

  • In-Memory vs. Distributed: Ein zentrales Thema ist der Unterschied zwischen Lösungen, die die meisten Daten für schnelle Berechnungen ins RAM laden, und solchen, die mehr verteilte, on-demand Berechnungen (Cloud-Stil) nutzen. Kinaxis, o9, Relex und SAP IBP verfügen alle über einen starken in-memory Anteil. Die Engine von Kinaxis wurde nach dem Prinzip entwickelt, dass alle relevanten Planungsdaten im Speicher für eine sofortige Neuberechnung abgelegt werden – was bis zu einem gewissen Punkt gut funktioniert, aber die Skalierung über einige Terabyte an Daten im Speicher hinaus wird extrem kostspielig und technisch herausfordernd. O9 und Relex „garantieren ebenfalls hohe Hardwarekosten“ aufgrund des in-memory Designs 4 7 – effektiv zahlt der Nutzer für sehr große Server oder Cluster mit massivem RAM. Dieser Ansatz hatte vor 10–20 Jahren Vorteile, als Speicher billig und Datenmengen moderater waren, doch sind die Speicherpreise stabil und die Datenkomplexität gestiegen, was diesen Ansatz weniger zukunftssicher macht. Im Gegensatz dazu ist Lokad vollständig cloudbasiert und erfordert nicht, alle Daten im RAM zu halten. Es nutzt On-Demand-Computing (zum Beispiel das parallele Verarbeiten von Zahlen über viele Maschinen hinweg, wenn nötig, und gibt sie dann wieder frei). Das bedeutet, dass es auf sehr große Probleme skalieren kann, indem man Rechenknoten hinzufügt, anstatt an die RAM-Grenze einer einzelnen Maschine zu stoßen. Das cloud-native Design von Lokad setzt auch verstärkt auf Festplatte und Netzwerk, wenn angemessen, und passt sich modernen Big-Data-Trends an (bei denen verteilte Speicherung und Rechenleistung, wie Map-Reduce-Paradigmen, die Skalierung bewältigen).

  • Leistung im großen Maßstab: Die älteren Module von Blue Yonder (wie APO von SAP oder JDA’s eigene Legacy-Lösungen) hatten manchmal Schwierigkeiten mit großen Problemstellungen, was Datenaggregation oder Segmentierung erforderte, um zu laufen. Neuere Cloud-Versionen (BY Luminate) haben dies vermutlich mit besserem Speichermanagement und vielleicht elastischer Skalierung verbessert, doch die Belege dafür sind spärlich. SAP IBP nutzt HANA (in-memory spaltenbasierte DB); es kann große Datenmengen verarbeiten, jedoch zu sehr hohen Infrastrukturkosten und oft müssen die Daten noch auf bestimmte Ebenen aggregiert werden, damit die Planungsdurchläufe rechtzeitig abgeschlossen werden. Oracle’s planning verwendet ein relationales DB-Backend, das einiges auf die Festplatte auslagern kann, allerdings ist es pro Berechnung möglicherweise langsamer (dennoch nutzt Oracle seine Datenbankoptimierung). ToolsGroup arbeitete typischerweise mit mittelgroßen Datensätzen (tausende bis zehntausende SKUs) auf Einzelservern; die Leistung konnte mit sehr hohen SKU-Anzahlen abnehmen, sofern die Berechnung nicht sorgfältig begrenzt wurde (z.B. indem man sich auf relevante Artikel konzentriert). Kürzlich haben sie auf Cloud-Angebote umgestellt, die vermutlich horizontal skalieren können, aber es ist unklar, ob die Kernalgorithmen für verteiltes Rechnen umgeschrieben oder einfach auf großen VMs gehostet wurden.

  • Fehlerhafte Ansätze: Der Mangel des „in-memory Designs“ ist hervorzuheben. Mehrere Anbieter verfolgten den Ansatz, die gesamte supply chain in einem riesigen, speicherresidenten Modell abzubilden (ähnlich einem OLAP-Würfel oder einer riesigen Kalkulationstabelle im Speicher). Dies ermöglicht eine hohe Geschwindigkeit bei kleinen bis mittleren Fällen, skaliert jedoch nicht linear – man kann es nicht einfach verteilen, und die Hinzufügung von mehr Daten kann zu einer kombinatorischen Explosion des Speicherbedarfs führen. Die Lokad-Studie hebt dies explizit für o9 und Relex hervor: Ihr Design „liefert beeindruckende Echtzeitberichte“, treibt aber inhärent die Hardwarekosten in die Höhe und passt nicht gut zu globalen Optimierungsproblemen 7. Ähnlich erkennt die eigene Literatur von Kinaxis indirekt Einschränkungen an: Beispielsweise wurde in älteren Kinaxis-Dokumentationen vermerkt, dass 32-Bit-Systeme mit ca. 4GB RAM ein limitierender Faktor waren, und obwohl 64-Bit nun mehr zulässt, ist es nicht unendlich 22. Das grundlegende Problem ist, dass Daten schneller gewachsen sind als die RAM-Kapazitäten. Wenn ein Einzelhändler auf Ebene von Filialen-SKU-Tagen für 2.000 Filialen und 50.000 SKUs planen möchte, sind das 100 Millionen Zeitreihen – ein in-memory Würfel dieser Größe (mit historischen und zukünftigen Perioden) könnte zu Zehn Milliarden Zellen führen, was unpraktikabel ist. Ein verteilter Ansatz, der Filiale für Filiale verarbeitet oder intelligent partitioniert, ist skalierbarer.

  • Konkurrenz vs. Batch: Das Verkaufsargument von Kinaxis ist die Gleichzeitigkeit (alles wird gleichzeitig im Speicher neu berechnet). Dies ist ideal für die interaktive Nutzung, bedeutet aber, dass das vollständige Modell im Speicher bereitstehen muss. Batch-orientierte Systeme (wie ein nächtlicher Lauf von Lokad oder sogar der Ansatz von ToolsGroup) können skalieren, indem sie die Aufgabe aufteilen (z.B. kann für jedes SKU separat prognostiziert werden, was sich embarrassingly parallel umsetzen lässt). Lokads Envision kann beispielsweise Probleme in Teilprobleme zerlegen, die parallel in der Cloud laufen – man tauscht die Echtzeit-Interaktivität gegen Skalierbarkeit und rohe Rechenleistung. Je nach Geschäftsanforderung ist das eine oder das andere vorzuziehen. Aber wenn das Ziel der bestmögliche Plan ist, könnte ein Batch-Prozess, der über Nacht riesige Szenarioräume durchkämmt, eine vereinfachte Echtzeitberechnung schlagen.

Fazit: Lösungen wie Lokads Cloud-Plattform sind darauf ausgelegt, horizontal zu skalieren und große Datenvolumen zu bewältigen, ohne an ihre Grenzen zu stoßen, während in-memory-zentrierte Lösungen (Kinaxis, o9, Relex, SAP) das Risiko von Skalierungsengpässen und eskalierenden Kosten mit zunehmender Datenkomplexität tragen. Unternehmen, die diese evaluieren, sollten die Größe ihrer supply chain Daten und ihre Wachstumsaussichten sorgfältig berücksichtigen. Es ist bezeichnend, dass einige neuere „KI“-Planungs-Startups bewusst in-memory Monolithen meiden und stattdessen auf Microservices oder Big-Data-Frameworks setzen. Zudem ein Hinweis: Die Leistungsoptimierung wird oft dem Implementierungsteam überlassen – wenn ein Anbieter starke Aggregation oder Kürzung der Daten erfordert, um das Modell in den Speicher zu bekommen, ist das ein Skalierungs-Alarmzeichen. Die wirklich skalierbare Technologie wird granulare Daten verarbeiten, ohne dass man sie vereinfachen muss.

Technologieintegration & Akquisitionen: Einheitliche Plattformen vs. Franken-Suites

Die Geschichte eines Anbieters – ob er seine Lösung organisch entwickelt oder durch Akquisitionen erweitert hat – beeinflusst maßgeblich die Konsistenz und Integration der Technologie. Wenn eine Planungssuite aus vielen erworbenen Komponenten besteht, führt das oft dazu, dass verschiedene Module unterschiedliche Datenbanken, Benutzeroberflächen oder sogar Programmiersprachen verwenden, was das Gesamtprodukt weniger kohärent macht. Wir haben den Hintergrund jedes Anbieters unter die Lupe genommen:

  • Blue Yonder (JDA) ist eines der deutlichsten Beispiele für Wachstum durch Akquisition. Im Laufe der Jahre erwarb JDA Manugistics (für Supply Chain Planning Algorithmen), i2 (obwohl dieser Deal 2008 scheiterte), Intactix (für Retail-Flächenplanung), RedPrairie (für Lagerverwaltung) und das Startup Blue Yonder (für AI/ML-Prognosen) unter anderem. Das bedeutet, dass die aktuelle Blue Yonder Lösungssuite ein Flickenteppich ist: Zum Beispiel könnte Demand Planning die alte Manugistics-Engine sein, Fulfillment etwas anderes, Pricing Optimization stamme aus einer anderen Akquisition usw. Die Lokad-Studie bemerkte, dass „Enterprise-Software durch M&A nicht mischbar ist… unter der BY-Marke liegt eine willkürliche Sammlung von Produkten“ 14. Man versucht, diese unter der „Luminate“-Plattform mit einer gemeinsamen Benutzeroberfläche und eventuell einer gemeinsamen Datenebene in Azure zu vereinheitlichen, aber letztlich ist es schwierig, all diese zu einem stimmigen System zu verbinden. Kunden implementieren oft nur Teile davon, und sie zum Zusammenspiel zu bringen, kann eine maßgeschneiderte Integration erfordern. Inkonsistenzen treten dabei unvermeidlich auf (z.B. könnte ein Modul probabilistische Logik unterstützen, während ein anderes dies nicht tut; eines verwendet einen Optimierungs-Solver, ein anderes einen anderen). Der fragmentierte Tech-Stack bedeutet auch, dass widersprüchliche Praktiken in derselben Suite koexistieren können (zum Beispiel könnte ein Teil von BY fortgeschrittenes ML preisen, während ein anderer Teil noch Sicherheitsbestandsformeln von vor 20 Jahren verwendet).

  • SAP hat ähnlich teils selbst entwickelt, teils zugekauft. Bemerkenswert ist, dass SAP SAF (einen Prognoseanbieter) im Jahr 2009 und SmartOps (einen Anbieter für Bestandsoptimierung) im Jahr 2013 17 erwarb und zuvor APO intern entwickelt hatte. All dies wurde in SAPs Integrated Business Planning (IBP) Cloud-Lösung integriert. Das Ergebnis: SAP IBP verfügt über verschiedene Module (Forecasting, Inventory, Supply), die – obwohl sie unter einem Dach stehen – sich manchmal wie separate Produkte anfühlen. Die Prognose könnte Algorithmen von SAF verwenden, die Bestandsoptimierung nutzt die SmartOps Logik. Die Peer-Review bezeichnet SAPs Suite als „eine Sammlung von Produkten“ und warnt, dass die Komplexität hoch ist, was häufig die Einschaltung der besten Integratoren – plus ein paar Jahre – erfordert, um Erfolg zu haben 23. Anders ausgedrückt, die Integration wird dem Implementierungsteam überlassen und kann ein langwieriger Prozess sein, um alle Komponenten nahtlos zusammenzubringen.

  • Kinaxis, bis vor Kurzem, war größtenteils ein organisch aufgebautes System – ihr Hauptprodukt RapidResponse wurde intern über Jahrzehnte entwickelt. Dies verlieh ihm ein sehr einheitliches Gefühl (ein Datenmodell, eine Benutzeroberfläche). Allerdings hat Kinaxis in den letzten 3-4 Jahren einige strategische Akquisitionen/Partnerschaften getätigt, um Lücken zu schließen: z. B. die Partnerschaft mit Wahupa zur probabilistischen Bestandsoptimierung 18, die Übernahme von Rubikloud für KI-Prognosen und 2021 die Übernahme von Prana (ein supply chain analytics Anbieter). Kinaxis integriert diese mittels seiner erweiterbaren Plattform (sie bewerben eine „no-code“ Integration über ihre Benutzeroberfläche für diese neuen Funktionen), aber realistisch gesehen werden dies separate Engines sein, die verbunden werden. Beispielsweise könnte Wahupas MEIO als ein Service, der an RapidResponse angehängt ist, laufen, statt als nativer Code darin implementiert zu sein. Mit der Zeit wird Kinaxis sie vermutlich enger zusammenführen, doch es besteht stets das Risiko, dass sie zu einem lose gekoppelten Add-on werden (zum Beispiel: Sie speisen Prognose-Variabilitätsdaten in Wahupas Engine ein und erhalten Sicherheitsbestandsniveaus zurück – ein wenig als nachträgliche Ergänzung). Im Vergleich zu Anbietern mit Dutzenden von Akquisitionen ist Kinaxis immer noch relativ kohäsiv, doch es ist zu beobachten, dass es nicht den Weg einer Franken-Suite einschlägt.

  • o9 Solutions wurde zum größten Teil intern von seinen Gründern aufgebaut (die ehemals bei i2 tätig waren). Es handelt sich um eine einheitliche Plattform mit Modulen, die auf derselben Basis entwickelt wurden. o9 hat sehr wenig akquiriert (eine kleine Übernahme war ein Unternehmen für supply chain networking, und eine jüngste war ein AI/ML-Startup namens Processium, aber nichts Wesentliches im Bereich der Planungsalgorithmen, soweit bekannt). Daher ist o9s Tech-Stack einheitlicher als der älterer Konkurrenten – alles basiert auf dem o9 Enterprise Knowledge Graph und nutzt dasselbe UI-Framework. Dies ist ein Pluspunkt für die Konsistenz (keine Duplizierung von Datenbankschemas etc.). Der Nachteil ist, dass falls ein Teil ihrer Technologie schwach ist, sie nicht einfach per Akquisition Abhilfe schaffen können – sie müssen es selbst entwickeln. Bisher haben sie es mittels interner Entwicklung geschafft, wenn auch mit den limitations, die wir diskutierten (wie möglicherweise mittelmäßige Prognosetechniken im Hintergrund).

  • ToolsGroup wuchs weitgehend organisch um sein SO99+ Produkt herum. Soweit bekannt, haben sie keine großen Übernahmen anderer Planungsanbieter vorgenommen. Somit wurden ihre Module zur Bedarfsprognose, Bestandsoptimierung und Wiederauffüllung gemeinsam entworfen. Dies ergibt eine konsistente, wenn auch etwas monolithische Anwendung. Die Herausforderung für ToolsGroup bestand darin, zu modernisieren – ihre Architektur und Benutzeroberfläche waren bis in die 2010er Jahre veraltet, aber seither haben sie Anstrengungen unternommen, in die Cloud zu migrieren und die Oberfläche zu aktualisieren. Dennoch ist die Kohäsion ein Grund, weshalb ToolsGroup relativ unkompliziert ist: Sie erledigen end-to-end eine Sache (Service-Level-Optimierung), ohne dass zusätzliche Tools eingebunden werden müssen.

  • Relex Solutions hat seine Plattform ebenfalls von Grund auf speziell für den Einzelhandel entwickelt. Sie haben ein paar Unternehmen in angrenzenden Bereichen übernommen (kürzlich etwa eine Workforce-Management-Lösung und eine Lösung für die Planung von Verkaufsflächen), jedoch ist ihre Kernprognose- und Wiederauffüllungs-Engine hausintern entwickelt. Dieser Kern ist einheitlich (weshalb sie beispielsweise in der Lage sind, einem Anwender in Echtzeit beliebige Kennzahlen anzuzeigen, da alle Daten in derselben In-Memory-DB vorliegen). Die Übernahmen in neuen Bereichen könnten einige Integrationsnähte einführen, aber Relex ist noch weit entfernt von der Akquisitionswut älterer Anbieter.

Das Hauptproblem fragmentierter Suites besteht nicht nur im technischen Overhead, sondern auch in der funktionalen Fehlanpassung: Wenn ein Modul für einen Ansatz entworfen wurde (beispielsweise deterministische Planung mit Sicherheitsbeständen) und ein anderes Modul von probabilistischen Eingaben ausgeht, können diese in Konflikt geraten. Zum Beispiel könnte ein Bestandsoptimierungsmodul aus einer Akquisition Sicherheitsbestände berechnen, die ein Bedarfsplanungsmodul aus einer anderen Übernahme in seiner Benutzeroberfläche nicht korrekt verarbeiten kann, was zu Verwirrung oder doppelten Dateneingaben führt. Tatsächlich sahen wir Fälle, in denen Anbieter probabilistische Prognosen im Marketing anpreisen, während ihr Sales & Ops-Planungsmodul weiterhin MAPE erfasst und Einzahligen-Konsensprognosen verwendet – ein interner Widerspruch, der wahrscheinlich auf unterschiedliche Produktlinien zurückzuführen ist.

Im Gegensatz dazu kann ein Anbieter mit einer kohärenten Plattform Änderungen (wie den Übergang zu probabilistischen Methoden) unternehmensweit leichter implementieren. Es spricht für sich, dass Lokad, das vollständig einheitlich ist (sie haben alles um ihre Envision-Sprache und ihr Cloud-Backend entwickelt), seine Botschaft klar auf probabilistische Optimierung fokussieren kann, ohne interne Inkonsistenzen. Ebenso ist Anaplan (eine allgemeine Planungsplattform) technisch sehr einheitlich (eine Hyperblock-Engine), auch wenn es an spezialisierten supply chain Algorithmen mangelt; Anaplans Konsistenz ist großartig, aber seine Spezialisierung ist begrenzt 24. Thus, from a technology perspective, buyers should be wary of suites born of many mergers – ask whether the forecasting piece and the planning piece truly share the same engine or data model. If not, the result may be integration pain and potentially contradictory outputs. → Daher sollten Käufer aus technologischer Sicht Vorsicht walten lassen bei Suites, die aus vielen Fusionen hervorgegangen sind – sie sollten hinterfragen, ob das Prognosemodul und das Planungsmodul tatsächlich dieselbe Engine oder dasselbe Datenmodell teilen. Falls nicht, könnte das Ergebnis Integrationsprobleme und potenziell widersprüchliche Ausgaben zur Folge haben.

Technische Glaubwürdigkeit: Den AI/ML-Hype durchschauen

In einer Zeit, in der jeder Anbieter behauptet, „AI-driven supply chain“ und „machine learning forecasts“ zu liefern, ist es unerlässlich zu prüfen, wie sie diese Behauptungen untermauern. Wir suchen nach greifbaren technischen Belegen für fortschrittliche Techniken – wie peer-reviewed Forschung, dokumentierten proprietären Algorithmen, Open-Source-Beiträgen oder Leistungen in neutralen Benchmarks. Wir prüfen auch auf Missbrauch von Buzzwords – zum Beispiel, etwas als AI zu bezeichnen, das lediglich eine if-else-Regel darstellt. So schneiden die Anbieter ab:

  • Lokad demonstriert hohe technische Glaubwürdigkeit. Es behauptet nicht einfach AI; es veröffentlicht Inhalte, die seine Algorithmen erklären (z. B. eine Vorlesung, in der detailliert erläutert wird, wie ihr M5-gewinnendes Prognosemodell funktionierte 25). Der CEO und das Team des Unternehmens führen technische Diskussionen (über Blogs, Vorträge) darüber, warum bestimmte Ansätze gewählt werden (wie das Ensembling von Quantil-Prognosen oder die Verwendung von Pinball Loss beim Training). Sie geben auch offen die Grenzen von Wettbewerben wie M5 zu und wie sich echte supply chain Probleme unterscheiden 26 27 – diese Nuance zeigt eine ernsthafte Ingenieursmentalität statt bloßes Marketing-Geschwafel. Darüber hinaus ist Lokads Kerninnovation, die Envision-Programmiersprache, ein einzigartiges technisches Artefakt – es ist nicht einfach ein generisches ML, sondern eine domänenspezifische Sprache, die für supply chain Optimierung entwickelt wurde 28. Dies ist ein konkretes Technikteil, das Außenstehende bewerten können (und einige Teile sind öffentlich dokumentiert). Lokad verlässt sich nicht auf bezahlte Analystenzitate; stattdessen lädt es zu einer Peer-Review seiner Methoden ein. Diese Offenheit und der Fokus auf Wissenschaft statt Slogans setzen einen Goldstandard für Glaubwürdigkeit.

  • Blue Yonder hingegen neigt dazu, vage Sprache über AI zu verwenden, wie etwa „embedding AI/ML in our Luminate platform“, ohne im Detail darzulegen, welche Techniken oder Modelle zum Einsatz kommen. Die Lokad-Studie hebt explizit hervor, dass Blue Yonders AI-Behauptungen „kaum oder keine Substanz haben“ und die wenigen verfügbaren Artefakte auf altmodische Prognosemethoden (ARMA, Regression) hindeuten 15. Zum Beispiel könnte BY behaupten, „wir nutzen AI, um Nachfrageschwankungen zu erkennen“, dabei aber in Wirklichkeit eine lineare Regression auf den letzten Verkaufszahlen anwenden – eine Technik, die schon Jahrzehnte alt ist, was den Begriff AI stark dehnt. Die Existenz von Open-Source-Projekten wie tsfresh (Zeitreihen-Merkmalextraktion) spricht zwar für die Transparenz von BY, jedoch sind diese Projekte selbst bekannte generische Werkzeuge und keine proprietären Durchbrüche. Das Fehlen veröffentlichter Ergebnisse oder Wettbewerbsbeiträge der Data-Science-Teams von BY impliziert zudem, dass ihre Behauptungen eher marketinggetrieben sind. Kurzum, Blue Yonder hat keinen überzeugenden technischen Nachweis erbracht, um seine starke AI-Markenbildung zu untermauern – ein Warnsignal für die Glaubwürdigkeit.

  • o9 Solutions erweckt ähnliche Skepsis. Sie vermarkten das Konzept eines Enterprise Knowledge Graph (EKG) als Differenzierungsmerkmal, was impliziert, dass es eine Form von AI ist, die Beziehungen in den Daten erfasst. Obwohl Graphdatenbanken nützlich sind, steckt nichts inhärent „forecasting-genius“ darin, Daten als Graph zu speichern – es sind die darüber liegenden Algorithmen, die zählen. Die Lokad-Studie stellt fest, dass o9s Prognosebehauptungen bezüglich des Graphen nicht durch wissenschaftliche Literatur gestützt sind 29. Außerdem zeigte ein Blick in o9s GitHub (bei näherem Hinsehen) keine revolutionären Algorithmen, und ihre AI-Beschreibungen reduzieren sich oft auf generische Fähigkeiten (wie „advanced analytics“ oder „ML forecasting“), die auch viele andere haben. Sie verwenden buzzige Begriffe („digital brain“, „AI/ML“, „knowledge graph“) jedoch ohne externe Validierung. Bis o9 beispielsweise ein Whitepaper veröffentlicht, in dem dargelegt wird, wie ihre ML-Modelle andere übertreffen, oder bis ein Kundenfall mit rigorosen Daten dokumentiert ist, ist es am sichersten anzunehmen, dass o9s AI hauptsächlich Hype ist – womöglich Standard-ML-Modelle (neuronale Netze, Gradient Boosting etc.), verpackt in gutes Marketing. Zudem fällt auf, dass in der supply chain Community wirklich bahnbrechende AI-Konzepte (wie Deep Reinforcement Learning für die Optimierung oder neuartige probabilistische Modelle) üblicherweise in akademischen oder offenen Foren diskutiert werden – o9 wurde dort bisher kaum präsentiert, was auf einen Mangel an einzigartiger Technologie hindeutet.

  • Kinaxis war in seinem Marketing relativ maßvoll – es überstrapaziert nicht in jedem Satz den Begriff „AI“, was in gewisser Weise positiv ist (weniger Übertreibungen). Allerdings hat man, als sie AI-Partner integrierten, begonnen, diesen Aspekt stärker hervorzuheben. Ein gutes Zeichen ist der Blogbeitrag, den sie zusammen mit Wahupas CEO verfassten 30 31 und in dem probabilistische versus statistische Methoden diskutiert werden – dies zeigt, dass Kinaxis bereit ist, in die Wissenschaft einzutauchen (unter Erwähnung der Wahrscheinlichkeitstheorie, Entscheidungsfindung unter Unsicherheit etc.). Dies deutet darauf hin, dass sie versuchen, ihr Angebot auf einer soliden Methodologie zu fundieren. Doch Kinaxis muss sich noch hinsichtlich der Ergebnisse dieser Methoden beweisen. So haben sie beispielsweise noch nicht im Detail veröffentlicht: „Unsere neue ML-Prognose hat die Genauigkeit um X% im Vergleich zu unserem alten Ansatz verbessert“ – wahrscheinlich, weil sie es noch integrieren. Somit befindet sich Kinaxis’ Glaubwürdigkeit im Übergang: Historisch beanspruchten sie nicht, ein führender Prognosetechnologie-Anbieter zu sein (und stellten sich also nicht falsch dar), und jetzt, da sie fortgeschrittene Analytics behaupten, müssen wir auf entsprechende Belege warten. Die Partnerschaft mit Wahupa zeigt jedenfalls das Eingeständnis, dass externe Expertise benötigt wurde – was glaubwürdig ist (sie taten nicht so, als hätten sie probabilistische Methoden bereits perfekt beherrscht; sie holten einen Spezialisten hinzu).

  • ToolsGroup unterminierte leider seine Glaubwürdigkeit, indem es ohne fundierte Untermauerung auf den AI-Buzzword-Zug aufsprang. Der Kommentar der Studie, dass ihre AI-Behauptungen „zweifelhaft“ seien und dass öffentliche Materialien noch auf Modelle vor 2000 hindeuten, ist aufschlussreich 11. Dies legt nahe, dass ToolsGroup wenig mehr tut, als bestehende Features als „AI“ umzuetikettieren. Beispielsweise könnte ToolsGroup „AI for demand sensing“ bewerben – bei näherer Untersuchung handelt es sich dabei möglicherweise nur um eine Regel, die den aktuellen Verkaufszahlen mehr Gewicht verleiht (was nicht AI, sondern lediglich ein algorithmischer Feinschliff ist). Ohne veröffentlichte Details fällt es schwer, ihnen den Vorteil des Zweifels zu gewähren. Ihre Glaubwürdigkeit war in den frühen 2000er Jahren stärker, als sie bei probabilistischen Bestandsmodellen wirklich führend waren; heute leidet sie möglicherweise unter Stagnation.

  • SAS (das wir nicht an oberster Stelle eingestuft haben, aber dennoch in der Mischung ist) ist ein Fall, bei dem die technische Glaubwürdigkeit im Allgemeinen hoch ist (SAS hat eine lange Geschichte in der Statistik), doch die Kehrseite ist, dass deren Kerntechnologie älter ist. SASs Prognosemethoden sind gut dokumentiert (sie haben buchstäblich das Lehrbuch zu vielen statistischen Methoden geschrieben), doch das bedeutet auch, dass sie möglicherweise nicht die neuesten Machine-Learning-Techniken integrieren – sofern nicht maßgeschneiderte Lösungen in SAS entwickelt werden. Die Lokad-Studie erkennt SAS als Pionier an, wenngleich inzwischen von Open-Source-Tools wie Python Notebooks überholt 32. SAS überschätzt sich üblicherweise nicht – sie verlassen sich auf ihren Ruf – aber als supply chain Lösung werden sie seltener als fertige Produkte eingesetzt (häufiger baut ein Unternehmen mit SAS eine individuelle Lösung).

  • Allgemeine Beobachtung: Ein schneller Weg, die technische Aufrichtigkeit eines Anbieters zu prüfen, besteht darin, ob er gelegentlich Grenzen oder angemessene Anwendungsfälle seiner Technologie zugibt. Anbieter, die tief im Marketing verankert sind, behaupten oft, dass ihre AI alles löst. Diejenigen mit echter Technologie werden sagen: „Das ist, was es leistet, und hier könnte es weniger gut funktionieren.“ Beispielsweise diskutiert Lokad häufig, warum bestimmte Modelle für gewisse Nachfragetypen versagen (wie z. B. bei intermittierender Nachfrage), und zeigt damit intellektuelle Ehrlichkeit 27 33. Wir finden nur wenige Anbieter außer Lokad, die bereit sind, eine derart nuancierte öffentliche Diskussion zu führen. Die meisten anderen bleiben bei rosigen Allgemeinplätzen, was einen informierten Kunden zur Vorsicht mahnen sollte.

Abschließend gilt: Greifbare Beweise technischer Stärke – wie Wettbewerbsrankings, detaillierte technische Blogs oder auch Diskussionen in Nutzercommunities – sind bei vielen bekannten Anbietern rar. Lokad führt bei der Bereitstellung von Belegen (M5-Sieg, offene Erklärungen). Andere wie Blue Yonder und o9 liefern Hype mit Andeutungen veralteter Technik, was ihre behauptete „AI-Revolution“ in Frage stellt 16. Ein potenzieller Käufer sollte verlangen, dass die Anbieter konkret darlegen, wie ihre Algorithmen funktionieren und warum sie besser sind – und misstrauisch werden, wenn die Antwort nur aus Buzzword-Suppe besteht. Echter AI/ML-Wert in der supply chain sollte nachweisbar sein (z. B. „Wir nutzen gradient boosted trees, um nichtlineare Nachfragetreiber wie Wetter zu erfassen, und haben eine 5%ige Verbesserung gegenüber dem Basiswert bei 1000 SKUs erzielt“ – eine Aussage dieser Art überzeugt mehr als „Unsere AI entdeckt versteckte Muster in Ihren Daten“).

Konsistenz & Widersprüche in den Ansätzen der Anbieter

Auffällig oberflächliche Innovation zeigt sich, wenn die Kommunikation oder Methodik eines Anbieters interne Inkonsistenzen aufweist. Wir haben nach solchen Widersprüchen gesucht – zum Beispiel, wenn über Unsicherheit gepredigt wird, aber der Erfolg mit deterministischen Metriken gemessen wird, oder wenn behauptet wird, alte Praktiken abzuschaffen, diese aber im Hintergrund weiterhin genutzt werden. Einige bemerkenswerte Erkenntnisse:

  • Probabilistische vs deterministische Metriken: Wie erwähnt, ist ToolsGroup dafür verantwortlich – sie werben mit probabilistischer Prognosefähigkeit, präsentieren ihre Ergebnisse aber anhand der MAPE-Reduktion (Mean Absolute Percentage Error) 13. MAPE ist eine Fehlerkennzahl für Punktprognosen; wenn man tatsächlich probabilistische Prognosen erstellt, spricht man über Kalibrierung, probabilistische Log-Likelihood, Pinball Loss (für Quantile) oder zumindest über den erreichten Servicelevel. Durch das Beharren auf MAPE widerspricht ToolsGroup im Wesentlichen seiner eigenen probabilistischen Aussage. Diese Inkonsistenz legt nahe, dass entweder ihr „probabilistischer“ Output lediglich eine transformierte deterministische Prognose darstellt oder dass es sich um ein Marketing-Overlay handelt, das in F&E nicht tief verankert ist.

  • Demand Sensing Hype: Viele Anbieter verwenden den Begriff „demand sensing“, um anzudeuten, dass sie eine spezielle kurzfristige Prognose besitzen, die die neuesten Trends erfasst (zum Beispiel durch sehr aktuelle Verkaufszahlen oder externe Signale). ToolsGroup, SAP und GAINSystems haben diesen Begriff alle verwendet. Die Studie weist darauf hin, dass diese „demand sensing“-Behauptungen oft „vaporware“ sind und nicht durch Fachliteratur gestützt werden 34. Wenn ein Anbieter behauptet „unsere AI erkennt Nachfrageänderungen 3 Monate im Voraus“, aber nicht erklären kann, wie (und keine peer-reviewte Forschung belegt, dass so etwas überhaupt zuverlässig möglich ist), ist das ein Warnsignal. Es entsteht ein Widerspruch, wenn derselbe Anbieter dennoch ein grundlegendes Zeitreihenmodell zugrunde legt. Im Wesentlichen nehmen sie eine Standardprognose mittels exponentieller Glättung, fügen dann eine Anpassung der letzten Woche hinzu und nennen das „sensing“. Der Widerspruch besteht darin, eine geringfügige Anpassung als Durchbruch darzustellen.

  • Einsatz deterministischer KPIs: Achten Sie darauf, ob sich die Fallstudien oder die Benutzeroberfläche eines Anbieters noch um deterministische KPIs wie MAPE, Bias oder Tracking Signal drehen, selbst wenn sie behaupten, vollständig auf AI/ML zu setzen. Beispielsweise, wenn ein Anbieter maschinelles Lernen preist, aber in seiner Demo Planer zeigt, die daran arbeiten, den Forecast-MAPE zu verbessern oder ABC-Segmentierungen zur Festlegung der Sicherheitsbestände verwenden, ist das inkonsequent. Eine echte, ML-gesteuerte probabilistische Planung würde den Fokus auf Dinge wie erwartete Kosten, stockout probability oder andere stochastische Maße legen – nicht auf traditionellen MAPE oder ABC-Klassifizierungen (die eine vorhersehbare, statische Nachfragekategorisierung voraussetzen). Wir haben diesen gespaltenen Ansatz in einigen großen Anwenderhandbüchern der Anbieter beobachtet: Ein Kapitel spricht über das neue AI-Modul, während ein anderes Kapitel den Nutzer immer noch anweist, ARIMA-Parameter oder Sicherheitsbestand-Regeln anzupassen.

  • Philosophie des Sicherheitsbestands: Ein signifikanter methodischer Widerspruch besteht bei Anbietern, die über Unsicherheitsmanagement sprechen, aber dennoch ihren Prozess um den „Sicherheitsbestand“ zentrieren. Das Konzept des Sicherheitsbestands beruht auf einer deterministischen Prognose plus einem Puffer. In einem vollständig probabilistischen Rahmen würde man stattdessen ein optimales Bestandsniveau direkt aus der Nachfrageverteilung und den Servicezielen berechnen (wodurch „Basis“ und „Sicherheit“ effektiv in einer Entscheidung zusammengeführt werden). Wenn ein Anbieter sagt „wir optimieren den Bestand mit AI“, fragen Sie nach, ob der Nutzer trotzdem noch einen „gewünschten Servicelevel“ eingeben muss, um den Sicherheitsbestand unter Annahme einer Normalverteilung zu berechnen. Falls ja, haben sie sich nicht wirklich weiterentwickelt – sie kleiden lediglich die alte Sicherheitsbestand-Berechnung in neuer Sprache. Beispielsweise würde Blue Yonder’s Bestandsoptimierung (historisch) den Sicherheitsbestand basierend auf Varianz und Servicezielen berechnen – das ist keine grundsätzlich probabilistische Optimierung, sondern die Anwendung einer Formel. Anbieter wie Lokad lehnen den Begriff „Sicherheitsbestand“ ausdrücklich als veraltet ab, da man in einer echten stochastischen Optimierung den gesamten Bestand so behandelt, dass er der Wahrscheinlichkeitsverteilung der Nachfrage dient und nicht nur ein Teil als „Sicherheit“. Wenn also ein Anbieter „next-gen planning“ vermarktet, sein Lösungshandbuch den Nutzer aber dazu bringt, Sicherheitsbeständeinstellungen beizubehalten, liegt ein Konsistenzproblem vor.

  • AI-Magie vs. Benutzereingriff: Einige Anbieter behaupten gleichzeitig, „unsere AI wird Ihre supply chain autonom steuern“ und „wir geben den Nutzern volle Kontrolle und Transparenz im Planungsprozess“. Es gilt, ein Gleichgewicht zu finden, aber allzu weitreichende Behauptungen können im Widerspruch stehen. Ist die AI wirklich autonom, müsste der Nutzer sie nicht ständig überwachen; wenn der Nutzer ständig nachjustieren muss, ist sie nicht wirklich autonom. Das Marketing möchte oft beides versprechen („Autopilot UND manuellen Override!“), aber in der Realität tendiert eine Lösung entweder zur einen oder zur anderen Richtung. Ohne einen spezifischen Anbieter zu benennen, fiel uns auf, dass allgemeine Versprechen vollständiger Automatisierung von Screenshots begleitet wurden, die Dutzende von Planungsparametern zeigen, die Nutzer konfigurieren müssen – eine Art gemischte Botschaft.

In unserer Recherche ist ein klares Beispiel für den Umgang mit Widersprüchen, wie sich Lokad im Vergleich zum Mainstream positioniert. Lokad kritisiert in seinen Bildungsinhalten explizit Kennzahlen wie MAPE und Konzepte wie den Sicherheitsbestand und passt seine Methodologie dementsprechend an (indem probabilistische Metriken verwendet und Entscheidungen direkt berechnet werden) 13 33. Im Gegensatz dazu behaupten Anbieter wie GAINSystems, optimierungsorientiert zu sein, heben aber dennoch Dinge wie demand sensing und Matching-Algorithmen hervor, die aus früheren Zeiten stammen 34 – im Grunde genommen auf zwei Pferden reitend. John Galt Solutions behauptet, ein proprietärer Prognosealgorithmus schlage alle anderen, doch er fehlt in unabhängigen Rankings und ist laut Peer-Review wahrscheinlich nicht besser als Open Source 20, was einen Widerspruch zwischen Anspruch und Belegen darstellt.

Zusammenfassend, wenn es darum geht, Anbieter zu bewerten, ist es wichtig, auf interne Konsistenz zu achten: Leben sie das, was sie predigen? Wenn ein Anbieter großspurig über Unsicherheit und Optimierung redet, sollten seine Materialien nicht gleichzeitig deterministische Kennzahlen oder vereinfachte Methoden verherrlichen. Inkonsistenzen deuten oft darauf hin, dass das „neue Denken“ nur oberflächlich ist.

Veraltete Praktiken: Warnhinweise für eine veraltete Planung

Supply chain Planung hat sich weiterentwickelt, und einige Praktiken, die einst Standard waren, gelten angesichts moderner Möglichkeiten als veraltet oder suboptimal. Zu erkennen, ob ein Anbieter noch auf solche Praktiken setzt, kann aufschlussreich sein. Hier sind einige veraltete (oder zumindest „old school“) Praktiken und wie die Anbieter abschneiden:

  • Sicherheitsbestand als Krücke: Wie bereits besprochen, stellt das Behandeln des Sicherheitsbestands als einen separaten Puffer, der zu einer Prognose hinzugefügt wird, einen älteren Ansatz dar. Es heißt nicht, dass Sicherheitsbestand „schlecht“ sei – man benötigt immer einen Puffer für Variabilität – aber moderne Methoden integrieren Variabilität direkt. Wenn die Kernmethode eines Anbieters darin besteht, „mit Glättung zu prognostizieren und dann Sicherheitsbestand = z-Score * sigma * Lead-Time sqrt zu berechnen“, dann handelt es sich um Theorie aus den 1960er Jahren, die immer noch Anwendung findet. Slimstock’s Slim4 verwendet beispielsweise stolz solche Mainstream-Formeln (Sicherheitsbestand, EOQ) und geht damit offen um 35. Slimstock erhält tatsächlich Anerkennung für seine Ehrlichkeit: Es konzentriert sich auf „alltägliche, aber entscheidende praktische Aspekte“, anstatt vorzutäuschen, AI zu verwenden 36. Aus der Perspektive der technologischen Führung sind diese Praktiken jedoch veraltet. Lokad und Wahupa (Kinaxis’s Partner) plädieren für einen Wechsel hin zu einer direkten Berechnung optimaler Nachbestellpunkte/-mengen anhand probabilistischer Modelle, wodurch die künstliche Trennung von Umlaufbestand und Sicherheitsbestand entfällt. Viele Legacy-Tools (SAP, Oracle, ältere JDA) stützen sich immer noch überall auf Sicherheitsbestand-Parameter. Dies ist ein Warnsignal, dass sich ihre zugrunde liegende Mathematik kaum verändert hat. Ein wirklich optimierungsbasiertes System würde es erlauben, die Kosten des Bestands gegenüber den Kosten eines Engpasses einzugeben und dann die optimale Politik zu berechnen – ohne jemals explizit etwas „Sicherheitsbestand“ zu nennen, sondern lediglich ein optimales Bestandsniveau pro Artikel auszugeben.

  • MAPE und deterministische Kennzahlen: Den Fokus auf MAPE, Bias etc. als primäres Erfolgskriterium zu legen, kann als veraltet angesehen werden, da diese Kennzahlen nicht direkt mit den Geschäftsergebnissen korrelieren (man kann beispielsweise einen niedrigen MAPE, aber einen schlechten Servicelevel haben) und sie berücksichtigen keine Unsicherheit. Neuere Ansätze bevorzugen Kennzahlen wie den pinball loss (Quantilverlust) für Prognosen oder erwartete Kostenmetriken für Pläne. Wenn die Erfolgskriterien eines Anbieters in Fallstudien lauten „Wir haben die Prognosegenauigkeit von 70% auf 80% MAPE verbessert“, dann ist er in gewisser Weise in der Vergangenheit verhaftet. Der Schwerpunkt von John Galt’s Behauptungen zur Prognosegenauigkeit ist in diese Richtung gegangen (und wurde von Fachkollegen in Frage gestellt) 20. Ein modernes Denken würde lauten: „Wir haben stockouts um X% oder den Bestand um Y% reduziert bei gleichem Servicelevel“ – das basiert auf Ergebnissen und nicht nur auf MAPE.

  • Heuristische Segmentierung (ABC, XYZ): Ältere Planungsprozesse segmentieren Artikel oft nach Volumen (ABC) oder Variabilität (XYZ) und wenden für jede Gruppe unterschiedliche Planungsparameter an. Dies ist eine Heuristik, um mit begrenzter Rechenleistung oder einfachen Modellen umzugehen – etwa A-Artikel mit einem Ansatz (vielleicht mit stärkerem manuellen Fokus) und C-Artikel mit einem anderen (eventuell Min-Max-Regeln). Auch wenn Segmentierung immer noch nützlich sein kann, ist sie etwas veraltet, wenn ausreichend Rechenleistung vorhanden ist, um jede SKU individuell und kontinuierlich zu optimieren. Ein System, das stark auf manuelle ABC-Klassifikation setzt oder den Nutzer dazu zwingt, die Nachfrage als „lumpy vs smooth“ zu kategorisieren, könnte dies als Krücke dafür verwenden, dass keine Algorithmen vorhanden sind, die unterschiedliche Nachfragemuster automatisch robust behandeln. Viele Legacy-Systeme (und selbst einige neuere) machen dies weiterhin. Idealerweise würde ein AI-gesteuertes System das Muster pro SKU automatisch lernen, ohne dass ein Nutzer eingreifen muss.

  • Manuelle Prognoseanpassungen als Routine: Die traditionelle Nachfrageplanung erwartet, dass Nutzer statistische Prognosen regelmäßig basierend auf ihrem Urteil (Marketinginformationen etc.) übersteuern. Zwar ist der menschliche Beitrag wertvoll, doch wenn die Genauigkeit eines Systems so gering ist, dass Planer in jedem Zyklus viele Prognosen überarbeiten müssen, handelt es sich im Grunde um einen veralteten Ansatz. Moderne Systeme zielen darauf ab, manuelle Eingriffe zu minimieren, indem mehr Daten einbezogen werden (sodass das Modell bereits „weiß“, dass beispielsweise Marketing eine Promotion durchführt). Wenn ein Anbieter immer noch betont, wie einfach es für Nutzer ist, Prognosen manuell anzupassen, könnte das darauf hindeuten, dass seinem Algorithmus nicht von Anfang an zu trauen ist. Der Trend geht vielmehr zu ausnahmebasierten Anpassungen.

  • Abhängigkeit von Tabellenkalkulationen: Wenn Sie feststellen, dass die Lösung eines Anbieters die Nutzer häufig dazu bringt, Daten zur Endanalyse nach Excel zu exportieren oder Excel als Schnittstelle verwendet (wie es einige Mid-Market-Tools tun), ist das ein Zeichen für eine unausgereifte Lösung. Führende Tools bieten alle notwendigen Analysen und Entscheidungsunterstützung direkt innerhalb der Plattform. (Anaplan ist hier interessant: Es ist im Grunde eine Cloud-Tabellenkalkulation auf Steroiden, was bedeutet, dass es das Tabellenkalkulationsparadigma in einer kontrollierten, Multi-User-Umgebung aufgreift – das ist gleichzeitig modern und altmodisch.)

Aus den gesammelten Daten: Slimstock verwendet absichtlich ältere, aber bewährte Methoden (Sicherheitsbestand, EOQ) 35 – sie sind offen darüber, was lobenswert ist, aber diese Methoden sind angesichts probabilistischer Optimierung durchaus veraltet. GAINSystems (ein weniger bekannter, aber langjähriger Anbieter) scheint sich ebenfalls an klassische Prognosemodelle zu halten, und selbst ihre angepriesenen ML-Funktionen (wie „matching and clustering“) sind Techniken aus der Zeit vor 2000 34, was darauf hindeutet, dass unter der Haube nicht viel Neues steckt. Die Lokad-Bewertung von GAINSystems bezeichnet diese ausdrücklich als vaporware, was darauf hinweist, dass diese Methoden als veraltet oder in der Praxis ineffektiv angesehen werden 34.

Blue Yonder und SAP tragen viel Altlasten mit sich – z.B. ist es in vielen Implementierungen bei SAP weiterhin Standard, ABC zur Festlegung unterschiedlicher Sicherheitsbestand-Niveaus zu verwenden oder einfache gleitende Durchschnittsprognosen für niedrige Werte zu nutzen. Wenn ihr neues „IBP with machine learning“ diese Grundlagen nicht grundlegend überarbeitet, handelt es sich im Grunde um Altlasten in einem neuen Gewand.

Das Vorhandensein widersprüchlicher Kennzahlen (wie über Innovation zu sprechen, aber MAPE zu verwenden) haben wir bereits als Inkonsistenz behandelt – es ist aber auch ein Beleg dafür, dass an alten Kennzahlen festgehalten wird.

Abschließend, wenn ein Unternehmen nach der fortschrittlichsten Lösung sucht, sollte man vorsichtig sein bei jedem Anbieter, dessen Lösung noch immer um Sicherheitsbestand-Parameter, ABC-Segmentierungsregeln und Prognosegenauigkeit in % als Haupt-KPI kreist. Dies sind Zeichen dafür, dass die Lösung in den Praktiken des letzten Jahrhunderts verwurzelt ist. Stattdessen sollte man nach Anbietern suchen, die den Fokus auf Servicelevel, Kosten und Wahrscheinlichkeiten legen – die Sprache der modernen supply chain science.

Entscheidungsorientierte Prognosen: Von Vorhersagen zu Maßnahmen

Abschließend bewerten wir, ob jeder Anbieter lediglich Prognosen erstellt oder den Nutzern tatsächlich dabei hilft, auf Basis dieser Prognosen optimierte Entscheidungen zu treffen. Das Endziel in der supply chain ist nicht eine schöne Prognose – es geht darum, die richtigen Maßnahmen (Bestellungen, Lagerhaltung, Planung) zu ergreifen, um den Service zu maximieren und die Kosten zu minimieren. Wir bezeichnen eine Lösung als „entscheidungsorientiert“, wenn sie direkt Empfehlungen wie Bestellmengen, Produktionspläne oder Bestandsziele ausgibt und diese im Hinblick auf die Prognose sowie relevante Zwänge/Kosten optimiert werden. So schneiden die Anbieter im Vergleich ab:

  • Lokad ist extrem entscheidungsorientiert. Tatsächlich spielen sie die Bedeutung der Prognose selbst oft herunter und bestehen darauf, dass letztlich die Entscheidung zählt (eine implizite Philosophie von „Eine Prognose ist nur dann gut, wenn sie zu einer guten Entscheidung führt“). Mit Lokad’s Envision hört man nicht bei der Nachfrageprognose auf; der typische Arbeitsablauf von Lokad berechnet etwa den erwarteten Gewinn oder die erwartete Strafe für verschiedene Kandidatenentscheidungen (zum Beispiel 100 Einheiten gegenüber 200 Einheiten zu bestellen) unter der probabilistischen Prognose und wählt dann die Entscheidung, die den erwarteten Ertrag maximiert. Die Ausgabe an den Nutzer lautet nicht „Nachfrage wird 120 sein“, sondern vielmehr „Bestellen Sie 130 Einheiten“ (zum Beispiel) – zusammen mit der Begründung (z. B. diese Menge balanciert das Risiko eines Engpasses gegenüber Überbeständen angesichts der Prognoseverteilung und Ihrer Kostenparameter). Das ist echte vorschreibende beziehungsweise entscheidungszentrierte Analytik. Lokad stellt damit sicher, dass die Prognose direkt in die Ausführung einfließt. Zudem werden in der Optimierung auch Zwänge (wie Mindestbestellmengen, Haltbarkeitsdaten, Budgetgrenzen) berücksichtigt. Somit erfüllt Lokad eindeutig die Anforderungen, Vorhersagen in Maßnahmen zu überführen.

  • ToolsGroup weist ebenfalls eine Entscheidungsorientierung auf, speziell bei Bestands- und Wiederauffüllungsentscheidungen. Ihr SO99+ Tool prognostiziert nicht nur; es empfiehlt Bestandsniveaus und Nachbestellpunkte, die die Servicelevel-Ziele erreichen. In der Praxis gibt eine ToolsGroup-Implementierung für jede SKU aus: „Sie sollten X Einheiten Sicherheitsbestand vorhalten und nachbestellen, wenn der Bestand auf Y fällt, was eine Bestellung von Z Einheiten jetzt impliziert.“ Das ist eine Entscheidung (Wiederauffüllungsmenge), die aus der Prognose abgeleitet wurde. ToolsGroup stand also schon immer für vorschreibende Ausgaben und nicht nur für prädiktive. Die Einschränkung besteht in der Art der Entscheidung: Es geht hauptsächlich um Bestandsrichtlinien (sie bieten zwar auch eine Optimierung der Produktionsplanung an, aber ihr Schwerpunkt liegt auf der Distribution). Außerdem sind die Empfehlungen von ToolsGroup nur so gut wie die Modellierung der Prognoseunsicherheit (was wir kritisierten). Aber Anerkennung gebührt: ToolsGroup erwartet nicht, dass der Nutzer eine Prognose nimmt und dann manuell eine Bestellung entscheidet – sie automatisiert diese Berechnung.

  • Blue Yonder und andere Legacy Suites trennen oft die Prognose von den Planungsmodulen. Zum Beispiel gibt BY Demand eine Prognose, dann übernimmt BY Supply (oder Fulfillment) diese Prognose und berechnet Pläne. In einer integrierten Implementierung ist das Endergebnis tatsächlich eine Entscheidungsempfehlung (wie ein Master-Produktionsplan oder ein Einsatzplan). Blue Yonder bietet vollständige Planungsoptimierungs-Module an – z.B. wird ihr Fulfillment-Modul empfehlen, wie DCs von einem zentralen Lager aufgefüllt werden können (es handelt sich im Wesentlichen um eine DRP-Engine, die Prognosen und Bestandsdaten verwendet, um geplante Aufträge zu erstellen). Ihr Production planning-Modul kann eine optimierte Produktionsreihenfolge oder -planung erstellen. Somit deckt BY als Suite Entscheidungen ab, aber wie optimal oder integriert diese Entscheidungen sind, hängt davon ab, ob alle Komponenten implementiert und abgestimmt sind. Historisch wurde kritisiert, dass der Output eines Moduls nicht immer optimal für das nächste war (z.B. wenn die Prognose keine Einschränkungen berücksichtigt, auf die das supply planning stößt, erhält man unbrauchbare Pläne). Ein wirklich entscheidungsorientierter Ansatz würde diese Einschränkungen bereits zur Zeit der Prognose oder in einer einheitlichen Optimierung berücksichtigen. Blue Yonders neuere Botschaft der „autonomen supply chain“ impliziert, dass sie den Kreislauf schließen wollen (automatisch von Prognose zu Entscheidung), aber angesichts des Technologiemixes ist unklar, wie nahtlos das funktioniert.

  • Kinaxis ist stark entscheidungs- und ergebnisorientiert, da sein Hauptzweck darin besteht, umsetzbare Pläne (supply plans, Bestandsprojektionen usw.) schnell zu erzeugen. Der Benutzer arbeitet in der Regel mit diesen Plänen und kann Entscheidungen bestätigen oder anpassen (z.B. eine Bestellung beschleunigen oder die supply neu verteilen). Mit Kinaxis’ neuer MEIO-Erweiterung optimiert es nun explizit einen Entscheidungssatz: Bestands-Puffer (d.h. Kinaxis kann nun Sicherheitsbestandsniveaus empfehlen, indem es Cash vs Service abwägt 37). Zuvor konnte Kinaxis verschiedene Sicherheitsbestände simulieren und die Ergebnisse anzeigen, ohne notwendigerweise den besten Wert zu nennen; mit probabilistischem MEIO versucht es, mathematisch die bestmögliche Lösung zu finden. Für andere Bereiche (wie Produktions- und Distributionsplanung) verwendet Kinaxis Heuristiken oder Optimierung im Hintergrund (es verfügt über einige Optimierungslöser für Terminierung und Zuweisung) – aber ein Großteil der Leistungsfähigkeit von Kinaxis liegt in der Simulation statt in harter Optimierung. Das heißt, es kann das Ergebnis einer Benutzerentscheidung extrem schnell simulieren, überlässt jedoch oft die Wahl des Szenarios dem Menschen. Zusammengefasst liefert Kinaxis eine vollständige Reihe empfohlener Maßnahmen (wie geplante Aufträge, Neuplanungen) in nahezu Echtzeit – definitiv decision support – wählt jedoch nicht immer automatisch den „optimalen“ Plan ohne menschliches Eingreifen, außer bei spezifischen Funktionen wie MEIO oder wenn der Plan offensichtlich ist (z.B. wird es die Nachfrage deterministisch auf supply-Anforderungen übertragen).

  • o9 Solutions ist ebenfalls darauf ausgelegt, Pläne zu erstellen (das sind Entscheidungssätze) in den Bereichen Nachfrage, supply, Bestand usw. o9 verfügt über Optimierungsmaschinen für bestimmte Probleme – z.B. supply planning mithilfe linearer Programmierung, um Kosten zu minimieren oder unter gegebenen Einschränkungen den Gewinn zu maximieren. Es ist Teil ihres Konzepts eines „digital brain“, das eine optimale Zuteilung von Ressourcen herausfinden soll. Allerdings nutzt nicht jeder o9-Kunde dies in optimierter Weise; manche verwenden möglicherweise einfach ihre Plattform für kollaborative Planung (was im Grunde manuelle Entscheidungen mit besserer Datenübersicht bedeuten könnte). Die Frage ist: Unterstützt o9 nativ probabilistische Entscheidungsoptimierung? Wahrscheinlich nicht stark; es könnte Szenarioanalysen durchführen („Wenn wir 10% extra produzieren, was ist das Ergebnis?“), aber nicht notwendigerweise einen erwarteten Wert über Szenarien berechnen. Also, entscheidungsorientiert ja (es liefert empfohlene supply chain Pläne), aber optimal unter Unsicherheit nicht eindeutig.

  • Relex Solutions, das sich auf den Einzelhandel konzentriert, liefert primär Filial- oder DC-Aufträge und Bestandsziele. Relex erledigt einen guten Job, diese Entscheidungen direkt zu erzeugen (es fungiert im Wesentlichen als automatisiertes Nachfüllsystem basierend auf Prognosen und Parametern). Es kann auch Dinge wie Regalflächenzuteilung vs Bestände optimieren (mit seinem neueren, einheitlichen Planungs- und Raumplanungskonzept), was ein Entscheidungskompromiss ist, der dem Einzelhandel eigen ist (z.B. wenn der Platz begrenzt ist, wie soll man zwischen Bestand und Sortiment abwägen). Die Entscheidungen von Relex werden überwiegend durch benutzerdefinierte Regeln gesteuert (wie Servicelevel-Ziele oder Tage des supply), während das System die Berechnungen übernimmt, um die tatsächlichen Aufträge zu erstellen, die diesen Regeln entsprechen. Es ist definitiv entscheidungsorientiert (es sagt nicht einfach „die Prognose für diese Woche beträgt 100 Einheiten“ – es weist den Händler an, jetzt 50 weitere Einheiten zu bestellen, weil der aktuelle Bestand 50 beträgt, die Prognose 100 und die Lieferzeit entsprechend ist). Falls überhaupt, könnte Relex zu taktisch agieren (es bestellt zwar zuverlässig nach, berücksichtigt jedoch möglicherweise nicht langfristige Netzwerkimplikationen – jeder Knoten ist lokal für seinen Service optimiert).

Um es zusammenzufassen, unterscheidet entscheidungsorientierte Prognose ein bloßes Analysewerkzeug von einer echten supply chain Optimierungslösung. Alle Anbieter in den oberen Rängen streben zumindest danach, Entscheidungsergebnisse und nicht nur Prognosen zu liefern: Deshalb haben wir sie in den Bewertungsrahmen einbezogen (die Studienbeschreibung gab sogar an, dass wir rein transaktionale oder rein prognosebasierte Werkzeuge, die keine Entscheidungen optimieren, ausschließen). Der Grad der Optimalität und Integration von Unsicherheit in diesen Entscheidungen variiert jedoch:

  • Lokad und ToolsGroup verknüpfen Prognosen explizit mit Entscheidungen unter Verwendung von Kosten- und Servicezielen (Lokad über eigene Skripte, die die erwarteten Kosten optimieren, ToolsGroup über Servicelevel-Ziele, die zu Bestandsentscheidungen führen).
  • Kinaxis und o9 erstellen umfassende Pläne und ermöglichen es, Entscheidungen zu erkunden, wobei Kinaxis kürzlich formellere Optimierung (z.B. Bestandsoptimierung) integriert hat.
  • Blue Yonder verfügt über separate Optimierungs-Module, die Entscheidungen hervorbringen können (bei vollständiger Nutzung erhält man einen Plan für alles – aber deren Abstimmung ist aufwendig).
  • Relex automatisiert einen spezifischen Entscheidungssatz (Nachfüllung) sehr gut, andere (wie langfristige Kapazitätsplanung) jedoch weniger.

Bei der Bewertung von Lösungen sollten Unternehmen auf diesen Punkt bestehen: „Nachdem Ihr System prognostiziert hat, welche Entscheidungen wird es empfehlen, und wie stellt es sicher, dass dies die besten Entscheidungen sind?“ Wenn ein Anbieter keine klare Antwort geben kann oder es so klingt, als ob der Benutzer die Prognosen manuell interpretieren muss, dann ist dieser Anbieter wahrscheinlich nicht wirklich optimierungsgetrieben. Diese Frage klärt beispielsweise, ob eine ausgefeilte ML-Prognose tatsächlich zu einer Bestandsreduktion führt oder nur eine schöne Zahl in einem Diagramm darstellt.

Fazit

In dieser vergleichenden Studie haben wir die führenden Anbieter von supply chain Planungs- und Prognosesoftware aus einer technischen Perspektive bewertet und analysiert, wobei wir reale Fähigkeiten über Marketingversprechen stellten. Die Auswertung hob hervor, dass technologische Führungsqualität in diesem Bereich Folgendes erfordert: fortschrittliche Prognosen (vorzugsweise probabilistisch) gestützt durch Beweise, skalierbare und moderne Architektur, einen hohen Automatisierungsgrad, einen einheitlichen und gut entwickelten Tech-Stack und vor allem einen Fokus auf vorschreibende Entscheidungsfindung statt nur auf prädiktive Analysen.

Lokad hat sich als Spitzenreiter etabliert dank seiner wegweisenden Arbeit in probabilistischer Prognose und seinem radikalen Fokus auf Entscheidungsoptimierung – Eigenschaften, die durch externe Benchmarks (wie den Gewinn des M5-Wettbewerbs) und transparente technische Kommunikation 3 2 validiert wurden. Es zeigt exemplarisch, wie Skepsis gegenüber Mainstream-Ansätzen (z.B. das Infragestellen des Werts von Metriken wie MAPE oder Konzepten wie Sicherheitsbestand) zu einer robusteren Lösung führen kann, die mit solider Wirtschaftlichkeit im Einklang steht 13 33.

Andere Anbieter wie Kinaxis und o9 Solutions investieren stark in AI/ML und haben beeindruckend breite Plattformen aufgebaut, müssen den Markt jedoch noch davon überzeugen, dass ihr „AI“ mehr ist als nur oberflächlich und dass ihre Architekturen ohne exorbitante Kosten skalieren werden 4. Etablierte Akteure wie Blue Yonder (JDA) und SAP verfügen über umfangreiche supply chain Branchenkenntnisse und Funktionalität, doch Altlasten (fragmentierte Systeme aus zahlreichen Übernahmen und veraltete Algorithmen) treten zutage, was zu Widersprüchen und langsameren Fortschritten in der technischen Innovation führt 14 17. Nischen-Spezialisten wie ToolsGroup und Relex bieten in ihren Bereichen kraftvolle Lösungen an (Bestandsoptimierung bzw. Einzelhandelsnachfüllung), haben jedoch jeweils Einschränkungen – ToolsGroup muss seine AI-Behauptungen mit moderner Technik untermauern 11, und Relex’ In-Memory-Ansatz könnte außerhalb seines optimalen Einsatzbereichs scheitern 7.

Ein klares Muster in der Analyse zeigt, dass Anbieter, die offen technische Details und Ergebnisse liefern, mehr Vertrauen erwecken als diejenigen, die sich auf Schlagwörter verlassen. In einem von Hype durchdrungenen Bereich ist es für Entscheidungsträger entscheidend, harte Beweise und Konsistenz einzufordern. Beispielsweise, wenn ein Anbieter behauptet, maschinelles Lernen einzusetzen, sollte man um Nachweise für die Genauigkeit oder die Kosteneffekte vor und nach der Anwendung bitten. Wenn probabilistische Prognosen angepriesen werden, verlangen Sie einen Nachweis dafür, wie diese gemessen und in der Planung verwendet werden (und seien Sie vorsichtig, wenn die Antwort mit deterministischen Metriken vermischt ist).

Zudem, da die Komplexität der supply chain wächst, sind Skalierbarkeit und Automatisierung nicht nur wünschenswert – sie sind essenziell. Lösungen, die noch in manuellen, Excel-Ära-Praktiken verhaftet sind oder große Datenmengen nicht ohne enorme Hardware bewältigen können, werden Unternehmen langfristig nicht gut dienen. Die Skepsis der Studie gegenüber In-Memory-One-Size-Fits-All-Architekturen wird durch die Daten bestätigt – stärker verteilte, cloud-native Ansätze zeigen Vorteile sowohl bei den Kosten als auch bei den Fähigkeiten.

Schließlich ist der ultimative Maßstab für jede supply chain Optimierungssoftware das Ergebnis, das sie liefert: niedrigere Bestandskosten, höhere Servicelevels, schnellere Reaktionszeiten und effizientere Planer-Workflows. Die Erreichung dieser Ziele erfordert mehr als nur clevere Mathematik – es verlangt, diese Mathematik in einen stimmigen, automatisierten Entscheidungsprozess zu integrieren, der mit den wirtschaftlichen Realitäten übereinstimmt. Die besten Anbieter sind diejenigen, die den Kreislauf zwischen Prognose -> Optimierung -> Entscheidung -> Ergebnis auf transparente, wissenschaftlich fundierte Weise schließen. Diejenigen, die an gebrochenen Kreisläufen festhalten (Prognose isoliert oder Entscheidungsvorgaben, die von der Unsicherheit losgelöst sind), bleiben zurück.

Abschließend sollten Unternehmen, die supply chain Planungslösungen bewerten, jeden Anwärter einem kritischen, technischen Blick unterziehen. Durchdringen Sie die glänzenden Broschüren und stellen Sie die harten Fragen, die wir erörtert haben: Liefert der Anbieter probabilistische Prognosen oder nur Einzelfälle? Kann sein System autonom laufen, und wurde es in großem Maßstab bewiesen? Ist die Technologie einheitlich oder ein Flickenteppich alter Komponenten? Erklären sie ihr „AI“ in verständlichen, faktenbasierten Begriffen? Indem man auf dieses Maß an Strenge besteht, kann man wahre technologische Vorreiter in der supply chain Optimierung identifizieren – diejenigen, die in der Lage sind, überlegene Entscheidungen zu liefern und nicht nur hübsche Dashboards. Die hier vorgestellten Rankings und Analysen dienen als Ausgangspunkt und benennen Lokad, Kinaxis, o9, Relex, ToolsGroup und Blue Yonder (unter anderen) als Schlüsselfiguren, jede mit Stärken und Einschränkungen. Die Verantwortung liegt bei den Anbietern, ihre Behauptungen zu untermauern, und bei den Nutzern, gesund skeptisch und evidenzbasiert zu bleiben, wenn sie das „Gehirn“ wählen, das ihre supply chain antreiben wird.

Fußnoten


  1. Die Grundlagen der supply chain - Vorlesung 1.1 ↩︎

  2. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  3. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  4. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  5. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  6. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  7. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  8. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  9. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  10. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  11. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  12. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  13. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  14. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  15. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  16. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  17. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  18. Kinaxis und Wahupa kooperieren, um Unternehmen bei der Navigation durch Bestandskomplexität zu unterstützen ↩︎ ↩︎

  19. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was jeder für Ihr Unternehmen bietet | Kinaxis Blog ↩︎

  20. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎

  21. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  22. Geschichte des In‑Memory Computing und der Supply Chain Planung - Kinaxis ↩︎

  23. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  24. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  25. Nr. 1 auf SKU‑Ebene im M5 Prognosewettbewerb - Vorlesung 5.0 ↩︎

  26. Nr. 1 auf SKU‑Ebene im M5 Prognosewettbewerb - Vorlesung 5.0 ↩︎

  27. Nr. 1 auf SKU‑Ebene im M5 Prognosewettbewerb - Vorlesung 5.0 ↩︎ ↩︎

  28. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  29. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  30. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was jeder Ihrem Unternehmen bietet | Kinaxis Blog ↩︎

  31. Planung unter Unsicherheit: Statistische vs. probabilistische Ansätze und was jeder Ihrem Unternehmen bietet | Kinaxis Blog ↩︎

  32. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  33. Über Wissen, Zeit und Arbeit für Supply Chains - Vorlesung 1.7 ↩︎ ↩︎ ↩︎

  34. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  35. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎ ↩︎

  36. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  37. Kinaxis & Wahupa als Partner, um Unternehmen bei der Navigation durch Inventar zu unterstützen ↩︎