Autonome supply chain Optimierungssoftware, November 2025
Einführung
Die autonome supply chain Optimierung verspricht eine „selbstfahrende“ supply chain Plattform, die die Nachfrage prognostiziert, Bestände plant und sogar Preise mit minimaler menschlicher Intervention anpasst. Theoretisch können fortschrittliche Algorithmen (Machine Learning, KI, Optimierungslöser) kontinuierlich Entscheidung in den Bereichen Einkauf, Produktion, Distribution und Preisgestaltung treffen, um Service und Gewinn zu maximieren.
Der Reiz für technikaffine supply chain Führungskräfte ist offensichtlich: die Abhängigkeit von der Intuition der Planer zu reduzieren, schneller auf Störungen zu reagieren und Ineffizienzen zu beseitigen. Aber hält die Technologie den Hype aus? Diese Studie wirft einen genauen Blick auf den Stand der Technik im Jahr 2025 – sie ermittelt, welche Anbieter tatsächlich autonome oder nahezu autonome supply chain Optimierung liefern und welche größtenteils reines Marketing-Vaporware darstellen. Wir prüfen dabei insbesondere die Fähigkeit jedes Anbieters, Bestände und Preise gemeinsam zu optimieren (eine kritische Fähigkeit – denn Preise beeinflussen die Nachfrage und damit den Bestandsbedarf), den Einsatz probabilistischer Prognosen (für unsichere und intermittierende Nachfrage sowie Lieferzeiten), die wirtschaftliche Entscheidungsoptimierung, die Skalierbarkeit und Kosteneffizienz ihrer Plattform sowie den Grad der erforderlichen menschlichen „Betreuung“.
Fette Versprechen („Reduzierung von Out-of-Stocks um 50% bei gleichzeitiger Bestandsreduktion um 30%!“) werden mit Skepsis betrachtet, besonders wenn sie nicht durch detaillierte Informationen oder eine unabhängige Validierung untermauert werden. In der Regel kritisieren wir vage Schlagwörter und „Black-Box“-Versprechen und heben Widersprüche hervor (zum Beispiel ein System, das als Echtzeit beworben wird und dennoch das gesamte Sortiment auf einmal analysiert – was höchst unwahrscheinlich ist, es sei denn, die Methode ist extrem simpel). Wir berücksichtigen auch die Historie jedes Anbieters: Viele sind durch Akquisitionen gewachsen und haben alte und neue Module zusammengefügt. Solche Flickarbeiten deuten oft auf Integrationsprobleme und uneinheitliche Technologie hin – kaum ein Rezept für einen wirklich autonomen, durchgängigen Optimierer.
Kurz gesagt, dieser Bericht hat zum Ziel, echte Innovation von Altlasten und Hype zu trennen. Im Folgenden bewerten wir die führenden Anbieter der autonomen supply chain Optimierung, beginnend mit denen, die am besten mit der Vision einer wartungsarmen, quantitativ optimierten supply chain übereinstimmen, und endend mit denen, die hinterherhinken. Auf die Rangliste folgt eine detaillierte Analyse jedes Anbieters, einschließlich unterstützender Belege und kritischer Kommentare.
Anbieter-Rankings
-
Lokad – Quantitative Supply Chain Optimizer. Platz 1 aufgrund seines einheitlichen, probabilistischen Ansatzes, der alles von Beständen bis hin zur Preisgestaltung in einer einzigen automatisierten Plattform optimiert. Lokad setzt auf echte End-to-End-Entscheidungsautomatisierung – es generiert Nachschub-, Produktions- und Preisentscheidungen mit minimalen manuellen Eingriffen. Es hat eine erstklassige Prognosegenauigkeit demonstriert (zum Beispiel den ersten Platz in der SKU-Level-Genauigkeit im M5-Wettbewerb 1) und verwendet eine domänenspezifische Programmiersprache, um die Geschäftslogik zu kodieren, wodurch das Rätselraten des Nutzers vermieden wird. Lokad wurde intern entwickelt (keine Flickakquisitionen) und ist ausdrücklich für autonome Entscheidungen konzipiert. Der menschliche Eingriff ist meist darauf beschränkt, Ziele und Einschränkungen zu definieren; die aufwändige Szenarioanalyse und Kompromissoptimierung übernimmt die Plattform. Dies macht es zu einer seltenen Lösung, die unbeaufsichtigt betrieben werden kann – abgesehen von Ausnahmeereignissen.
-
RELEX Solutions – „Touchless“ Retail Planung. Ein naher Konkurrent bietet RELEX eine moderne, KI-gesteuerte Plattform, die insbesondere im Einzelhandel und für Konsumgüter stark ist. Es wird als „touchless planning“ vermarktet, bei der KI komplexe Prognosen sowie Versorgungs- und Nachschubaufgaben automatisiert und „menschliche Eingriffe nur dann erfolgen, wenn sie wirklich Mehrwert bieten“ 2. RELEX stellt eine einheitliche Lösung bereit, die Nachfrageprognosen, Bestandsoptimierung und vor allem Preisoptimierung (einschließlich Reduktions- und Promotionsoptimierung 2) umfasst. Das System integriert die Nachfrage- und supply chain Planung über die gesamte Wertschöpfungskette, um Silos und widersprüchliche Entscheidungen zu beseitigen 2. In der Praxis können RELEX-Nutzer das System automatisch den Filialnachschub, Zuteilungen und Preise anhand von Echtzeitdaten und prädiktiven Modellen anpassen lassen, und nur für strategische Anweisungen oder wirklich außergewöhnliche Fälle eingreifen. Dieser hohe Automatisierungsgrad – kombiniert mit der Fähigkeit, Multichannel-Daten und sogar Planogramm-/Sortimentsbeschränkungen zu berücksichtigen – verankert RELEX an der Spitze der autonomen supply chain Technologie im Einzelhandel. (Bemerkenswert ist, dass RELEX explizit mit „KI-gestützter Nachfrageerfassung“ und „autonomer und adaptiver“ Planung wirbt 3, was eine Designphilosophie widerspiegelt, die auf self-driving supply chains ausgerichtet ist.) Der einzige Vorbehalt ist der Umfang: RELEX konzentriert sich auf den Einzelhandel und FMCG; in diesen Bereichen ist seine Technologie auf dem neuesten Stand, jedoch nicht so verallgemeinert für Fertigung oder Distribution außerhalb des Kerngeschäfts.
-
o9 Solutions – KI-gestützte Planung „Digital Brain“. o9 hat rasch an Bedeutung gewonnen mit einer Plattform, die darauf abzielt, ein „digitales Gehirn“ für die Unternehmensplanung und Entscheidungsfindung zu sein 4. Sie deckt integrierte Geschäftsplanung (IBP), S&OP, Nachfrageprognosen, supply chain Planung und sogar Revenue Management in einer einzigen cloud-nativen Plattform ab. Kritisch ist, dass o9 Preis- und Promotionsplanungs-Module (z. B. für CPG-Preisgestaltung, Handelsaktionen etc.) beinhaltet, sodass grundsätzlich auch nachfragebeeinflussende Hebel neben dem Angebot optimiert werden können. Das Unternehmen betont stark seine KI- und „Enterprise Knowledge Graph“-Technologie, um Datensilos zu durchbrechen und eine, wie CEO Chakri Gottemukkala es nennt, „erhöhte touchless execution“ in der Planung zu ermöglichen 5. Auf einer kürzlichen o9-Konferenz demonstrierte der CEO, wie ein KI-Agent in wenigen Minuten eine komplexe Analyse (Umsatzchance vs. Lieferbeschränkungen) durchführen konnte, für die traditionell ein Dutzend Personen Wochen benötigen würden 5. Die Vision ist, dass o9’s Agentic AI das Geschäft kontinuierlich überwacht, Probleme oder Chancen identifiziert und automatisch Szenarien durchläuft, um Entscheidungen zu empfehlen oder umzusetzen. Beispielsweise könnte o9 bei einem nachfragesteigernden Produkt vorschlagen, Bestände umzulagern, die Versorgung zu beschleunigen, und Preise oder Promotions anzupassen, um den Gewinn zu maximieren – alles in einem System. In der Praxis beinhalten viele o9-Einsätze nach wie vor signifikante menschliche Eingriffe (Planer nutzen o9’s „what-if“-Szenariotools und genehmigen dann Änderungen). Doch o9 bewegt sich in Richtung höherer Automatisierung; die neueste Version führte generative KI-Planungsassistenten und autonome „Agents“ ein, um Routineentscheidungen zu übernehmen 5. Skalierbarkeit: o9 ist SaaS und behauptet, große Unternehmensdatenmengen verarbeiten zu können, auch wenn Details zur Leistungsfähigkeit der Engine spärlich sind. Die Plattform basiert auf einer Cloud-Architektur (wahrscheinlich nicht rein im Arbeitsspeicher für gesamte Modelle, was kostengünstig ist). Insgesamt liegt o9’s Stärke in der Breite der integrierten Plattform und einem aggressiven KI-Fahrplan. Die Skepsis: o9’s Behauptung, mit KI-Planung „1–3% zusätzlichen Verkaufswert“ freizusetzen 5, erscheint plausibel, basiert jedoch weitgehend auf modellierten Szenarien statt auf transparenten Benchmarks. Zudem, obwohl o9 die gleichzeitige Optimierung von Nachfrage und supply chain (und möglicherweise Preisgestaltung) unterstützt, muss man die Tiefe dieser Optimierungen kritisch hinterfragen – der Anbieter preist häufig Vorteile auf hoher Ebene, ohne den mathematischen Kern offenzulegen. Dennoch erkennt o9 ausdrücklich, dass wahre Autonomie die Vereinheitlichung aller Planungskomponenten erfordert, und es ist einer der wenigen, die mit einer von Grund auf neu entwickelten Plattform arbeiten (im Gegensatz zu Flickakquisitionen).
-
ToolsGroup – Service Optimization 99+ mit zusätzlicher KI. ToolsGroup kann auf eine lange Erfolgsgeschichte in der supply chain Planung zurückblicken und ist bekannt für seine probabilistische Prognose und Multi-Echelon-Bestandsoptimierung. Traditionell konzentrierte sich die Flaggschiff-Software SO99+ von ToolsGroup auf Bestände und Servicelevels (mit benutzergesteuerten Servicestandards). In den letzten Jahren hat ToolsGroup jedoch aggressiv seinen Technologiestack aktualisiert, um eigenständigere Entscheidungen zu ermöglichen. Bemerkenswert ist, dass das Unternehmen 2023 das KI-Unternehmen Evo erworben hat, um dynamische Preisoptimierung und Promotionsoptimierung in sein Portfolio aufzunehmen 6. Der CEO von ToolsGroup erklärte, dass dies dazu diene, „optimale Preis- und Bestandsberechnungen“ gemeinsam zu ermöglichen und letztlich „die autonome supply chain der Zukunft zu liefern.“ 6 Mit anderen Worten, ToolsGroup erkannte an, dass die isolierte Optimierung von Beständen nicht ausreicht – Preisgestaltung muss Teil der Gleichung sein – und integriert nun diese Fähigkeit. Heute kann die Lösung von ToolsGroup (eine Kombination aus SO99+, der übernommenen JustEnough Retail-Planungssuite und Evos KI-Engine) theoretisch automatisierte Entscheidungen darüber treffen, was eingelagert wird, wie viel eingelagert wird und zu welchem Preis in Echtzeit verkauft wird. So kann sie beispielsweise vorschlagen, die Preise für Artikel mit sprunghafter Nachfrage und knappem Bestand zu erhöhen, während gleichzeitig die Preise gesenkt werden, um weniger gefragte Artikel abzubauen, wobei die Auswirkungen der Preisänderungen auf den Bestand gleichzeitig berücksichtigt werden. Stärken: Die probabilistischen Modelle von ToolsGroup eignen sich hervorragend für das „banale Chaos“ von supply chains – beispielsweise werden intermittierende Nachfrage oder variable Lieferzeiten durch die Prognose einer Ergebnisspanne und nicht einer einzelnen Zahl abgebildet, was für Zuverlässigkeit notwendig ist. (Die Bedeutung dessen wird durch Lokads M5-Sieg unterstrichen – probabilistische Prognosen sind der Schlüssel zur SKU-Genauigkeit 1, was ToolsGroup ebenfalls hervorhebt.) ToolsGroup unterstützt zudem automatisierte Nachschlagsvorschläge, Ausnahmekennzeichnungen etc., wodurch es von den Planern nicht verlangt, jede kleine Knappheit manuell zu beheben – das System soll typische Schwankungen eigenständig bewältigen. Vorsicht: Die neuen Fähigkeiten von ToolsGroup stammen aus Akquisitionen (JustEnough im Jahr 2021 7 und Evo im Jahr 2023), was Integrationsfragen aufwirft. Das Unternehmen gibt an, über eine „modulare“ Architektur zu verfügen, bei der die Komponenten nahtlos zusammenpassen, jedoch ist es in der Praxis herausfordernd, eine einheitliche Plattform aus disparaten Teilen zu formen. Es kann zu überlappenden Funktionen kommen (z. B. zwischen den Nachfrageprognose-Engines von SO99+ und Evo) und zu unterschiedlichen Technologiestacks im Hintergrund. Es wird vermutlich Zeit brauchen, um diese vollständig zu integrieren. Zudem laden einige der Marketingaussagen von ToolsGroup zur Skepsis ein – zum Beispiel wird häufig berichtet, dass Kunden 15–30% Bestandsreduktion bei 99% Verfügbarkeit 7 erzielen. Solche Zahlen, auch wenn sie möglicherweise auf realen Fallstudien basieren, hängen stark von den Ausgangswerten ab (30% Reduktion im Vergleich zu was?) – ohne entsprechenden Kontext sollte man davon ausgehen, dass diese Ergebnisse nicht universell gelten. Im Bereich Automatisierung bietet ToolsGroup nach wie vor viel „Planerkontrolle“ (Nutzer können Servicestandards festlegen, Prognosemodelle auswählen etc.). Dies kann ein zweischneidiges Schwert sein: Flexibilität ist wünschenswert, jedoch widerspricht eine starke Abhängigkeit von manuellen Einstellungen dem Ideal der vollständigen Autonomie. Dennoch zeigt die jüngste Ausrichtung von ToolsGroup – die Integration reaktionsschneller KI für Preis/Promo und das Streben nach „entscheidungszentrierter Planung“ – dass es zu den ernstzunehmenden Anwärtern gehört, die supply chain Automatisierung über reine Schlagwörter hinaus voranzutreiben.
-
Aera Technology – Decision Intelligence und “Self-Driving” Execution. Aera ist in dieser Liste etwas einzigartig – es handelt sich nicht um eine traditionelle Planungssuite, sondern um eine Plattform, die speziell dafür entwickelt wurde, die Entscheidungsfindung in Echtzeitbetrieben zu automatisieren. Aeras Anspruch ist die „self-driving supply chain“, ermöglicht durch eine Cloud-Plattform, die kontinuierlich Daten durchsucht (ERP-Transaktionen, externe Signale), Machine Learning einsetzt, um Probleme zu erkennen, und Maßnahmen ausführt oder empfiehlt 8. Anstatt dass Planer monatliche Pläne erstellen, überwacht Aeras „kognitive“ Engine die supply chain rund um die Uhr. Beispielsweise könnte Aera bei einem Nachfrageanstieg oder einer Lieferverzögerung automatisch die Beschaffung anpassen, Lieferungen umleiten oder Bestellungen neu priorisieren, um einen Lagerengpass zu vermeiden. Entscheidend ist, dass Aeras Philosophie darin besteht, die Entscheidungen in das System einzubetten: Unternehmen konfigurieren, welche Entscheidungen vollautomatisch getroffen werden können, welche eine menschliche Genehmigung benötigen und welche manuell bleiben 8. Im Laufe der Zeit – wenn das Vertrauen wächst – können mehr Entscheidungen automatisiert werden. In einem Fall eines globalen CPG-Unternehmens erstellte Aera 12.000 Planempfehlungen pro Monat, von denen 74% automatisch ohne menschliches Eingreifen akzeptiert wurden 8. Das impliziert ein sehr hohes Maß an Autonomie im täglichen Betrieb der supply chain. Tatsächlich fand der VP der supply chain dieses Unternehmens Aeras Vorschläge so zuverlässig, dass einigen Planern das Überschreiben dieser Empfehlungen entzogen wurde, weil die KI in der Regel richtig lag 8. Das ist ein starkes Zeugnis für Aeras autonome Wirksamkeit. Stärken: Aera fokussiert sich auf probabilistische, Just-in-Time-Entscheidungen – es adressiert explizit das Problem „es kommt eben immer etwas dazwischen“ zwischen S&OP-Zyklen 8. Es optimiert im kurzfristigen Ausführungsfenster, indem es Angebot und Nachfrage durch die Abwägung von Service-Risiken, Kosten und Einschränkungen neu ausbalanciert (es „entscheidet Kompromisse, um finanzielle Ziele zu maximieren und gleichzeitig das Risiko zu minimieren“ 8). Im Wesentlichen agiert Aera wie ein autonomer Feuerwehrmann, der kontinuierlich die Ausnahmen bewältigt, denen menschliche Planer nicht gewachsen sind. Dies schließt eine erhebliche Lücke in herkömmlicher Software, bei der unbehandelte Ausnahmen aufgrund von Arbeitskräftemangel oder langsamen Reaktionen sich anhäufen 8. Vorsicht: Aera eignet sich hervorragend für operative Entscheidungen (wie Bestandsumschichtungen, Auftragsbeschleunigungen etc.), ersetzt jedoch keine vollständige supply chain Planungssuite. Es übernimmt nicht die langfristige Netzwerkplanung oder Preisoptimierung (Preis- und Marketingentscheidungen stehen derzeit nicht im Fokus von Aera – es geht mehr um die Ausführung in der supply chain). So kann es zwar viele Entscheidungen zur Ausbalancierung des Angebots automatisieren, dennoch benötigt man weitere Systeme für die anfängliche Nachfrageplanung, Preisstrategien etc. Ein weiterer Punkt: Die Implementierung von Aera erfordert die Abbildung der Entscheidungsmatrix eines Unternehmens und die Integration zahlreicher Datenquellen, was komplex sein kann. Den Integrationsaufwand haben sie mit dem „data crawler“-Ansatz (Daten über Systeme hinweg auslesen ohne aufwendige IT-Projekte) 8 gemildert, jedoch ist es nicht gerade Plug-and-Play. Auch sollte Aeras Behauptung, den Bestandsabfall durch Entscheidungsautomatisierung um 20% zu senken 9, als situationsabhängig betrachtet werden – die Ergebnisse können stark variieren. Zusammenfassend liefert Aera konsequent Autonomie im Moment – es ist ein wertvolles Element eines Toolkits für autonome supply chain, wenn auch ohne Preis- oder strategische Planung abzudecken.
-
Blue Yonder (JDA) – Altgedienter Riese, der einen KI-Refresh versucht. Blue Yonder (früher JDA Software) ist ein bekannter supply chain Softwareanbieter, der in den letzten Jahren versucht hat, sich als KI-getriebene, autonome supply chain Plattform neu zu positionieren. Es bietet alles von der Bedarfsplanung, Nachschub, Produktionsplanung bis hin zu Transport- und Lagerverwaltung. Blue Yonder erfüllt auf dem Papier zwar die End-to-End-Kriterien, aber seine Technologie ist ein Flickwerk aus sehr alten Legacy-Systemen, aufgesetzt mit einigen neuen KI-Komponenten. Diese Historie dämpft seine Autonomie-Versprechen. Die Kernplanungsmodule von Blue Yonder stammen aus uralten Übernahmen: i2 Technologies und Manugistics (in den späten 2000er Jahren erworben). Diese waren einst hochmodern, werden aber mittlerweile als legacy betrachtet – stark deterministisch, erfordern umfangreiche Parametereinstellungen und laufen oft auf veralteten Architekturen. (Bemerkenswert: Die Übernahme von i2 durch JDA endete in einem Desaster – i2 hatte bei einem Projekt für den Einzelhändler Dillard’s versagt, was zu einer Klage führte, die JDA 2010 246 Millionen Dollar Schadensersatz kostete. 10 Dies war eines der größten Misserfolge in der Geschichte supply chain Software, was die Zerbrechlichkeit der i2-Technologie und ihrer Versprechen unterstreicht. Blue Yonder hat diesen Ballast geerbt.) Seitdem hat Blue Yonder versucht zu modernisieren: Im Jahr 2018 erwarb es ein deutsches KI-Startup (ebenfalls Blue Yonder genannt), das sich auf die Vorhersage der Retail-Nachfrage spezialisiert hat, und benannte anschließend das gesamte Unternehmen danach um. Dies brachte echtes Machine-Learning-Talent (z. B. Deep Learning für Demand Sensing) mit sich. Blue Yonder kooperiert zudem mit Big-Data-Plattformen – beispielsweise wirbt es mit einer Allianz mit Snowflake, um den Kunden skalierbares Datenteilen und Analysen zu bieten 11. Allerdings können diese Maßnahmen die Nähte nicht vollständig verbergen: Die Planungssuite von Blue Yonder bleibt eine Sammlung von Modulen, die nicht wirklich out-of-the-box integriert sind. Laut einem Brancheninsider, „diese Module, die Blue Yonder anbietet, sind ohne kundenspezifische Anpassungen in keiner Weise integriert. Das ist bloß ein Verkaufstrick,“ und das trifft oft auch auf andere große Suites wie SAP zu 12. Anders ausgedrückt, ein Kunde, der Blue Yonder’s Bedarfs-, supply und Preis-Lösungen erwirbt, wird vor erheblichen Integrationsprojekten stehen – das Gegenteil eines nahtlosen autonomen Systems. Autonomie und KI: Blue Yonders Marketing verwendet häufig Begriffe wie „cognitive supply chain“ und „AI/ML“. In einem gesponserten Interview beschrieben Blue Yonders Strategen eine Zukunft, in der KI-Agenten in der supply chain Planung „sehen, verstehen, entscheiden und sogar handeln“ 13, indem sie präskriptive Empfehlungen geben und, falls erlaubt, Optimierungen autonom ausführen 13. Sie sprechen davon, gleichzeitig supply und demand zu optimieren, isolierte Entscheidungen aufzubrechen und so weiter 13. Die von ihnen gezeichnete Vision ist tatsächlich überzeugend, und Blue Yonder verfügt über viele Algorithmen unter der Haube (von linearer Programmierungslösungen für die Supply-Planung bis hin zu neuronalen Netzen für Demand Forecasting). Das Problem liegt nicht im Mangel an Algorithmen, sondern in der Praktikabilität und Zuverlässigkeit, dass sie unbeaufsichtigt zusammenarbeiten. Blue Yonder-Implementierungen erfordern historisch gesehen Heerscharen von Beratern, um Geschäftsregeln zu konfigurieren und Dutzende von Planungsparametern (wie Sicherheitsbestandsrichtlinien, Prognoseheuristiken, Allokationsprioritäten) abzustimmen. Zudem steht deutlich im Fokus das Handling von „Ausnahmen und Warnmeldungen“ – sprich, menschliche Planer werden benachrichtigt, wenn etwas abweicht, sodass sie eingreifen können. Dies offenbart die Realität, dass das System nicht wirklich selbstfahrend ist; viele Entscheidungen werden noch über Alarme an den Menschen zurückgegeben, was der Vorstellung widerspricht, dass KI das „banale Chaos“ übernimmt. Ein wirklich autonomes System würde nur wirklich außergewöhnliche Ereignisse eskalieren (z. B. einen Fabrikbrand, einen plötzlichen Lockdown). Im Fall von Blue Yonder können selbst moderat ungewöhnliche Nachfragespitzen oder Lieferverzögerungen eine Flut von Ausnahme-Meldungen auslösen, die von den Planern bearbeitet werden müssen. Darüber hinaus sind Blue Yonders Fähigkeiten zur Preisoptimierung nicht organisch integriert. Sie erwarben nicht Revionics (eine führende Preissoftware), wie manche erwartet hatten – dieses Unternehmen wurde 2020 von Aptos gekauft. Blue Yonder verfügt zwar über eine Preislösung (vermutlich eine Weiterentwicklung der alten JDA-Markdown-Optimierung und Partnerschaften), bleibt jedoch getrennt von der Kernplanungssuite. Ein mittelständisches CPG-Unternehmen, das kürzlich Blue Yonder’s Bedarfsplanung evaluierte, wurde für das reine Bedarfsplanungsmodul mit 2 Millionen Dollar veranschlagt und merkte an, dass der Anbieter zwar „stark auf AI/ML setze“, es jedoch als „zu sehr eine Black Box“ und unglaublich teuer empfand (andere Angebote lagen unter 1 Million Dollar) 14. Das Ergebnis? Für dieses Geschäftsvolumen erschien Blue Yonder’s schwere, Black-Box-KI nicht lohnenswert 14. Diese Anekdote unterstreicht mehrere Punkte: Blue Yonder’s Lösungen kommen oft mit hohen Kosten – teils aufgrund umfangreicher Implementierungsdienstleistungen – und die KI-Versprechen können ins Leere laufen, wenn die Nutzer die zugrundeliegende Entscheidungslogik nicht verstehen oder ihr nicht vertrauen. Integrationsprobleme und Misserfolge: Es ist auch erwähnenswert, dass Blue Yonder mit einer so umfassenden Suite gescheiterte Implementierungen vorzuweisen hat. Ein Kommentator berichtete, dass ein Blue Yonder-Projekt bei einem großen Einzelhändler (Family Dollar) im Wesentlichen auseinanderfiel – „sie zahlten eine Menge Geld für …“ 14 Während jede große Software scheitern kann, wenn sie nicht gut implementiert wird, weist Blue Yonder’s Erfolgsbilanz einige prominente Fehltritte (Dillard’s usw.) auf, was auf Komplexität und eine Diskrepanz zwischen Versprechen und Realität hindeutet. Blue Yonder’s aktuelle Cloud-Plattform, Luminate, ist ein Versuch, die Technologie neu zu schreiben und zu vereinheitlichen (und sie befindet sich nun im Besitz von Panasonic, das möglicherweise mehr in F&E investiert). Sollte Luminate wirklich das Fundament neu aufbauen, könnte Blue Yonder bei der Bereitstellung von Autonomie Fortschritte machen. Derzeit bleiben wir jedoch skeptisch. Blue Yonder sollte als leistungsstarkes Toolkit angesehen werden, das dennoch erheblichen manuellen Input erfordert, statt als ein Tesla, der selbst fahren kann. Es besitzt viele Funktionen und Algorithmen (teilweise sehr fortschrittliche), aber deren Verbindung zu einem autonomen Ganzen wird weitgehend dem Implementierer überlassen. Schließlich sollte man vorsichtig sein mit Blue Yonder’s Partnerschaft mit Snowflake und ähnlichen Datenplattformen – auch wenn sie Skalierbarkeit bieten, führt dies zu einem perversen Anreiz: Das nutzungsabhängige Preismodell von Snowflake kann hochoptimierten Code für den Anbieter finanziell unattraktiv machen. Tatsächlich bemerken Branchenbeobachter, dass Snowflake (und viele SaaS-Plattformen), da sie nach Rechenleistung/Zeit abrechnen, „einen massiven perversen Anreiz haben, Optimierungs-Makel zu belassen“ – Ineffizienzen, die zu mehr Rechenleistung (und damit zu mehr Umsatz) führen 15. Wenn Blue Yonder’s Cloud-Analysen auf Snowflake laufen, könnte man befürchten, dass die Leistungsoptimierung nicht oberste Priorität hat. Dies erinnert an die 90er, als Software auf IBM-Mainframes nach MIPS abgerechnet wurde – eine Situation, die oft zu explodierenden Kosten und dem Druck führte, die Plattform neu aufzusetzen. Zusammenfassend ist Blue Yonder ein Schwergewicht mit vielen Fähigkeiten, aber aus der Sicht autonomer Optimierung nicht der agile Vorreiter – es ist durch Legacy belastet, erfordert erhebliche menschliche Unterstützung und seine Versprechen sollten mit gesunder Skepsis betrachtet werden, sofern sie nicht durch Beweise gestützt sind.
-
Kinaxis – Vom Menschen gesteuerte „gleichzeitige Planung“ mit aufkommender KI. Kinaxis ist vor allem für seine RapidResponse-Plattform bekannt, die das Konzept der In-Memory, schnellen What-if-Simulation für supply chain Pläne vorantrieb. Die Stärke von Kinaxis liegt darin, Unternehmen zu ermöglichen, ein einheitliches Modell ihrer supply chain (einschließlich Stücklisten, supply, demand und Bestände) zu erstellen und sofort die Auswirkungen von Änderungen oder Störungen zu erkennen. Dieser „gleichzeitige Planungsansatz“ erlaubt es allen Funktionen – Bedarfsplanern, Supply-Planern und Kapazitätsplanern –, eine gemeinsame Zahlenbasis zu betrachten und in Echtzeit zusammenzuarbeiten. Allerdings war Kinaxis historisch gesehen ein Entscheidungshilfsmittel und kein automatisierter Entscheider. Es ist darauf ausgelegt, menschliche Planer zu befähigen, bessere Entscheidungen zu treffen, anstatt sie zu ersetzen. Tatsächlich fördert Kinaxis explizit die Verschmelzung von „menschlicher Intelligenz mit künstlicher Intelligenz“ in der Planung 16 – im Wesentlichen ein human-on-the-loop-Modell. Der eigene Blog betont, dass KI im supply chain Management nach wie vor „Menschen braucht“ und legt den Fokus darauf, dass „Planer schnelle, selbstbewusste Entscheidungen treffen, indem sie menschliches Urteilsvermögen mit KI kombinieren.“ 16 Diese Philosophie bedeutet, dass Kinaxis noch nicht auf vollständige Autonomie abzielt; vielmehr bietet es herausragende Transparenz, Szenarioanalysen und durch Machine-Learning unterstützte Einblicke, während es dennoch erwartet, dass die Nutzer die Kontrolle behalten. Fähigkeiten: Out-of-the-box deckt Kinaxis RapidResponse Bedarfsplanung, Supply- und Kapazitätsplanung, Bestandsplanung sowie S&OP ab. Bis vor kurzem verfügte es nicht über eigene fortschrittliche Prognose- oder Preismodule. Um diese Lücke zu schließen, erwarb Kinaxis Rubikloud in 2020, ein KI-Startup, das sich auf die Vorhersage der Retail-Nachfrage und Preisanalysen konzentriert 17. Rubikloud brachte Fähigkeiten für Prognosen, Promotionen und sogar Preisoptimierung (Preiselastizität etc.) ein, die sich an Einzelhändler richten 17. Kinaxis befindet sich derzeit im Prozess, diese KI-Funktionen in seine Plattform zu integrieren – CEO John Sicard bemerkte, dass Rubiklouds Technologie KI in alle Planungsanwendungen von Kinaxis einfließen lassen wird 17. Diese Integration sollte es Kinaxis letztlich ermöglichen, mehr Planungseingaben automatisch zu generieren (wie Basisprognosen oder Schätzungen des Promotion-Effekts), wodurch manuelle Dateneingaben reduziert werden. Dennoch fehlt Kinaxis immer noch eine echte Preisoptimierungs-Engine für den allgemeinen Gebrauch – die Rubikloud-Funktionalität dient hauptsächlich der Effektivität von Verkaufsförderungen und einfachen Retail-Preisen. Derzeit konkurriert man nicht im Bereich dynamischer Preisgestaltung für Industrien wie Distribution oder Fertigung. Architektur und Skalierbarkeit: Das herausragende Merkmal von Kinaxis war seine In-Memory-Architektur – sämtliche Planungsdaten werden in den Arbeitsspeicher geladen, um blitzschnelle Berechnungen und die sofortige Verbreitung von Änderungen zu ermöglichen. Der Vorteil liegt in der Geschwindigkeit, der Nachteil jedoch in den Kosten und in der Skalierbarkeit: Mit steigendem Datenvolumen, das Millionen von SKU-Standort-Kombinationen umfasst, steigen die Anforderungen an den Speicher (und damit die Kosten) dramatisch. In-Memory-Systeme können sehr teuer in der Skalierung werden, oft erfordern sie massive Server-Cluster oder zwingen Nutzer, den Detailgrad zu reduzieren, um in den verfügbaren RAM zu passen. Kinaxis begegnet diesem Problem, indem es in die Cloud migriert und ein elastischeres Modell annimmt, doch Power-User stehen weiterhin vor Kompromissen zwischen Modellgranularität und Leistung. Kostenseitig stellt Kinaxis eine beträchtliche Investition dar, und da es sich um ein Entscheidungshilfesystem (und nicht um einen autonomen Solver) handelt, hängt der ROI stark davon ab, dass die Planer diese What-if-Tools effektiv nutzen. Automatisierungsgrad: Kinaxis unterstützt einige Automatisierungen – etwa kann man automatisierte Trigger oder „Agents“ einrichten, um bestimmte Aufgaben zu steuern (und sie erforschen „agentic AI“, um routinemäßige Ausnahmen automatisch zu bearbeiten 18). In der Praxis nutzen die meisten Kinaxis-Kunden es jedoch vor allem, um Ausnahmen hervorzuheben und die Zusammenarbeit zu erleichtern, statt dem System zu überlassen, Entscheidungen autonom zu treffen. Warnungen und Ausnahme-Dashboards bilden einen zentralen Bestandteil der Anwendung. Dies spiegelt den traditionellen Ansatz wider: Die Software markiert Probleme (z. B. „diese Bestellung wird zu spät“ oder „Lagerbestand unterhalb des Sicherheitsbestands“) und die Menschen entscheiden, wie sie reagieren. Wie bereits angemerkt, steht diese Abhängigkeit von menschlich gesteuerten Entscheidungen – selbst bei Routinefällen – im Widerspruch zum Konzept einer autonomen supply chain. Kinaxis scheint dies zu erkennen und investiert in KI-„Co-Piloten“. Tatsächlich kündigte das Unternehmen kürzlich neue KI-Funktionen (Kinaxis „Maestro“ mit generativer KI) an, die in Zukunft „vollständig autonome Planungsabläufe“ ermöglichen sollen 18. Diese Entwicklungen sind jedoch noch zukunftsweisend; derzeit wäre es ein zu großer Schritt, Kinaxis als autonom zu bezeichnen. Es bleibt ein ausgezeichnetes Werkzeug für schnelles Neuplanen und Szenarioanalysen, überlässt die Entscheidung aber weitgehend dem Nutzer. Eine weitere Überlegung: Kinaxis hat sich, wie viele seiner Mitbewerber, durch Übernahmen erweitert – darunter Rubikloud (für KI-gesteuerte Prognosen und Preisgestaltung) und MPO (für die Auftragskoordination, 2022 erworben). Obwohl es nicht so fragmentiert ist wie Plattformen wie E2open, benötigt jede übernommene Komponente Zeit, um vollständig integriert zu werden. Falls die Preis- und Prognose-KI von Rubikloud etwas getrennt von der Hauptplanungs-Engine bleibt, wird die gemeinsame Preis-Bestands-Optimierung nicht nahtlos funktionieren. Beispielsweise könnte ein Nutzer eine Nachfrageprognose von der KI erhalten, aber dennoch manuell Sicherheitsbestände anpassen oder KI-Empfehlungen aufgrund fehlenden Vertrauens außer Kraft setzen – womit das menschliche Urteilsvermögen wieder in den Prozess eingeführt und die Autonomiekette unterbrochen wird. Zusammenfassend wird Kinaxis sehr geschätzt für das, was es leistet – interaktive Planung – aber es ist eher ein „fortschrittliches Fahrerassistenzsystem“ als ein selbstfahrendes Auto. Es steigert die Produktivität und Reaktionsgeschwindigkeit der Planer erheblich, beseitigt jedoch nicht den Bedarf an qualifizierten menschlichen Planern. Unternehmen sollten vorsichtig sein, sollten sie den Eindruck gewinnen, dass Kinaxis’ KI automatisch komplexe Zielabwägungen lösen wird; in Wirklichkeit ist die Software nur so effektiv wie die Planer und die Parameter, die sie steuern. Bis Kinaxis beweist, dass seine neuen KI-Agenten die Planung mit minimaler menschlicher Aufsicht bewältigen können, bleibt es einen Schritt hinter den wirklich auf Autonomie ausgerichteten Lösungen.
-
SAP IBP (Integrated Business Planning) – Moderne Benutzeroberfläche auf jahrzehntealten Praktiken. SAPs IBP ist der Nachfolger des berüchtigten SAP APO und Teil der SAP SCM-Suite. Da es von SAP stammt, ist es oft die Standardwahl für Großunternehmen, die SAP ERP nutzen. IBP bietet Module für Nachfrageprognosen (mit einer „demand sensing“-Funktion), Bestandsoptimierung, Versorgungsplanung und S&OP, alles vereinheitlicht auf der SAP HANA In-Memory-Datenbank. Auf dem Papier scheint es die Komponenten eines autonomen Systems zu besitzen – einschließlich eines Optimierers für mehrstufige Bestände und einiger Machine-Learning-Fähigkeiten (durch Integration mit SAP Leonardo AI und ML-basierter Prognosemethoden). In der Praxis ist IBP jedoch eine stark manuelle, beratungsgetriebene Lösung. Es erfordert erhebliche Konfiguration: Unternehmen müssen Planungsbereiche einrichten, Kennzahlen definieren, Algorithmen konfigurieren und Planungsheuristiken festlegen. Planer wählen weiterhin, welche statistischen Modelle zur Prognose angewendet werden sollen, bestimmen Sicherheitsbestandsziele oder Service-Level-Vorgaben und überprüfen manuell Ausnahmealarmierungen. Das sogenannte „demand sensing“ von IBP ist im Wesentlichen eine kurzfristige Prognoseanpassung basierend auf aktuellen Ist-Daten – ein Konzept, das nach SAPs Übernahme von SmartOps und den Arbeiten von Terra Technology stark vermarktet wurde. Dennoch hat sich „demand sensing“ weitgehend als ein Schlagwort erwiesen – eine Umbenennung der kurzfristigen Prognose, die oft nur marginale Genauigkeitsverbesserungen bringt und manchmal Rauschen einführt. In Wirklichkeit, auch wenn die Einbeziehung zusätzlicher Echtzeitdaten Prognosen verfeinern kann, kann sie die Prognoseunsicherheit nicht beseitigen; wird sie naiv angewendet, kann sie sogar überreagieren auf zufällige Schwankungen. Mehrere Anbieter (E2open, o9, ToolsGroup etc.) bieten ähnliche „demand sensing“-Funktionen 19 und machen gewagte Angaben zu Verbesserungen der Prognosegenauigkeit. Der Hype übersteigt jedoch den typischen Nutzen, weshalb wir es als vaporware betrachten, wenn es als Allheilmittel präsentiert wird. SAP IBP beinhaltet diese Funktion, aber Unternehmen berichten von gemischten Ergebnissen – es macht den Nachfrageplan keineswegs selbstheilend oder autonom ohne menschliche Überprüfung. Die gemeinsame Optimierung von Beständen und Preisen fehlt in SAP IBP. SAP enthält keinen nativen Preisoptimierungs-Engine innerhalb von IBP. Die Preisgestaltung für die meisten SAP-Kunden wird über separate Systeme oder manuelle Prozesse gesteuert (einige nutzen SAPs eigenständige Tools wie SAP Condition Contracts, während andere auf Drittanbieter-Preissoftware setzen). Infolgedessen bleibt SAPs Planung isoliert: Unternehmen können Bestände oder Produktion basierend auf einer angenommenen Nachfrage optimieren, doch eine Beeinflussung dieser Nachfrage durch Preisgestaltung liegt außerhalb des Umfangs von IBP. Dies stellt eine grundlegende Einschränkung dar, wenn es um eine wirklich autonome, end-to-end supply chain optimization geht. Technologie und Skalierbarkeit: SAP IBP läuft auf der SAP HANA-Datenbank – einer In-Memory-Spalten-Datenbank. Die Leistung kann bei Berechnungen gut sein, aber die Kosten können schnell steigen, wenn Speicher- und Rechenbedarf wachsen. Viele IBP-Berechnungen (wie das Ausführen eines globalen Optimierers oder großskaliger Prognosen) werden als Batch-Jobs über Nacht abgearbeitet und nicht sofort in Echtzeit durchgeführt. SAP hat einige raffinierte Algorithmen eingeführt (zum Beispiel einen Optimierer für Bestände, der stochastische Modelle aus der SmartOps-Übernahme nutzt, sowie einige maschinell lernbasierte Prognoseverfahren). Doch es sei angemerkt: Kein SAP-Algorithmus hat jemals bei externen Benchmarks wie dem M5-Wettbewerb überzeugt. Der Anbieter neigt dazu, in Marketingmaterialien von einer „20%-igen Verbesserung der Prognosegenauigkeit“ zu sprechen, aber ohne an offenen Wettbewerben teilzunehmen oder die Methoden im Detail zu veröffentlichen, bleiben diese Angaben Anbieterbehauptungen. Es ist sicherer anzunehmen, dass SAPs Prognose standardmäßig ist (und tatsächlich verwenden viele IBP-Kunden eher grundlegende statistische Modelle oder sogar externe Prognose-Engines, da die eingebauten Methoden nicht revolutionär sind). Das „AI“ in SAP IBP liegt überwiegend in Form von optionalen Add-ons (wie der Einsatz der SAP Analytics Cloud zur automatischen Feinabstimmung von Prognosemodellen oder die Nutzung von ML zur Erkennung von Ausnahmen). SAP fördert auch die Idee einer „autonomen supply chain“ in strategischen Visionen, doch konkrete Produkte hinken hinterher. SAPs Stärke liegt vielmehr in der Integration mit Transaktionssystemen – IBP kann problemlos SAP ERP-Daten einlesen und Pläne zur Ausführung zurückgeben. Ironischerweise bedeutet die Integration von Daten jedoch nicht die Integration von Entscheidungen. Unternehmen, die SAP einsetzen, haben oft noch Menschen, die den Plan anpassen, in SAP ERP einspeisen und dann ausführen. Fazit: SAP IBP ist zuverlässig und umfassend als Planungswerkzeug, aber kein fahrerloses Fahrzeug. Es beruht durchgehend auf vom Benutzer einstellbaren Parametern – von den Parametern der Prognosemodelle über Bestandsabdeckungsprofile bis zu Heuristiken für die Versorgungszuweisung. Diese hohe Konfigurierbarkeit ist fast das Gegenteil von Autonomie: Das System erwartet, dass Benutzer einen Großteil der Entscheidungslogik implementieren (oder zumindest Schwellenwerte definieren). SAPs Ansatz digitalisiert im Wesentlichen den traditionellen Planungsprozess, anstatt ihn mit KI grundlegend neu zu erfinden. Dadurch bleibt der Grad der Automatisierung begrenzt. IBP generiert zahlreiche Alarme und Ausnahme-Meldungen, die dazu gedacht sind, dass Planer eingreifen, was signalisiert, dass das System häufig die Kontrolle wieder an den Menschen abgibt, sobald Pläne von den Erwartungen abweichen. Es ist zudem bemerkenswert, dass kein Anbieter im SCM-Bereich stärker mit großen, maßgeschneiderten Implementierungen (und sogar Implementierungsfehlern) in Verbindung gebracht wird als SAP; wäre autonome Optimierung wirklich Plug-and-Play, wären solch hohe Servicekosten und inkonsistente Ergebnisse weitaus seltener. Zugegebenermaßen verfügt SAP über enorme Ressourcen und könnte IBP rasch weiterentwickeln. Aber Stand 2025, wenn das Ziel ein wirklich autonomes Planungssystem ist, würde IBP so viel Anpassung und manuellen Aufwand erfordern, dass es nicht die beste Wahl darstellt. Es liefert leistungsfähige Analysen und eine einheitliche Plattform für die Planung, doch die Autonomie muss gegebenenfalls durch die eigenen Bemühungen des Kunden hinzugefügt werden.
-
E2open – Hans der Alleskönner, Meister von nichts (in der Planung). E2open ist ein etwas anderes Biest: Es ist eine supply chain Plattform, die für ihr multi-enterprise Netzwerk (das viele Handelspartner verbindet) und eine Flut von Übernahmen bekannt ist, die ihr ein äußerst breites Portfolio verschafft haben. E2open umfasst heute Komponenten für Nachfrageplanung, S&OP, Versorgungsplanung, Logistik, Beschaffung und mehr, dank der Übernahme zahlreicher Unternehmen im Laufe der Jahre. Bemerkenswert ist, dass es 2016 Terra Technology (für demand sensing und multi-echelon Bestandsoptimierung) erwarb, 2017 Steelwedge (für S&OP) und jüngst Software für den Transport (BluJay, Cloud Logistics) sowie Kanal-Daten (Zyme etc.) 20. Theoretisch kann E2open über die erweiterte supply chain hinweg optimieren – von der Fertigung über den Vertrieb bis zum Endkunden – wobei Kanallagerbestandsdaten und Lieferantenbeschränkungen einbezogen werden. Es vermarktet dies als eine end-to-end Lösung auf einer einheitlichen Cloud-Plattform. Die Realität ist jedoch, dass die „Einheit“ von E2open mehr auf den Vertrieb als auf die Technologie abzielt. Die übernommenen Anwendungen bleiben diskrete Module, die hauptsächlich auf Datenebene über E2opens Netzwerk integriert und in einer gemeinsamen Benutzeroberfläche (der „Harmony“ UI) zusammengefasst sind 21. Unter der Haube gibt es jedoch weiterhin unterschiedliche Engines – beispielsweise Teras demand sensing Engine und Steelwedges Planungs-Engine – jede mit ihrer eigenen Logik. Obwohl E2open diese Komponenten beibehalten und bescheiden verbessert hat, bleibt die tiefe Integration (wie etwa eine wirklich gemeinsame Optimierung) begrenzt. Aspekte der Autonomie: E2opens Kommunikation enthält viele Schlagwörter – man spricht von „AI-driven automation“, „continuous planning and execution“, „outside-in (demand-driven) thinking“ usw. 21. Die Terra demand sensing Technologie ist in der Tat ein KI-ähnlicher Ansatz (nutzt nachgelagerte Daten und maschinelles Lernen, um Prognosen anzupassen). Und Steelwedge stellte einen Workflow für das Ausnahme-Management bereit. Betrachtet man es genauer, stützt sich E2opens Planung jedoch weiterhin auf traditionelle Methoden: statistische Prognosen, die einige externe Signale einbeziehen können, Optimierungslösungen, die mit benutzerdefinierten Parametern arbeiten, und zahlreiche kollaborative Workflows, die Menschen einbeziehen (die Begriffe „forecast collaboration“ und „exception management“ tauchen häufig in E2opens Materialien auf 21 und deuten darauf hin, dass das System Probleme markiert, die von Menschen gelöst werden sollen). E2opens Markenzeichen ist das Netzwerk – beispielsweise kann seine Plattform automatisch eine Nachfrageprognose mit einem Lieferanten teilen, dessen Zusage einholen und dann den Plan anpassen. Das ist eine nützliche Automatisierung der Kommunikation, aber es ist nicht dasselbe wie eine KI, die den optimalen Plan bestimmt. Es ist vielmehr ein Instrument zur erleichterten Koordination. Gemeinsame Optimierung von Beständen und Preisen: E2open verfügt nicht über eine Preisoptimierungslösung in seinem Portfolio. Es bietet einige „channel shaping“-Tools, die bei Dingen wie Promotionen, Incentives und demand shaping Programmen in Vertriebskanälen 21 helfen. Diese dienen jedoch eher der Verwaltung von Rabatten oder der Sicherstellung von Produktverfügbarkeit, als dass sie algorithmisch optimale Preise festlegen. Somit ist – ähnlich wie bei SAP – die Optimierungsschleife von E2open im Wesentlichen bei der Preisentscheidung unterbrochen, da es von Preisvorgaben ausgeht, anstatt diese zu wählen. Technologie und Leistung: Aufgrund seiner Herkunft variieren E2opens Komponenten. Terra demand sensing wurde vor einem Jahrzehnt als Best-of-Breed für die Feinabstimmung kurzfristiger Prognosen angesehen. Steelwedge war ein rein cloudbasiertes (aber im Wesentlichen OLAP- und tabellenkalkulationsartiges) S&OP-Tool. E2opens eigenes ältere System (von i2s „TradeMatrix“) diente der mehrstufigen Sichtbarkeit und nicht einer intensiven Optimierung. Die Sorge hierbei ist viel Legacy-Code, der hinter einer glänzenden Cloud-Fassade operiert. Kunden berichteten, dass sich das Nutzererlebnis von E2open mit der Harmony UI verbessert hat, doch die Tiefe der analytischen Fähigkeiten hat nicht mit den Konkurrenten mithalten können. Zudem hat die Wartung so vieler Module E2open offenbar überfordert – es gab Berichte, dass die Innovation ins Stocken geriet, als sich das Unternehmen auf die Integration von Übernahmen und (als börsennotiertes Unternehmen bis vor Kurzem) auf das Erreichen finanzieller Ziele konzentrierte. Tatsächlich geriet E2opens Entwicklung ins Wanken: Bis 2025 war sein Aktienkurs eingebrochen, und es wurde einer Übernahme durch WiseTech Global zugestimmt 20. WiseTech (ein australisches Logistiksoftware-Unternehmen) hatte in erster Linie an E2opens Netzwerk- und Logistikkomponenten Interesse. Es ist unklar, inwieweit in E2opens Planung und „autonome optimization“ Kapazitäten investiert wird oder ob das Portfolio möglicherweise reduziert wird. Aus einer skeptischen Perspektive: E2opens grandiose Vision einer All-in-One supply chain Lösung war mehr PowerPoint als Realität. Jedes Element kann in seiner Nische Wert liefern (Terra kann die kurzfristige Prognosegenauigkeit mäßig verbessern; die MEIO kann Bestandsreserven festlegen; usw.), aber alles so zusammenzuführen, dass die supply chain mehr oder weniger von selbst läuft, übersteigt das, was E2open bislang erreicht hat. Tatsächlich verkauft E2open oft zunächst einzelne Module, um spezifische Probleme zu lösen 21, und Kunden erweitern möglicherweise nicht die Nutzung auf die gesamte Suite. Dies legt nahe, dass selbst die Kunden es als eine Ansammlung von Werkzeugen betrachten und nicht als ein integriertes Gehirn. Bis wir Beweise sehen (z. B. Fallstudien, in denen ein Unternehmen E2opens AI automatisch über Beschaffung, Fertigung und Distribution mit minimalen menschlichen Eingriffen planen und ausführen ließ), bleibt E2open ein Ensemble mittelklassiger Lösungen und kein führender Anbieter in autonomen Optimierung.
Skeptische Zusammenfassung und Schlussfolgerung
Die Vision einer autonomen supply chain – eines Systems, das antizipiert, plant und optimal handelt mit minimalem menschlichen Eingriff – treibt das Marketing vieler Anbieter im Jahr 2025 an. Doch wie unsere Studie zeigt, sind real-world Angebote ein gemischtes Paket, das oft hinter dieser Vision zurückbleibt. Einige Akteure (insbesondere Lokad, RELEX, o9 und vielleicht die neue Inkarnation von ToolsGroup) richten ihre Technologie an den Kernanforderungen an Autonomie aus: probabilistische Prognosen für alles Unsichere, gemeinsame Optimierung von Entscheidungen über Bestände und Preise, skalierbare Rechenleistung zur Handhabung großer Sortimente und Entscheidungsrahmen, die klare Aktionen (Bestellungen, Zuweisungen, Preisänderungen) ausgeben anstatt endloser Alarme. Diese Anbieter verfügen zudem über modernere Codebasen oder zumindest über weniger Altlasten, was ihnen ermöglicht, die neuesten KI-Methoden integrierter einzusetzen. Es ist kein Zufall, dass beispielsweise Lokads Team seine Prognosekompetenz in offenen Wettbewerben 1 unter Beweis stellte – etwas, wovor sich die meisten Großanbieter zurückhielten – oder dass RELEX, ein neuerer Marktteilnehmer, die Preisoptimierung von Grund auf in seine Plattform integriert hat, anstatt sie nur nachträglich zu implementieren.
Andererseits verfügen Legacy-Anbieter (Blue Yonder, SAP, Oracle bis zu einem gewissen Grad, sogar Kinaxis) über umfangreiche Funktionalitäten, jedoch häufig in Silos, und sie stützen sich auf menschengetriebene Workflows, wobei KI als Entscheidungshilfe dient. Sie machen zudem oft Behauptungen, die an Glaubwürdigkeit grenzen: Verbesserungen, denen der Kontext fehlt, oder mit Schlagwörtern überladene Versprechen mit knappen technischen Details. Eine gesunde Portion Skepsis ist angebracht, wenn ein Anbieter damit prahlt, „200+ demand drivers zu integrieren“ oder „Prognosen für das gesamte Sortiment in Sekunden neu zu berechnen.“ In der Praxis würde die Nutzung hunderter Nachfragefaktoren wahrscheinlich zu Overfitting führen und jedes Modell überfordern (und es zu einem Albtraum in der Wartung machen – ein wahrhaftiges „black box“-Ergebnis), und „sofortige Prognosen für Tausende von SKUs“ implizieren in der Regel ein sehr einfaches Modell (da komplexe Modelle Zeit benötigen; wenn es wirklich augenblicklich ist, entspricht es womöglich nur naiver Extrapolation). Wir haben nach Beweisen für Substanz hinter solchen Behauptungen gesucht. Beispielsweise – wenn Anbieter mit „AI-powered forecasting“ werben – haben sie Methoden veröffentlicht oder an etwas wie den M5-Wettbewerb teilgenommen? Wenn nicht, gingen wir davon aus, dass diese Behauptungen reiner Marketing-Hype sind, bis das Gegenteil bewiesen ist. Ebenso hat sich „demand sensing“ vor allem seitens SAP und E2open als populärer Begriff etabliert; wir stellten fest, dass es größtenteils eine Umbenennung der kurzfristigen Prognose auf Basis der jüngsten Verkäufe darstellt, die mehreren Quellen zufolge abnehmende Erträge liefert und, wenn naiv durchgeführt, sogar kontraproduktiv sein kann 19. Keiner der Anbieter, die „demand sensing“ behaupten, hat transparente, peer-reviewte Ergebnisse geliefert, die belegen, dass es gut abgestimmte traditionelle Prognosen dramatisch übertrifft.
Ein weiteres Warnsignal sind Anbieter, die “Konfigurierbarkeit,” “hunderte von Parametern,” oder “user can define their strategy” als positiv hervorheben – das bedeutet oft, dass das System selbst nicht intelligent genug ist, um die richtige Richtlinie zu ermitteln, und diese Verantwortung somit an den Nutzer überträgt. Wahre Autonomie entsteht dadurch, dass das System lernt und sich anpasst, anstatt den Menschen dazu aufzufordern, Regeln oder Schwellenwerte hart zu kodieren. Ebenso deutet ein Schwerpunkt auf “alerting, control towers, and exception management” (wie bei Kinaxis, SAP usw.) darauf hin, dass die Software viele Probleme wieder an den Menschen abgibt. Dies steht grundlegend im Gegensatz zu einem KI-gesteuerten Ansatz, bei dem die Software die Routineaufgaben übernehmen und nur wirklich außergewöhnliche Fälle eskalieren sollte. Wenn das Wertversprechen eines Anbieters im Grunde “we’ll alert you to problems faster” lautet, ist das zwar nützlich, aber nicht autonom.
Integrationsqualität ist ein weiteres Thema : Viele Anbieter sind durch Übernahmen gewachsen, was, wie bereits besprochen, eine nahtlose Optimierung behindern kann. Die gemeinsame Optimierung von Lagerbestand und Preisgestaltung ist besonders aufschlussreich – keiner der großen, langjährigen Akteure startete mit beiden Fähigkeiten, und sie nachträglich zusammenzuführen, ist äußerst herausfordernd (unterschiedliche Daten, abweichende algorithmische Ansätze, organisatorische Silos im Kundenunternehmen etc.). Es ist nicht überraschend, dass Lokad und RELEX – die beide die Integration von Preisgestaltung mit supply chain Entscheidungen priorisieren – neuere Unternehmen sind; sie haben ihre Lösungen in einer Ära entwickelt, in der dynamische Preisgestaltung und KI bereits zentrale Überlegungen waren. Im Gegensatz dazu kämpfen ältere Anbieter nun darum, solche Komponenten hinzuzufügen (z. B. ToolsGroup kauft Evo, Kinaxis kauft Rubikloud). Der Skeptiker rechnet damit, dass diese Integrationen auf Probleme stoßen werden: Datenlatenz zwischen den Systemen, inkonsistente Zielvorgaben (ein System minimiert den Lagerbestand, ein anderes maximiert die Marge – wie sollen diese automatisch in Einklang gebracht werden?) und schlichtweg der Zeitaufwand, der technisch für die Zusammenführung von Codebasen oder Benutzeroberflächen erforderlich ist. Bis wir einen Live-Kundenfall sehen, in dem beispielsweise ToolsGroups einheitliche Preis+Lagerbestandsoptimierung reibungslos im großen Maßstab funktioniert, gehen wir davon aus, dass noch Arbeit vor uns liegt.
Skalierbarkeit und Kosteneffizienz dürfen in dieser Diskussion nicht übersehen werden. Einige Anbieter (Blue Yonder, SAP) setzen auf speicherintensive Architekturen oder Drittanbieter-Daten-Clouds, die im großen Maßstab sehr kostspielig werden können. Ein wirklich autonomes System muss regelmäßig riesige Datenmengen verarbeiten (Nachfragesignale, Lagerbestandsstatus, Wettbewerberpreise etc.). Wenn dies exorbitante Cloud-Compute-Rechnungen verursacht oder exotische Hardware erfordert, stellt das ein praktisches Hindernis für die Autonomie dar (das Unternehmen wird gezwungen sein, den Umfang der Lösung zu reduzieren, um die Kosten zu kontrollieren, was bestenfalls zu einer teilweisen Automatisierung führt). Wie erwähnt, könnten Snowflake-basierte Ansätze in diese Falle tappen – da die Anreize zur Code-Optimierung nicht übereinstimmen 15, besteht die Gefahr, dass Nutzer für jede noch so kleine Abfrage einen Aufpreis zahlen müssen. Inzwischen hat Lokad seine eigene leistungsorientierte Engine (mit einer maßgeschneiderten Programmiersprache) entwickelt, um Daten effizient zu verarbeiten 22, und Kinaxis’ In-Memory-Modell, obwohl teuer, war zumindest auf Geschwindigkeit optimiert. Die entscheidende Frage lautet: Gibt der Anbieter rechnerische Ineffizienzen (und deren Kosten) an den Kunden weiter? Falls ja, deutet dies darauf hin, dass die Lösung möglicherweise nicht autonom skalieren kann – die Kunden werden penibel darauf achten, welche Daten eingespeist werden, um hohe Kosten zu vermeiden, was dem Zweck einer KI, die Daten verschlingen sollte, zuwiderläuft.
Abschließend ist es wichtig zu betonen, dass kein Anbieter eine 100%-Erfolgsquote hat. Jedes dieser Unternehmen hat bereits gescheiterte Projekte vorzuweisen – der Unterschied liegt darin, ob sie offen damit umgehen und daraus lernen oder ob sie die Misserfolge unter Marketingkampagnen vergraben. Bei der Bewertung von Behauptungen wie „durchschnittliche X%-Verbesserung“ oder „keine fehlgeschlagenen Implementierungen“ ist höchste Vorsicht geboten. Der Dillard’s vs i2-Fall mit einem Urteil von 246 Mio. $ gegen i2 10 ist ein extremes Beispiel, das daran erinnert: Kühne Behauptungen können zu kostspieligen Enttäuschungen führen, wenn die Technik sie nicht untermauern kann. Wir bevorzugen Anbieter, die konkrete, messbare Ergebnisse mit Kontext liefern (z. B. „Kunde A im Elektronikbereich verbesserte den Servicelevel bei langsam drehenden Artikeln von 92% auf 96% und reduzierte den Lagerbestand um 10% nach einem Jahr – unter Einsatz probabilistischer Nachfrageprognosen und Preisoptimierung“). Allgemeine Behauptungen wie „reduzierte Stockouts um 30%“ ohne Kontext (Ausgangswert, Zeitraum, Bedingungen) sind praktisch bedeutungslos und wahrscheinlich ausgewählte oder sogar fiktive Daten.
Zusammenfassend lässt sich sagen, dass der Markt ab 2025 einige echte Fortschritte in Richtung autonome supply chain Optimierung gemacht hat. Einige Lösungen stechen als technisch robust und zukunftsorientiert heraus. Lokad erweist sich als unsere bestbewertete Wahl aufgrund seines ganzheitlichen, probabilitätsbasierten Ansatzes und der nachgewiesenen Exzellenz in der Prognose – es scheint tatsächlich robotergestützte Entscheidungsfindung bei Lagerbeständen und Preisgestaltung zu ermöglichen, wobei die supply chain als quantitatives Optimierungsproblem behandelt wird, das mit minimalem menschlichen Bias gelöst werden soll 22. RELEX und o9 liegen nicht weit dahinter und bringen jeweils starke KI-Referenzen sowie ein integriertes Design mit (insbesondere RELEX im Retail-Bereich). ToolsGroup entwickelt sich bewundernswert, indem sie die Notwendigkeit einer einheitlichen Logik für Preis und Lagerbestand erkennt, auch wenn ihre Autonomie nur so gut ist wie die Integration ihrer neuen Übernahmen. Aera Technology stellt einen vielversprechenden ergänzenden Ansatz dar – sie bewältigen autonome, Echtzeit-Anpassungen bei der Ausführung, die möglicherweise mit einem anderen Planungssystem kombiniert werden können. Währenddessen bieten die großen Legacy-Suites (Blue Yonder, SAP, Oracle) zwar eine breite Funktionalität, erfordern aber weiterhin erhebliches menschliches Eingreifen – weshalb man sie mit Vorsicht betrachten sollte, wenn das Ziel eine personalarme „self-driving“ supply chain ist. Sie können Teil einer digitalen supply chain Strategie sein, aber zu erwarten, dass sie wie ein autonomes System funktionieren, wird wahrscheinlich zu Frustration führen.
Letztendlich ist die Erreichung einer autonomen supply chain ebenso eine Reise wie ein Softwarekauf. Selbst die beste Plattform erfordert den Aufbau von Vertrauen – Unternehmen müssen den Algorithmen freien Lauf lassen, um die Vorteile zu erkennen, was kulturell herausfordernd sein kann. Die Anbieter an der Spitze unseres Rankings liefern die Werkzeuge, um dies zu ermöglichen, während diejenigen am unteren Ende Sie trotz all der glänzenden Versprechen wahrscheinlich wieder in ein manuelles Krisenmanagement zurückziehen würden. Wir empfehlen, sich auf Anbieter zu konzentrieren, die transparente, probabilistische Modelle, wirtschaftliche Optimierung und echte Automatisierungsanwendungsfälle betonen – und von jedem Anbieter konkrete Erklärungen zu verlangen, wie ihre KI funktioniert und wie sie validiert wurde (wenn sie dies nicht liefern können, ist äußerste Skepsis angebracht). In einem Bereich, der von Schlagwörtern überflutet ist, wird es Ihnen gut tun, an einem wahrheitsorientierten, evidenzbasierten Ansatz festzuhalten. Schließlich ist es zwar verlockend, eine supply chain „on autopilot“ zu betreiben – allerdings nur, wenn der Autopilot rigoros getestet und in turbulenten Zeiten bewährt wurde, und nicht lediglich bei einem Demo-Flug.
Fußnoten
-
Sonderausgabe: M5-Wettbewerb - International Journal of Forecasting | Supply Chain News ↩︎ ↩︎ ↩︎
-
Berührungslose Planung für KI-gesteuerte Supply Chain Exzellenz | RELEX Solutions ↩︎ ↩︎ ↩︎
-
RELEX Solutions: Marktführende Supply Chain & Retail Planung | RELEX Solutions ↩︎
-
Bericht: o9 Solutions Geschäftsanalyse & Gründungsgeschichte | Contrary Research ↩︎
-
o9 Solutions aim10x 2025: Einblick in neue agentische Funktionen in der Nachfrageplanung | ComputerWeekly ↩︎ ↩︎ ↩︎ ↩︎
-
ToolsGroup erwirbt Evo für branchenführende reaktionsschnelle KI | ToolsGroup ↩︎ ↩︎
-
ToolsGroup erwirbt das Demand-Management-Geschäft von Mi9 Retail | The Supply Chain Xchange ↩︎ ↩︎
-
Ist die “autonome supply chain” ein Hirngespinst? | Logistics Viewpoints ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Aera Technology’s Decision Intelligence reduziert Verschwendung in der supply chain um 20% | Aera Technology ↩︎
-
JDA Software: Gericht weist Schadensersatz an Dillard’s zu | Reuters ↩︎ ↩︎
-
Supply Chain Management mit Blue Yonder und Snowflake | Blue Yonder ↩︎
-
Implementierungskosten von Blue Yonder (Diskussion) | Reddit ↩︎
-
Kognitive supply chains sind die Zukunft, sagt Blue Yonder | SiliconANGLE ↩︎ ↩︎ ↩︎
-
Implementierungskosten von Blue Yonder (Thread mit Anekdoten) | Reddit ↩︎ ↩︎ ↩︎
-
Snowflake Kosten-/Leistungsanreize (Diskussion) | Hacker News ↩︎ ↩︎
-
KI-Startup Rubikloud wurde von Kinaxis für 81,4 Mio. CAD übernommen | BetaKit ↩︎ ↩︎ ↩︎
-
Kinaxis demonstriert zugängliche, KI-gestützte Supply Chains | ISG Analyst Perspective ↩︎ ↩︎
-
Vorteile von Demand Sensing für Supply Chains | ThroughPut.world ↩︎ ↩︎
-
Mit fallendem Aktienkurs verkauft sich E2open an WiseTech Global | SupplyChainDigest ↩︎ ↩︎