KI-gestützte supply chain Optimierungssoftware, Juni 2025
Einführung
Ungeachtet des Hypes um „KI-gesteuerte“ supply chain Software liefern nur wenige Anbieter tatsächlich eine gemeinsame Optimierung von Inventar, Preisen und Sortimentszusammenstellung mithilfe fortschrittlicher Algorithmen. Die meisten Lösungen behandeln diese Hebel getrennt – ein Ansatz, den diese Studie als grundlegend fehlerhaft erachtet. Wir identifizieren Lokad, RELEX Solutions, Blue Yonder, ToolsGroup und o9 Solutions als die relevantesten globalen Akteure, die die technische Grenze in der quantitativen supply chain Optimierung vorantreiben. Lokad hebt sich als führend hervor mit seiner einheitlichen, probabilistischen Entscheidungs-Engine und einem hohen Automatisierungsgrad, während RELEX und Blue Yonder breite End-to-End-Suiten bieten, die durch Altlasten und Integrationsherausforderungen gedämpft werden. ToolsGroup ist ein Pionier in der probabilistischen Inventaroptimierung, der in den Einzelhandelspreisen Fuß fasst, und o9 Solutions preist eine KI-gesteuerte integrierte Plattform an, wenngleich wir gegenüber Schlagwörtern statt Realität skeptisch bleiben. Bemerkenswert ist, dass etablierte Anbieter wie Kinaxis, SAP und Oracle – obwohl sie in der Planung prominent sind – hier für siloartige Ansätze (z. B. ausschließlich auf Angebots- oder Nachfrageplanung fokussiert) und für das bloße Anfügen von KI-Komponenten, ohne Entscheidungen tatsächlich zu automatisieren, bestraft werden. Wir wenden eine tief skeptische Perspektive an: Wir durchdringen Marketing-Phrasen, prüfen technische Belege und heben hervor, wo die Aussagen der Anbieter nicht der Realität entsprechen. Ziel ist eine transparente, technisch rigorose Darstellung des Marktes, die wirtschaftliche Ergebnisse vor Schlagwörtern priorisiert.
Die hohe Messlatte für KI-gestützte supply chain Optimierung
Um eine supply chain mit KI wirklich zu optimieren muss eine Lösung hohe Anforderungen an ihre Fähigkeiten erfüllen – weit mehr als nur hübsche Dashboards zu erstellen oder Prognosen anzupassen. Wir definieren die Goldstandard-Kriterien wie folgt:
-
Gemeinsame Optimierung von Inventar, Preisen und Sortiment: Die Lösung sollte gleichzeitig entscheiden, was vorrätig sein soll, in welcher Menge, und zu welchem Preis, während sie auch das Produktsortiment auswählt. Diese Facetten getrennt zu behandeln (wie es traditionelle Planungstools tun) ist von Natur aus suboptimal 1. Die Preisgestaltung beeinflusst die Nachfrage, die wiederum das Inventar beeinflusst; Änderungen im Sortiment betreffen beides. Beispielsweise könnte ein fortschrittliches System entscheiden, weniger von einem langsam drehenden Artikel zu lagern und ihn früher zu rabattieren, oder umgekehrt bei knappen Artikeln die Preise zu erhöhen, um Lagerengpässe zu vermeiden – alles als Teil einer einheitlichen Strategie 2 3. Anbieter, die weiterhin separate „Module“ für Prognosen, Auffüllung und Preisgestaltung verkaufen – ohne eine einheitliche Optimierung – werden in unserer Bewertung Geld auf dem Tisch liegen lassen und bestraft.
-
Probabilistische Prognose von Unsicherheiten: Der Umgang mit Unsicherheiten ist essentiell. Anstelle von Einzelpunktprognosen verwenden führende Anbieter Wahrscheinlichkeitsverteilungen für Nachfrage, Lieferzeiten, Retouren und weitere Unsicherheiten 4. Dieser probabilistische Ansatz erfasst die Bandbreite möglicher Ergebnisse (z. B. gibt es eine 10%ige Wahrscheinlichkeit, dass die Nachfrage 120 Einheiten überschreitet) statt einer naiven Ein-Zahlen-Schätzung 5. Dies ist besonders entscheidend für die volatilen Märkte von heute und Long-Tail-SKUs. Traditionelle Systeme (ältere SAP-, Oracle-Systeme etc.), die einen „Best-Guess“-Prognosewert plus einen statischen Sicherheitsbestand ausspucken, unterschätzen oft die tatsächliche Variabilität 6. Wir bevorzugen Anbieter, die stochastische Modelle nutzen, um Risiken zu quantifizieren, was Entscheidungen ermöglicht wie die Festlegung von Lagerbeständen, um beispielsweise eine 95%ige Servicewahrscheinlichkeit zu erreichen, anstatt einer Prognose blindlings zu folgen 7.
-
Wirtschaftliche Optimierung (Gewinnorientierte Entscheidungen): Die KI-Optimierung sollte sich auf geschäftliche Ergebnisse konzentrieren – also den Gewinn maximieren oder die Gesamtkosten minimieren – und nicht nur auf operative KPIs. Das bedeutet, wirtschaftliche Faktoren (Margen, Lagerhaltungskosten, Fehlmengestrafen, Preiselastizität) direkt in die Entscheidungslogik einzubetten 8. Beispielsweise wird ein wirklichen „optimales“ System ein Produkt nur dann vorrätig halten, wenn der erwartete Gewinn dies rechtfertigt, und Preise setzen, indem es eine höhere Marge gegen das Risiko unverkaufter Bestände abwägt. Viele Alt-Systeme optimieren isoliert enge Kennzahlen (wie Servicelevel oder Prognosegenauigkeit); wir hingegen suchen nach Systemen, die die Trade-offs modellieren – z. B. die Akzeptanz eines leicht niedrigeren Servicelevels, wenn dies die Rentabilität erheblich verbessert 9.
-
Automatisierung & „roboterisierte“ Entscheidungen: Das Versprechen der KI in der supply chain ist autonome oder zumindest „freihändige“ Entscheidungsfindung. Die besten Lösungen erfordern im Tagesgeschäft nur minimale menschliche Feinabstimmung – Planer sollten in überwachende Rollen wechseln, um Ausnahmen zu managen, während das System die Zahlen verarbeitet und Routineentscheidungen trifft. Daher prüfen wir die Aussagen der Anbieter zur Automatisierung genau. Wenn ein Tool sich als „autonom“ vermarktet, aber Planer zwingt, unzählige Regler (manuelle Parameter, ständige Übersteuerungen) einzustellen, ist das ein innerer Widerspruch 10. Wahre Automatisierung bedeutet, dass das System sich selbst einstellt und mit wenig manueller Intervention anpasst 11. Wir bevorzugen Anbieter, die in der Praxis einen unbeaufsichtigten Betrieb demonstrieren (automatische Erstellung von Bestellungen, Preisen etc.), und wir untersuchen, ob „KI“-Funktionen tatsächlich real sind oder nur schicke Empfehlungen, die weiterhin auf Menschen angewiesen sind. Eine vollständig roboterisierte Planung mag noch nicht zu 100% erreichbar sein, aber diejenigen, denen es am nächsten kommt, erhalten Anerkennung.
-
Skalierbarkeit und moderne Architektur: Die supply chain Optimierung im Jahr 2025 muss Big Data bewältigen – potenziell Millionen von SKU-Standort-Kombinationen, Clickstream-Nachfragedaten, mehrstufige Netzwerke – und das effizient. Wir untersuchen den Tech-Stack: Ist die Plattform cloud-native, nutzt sie verteiltes Rechnen und optimierte Algorithmen? Oder klammert sie sich an veraltete In-Memory- oder On-Premise-Architekturen, die exorbitante Hardware erfordern? Lösungen, die naiv darauf bestehen, dass alles im RAM sitzt oder veraltete Datenbanken verwenden, können in großem Maßstab prohibitativ teuer werden. Zum Beispiel könnte ein In-Memory-„Fast Calc“ bei kleinen Datenmengen funktionieren, aber bei großen Problemen ins Stocken geraten oder die Cloud-Rechnungen in die Höhe treiben 12 13. Wir belohnen Anbieter, die clevere Ingenieurskunst demonstrieren (z. B. Streaming oder spaltenorientierte Datenverarbeitung, parallele Berechnungen), um kosteneffizient in der Cloud zu skalieren 14 15. Im Gegensatz dazu ist eine starke Abhängigkeit von teurer Technik (wie einem übermäßigen Einsatz von Snowflake oder der Notwendigkeit massiver spezialisierter Server) ein Warnsignal für einen praktischen ROI 16.
-
Datenintegration & externe Intelligenz: Optimierung in der realen Welt geschieht nicht im Vakuum. Wir schätzen Systeme, die externe Daten wie Wettbewerberpreise, Marktbedingungen oder sogar IoT-Signale problemlos einfließen lassen. Die Einbeziehung von Wettbewerberpreisen oder Marktplatz-Lagerbeständen kann Preis- und Sortimentsentscheidungen erheblich verbessern 17 18. Nur wenige Anbieter machen dies gut – viele berücksichtigen nur interne historische Daten. Die Fähigkeit, Multikanal-Daten (z. B. separate Online- und Einzelhandelsströme) in ein einheitliches Planungsmodell zu integrieren, ist ebenfalls entscheidend 19. Kurzum, ein KI-System sollte über eine „Glassbox“-Erweiterbarkeit verfügen: Es ermöglicht, neue Datenquellen und benutzerdefinierte Logik transparent hinzuzufügen, um Entscheidungen zu verbessern 20. Starre Blackbox-Modelle, die Ihre einzigartigen Daten nicht berücksichtigen können, sind weniger nützlich, um einen Wettbewerbsvorteil zu liefern.
-
Erfolgsbilanz und wissenschaftliche Strenge: Wir suchen nach Belegen dafür, dass die Technik eines Anbieters tatsächlich funktioniert. Die Teilnahme an neutralen Prognose- oder Planungswettbewerben (wie dem M5-Prognosewettbewerb) oder veröffentlichte Fallstudien mit harten Zahlen haben Gewicht. Ein bemerkenswertes Beispiel: Ein Team von Lokad belegte im M5-Wettbewerb weltweit den 6. Platz (von 909 Teams) 21 und demonstrierte damit seine Fähigkeiten in probabilistischer Prognose an detaillierten Einzelhandelsdaten. Im Gegensatz dazu haben viele große Anbieter ihre KI nie öffentlich benchmarked – wenn ein Anbieter mit „KI-Genauigkeit“ prahlt, aber nie an Wettbewerben teilnimmt oder Details veröffentlicht, ist Skepsis angebracht 22. Wir überprüfen auch Fehlschläge: z. B. der berüchtigte Fall von i2 Technologies (heute Teil von Blue Yonder), dessen Optimierungssoftware bei Dillard’s so stark versagte, dass eine Jury 246 Mio. $ Schadensersatz zusprach 23 24. Solche Vorfälle (wenn auch selten und oft verschwiegen) mahnen uns, großspurige Behauptungen zu hinterfragen. Letztendlich stützen wir uns auf nachprüfbare technische Details statt auf Marketing: Wir verwerfen bezahlte Analystenberichte und rosige Kundenstimmen, denen der Kontext fehlt. (Wie ein Branchenkenner einst bemerkte: Die Magic Quadrant-Leader von Gartner spiegeln oft eher die Budgets der Anbieter als tatsächliche Produktqualität wider 25.)
Mit diesen Kriterien im Blick wenden wir uns nun den Anbietern zu. Im Folgenden bewerten wir kritisch die Technologie und den Ansatz jedes Anbieters und rangieren sie nach technischem Verdienst und der Fähigkeit, echte KI-gesteuerte Optimierung zu liefern. Jede Bewertung basiert auf Belegen – unter Heranziehung von Dokumentationen und Analysen Dritter – um echte Innovation von schlagwortbeladenen Versprechen zu unterscheiden.
1. Lokad – Einheitliche probabilistische Optimierung & „roboterisierte“ Entscheidungen
Lokad sticht als Anbieter hervor, der explizit für gemeinsame Optimierung mit modernster Technik konzipiert wurde. Im Gegensatz zu traditionellen Suiten, die aus Modulen (Prognose, Inventar, Preisgestaltung usw.) zusammengesetzt sind, bietet Lokad eine programmatische Plattform, auf der für jeden Kunden eine einheitliche Optimierungslogik implementiert wird 26. Dieser Ansatz – von Lokad als „die Quantitative Supply Chain“ bezeichnet – bedeutet, dass anstatt separate, isolierte Tools anzupassen, der gesamte Entscheidungsfluss (Prognose → Bestellung → Allokation → Preisgestaltung) als ein kohärentes Modell codiert wird. Dies erfordert anfängliche Data-Science-Arbeit, liefert jedoch eine maßgeschneiderte Engine, die alle Entscheidungen zusammen optimiert – Einkäufe, Produktion, Auffüllung, Preisgestaltung, Sortiment – anstatt Teilaspekte isoliert suboptimal zu behandeln 27.
Im Kern von Lokad steht die probabilistische Prognose. Lokad war ein Frühpionier in der Anwendung vollständiger Wahrscheinlichkeitsverteilungen für die Nachfrage, anstelle von Punktprognosen, und dies wurde in neutralen Wettbewerben validiert. Im renommierten M5-Prognosewettbewerb belegte ein Lokad-Team weltweit den 6. Platz (von 909 Teams) 21 – ein beeindruckendes Ergebnis bei einer sehr detaillierten Einzelhandelsprognose. Bemerkenswert ist, dass im M5-Prognosewettbewerb probabilistische Schätzungen (Vorhersage von Quantilen) erforderlich waren, was perfekt mit Lokads Philosophie übereinstimmt. Dies lieferte konkrete Beweise dafür, dass Lokads Technik im Umgang mit Nachfrageunsicherheiten mit den weltbesten konkurrieren kann. Noch wichtiger ist, dass Lokads Fokus nicht nur auf der Prognosegenauigkeit an sich liegt, sondern darauf, diese probabilistischen Prognosen zur Verbesserung von Entscheidungen zu nutzen. Das Unternehmen argumentiert oft, dass ab einem bestimmten Punkt die Besessenheit, eine winzige Steigerung der Prognosegenauigkeit zu erzielen, nur abnehmende Gewinne bringt; entscheidend sei ein besseres Entscheidungsmodell unter Berücksichtigung der vorhandenen Unsicherheit 28. In der Praxis bedeutet dies, dass Lokad gewisse Prognosefehler akzeptieren könnte, aber sicherstellt, dass Inventar- und Preisentscheidungen robust gegenüber diesen Fehlern sind (z. B. das Verständnis der Kosten von Out-of-Stock im Vergleich zu Überbeständen und die entsprechende Optimierung 29). Dieser Fokus auf Entscheidungsqualität anstelle von reinen Prognose-Metriken ist erfrischend – er entspricht den realen wirtschaftlichen Gegebenheiten (Gewinnwirkung) und nicht nur statistischen Kennzahlen.
Engineering und Skalierbarkeit: Technologisch ist Lokad extrem ingenieurgetrieben und cloud-native. Sie haben ihren eigenen Tech-Stack von Grund auf entwickelt, einschließlich einer maßgeschneiderten domänenspezifischen Sprache („Envision“) zum Schreiben von Optimierungsskripten 30. Das System wurde so konzipiert, dass es große Datenmengen effizient und wirtschaftlich verarbeitet. In realen Lokad-Einsätzen werden routinemäßig Gigabytes bis Terabytes an Daten (Bestellungen, Klicks, Transaktionen) in nur wenigen Stunden über Nacht verarbeitet, wobei Entscheidungen für den nächsten Tag ausgegeben werden 31. Dies erreichen sie, ohne alles gewaltsam in den RAM zu zwängen; stattdessen verwendet die Lokad-Engine memory-mapped Files, spaltenorientierte Speicherung auf der Festplatte und intelligentes Streaming, sodass Daten, die größer als der Speicher sind, durch Auslagerung auf schnelle SSDs verarbeitet werden können 32. Dieser Ansatz ähnelt einer optimierten Big-Data-Pipeline (irgendwo zwischen einem spezialisierten Spark und einer benutzerdefinierten Datenbank-Engine). Für den Nutzer bedeutet dies, dass Lokad auf Millionen von SKUs oder komplexe Netzwerke skalieren kann, ohne dass eine riesige Serverfarm oder eine exorbitante Cloud-Rechnung erforderlich ist. Lokad hebt ausdrücklich hervor, dass ihre Ausführungen überraschend wenig Hardware benötigen und so die Falle vermeiden, in der „das Klicken auf den Run-Button Hunderte von Dollar“ in Cloud-Compute kostet 15. Dies ist ein subtiler, aber entscheidender Unterschied: Er trennt sie von schwergewichtigeren Enterprise-Tools, die zwar Big Data verarbeiten können, jedoch oft mit hohen Kosten oder träge Leistung einhergehen. Lokads Fähigkeit, riesige Sortimentmengen schnell auf Standard-Cloud-Instanzen zu verarbeiten 32, ist ein großer Pluspunkt für Skalierbarkeit und Kosteneffizienz.
Da Lokads Plattform im Wesentlichen code-getrieben ist, sind Entscheidungen zu Inventar, Preisgestaltung und Sortiment keine separaten Module – sie sind in die Skripte integriert. Zum Beispiel kann man ein Envision-Skript schreiben, das Preis- und Lagerhaltungsentscheidungen gleichzeitig bewertet: „Für jedes Produkt wird die probabilistische Nachfrage bei verschiedenen Preisstufen berücksichtigt, der aktuelle Lagerbestand und die Lieferzeiten einbezogen, und dann wird der Preis gewählt, der die erwartete Marge abzüglich Lagerkosten maximiert, wobei vermieden wird, zu oft ausverkauft zu sein“ 3. Dies ist nicht hypothetisch – es ist genau die Art von Logik, die Lokad ermöglicht. Wenn ein Produkt überbestückt ist, könnte das Skript entscheiden, es abzuwerten, um den Umsatz anzukurbeln; wenn es knapp ist, könnte es den Preis erhöhen, um das Inventar den wertvollsten Verwendungen zuzuordnen 33. Nur wenige andere Anbieter erlauben ein solches Zusammenspiel zwischen Preisgestaltung und Inventar in einem Modell. Lokad generiert im Wesentlichen maßgeschneiderte Entscheidungspolitiken aus den Daten: Das Ergebnis ist nicht nur „eine Prognose“ oder „ein Plan“ – es ist eine Reihe von konkreten Entscheidungen (wie z. B. diesen Einheiten zu kaufen, diesen Preis festzulegen), die das Unternehmensziel unter Unsicherheit maximieren.
Lokad geht auch flexibel mit komplexen Effekten wie Produktkanibalisierung und Substitutionen um. Wenn Produkte miteinander in Beziehung stehen (Substitute oder Komplemente), kann dies kodiert werden, indem die richtigen Daten oder Einschränkungen in das Modell eingespeist werden. Zum Beispiel kann Lokad Beziehungen einbeziehen wie „wenn Artikel A nicht verfügbar ist, entfallen X% seiner Nachfrage auf Artikel B“, die aus historischen Out-of-Stock-Ereignissen gelernt wurden 34. Dies ermöglicht der Optimierung, den Nachfragerückfluss zwischen Produkten zu berücksichtigen – etwas, das viele Tools versäumen, da sie annehmen, dass die Nachfrage jedes SKUs unabhängig ist 35. Durch die Analyse vergangener Daten kann Lokads System Korrelationen zwischen Produkten und Kanälen aufdecken (z. B. wie der Start eines neuen, ähnlichen Artikels den Umsatz eines älteren Artikels beeinflusst hat) und diese in die Nachfrageprognosen und Entscheidungen einfließen lassen 36. Diese Fähigkeit ist entscheidend für Sortimentsentscheidungen (welche SKUs beibehalten/entfernt werden sollen) und für die Preisgestaltung (um zu vermeiden, dass beispielsweise unnötigerweise der Preis bei allen ähnlichen Artikeln gesenkt wird, wenn die Preissenkung eines Artikels den Absatz eines anderen steigern würde).
Bei der Einbindung von externen Daten und Wettbewerbsinformationen zeigt sich Lokad als äußerst flexibel. Die Plattform kann jeden vom Kunden bereitgestellten Datensatz aufnehmen – von Websites, von denen Wettbewerberpreise extrahiert wurden, über Google Trends, Wettervorhersagen bis hin zu Statistiken über die Zuverlässigkeit von Lieferanten. Tatsächlich erwähnt Lokad explizit die Integration von „externen Signalen wie der Wettbewerbspreisermittlung“ und sogar von Marketingkalendern in seine Modelle 17. Da das System eine Skriptumgebung ist, ist es relativ unkompliziert, einen neuen Dateneingang hinzuzufügen – es gibt keine fest einprogrammierten Einschränkungen, welche Faktoren berücksichtigt werden können. Zum Beispiel, wenn ein Preisindex eines Wettbewerbers deine Preisentscheidung verbessern könnte, ermöglicht Lokad die Einbindung dieses Index in die Optimierungslogik. Dies steht im Gegensatz zu vielen Standardlösungen, die von Haus aus ausschließlich interne Verkaufs- und Lagerbestandsdaten verwenden. Lokads Ansatz ist eher eine „Glass Box“ als eine Black Box: Nutzer (mit etwas Data-Science-Kenntnissen) können die Logik einsehen und anpassen, neue Prädiktoren hinzufügen und alternative Algorithmen ausprobieren. Der Nachteil ist, dass es sich nicht um eine einfache Point-and-Click-Benutzeroberfläche für einen durchschnittlichen Planer handelt – es bedarf eines “Supply Chain Scientist” zur Konfiguration 37. Lokad ist der Ansicht, dass sich dieser anfängliche Aufwand in einem System bezahlt macht, das genau zum Unternehmen passt und anschließend Routineentscheidungen wirklich automatisieren kann. Tatsächlich verfügen viele Lokad-Kunden im Grunde über ein individuell entwickeltes „forecasting & replenishment brain“; sobald es eingerichtet und validiert ist, läuft es mit minimalen Eingriffen.
Was die Automatisierung betrifft, ist Lokad wohl am ehesten als ein „robotic supply chain planner“ zu bezeichnen. Die Idee ist, dass sobald die Skripte implementiert und getestet sind, das System täglich (oder innerhalb des Tages) ausgeführt werden kann, um empfohlene Entscheidungen ohne manuelle Eingriffe zu generieren 38. In der Praxis generieren Unternehmen, die Lokad einsetzen, oft ihre Bestellaufträge, Zuteilungspläne oder Preisaktualisierungen automatisch über Lokad und lassen Planer dann eine kurze Plausibilitätsprüfung vornehmen oder die Empfehlungen direkt umsetzen. Einige führen Bestellungen sogar automatisch aus, wenn das Vertrauen hoch ist. Das bedeutet jedoch nicht, dass überhaupt kein Mensch involviert ist – stattdessen verlagert sich die Arbeitslast deutlich. Planer überwachen den Prozess und kümmern sich um Ausnahmen (z. B. spezielle Situationen, die das Modell nicht abgedeckt hat), anstatt Zahlen manuell zu berechnen. Der CEO von Lokad hat ihr Ideal als eine vollständig „robotisierte“ supply chain beschrieben, bei der die Software kontinuierlich Entscheidungen optimiert und die Menschen sich auf strategische Entscheidungen oder den Umgang mit Grenzfällen konzentrieren 38. Unsere Analyse zeigt, dass Lokads Design gut mit dieser Vision übereinstimmt: Durch den Fokus auf die Qualität der Entscheidungsmodelle und den Einsatz automatisierungsfreundlicher Technik wird der Bedarf an manuellen Anpassungen minimiert. Natürlich hängt der Erfolg immer noch von der Umsetzung ab – wenn das Modell schlecht eingerichtet ist oder die Daten mangelhaft sind, leiden die Ergebnisse (garbage in, garbage out). Lokad begegnet diesem Problem, indem es eng mit den Kunden an der Datenqualität und der Modellvalidierung arbeitet. Dennoch wird deutlich, dass Vertrauen ein wesentlicher Faktor ist: Unternehmen müssen bereit sein, einem automatisierten System zu vertrauen. Lokads Erfolgsbilanz (keine öffentlichen Fiaskos und einige starke Fallstudien) trägt dazu bei, dieses Vertrauen aufzubauen, aber potenzielle Nutzer sollten jedem „Autopiloten“ mit Vorsicht begegnen. Zusammenfassend bietet Lokad einen einheitlichen, probabilistischen und hochautomatisierten Optimierungsansatz, der in seiner Tiefe selten ist. Der Nachteil dabei ist, dass es sich nicht um eine vorgefertigte Standardanwendung handelt – es erfordert die Übernahme einer neuen Arbeitsweise (das Codieren deiner supply chain decisions). Für Organisationen, die in dieses Paradigma investieren können, setzt Lokad derzeit einen hohen Standard in der AI-powered supply chain optimization.
Quellen: Lokads Philosophie und technische Details stammen aus der offiziellen Literatur 26 21 3 sowie aus öffentlichen Benchmarking-Studien bei Forecasting-Wettbewerben 21. Ingenieurpraktiken (custom DSL, memory-mapped big data crunching) werden in ihren technischen Erläuterungen belegt 14 32. Die Integration von Preis- und Wettbewerbsdaten durch Lokad wird in deren Dokumentation und anhand von Beispielen beschrieben 3 17. Die Automatisierungshaltung des Unternehmens spiegelt sich in Interviews und Nutzerberichten wider, die darauf hinweisen, dass das System, sobald es konfiguriert ist, Entscheidungen mit minimalem manuellen Eingriff produziert 38.
2. RELEX Solutions – KI-gestützte Einzelhandelsplanung (integriert, aber mit einigen Vorbehalten)
RELEX Solutions aus Finnland hat sich rasch als eine führende Suite für Retail- und supply chain planning etabliert, die oft neben langjährigen Giganten im Bereich Forecasting und Replenishment genannt wird. RELEX vermarktet eine einheitliche Plattform, die Bedarfsprognose, automatische Wiederauffüllung, Zuteilung, Sortimentsplanung und sogar Personalplanung sowie Preisoptimierung in einem System abdeckt 39 40. Ihre Kernkompetenz (und anfänglicher Fokus) lag im Lebensmitteleinzelhandel und Omnichannel-Retail – Umgebungen mit einer riesigen Anzahl an SKUs, Filialen und komplexen Werbeaktionen. RELEX betont die Fähigkeit, über Online- und Offline-Kanäle hinweg gleichzeitig zu planen 41, was für moderne Einzelhändler von großer Bedeutung ist. Für einen E-Commerce- oder Omnichannel-Akteur besteht das Wertversprechen von RELEX in einem End-to-End-Planungsprozess: Er sorgt dafür, dass das richtige Inventar zur richtigen Zeit am richtigen Ort mit dem richtigen Preis und der richtigen Aktion vorhanden ist – alles gesteuert durch fortschrittliche Algorithmen.
Einsatz von KI und „Pragmatischer KI“: RELEX wirbt stark mit dem Einsatz von KI/ML, wobei dessen CEO Mikko Kärkkäinen häufig für „pragmatische KI“ plädiert – also für KI, die tatsächlich messbare Verbesserungen bei Retail-KPIs erzielt. Sie rühmen sich, dass ihre Machine-Learning-Modelle hunderte von nachfragebeeinflussenden Faktoren verarbeiten, um die Vorhersagegenauigkeit zu verbessern 40. Beispielsweise hat Kärkkäinen angemerkt, dass Wetter nicht nur ein Faktor ist, sondern dass „hunderte verschiedener Faktoren“ (Temperatur, Luftfeuchtigkeit etc., je nach Ort und Zeit) die Nachfrage beeinflussen können und dass die Modelle von RELEX all diese berücksichtigen 42. Dies veranschaulicht den generellen Ansatz von RELEX: ein breites Netz an prädiktiven Signalen auszuwerfen – einschließlich Wetter, Aktionen, Feiertagen, Social-Media-Trends, Wettbewerberaktivitäten und wirtschaftlichen Indikatoren – und die Algorithmen ihre Muster finden zu lassen. Der Vorteil ist, dass das System komplexe Wechselwirkungen erkennen kann (z. B. eine Hitzewelle in Kombination mit einem verlängerten Wochenende, die zu einem sprunghaften Anstieg der Getränkeverkäufe führt). Die skeptische Sichtweise ist jedoch, dass das Anführen von „hunderten von Faktoren“ mehr Marketing als Aussagekraft besitzt. In der Vorhersage kann das Hinzufügen zu vieler Eingaben zu abnehmenden Erträgen führen oder sogar die Genauigkeit beeinträchtigen, wenn das Modell Rauschen überanpasst 43. Und obwohl RELEX von einer „Glass Box“-Transparenz spricht, kann – wenn ein Algorithmus tatsächlich hunderte Variablen verwendet – kein Mensch seine innere Logik vollständig erfassen 44. Letztlich müssen sich Planer auf die Black Box verlassen. RELEX versucht dem entgegenzuwirken, indem es Werkzeuge zur Erklärung von Prognosen bereitstellt (zum Beispiel durch die Darstellung zentraler Treiber wie „dieser Anstieg ist auf Hitzewelle + Aktion zurückzuführen“), was zwar hilfreich ist, aber nur bis zu einem gewissen Grad 44 45. Der von ihnen verfochtene pragmatische Ansatz impliziert, dass ihnen theoretische Eleganz weniger wichtig ist als alles, was die Zahlen verbessert – was in Ordnung ist, aber wir weisen darauf hin, dass einige Behauptungen (wie eine enorme Fehlerreduktion durch das Hinzufügen zahlloser Faktoren) möglicherweise ausgewählte Erfolgsgeschichten sind 46.
Was die Ergebnisse betrifft, so gibt es bei RELEX zahlreiche Kundenberichte über verbesserte Kennzahlen – beispielsweise Einzelhändler, die eine höhere Vorhersagegenauigkeit und weniger Out-of-Stock-Situationen verzeichnen, vor allem in schwer planbaren Situationen wie Aktionen oder saisonalen Spitzen. Ein oft zitiertes Beispiel: Durch die Integration von Wettervorhersagen behauptete RELEX, für bestimmte witterungsempfindliche Produkte während ungewöhnlicher Wetterereignisse eine bis zu 75%ige Reduktion des Forecast-Fehlers erzielt zu haben 47. Solche dramatischen Zahlen nehmen wir mit Vorsicht – sie beziehen sich möglicherweise auf spezifische Fälle (wie ein bestimmtes Speiseeis während einer unerwarteten Hitzewelle) und nicht auf den generellen Forecast-Fehler. Dennoch deutet dies darauf hin, dass die ML-Modelle von RELEX kurzfristige Nachfrageschwankungen erfassen können, die in alten Systemen übersehen wurden. Im Wesentlichen kombiniert RELEX klassische Bedarfsprognosen mit dem, was manche als „demand sensing“ bezeichnen – also die kontinuierliche Anpassung von Prognosen anhand der neuesten Daten (POS-Verkäufe, Wetter, Google-Suchen etc.) für kurzfristige Horizonte 48. Sie propagieren die Idee eines „kontinuierlichen, automatisierten Re-Forecastings“, während sich die Bedingungen ändern 48. In der Praxis könnte dies bedeuten, dass das System täglich oder innerhalb des Tages die Prognosen für die kommenden Wochen neu berechnet, sobald neue Informationen eintreffen, anstatt bei einer monatlichen Prognose zu verbleiben. Dies entspricht modernen Best Practices und gehört zu den Stärken von RELEX.
Gemeinsame Optimierung – Inventory, Assortment, und jetzt Pricing: Historisch gesehen überzeugte RELEX besonders in den Bereichen Replenishment und Allocation – es sorgte dafür, dass jeder Store oder jedes DC den richtigen Bestand basierend auf der lokalen Nachfrage erhält, mithilfe einer Multi-Echelon-Logik. Zudem verfügte es über Funktionen zur Sortimentsplanung und sogar zur Planogramm- (Regalflächen-) Optimierung, welche für den stationären Handel entscheidend sind 49. Pricing optimization war jedoch lange Zeit eine Lücke. In Anerkennung dieses Umstands führte RELEX im Jahr 2022 ein KI-gesteuertes Preisoptimierungsmodul ein 50. Damit gaben sie effektiv zu, dass isolierte Preisfindung ein Problem darstellte, und strebten eine Vereinheitlichung mit ihrer Planungssuite an. Ihre Preislösung behandelt Basispreisentscheidungen, Aktionen und Preisnachlässe, und RELEX positioniert sie als eng integriert mit dem restlichen System 51. So kann beispielsweise ein Nutzer in RELEX eine Aktion planen, und das System empfiehlt daraufhin die optimale Discount-Tiefe und den idealen Zeitpunkt, während es gleichzeitig die Auswirkungen auf den Bestand berücksichtigt (um sicherzustellen, dass die supply chain dem Nachfrageanstieg gerecht werden kann) 52. Dies ist ein Schritt in Richtung gemeinsamer Optimierung: Preisgestaltung und Supply Planning in einem Regelkreis. Es ist noch unklar, ob der RELEX-Algorithmus Preis und Bestand wirklich simultan in einem Modell optimiert oder ob es sich um einen gut synchronisierten sequentiellen Prozess handelt (zuerst Preis, dann Anpassung des Bestands). Idealerweise würde ein einziger Algorithmus die gewinnmaximierende Kombination aus Preis + Stock unter Berücksichtigung aller Einschränkungen wählen. Wir vermuten, dass RELEX dort noch nicht ganz angekommen ist – vermutlich schlägt das Preis-Modul Preise basierend auf der Nachfrageelastizität vor, woraufhin das Inventory-System in einem zweiten Schritt reagiert. Allerdings, da alles in einer Plattform und in einem Datenmodell vereint ist, kann der Abstimmungsprozess sehr eng erfolgen. Zumindest wird sichergestellt, dass Aktionen oder Preisänderungen, die von Planern simuliert werden, gegen die Verfügbarkeit des Bestands geprüft werden (z. B. „Plane keine große Aktion, wenn unsere DCs nicht genügend Bestand haben; oder falls doch, meldet das System ein Supply-Risk“) 53. Das Marketing von RELEX behauptet, dass es Preisgestaltung und Aktionen mit der supply chain in Einklang bringt, sodass die Pläne realistisch und umsetzbar sind 54 – wodurch die Silos zwischen den Abteilungen für Merchandising und supply chain aufgebrochen werden.
Aus der Sicht der User Experience wird RELEX dafür gelobt, all diese Funktionen in eine kohärente Benutzeroberfläche zu integrieren. Ein Merchant Planner und ein Supply Planner können dieselben Forecasts einsehen und die gleichen Einschränkungen in RELEX erkennen 55. Dies stellt eine deutliche Verbesserung gegenüber Unternehmen dar, die für jede Funktion separate Werkzeuge (oder Tabellenkalkulationen) verwenden, die nicht miteinander kommunizieren. Allerdings gilt: Integration ist nicht gleich echte Optimierung. RELEX bietet eine einheitliche Ansicht und stellt Konsistenz sicher (man wird nicht erleben, dass das Pricing-Team freudig eine Aktion startet, die die supply chain nicht unterstützen kann, sofern RELEX korrekt eingesetzt wird). Doch löst RELEX tatsächlich das optimale Zusammenspiel von Preis und Bestand gemeinsam oder erleichtert es den Menschen lediglich die Koordination dieser Entscheidungen? Unsere skeptische Einschätzung ist, dass es bislang eher Letzteres ist: Das Pricing-Tool findet einen guten Preis basierend auf Elastizität und Umsatzzielen; das Inventory-Tool reagiert daraufhin mit einem Supply-Plan. Beide Systeme informieren sich gegenseitig, aber es handelt sich nicht notwendigerweise um einen einzigen, gewinnmaximierenden Algorithmus, der beides abdeckt 56. Die Erreichung einer ein-schrittigen, ganzheitlichen Optimierung ist komplex und etwas, das nur sehr spezialisierte Ansätze (wie der von Lokad) leisten, behaupten. Dennoch verdient RELEX Anerkennung für die enge Integration – es ist vermutlich eine der nahtlosesten Planungssuiten, was Daten- und UX-Integration betrifft.
Architektur und Skalierbarkeit: Der Tech-Stack von RELEX ist äußerst fortschrittlich und für seine Geschwindigkeit im großen Maßstab bekannt. Interessanterweise haben die Gründer von RELEX (mit akademischem Hintergrund) in den frühen Tagen eine maßgeschneiderte in-memory columnar database Engine entwickelt, um großmaßstäbliche Forecasts schnell zu bewältigen 57. Diese „Live DataBase“ ermöglichte es ihnen, täglich Forecasts pro SKU-Store zu berechnen, während Wettbewerber wöchentlich oder monatlich arbeiteten – und das auf relativ gewöhnlicher Hardware durch optimierte Speichernutzung. Im Wesentlichen aggregiert und organisiert RELEX die Daten vorab, um einen schnellen Abruf und zügige Berechnungen zu gewährleisten. Dies war ein Alleinstellungsmerkmal beim Ersatz veralteter Tools: Viele Fallstudien berichten, dass RELEX es Planern ermöglichte, von der aggregierten Planung zu einer sehr detaillierten Planung überzugehen, weil das System weitaus mehr Daten verarbeiten konnte, ohne ins Stocken zu geraten 58. Für einen E-Commerce-Kontext bedeutet dies, dass RELEX wahrscheinlich in der Lage ist, Planungen auf SKU-Ebene für Zehntausende oder gar Millionen von Artikeln durchzuführen und dabei die Vorhersagen regelmäßig zu aktualisieren. Sie unterstützen Cloud-Deployments und können horizontal skalieren. In der Branche haben wir bisher keine Beschwerden über die Skalierbarkeit von RELEX festgestellt – tatsächlich besteht ihr Verkaufsargument oft darin, Excel oder alte Systeme zu ersetzen, die nicht in der Lage waren, das Detailniveau zu verarbeiten, das RELEX bietet 59. Ein Vorbehalt: Dieser in-memory Ansatz könnte teuer werden, wenn er missbraucht wird (wenn man buchstäblich versucht, eine Simulation von einer Million SKU x 1000 Tagen im Speicher zu halten). Das Design von RELEX ist jedoch effizient genug, dass dies bislang nicht als ernsthaftes Problem gemeldet wurde. Sie bedienen huge grocery chains (mit Tausenden von Filialen und insgesamt Millionen von SKUs), was noch mehr Daten bedeutet als viele reine E-Commerce-Unternehmen verarbeiten – sodass das Volumen kein Problem darstellt. Zusammenfassend ist die Architektur von RELEX modern und schnell, auch wenn sie auf einer intensiven Speichernutzung beruht. Vermutlich haben sie sie gut optimiert, aber Nutzer sollten dennoch auf eine gute Datenhygiene achten (garbage in wird eben nur zu schnellem garbage out führen).
Automation und Benutzerrolle: RELEX erwähnt häufig den Übergang zu „autonomer Planung“, betont jedoch auch unterstützte Entscheidungsfindung. Sie versuchen nicht explizit, Planer zu eliminieren; stattdessen liegt ihr Fokus darauf, Planer effizienter zu machen. Das System kann Prognosen, Bestellungen und sogar Filialtransfers oder Planogramme automatisch generieren und vorbefüllen, aber normalerweise wird es zunächst von einem Menschen überprüft/genehmigt – zumindest anfangs 60 61. Mikko Kärkkäinen hat das Ideal als „autonome Einzelhandelsplanung, die selbstlernend und selbstabstimmend ist“ beschrieben und dabei die Silos zwischen den Planungsfunktionen aufgebrochen 62. In der Praxis betreiben viele RELEX-Kunden vermutlich einen halbautomatischen Modus: Die Software übernimmt 90 % der schweren Arbeit, während Planer Ausnahmen managen oder die Aufsicht behalten 63. Beispielsweise gibt es bei RELEX „Prognose-Ausnahmen“ – wenn eine KI-generierte Prognose verdächtig abweicht (zum Beispiel 300 % höher als im letzten Jahr ohne erkennbaren Grund), markiert das System diese zur Überprüfung, anstatt sie einfach durchlaufen zu lassen 64. Diese Art von Schutzmaßnahme ist wichtig, um Vertrauen aufzubauen. Mit der Zeit, wenn die KI gut performt, könnten Planer lernen, ihr mehr zu vertrauen und seltener einzugreifen. RELEX behauptet, dass ihr System sich selbst abstimmt (indem es seine Parameter anpasst, sobald mehr Daten eingehen), sodass im Laufe der Zeit weniger manuelle Eingriffe erforderlich sein sollten 65. Wir fanden ein Beispiel, in dem RELEX sagte, dass ihre Implementierung die Planer von der ständigen Problembewältigung befreit hat, sodass sie sich auf strategische Maßnahmen konzentrieren konnten 66 – was impliziert, dass diese Unternehmen das System die meisten täglichen Aufgaben ausführen ließen. Allerdings kann die Realität chaotisch sein: Einige von einer Drittpartei gesammelte Nutzerfeedbacks stellten fest, dass Teile des RELEX-Systems „umständlich“ sind oder Workarounds für bestimmte Einschränkungen (wie die Modellierung von Lkw-Kapazitätsgrenzen) erforderlich machten 67. Das zeigt, dass Benutzer trotz der Autonomieansprüche möglicherweise an die Grenzen des eingebauten Systems stoßen und einige Probleme manuell lösen müssen. RELEX ist keineswegs magisch; es reduziert die manuelle Arbeit erheblich, aber der Eindruck eines komplett freihändigen Systems wäre derzeit übertrieben.
Bekannte Probleme und Implementierung: Im Gegensatz zu einigen Konkurrenten hatte RELEX keine öffentlichen Fehltritte oder Klagen von hohem Profil – im Allgemeinen genießt es einen guten Ruf. Dennoch bedeutet das, dass als schnell wachsendes Unternehmen einige Implementierungen wahrscheinlich hinter dem Verkaufsvorteil zurückbleiben. Insiderberichte deuten darauf hin, dass RELEX in sehr großen, komplexen Einzelhandelsumgebungen auf Herausforderungen stoßen kann – oft nicht, weil die Software schlecht ist, sondern aufgrund von Schwierigkeiten bei der Datenintegration oder organisatorischen Veränderungsproblemen 68 69. Wenn die Daten eines Einzelhändlers chaotisch sind, wird kein KI-System das magisch beheben; RELEX kann schlechte Pläne generieren, wenn es mit schlechten Daten gefüttert wird (und wer wird dann beschuldigt: das Tool oder die Daten?). Darüber hinaus hat RELEX viele Kunden schnell integriert, was ihre Dienstleistungen und den Support strapazieren kann. Einige Kunden erhalten möglicherweise nicht so viel Unterstützung oder Anpassung, insbesondere im Vergleich zu einem kleineren Anbieter wie Lokad, der sehr eng mit jedem Kunden zusammenarbeitet. Dies ist per se kein Softwarefehler, aber es beeinflusst die Ergebnisse – ein Tool ist nur so gut wie seine Implementierung und Akzeptanz. Anbieter lieben es, ihre bestmögliche Rendite (ROI) zu präsentieren (z. B. „Ein Einzelhändler reduzierte mit RELEX den Lagerbestand um 30 %!“), aber selten veröffentlichen sie Fälle, in denen der ROI nicht realisiert wurde. Wir vermuten, dass RELEX, wie alle Anbieter, Projekte hatte, die die versprochenen KPIs nicht erreichten. Vielleicht vertrauten die Planer dem System nicht genug und überschrieben es, oder Datenprobleme verhinderten einen optimalen Betrieb. Diese Dinge sind öffentlich schwer zu verifizieren. Interessanterweise gab sogar ein Konkurrent (Blue Yonder) zu, dass die meisten Projektfehler aus mangelhaftem Änderungsmanagement und Datenintegration resultierten, nicht aus algorithmischen Fehlern 70. Das Gleiche gilt wahrscheinlich für RELEX – der Erfolg hängt davon ab, die Daten zu säubern und von den Nutzern die Zustimmung zu erhalten, die Empfehlungen tatsächlich anzuwenden.
Ein weiterer Aspekt: RELEX integriert tendenziell viele externe Daten für den Einzelhandel (z. B. Fußgängerzahlen von Mobiltelefonen, Google Trends für Suchinteresse). Einige davon sind für reinen E-Commerce weniger relevant (Fußgängerzahlen offensichtlich), aber es zeigt die Philosophie von RELEX, alle verfügbaren Signale zu nutzen 71. Für einen E-Commerce-Akteur könnte RELEX Webanalysedaten oder Online-Wettbewerberpreise aufnehmen, falls diese bereitgestellt werden, obwohl das Standardangebot auf Einzelhandels-Szenarien abgestimmt ist. Sie greifen möglicherweise nicht automatisch auf Wettbewerberpreise zu wie ein dediziertes Preistool, aber falls der Kunde diese Daten liefert, könnte die Preisoptimierung von RELEX diese berücksichtigen.
Fazit zu RELEX: Wir bewerten RELEX sehr hoch für seinen umfassenden, integrierten Ansatz und den modernen Technologiestack. Es erfüllt eindeutig viele Kriterien: Es verarbeitet Sortiment, Lagerbestand und nun auch Preisgestaltung auf einer einzigen Plattform; es nutzt Machine Learning umfangreich (vielleicht manchmal bis an seine Grenzen); es kann mit riesigen Datenmengen skalieren und tut dies effizient durch sein Design; und es unterstützt ein gewisses Maß an Automatisierung, wenn auch mit weiterhin eingebundenen Planern. Die Vorbehalte sind, dass einige der KI-Ansprüche möglicherweise übertriebener Marketinghype sein könnten (hundert Faktoren klingen beeindruckend, liefern aber möglicherweise nicht immer proportional höhere Ergebnisse 43) und dass die „gemeinsame Optimierung“ möglicherweise nicht mathematisch rein ist – es ist wahrscheinlich eher ein integrierter Planungsworkflow als ein einzelnes einheitliches Optimierungsmodell für Preis+Lagerbestand (außer in begrenzten Fällen). Außerdem, da es sich um eine größere Suite handelt, bietet es möglicherweise nicht die gleiche maßgeschneiderte Anpassung, die ein Plattformansatz (wie bei Lokad) bieten kann, und es könnte mehr Aufwand erfordern, es in einer großen Organisation zu implementieren (Datenintegration, Benutzerschulungen usw.). Wir stellen ebenfalls fest, dass RELEX den Fokus auf den Einzelhandel legt – eine komplexe manufacturing supply chain könnte Lücken bei Dingen wie detaillierter Produktionskapazitätsoptimierung aufweisen, während es im Einzelhandel erstklassig ist. Insgesamt ist RELEX ein führender Anbieter in der Next-Gen Einzelhandelsplanung, der auf KI-gesteuerte und silofreie Planung zusteuert, in dem Bewusstsein, dass es noch nicht vollständig autonom (und nicht ohne Integrationsprobleme) ist. Unsere Skepsis richtet sich hauptsächlich darauf, ihre kühnsten Behauptungen genau zu hinterfragen und sicherzustellen, dass Nutzer es nicht als Wundermittel ansehen – Erfolg mit RELEX erfordert weiterhin Arbeit an Daten und Prozessen.
Quellen: Die RELEX-Fähigkeiten werden aus Unternehmensmaterialien und CEO-Interviews zusammengefasst 40 42. Die Einführung der Preisoptimierung im Jahr 2022 wird in Pressemitteilungen erwähnt 50. Mikko Kärkkäinens Kommentare zur KI („hundert Faktoren“, „selbstlernende, selbstabstimmende Planung“) sind in Fachartikeln dokumentiert 42 62. Nutzerfeedback (wie umständliche Teile, Probleme mit Frachtbeschränkungen) wurde über einen SelectHub-Bewertungsaggregator berichtet 67. Wir zitieren auch Belege für RELEXs integrierten Ansatz und den fortbestehenden Bedarf an menschlicher Aufsicht 53 60. Vergleiche mit Branchenherausforderungen (Blue Yonders Hinweise auf Projektfehler 70) und die Nutzung externer Daten 71 liefern Kontext zu den Stärken und Begrenzungen von RELEX.
3. Blue Yonder – Legacy-Juggernaut im Umbruch (Versprechen vs. Realität)
Blue Yonder (ehemals JDA Software) ist einer der Riesen im Bereich der supply chain Software, mit einer Historie, die Jahrzehnte in der Einzelhandels- und manufacturing supply chain Planung zurückreicht. Ihre Suite ist immens und deckt alles ab, von der Nachfrageprognose und Auffüllung über Lagerverwaltung, Transport, Einsatzplanung der Mitarbeiter bis hin zur Preisoptimierung seit 2020 (nach der Übernahme des Preisspezialisten Revionics) 72 73. Wenn Sie ein großer Einzelhändler oder ein CPG-Unternehmen sind, hat Blue Yonder wahrscheinlich für jedes Element Ihrer supply chain eine Lösung. Für einen E-Commerce- oder Omnichannel-Akteur bietet Blue Yonder Funktionen, die für die größten Einzelhandelsbetriebe der Welt entwickelt wurden. Allerdings bringt diese Breite auch Altlasten mit sich: Viele der Module von Blue Yonder waren ursprünglich separate Produkte (oft aus Übernahmen) und deren Integration zu einem konsistenten, modernen Ganzen ist ein fortwährender Kraftakt. Die Geschichte von Blue Yonder mit mehreren Übernahmen (JDA selbst entstand aus Fusionen von i2 Technologies, Manugistics etc.) bedeutet, dass sich ihr Technologiestack wie ein Flickenteppich zusammensetzt 74.
Gemeinsame Optimierung und Integration: Auf dem Papier erfüllt Blue Yonder alle Kriterien für gemeinsame Optimierung. Es verfügt über eine Nachfrageprognose-Engine („Luminate Demand Edge“), Werkzeuge für Lagerverwaltung und Auffüllung (Multi-Echelon-Optimierung usw.) und eine Preisoptimierungs-Engine (Revionics, jetzt umbenannt in Luminate Pricing) 72 75. Das Unternehmen vermarktet eine End-to-End-Vision, in der diese Komponenten zusammenarbeiten: Zum Beispiel speist die Nachfrageprognose sowohl den Lagerplan als auch die Preisentscheidungen; die Preisoptimierungs-Engine berücksichtigt die Nachfragesteifheit (im Grunde prognostiziert sie, wie sich Preisänderungen auf die Nachfrage auswirken); und alles wird auf ihrer „Luminate Platform“ vereinheitlicht. Theoretisch könnte man eine koordinierte Planung erreichen, indem man alle Blue Yonder-Module nutzt: So wird sichergestellt, dass die Maßnahmen des Pricing-Teams durch Versorgungseinschränkungen informiert werden und umgekehrt. In der Praxis waren diese Module historisch betrachtet disparate und nur lose durch Datenschnittstellen verbunden. Revionics hatte beispielsweise bei der Übernahme eine eigene Datenbank und Benutzeroberfläche; die Verbindung mit der JDA-Nachfrageplanung erforderte IT-Integration. Blue Yonder hat diese Fragmentierung erkannt und 2023 eine umfassende architektonische Überholung angekündigt: der Übergang zu einem einheitlichen Datenmodell und einer Plattform, bei der Snowflake (ein Cloud Data Warehouse) intensiv als einheitliche Datenschicht genutzt wird 76 77. Der CEO beschrieb eine Vision eines „supply chain operating systems“, bei dem alle Blue Yonder-Apps Daten fließend über dieses gemeinsame Cloud-Repository austauschen 77. Im Wesentlichen wollen sie die Notwendigkeit veralteter Batch-Integrationen zwischen, sagen wir, Nachfrageplanung und Preisgestaltung beseitigen – stattdessen würde alles in nahezu Echtzeit auf dieselben Cloud-Daten zugreifen und diese aktualisieren.
Diese Vision ist vielversprechend, weil sie eine wesentliche Schwäche angeht (isolierte Systeme). Wenn Blue Yonder dies umsetzen kann, könnte ein Kunde eine echte One-Stop-Planung haben: keine Notwendigkeit mehr, kundenspezifische Schnittstellen zur Verbindung von Modulen zu entwickeln, zumindest nicht unter den Blue Yonder-Komponenten 78. Allerdings begegnen wir ihr mit einiger Skepsis. Es ist eine herkulische Aufgabe, eine Suite dieses Umfangs so umzugestalten, dass alles auf einer Plattform läuft. Blue Yonder versucht effektiv, viel alten On-Premise-Code in Cloud-Microservices umzuwandeln, die Snowflake als einzige Wahrheitsquelle verwenden. Ihr eigener Beratungspartner warnte, dass, obwohl die Vision gut sei, „die vollständige Beseitigung von Integrationen möglicherweise zu optimistisch ist“ 79. Große Unternehmen haben Daten überall; nicht alles passt problemlos in Snowflake 79. Selbst wenn sich die internen Module von Blue Yonder vereinheitlichen, wird weiterhin eine Integration mit anderen Systemen (SAP ERP usw.) notwendig sein, sodass es nicht plug-and-play sein wird. Zudem verläuft der Übergang schrittweise – Blue Yonder führt keinen „Big-Bang“-Ersatz durch (was Kunden verprellen könnte); sie modernisieren die alten Module inkrementell zu Microservices und ermutigen die Kunden, in ihrem eigenen Tempo zu migrieren 80. Das bedeutet, dass heute viele Blue Yonder-Kunden noch eine Mischung aus Alt und Neu nutzen: z. B. JDA-Nachfrageplanung lokal und vielleicht Revionics als SaaS, mit einigen Datenfeeds dazwischen 81. Die vollständig einheitliche Plattform könnte erst in ein oder zwei Jahren verfügbar sein, und selbst dann könnten bestehende Kunden Jahre für die Migration benötigen. Somit erfordert „gemeinsame Optimierung“ mit Blue Yonder derzeit oft noch manuelle Koordination. Zum Beispiel könnte ein Einzelhändler Blue Yonder für Preis- und supply planning nutzen, aber sein Planungsteam muss sicherstellen, dass die Ergebnisse des Pricing-Teams in die supply planning-Läufe einfließen – es ist noch nicht automatisch ein ganzheitlicher Prozess 82. Wir kritisieren Blue Yonder in gewisser Weise dafür: Sie haben alle Puzzleteile, aber der Zusammenhalt ist noch nicht so eng, wie es ihr Marketing impliziert, zumindest noch nicht.
Fortgeschrittene Algorithmen vs. Legacy-Technologie: Blue Yonder rühmt sich vieler fortgeschrittener Algorithmen. Das ursprüngliche Blue Yonder (ein deutsches KI-Startup, das JDA 2018 übernahm) brachte viel Machine-Learning-IP für die Einzelhandelsprognose mit 83. Blue Yonder (das Unternehmen) spricht heute davon, in seinen Apps „erklärbare KI, Machine Learning und sogar generative KI“ einzusetzen 83. Sie verfügen über tiefgehende Expertise im Bereich Operations Research, etwa für Netzwerkoptimierungen, die über Jahrzehnte von i2 und Manugistics (ihren Vorläuferunternehmen) entwickelt wurden. Allerdings muss man hier sehr vorsichtig sein: Blue Yonder hat einen enormen technischen Altlast. Ein Großteil ihres Codebestands stammt aus den 1990er und frühen 2000er Jahren und wurde für eine On-Premise-Welt entwickelt. Ja, sie haben einen Teil davon modernisiert und in moderne Benutzeroberflächen oder Microservices verpackt, aber darunter tragen einige Module noch Annahmen und Einschränkungen aus älteren Architekturen (z. B. die Notwendigkeit einer Oracle-Datenbank oder den Betrieb als einzelner Prozess, etc.) 84 85. Wenn das Marketing von Blue Yonder von „kognitiver, ML-gesteuerter Planung“ spricht, fragen wir: Handelt es sich tatsächlich um neue Technologie oder ist es alter Wein in neuen Schläuchen 86 87? Oft handelt es sich um inkrementelle Verbesserungen: Zum Beispiel könnte ihre Demand Planning jetzt ein ML-Modell für saisonale Anstiege oder Wettereinflüsse nutzen – was gut ist – aber das übergeordnete System könnte immer noch dem alten ähneln, nur mit einem zusätzlich integrierten ML-Komponent 88. Es gibt einen Unterschied zwischen dem bloßen Einsetzen einer ML-Prognose in eine Legacy-Planungsmaschine und der Neugestaltung der Planungsmaschine für KI. Blue Yonder befindet sich im Übergang, sodass Teile davon auf dem neuesten Stand und andere als nachgerüstete Legacy gelten.
Eine konkrete (und warnende) Geschichte: i2 Technologies, das nun innerhalb von Blue Yonder weiterlebt, war bekannt für leistungsstarke Optimierungssoftware und einige Projektkatastrophen. Das berüchtigtste Beispiel war Dillard’s vs. i2. Nachdem JDA (Blue Yonder) i2 im Jahr 2010 übernahm, erbte es eine Klage, in der Dillard’s (eine Warenhauskette) aufgrund einer gescheiterten i2-Implementierung aus den 2000er Jahren klagte. Die Geschworenen sprachen Dillard’s Schadensersatz in Höhe von ~$246 Mio. zu und stellten im Grunde fest, dass die Software von i2 ihre Versprechen nicht einhielt 23 24. Dies ist eines der größten Urteile in der Unternehmenssoftware. Obwohl dies vor etwa 15 Jahren geschah – man könnte also argumentieren, dass es zur alten Geschichte gehört – unterstreicht es einen Punkt: Selbst bekannte Anbieter können kolossale Misserfolge haben, wenn die Technologie überversprochen oder nicht richtig implementiert wird. Blue Yonder musste diesen Fall (bei einer Berufung für einen geringeren Betrag) beilegen und hat vermutlich harte Lektionen daraus gelernt. Wir erwähnen dies nicht, um Blue Yonder herauszustellen (jeder Anbieter hat einige Misserfolge), sondern um Skepsis zu bestärken: Nur weil ein Anbieter groß und „branchenführend“ ist, garantiert das keinen Erfolg.
Blue Yonder muss zugutehalten werden, dass sie in den letzten Jahren offener mit diesen Problemen umgegangen sind. Auf einem Partnertreffen 2023 sprach Blue Yonder offen über „red projects“ (scheiternde Implementierungen) und stellte fest, dass die Hauptursachen nicht in schlechten Algorithmen lagen, sondern in „ineffektivem Change Management und Problemen bei Datenmigration/-integration“ 70.
Aktuelle Fähigkeiten zur KI-Optimierung: Untersuchen wir Blue Yonders Fähigkeiten in unseren Schlüsselsektoren, circa 2024:
-
Nachfrageprognose: Blue Yonders Luminate Demand (insbesondere das neuere „Demand Edge“-Modul) nutzt maschinelles Lernen und kann zahlreiche externe Faktoren wie Wetter, Ereignisse und Preissignale einbeziehen 89. Außerdem haben sie sich der Unterstützung probabilistischer Prognosen zugewandt – vielleicht nicht so nativ wie Lokad oder ToolsGroup, aber sie ermöglichen es Planern, mit Konfidenzintervallen oder Szenariobereichen zu arbeiten, anstatt mit nur einer Zahl 90 91. Blue Yonders Ansatz, wie in ihren Unterlagen beschrieben, besteht darin, die Prognose kontinuierlich von Grund auf neu aufzubauen unter Verwendung der neuesten Daten, anstatt beispielsweise ein festes saisonales Profil zu verwenden und es anzupassen 92. Sie behaupten, dass sich das Modell mit jeder neuen tatsächlichen Zahl selbst korrigiert und automatisch für Kalenderverschiebungen usw. anpasst 93. Dies entspricht modernsten Prognosemethoden und spiegelt wider, was RELEX und andere tun (rollierende Updates, keine statischen Parameter, die von den Planern zurückgesetzt werden müssen). Blue Yonder erwähnt auch explizit das Einfangen von Unsicherheiten und die Kostenabwägungen von Über-/Unterprognosen 91. Zum Beispiel diskutieren sie das Verständnis des Risikos von Lagerengpässen im Vergleich zu Überbeständen und das Treffen von Kompromissentscheidungen – was impliziert, dass wirtschaftliche Optimierungsgedanken in der Verbindung von Prognose und Planung mitschwingen 91 94. Alles in allem ist Blue Yonders Prognosefähigkeit auf dem Papier stark und modern. Allerdings haben wir keine neutralen Benchmarks ihrer Genauigkeit gesehen (sie haben sich beispielsweise nicht öffentlich der M5 angeschlossen) 95, sodass Behauptungen über Überlegenheit schwer zu verifizieren sind.
-
Inventar & Nachschub: Dies ist seit jeher Blue Yonders Stärke (seit den Tagen von JDA und i2). Sie bieten eine robuste Multi-Echelon-Inventaroptimierung (MEIO), die optimale Bestandsniveaus in einem Distributionsnetzwerk ermitteln kann, wobei Faktoren wie Lieferzeitvariabilität, Nachfrageunsicherheit, gewünschte Servicelevel usw. berücksichtigt werden 96. Blue Yonders Tools können empfohlene Bestellmengen, Sicherheitsbestände und Nachschubpläne generieren. Historisch waren diese Algorithmen eine Mischung aus regelbasierten und OR-(Operations Research)-Modellen – beispielsweise durch den Einsatz von Heuristiken oder linearen Programmier-Solvern zur Allokation von Inventar. Heutzutage integrieren sie wahrscheinlich ML-basierte Nachfrageprognosen in diese Berechnungen, aber die Kernlogik (wie die Optimierung der Lagerpositionierung) stützt sich auf erprobte OR-Methoden. Blue Yonder kann sicherlich groß angelegte Planung bewältigen – viele große Einzelhändler (Fortune 500) haben JDA für die Laden-Nachschubplanung genutzt, was analog zu einer Planung für ein großes e-commerce DC ist. Wir halten Blue Yonders Fähigkeit zur Inventaroptimierung für solide, wenn auch nicht unbedingt einzigartig – ToolsGroup, SAP und andere verfügen ebenfalls über MEIO. Der Unterschied wird darin liegen, wie gut es mit den anderen Elementen (Nachfrage und Preis) verbunden ist.
-
Sortiments- & Merchandisingplanung: Blue Yonder verfügt über Werkzeuge für Category Management und Sortimentsplanung, die dabei helfen zu entscheiden, welche Produkte in welchen Geschäften oder Online-Kategorien vertreten sein sollten 97. Sie können die Produktleistung, Attribute und lokale Vorlieben analysieren, um Sortimentsentscheidungen zu lenken. Im E-Commerce könnte „Sortimentsplanung“ bedeuten, zu entscheiden, welche SKUs beibehalten oder gestrichen werden oder welche neuen Produkte eingeführt werden. Blue Yonders Lösungen können Attribute und Verkaufsdaten nutzen, um vorherzusagen, wie ein neues Produkt abschneiden könnte (vielleicht mithilfe der alten i2 „like item“-Prognose für neue Artikel). Üblicherweise erfolgt Sortimentsplanung eher periodisch (saisonale Resets usw.) und nicht kontinuierlich. Blue Yonder deckt dies ab, aber oft wird es als ein Modul genutzt, das von Merchandising-Teams gelegentlich und nicht täglich eingesetzt wird. Es ist wichtig, dass es existiert, aber für die „KI-Optimierung“ interessieren uns mehr die täglichen Preis-/Inventarentscheidungen.
-
Preisoptimierung: Nach der Übernahme von Revionics erhielt Blue Yonder eine der branchenführenden Preis-Engines. Revionics wird von vielen Supermärkten, Einzelhändlern für Konsumgüter usw. genutzt, um alltägliche Basispreise, Werberabatte und Schlussverkäufe festzulegen. Es nutzt KI, um Preiselastizitäten (wie sich eine Preisänderung auf die Nachfrage auswirkt) abzuschätzen und kann auch einige wettbewerbsorientierte Preisdaten einbeziehen 98 18. Das Tool empfiehlt dann Preisänderungen, die Ziele wie Margenverbesserung oder Umsatzwachstum erreichen, während es Einschränkungen (z. B. Endpreise, bekannte Preisunterschiede zu Wettbewerbern usw.) einhält. Jetzt als Luminate Pricing gebrandet, ist diese Engine ziemlich ausgeklügelt und theoretisch schließt sie den Kreis mit der Nachfrageprognose. Zum Beispiel könnte man simulieren: „Wenn wir den Preis um 10 % senken, steigt die prognostizierte Nachfrage um 20 %, was unser Inventar verkraften kann oder nicht.“ Blue Yonder vermarktet dies als „autonomes Pricing, unterstützt durch KI“, das so häufig wie nötig laufen kann (sogar intratäglich für E-Commerce) 99. Es ist eine der stärkeren Komponenten im Arsenal von Blue Yonder, da Revionics ein Spezialist mit jahrelanger Verfeinerung in Preisalgorithmen war.
Die zentrale Frage ist: Wie gut funktionieren diese Komponenten heute tatsächlich zusammen? Blue Yonder wird sagen, dass sie es tun – das ist der gesamte Luminate Platform-Ansatz. Aber basierend auf unserer Recherche, wenn ein Unternehmen all diese Module einsetzt, ist viel Integrationsarbeit und Prozessorchestrierung nötig, um wirklich einen geschlossenen optimalen Prozess zu erzielen 100. Zum Beispiel könnte das Preissystem wöchentlich eine neue Preisliste erstellen, die dann von jemandem in das Prognosesystem für den nächsten Durchlauf eingespeist wird, welches anschließend den Inventarplan aktualisiert. Es ist gemeinsame Planung, aber keine vollständig einheitliche, sofortige Optimierung. Es könnte in Batches und sequentiell ablaufen (Preisberechnung, dann Lieferberechnung). Eine nahezu Echtzeit-Koordination zu erreichen, ist das Ziel des neuen Snowflake-Datenmodells, aber sofern nicht alle Komponenten auf dieser neuen Architektur basieren (was nur wenige Kunden bisher tun), ist die Realität eher altmodisch. Kurz gesagt, Blue Yonder verfügt über alle Funktionalitäten, die für eine gemeinsame Optimierung erforderlich sind, aber der Nutzer muss oft der Integrator sein. Das ist ein Schritt unter Anbietern, die von Natur aus als ein einziger Prozess gemeinsam optimieren.
Substanz von KI/ML vs. Hype: Die Marketingbotschaften von Blue Yonder wirken manchmal wie ein Buzzword-Bingo – „cognitive“, „autonomous“, „AI/ML-driven“ usw. 101. Wir suchen nach Substanz dahinter. Es gibt etwas: Blue Yonders Tradition umfasst echte Data Science – beispielsweise hatte das deutsche Blue Yonder-Team einen Einzelhandelsprognosewettbewerb 2014 gewonnen unter Einsatz von neuronalen Netzen 102, und das Unternehmen hält über 400 Patente (was zumindest auf umfangreiche F&E hinweist) 103. Allerdings entspricht die Anzahl der Patente nicht zwangsläufig der Qualität des eingesetzten Produkts. Der skeptische Ansatz fordert spezifische Ergebnisse: Hat Blue Yonder jemals öffentlich Benchmarks (M5 usw.) vorgelegt? Es gibt keine öffentlichen Aufzeichnungen darüber 104. Veröffentlichen sie Vorher/Nachher-Fallstudien mit konkreten Zahlen? Sie haben einige Fallstudien, aber wie bei allen Anbietern sind diese in der Regel selektiv ausgewählt und entbehren des nötigen Kontexts (z. B. „Retailer X verzeichnete mit unserem Pricing einen Gewinnanstieg von 5 %“ – im Vergleich zu welchem Ausgangswert?) 105. Während Blue Yonder zweifellos kluge Data Scientists beschäftigt und intern sehr fortschrittliche Algorithmen hat, muss man als Gutachter weitgehend auf ihr Wort und eventuell auf einige Berichte in zweiter Hand vertrauen. Die Warnung lautet, dass Kosten und Komplexität die ausgeklügelte KI untergraben können.
Kosten & Komplexität: Blue Yonders Lösungen, als Enterprise-Grade-Produkte, sind teuer und zeitaufwändig in der Implementierung. Ein vollständiger Rollout von Blue Yonder kann Monate bis Jahre dauern und erfordert oft eine Armee von Beratern (entweder von Blue Yonder oder zertifizierten Partnern). Die Softwarelizenzen sowie Service- und Hardware/Cloud-Kosten machen die Gesamtkosten des Besitzes recht hoch. Für ein mittelgroßes E-Commerce-Unternehmen könnte Blue Yonder zu viel des Guten oder schlicht außerhalb des Budgets liegen. Selbst große Unternehmen hatten schon Probleme: Ein berüchtigtes Beispiel außerhalb von Blue Yonder ist der Fehlschlag eines 500-Millionen-Euro-SAP-Projekts bei Lidl, das 2018 eingestellt wurde 106 – was verdeutlicht, wie Mega-Projekte scheitern und liquide Mittel auffressen können. Blue Yonder-Projekte sind in der Regel nicht so groß, aber sie sind bedeutende Vorhaben. Ein Partnerkommentar erwähnte, dass Manhattan Associates (ein Wettbewerber) beschlossen habe, ihre Plattform von Grund auf neu zu entwickeln (was für Kunden eine Neuimplementierung erfordert), während Blue Yonder einen sanfteren Evolutionspfad verfolgt 107. Beide Ansätze haben Kosten: Bei Manhattan Associates bedeutet es, dass man im Grunde neu anfangen muss, wenn man ihre neue Technologie haben möchte (schmerzhafter Aufwand zu Beginn), während der Ansatz von Blue Yonder bedeutet, dass man derzeit möglicherweise auf etwas veralteter Technologie sitzt und auf die neuen Komponenten warten muss (Schmerzen, die sich über die Zeit verteilen). In jedem Fall stehen Kunden vor der Komplexität von Upgrades. Deshalb sind manche Unternehmen nun bereit, neuere SaaS-Anbieter in Betracht zu ziehen, trotz des etablierten Status von Blue Yonder – das Versprechen einer schnelleren oder günstigeren Bereitstellung ist attraktiv. Zusammengefasst: Bei der Bewertung von Blue Yonder müssen die hohen Anforderungen berücksichtigt werden; es ist keine schnelle Cloud-Anmeldung, sondern oft ein großes Transformationsprojekt.
Realität der Automatisierung: Blue Yonder spricht von der „autonomen supply chain“ – insbesondere seit der Übernahme durch Panasonic im Jahr 2021, wobei sie davon reden, IoT-Daten mit automatisierten Entscheidungen zu verknüpfen, etc. 108. Wir schätzen jedoch, dass die meisten Blue Yonder-Kunden noch im traditionellen Modus arbeiten: Die Software gibt Empfehlungen, und der Mensch entscheidet. Das heißt, Planer nutzen die Blue Yonder-Tools, um Empfehlungen (Bestellmengen, Zuteilungen, Preise) zu erhalten, diese werden jedoch in der Regel von ihnen freigegeben oder angepasst. Es ähnelt der typischen Nutzung von RELEX – Automatisierung bis zu einem gewissen Grad, begleitet von menschlicher Kontrolle. Einige führen bestimmte Abläufe automatisch aus (zum Beispiel automatische Nachschubaufträge bis zu bestimmten Grenzwerten), aber die Kultur und der Prozess in vielen großen Unternehmen sorgen dafür, dass es eine Hybridlösung bleibt. Obwohl Blue Yonders Technologie also viel automatisieren kann, implementieren Unternehmen sie häufig zur Unterstützung der Planer, anstatt sie zu ersetzen. Mit der Zeit könnte sich das ändern, wenn das Vertrauen wächst oder Blue Yonder die Echtzeitfähigkeiten verbessert. Wer jedoch Blue Yonder kauft und von Tag eins eine vollständig autonome supply chain erwartet, liegt falsch. Es ist eher ein Entwicklungsprozess: Man könnte allmählich den Umfang erhöhen, in dem man dem System überlässt, Entscheidungen unüberwacht zu treffen, während man Ausnahmen konfiguriert und sich daran gewöhnt.
Wettbewerbsanalyse & Multi-Channel: Ein positiver Aspekt ist, dass Blue Yonders Pricing (Revionics) explizit wettbewerbsrelevante Preisdaten verarbeitet. Wenn Sie beispielsweise einen Feed mit den Preisen der Wettbewerber haben, kann das System Regeln wie „preis nicht mehr als 5 % über Wettbewerber X“ einbeziehen oder Elastizitätsmodelle verwenden, die Wettbewerberpreisunterschiede berücksichtigen 18 108. Dies ist im E-Commerce, wo die Preistransparenz hoch ist, wertvoll. Nicht alle supply chain Tools berücksichtigen die Preise der Konkurrenz, sodass Blue Yonders Pricing-Lösung hier einen Vorteil bietet. Was Marktplätze (Amazon/eBay) oder Multi-Channel angeht, bietet Blue Yonder kein spezielles Marketplace-Management (z. B. Anzeigengebotsverfahren oder Buy Box Optimierung – diese liegen außerhalb des Umfangs) 109. Somit könnten Sie Blue Yonder für das Kern-Inventar und die Preisgestaltung verwenden, benötigen aber dennoch andere Tools für kanal-spezifische Taktiken. Das ist nicht ungewöhnlich; selbst andere Top-Anbieter decken das nicht ab (Lokad oder RELEX betreiben auch keine Amazon-Anzeigenoptimierung). Blue Yonder kann natürlich die Nachfrage über verschiedene Kanäle hinweg für die Planung aggregieren, was Standard ist.
Eine Sache, auf die wir achten, sind interne Widersprüche in der Kommunikation. Blue Yonders Marketing behauptet manchmal gleichzeitig langfristige strategische Stärke und Echtzeit-Agilität, was irreführend sein kann. Zum Beispiel könnten sie sagen „Echtzeit-Personalisierung und Pricing“, während ihre Planungssysteme (bis vor Kurzem) meist in Batch-Zyklen (nachts, wöchentlich) liefen 86. Sie fügen mehr Echtzeit-Updates hinzu (die Snowflake-Integration kann einen nahezu Echtzeit-Datenfluss ermöglichen). Aber ein kritischer Blick sollte fragen: Wird das Pricing wirklich kontinuierlich neu berechnet oder nur auf Abruf? Brauchen wir wirklich „Echtzeit-Sortimentsoptimierung“? (Wahrscheinlich nicht; das ist meist strategisch, nicht etwas, das man stündlich durchführt.) Man sollte daher genau verstehen, was Blue Yonder in jedem Kontext mit „Echtzeit“ meint. Oft bedeutet es, dass sie schnell reagieren können wenn ausgelöst, nicht dass jede Entscheidung jede Sekunde kontinuierlich neu optimiert wird 87. Wir weisen darauf hin, um vor der übertriebenen Sprache zu warnen, die manchmal auftaucht.
Bedenken zur Snowflake-Plattform: Ein subtiler, aber wichtiger Aspekt ist der intensive Einsatz von Snowflake durch Blue Yonder für ihre neue Plattform. Snowflake ist ein Drittanbieter-Datenlager; es ist leistungsstark, berechnet jedoch Kosten nach Datenspeicherung und Rechenleistung. Falls Blue Yonders Anwendungen komplexe Abfragen in Snowflake im Hintergrund ausführen, könnten diese Kosten – je nach Vertragsgestaltung – an den Kunden weitergegeben werden. Ein Planungssystem kann rechnerisch intensiv sein – es werden viele Daten ausgewertet. Wird es nicht optimiert, könnte eine beträchtliche Snowflake-Rechnung entstehen. Blue Yonders Partner JBF Consulting warnte sogar vor einem möglichen „Bill Shock“ – im Vergleich zur alten Mainframe-Abrechnung, bei der mehr Nutzung deutlich mehr kostete 110. Die Idee ist: Wenn Sie viele Szenarien oder sehr große Pläne in Blue Yonders neuer Einrichtung laufen lassen, könnten Sie ungewollt die Snowflake-Guthaben schnell erschöpfen 111. Wir erwarten, dass Blue Yonder optimiert und einige Vereinbarungen aushandeln wird, um dem entgegenzuwirken, aber es ist etwas, das Anwender im Auge behalten sollten. Es verdeutlicht, dass „cloud“ nicht automatisch billig ist – Architekturentscheidungen sind entscheidend. Im Gegensatz dazu zielte Lokads Ansatz darauf ab, Kosten nicht an teure Schichten weiterzugeben, genau aus diesem Grund 15, während Blue Yonders Verwendung von Snowflake Flexibilität bietet, aber potenziell zu einem Preis geschieht. Es wird von den Nutzungsmustern abhängen.
Gesamtbewertung von Blue Yonder: Wir bewerten Blue Yonder etwas unterhalb der stärker spezialisierten „New Gen“-Lösungen hinsichtlich der Erfüllung der KI-Optimierungsvorstellung, bleiben jedoch ein beeindruckender Akteur. Es verfügt über die reichhaltigste Funktionalität – jahrzehntelanges Know-how, eingebettet in seine Tools – und viele erfolgreiche Einsätze in Großunternehmen. Allerdings sehen wir Blue Yonder aus einer skeptischen technischen Perspektive als einen Anbieter mitten in seiner Transformation. Sie reden von KI, Integration und Automatisierung, aber vieles davon ist zukunftsorientiert oder marketinggetrieben; die aktuelle Realität für Kunden ist eher banaler Natur, da Silos allmählich zusammengeführt und Funktionen modernisiert werden. Es klingt ein wenig nach „Vertrau uns, in ein paar Jahren wird es großartig sein, sobald wir die Transformation abgeschlossen haben.“ Das mag in Ordnung sein, wenn man bereits in Blue Yonder investiert ist, aber neue Käufer könnten sich fragen, ob eine neuere Lösung diesen Zeitrahmen überspringen kann. Blue Yonders Plattform kann zweifellos E-Commerce-Operationen in großem Maßstab unterstützen – viele große Omni-Channel-Händler nutzen sie – sodass die Funktionalität nicht das Problem darstellt. Das Problem liegt in Effizienz und Agilität: Wird es schnellen ROI liefern oder werden zwei Jahre für Implementierung und Feinabstimmung veranschlagt? Werden die verschiedenen Module tatsächlich als Einheit agieren oder muss Ihr Team die Ergebnisse am Ende manuell zusammenfügen? Das sind die Warnhinweise. Zusammenfassend ist Blue Yonder ein mächtiges, aber schwerfälliges System; es befindet sich im Prozess der Neuerfindung, um auf dem neuesten Stand zu bleiben. Bis diese Neuerfindung vollständig realisiert und bewiesen ist, sollten potenzielle Nutzer mit offenen Augen hinsichtlich Integrationslücken, technischer Altlasten und des Aufwands, die glänzenden Ergebnisse aus Vertriebsslides zu erreichen, hineingehen. Blue Yonders Vision ist überzeugend, aber als Skeptiker behalten wir im Auge, ob die Ausführung mit dem Versprechen Schritt halten kann.
Quellen: Blue Yonders Integrationsstrategie und die Umstellung auf Snowflake werden durch Blue Yonder-Ankündigungen und Partneranalysen dokumentiert 76 77. Warnungen eines Partners (JBF Consulting) zum Optimismus in Sachen Integration und Kosten werden zitiert 79 16. Die Altlasten und das Beispiel eines Gerichtsprozesses stammen aus Nachrichtenberichten (Dillard’s vs i2) 23 24. Blue Yonders Einsatz von ML in der Bedarfsprognose und der Wechsel zur kontinuierlichen Prognose werden in deren Blogbeiträgen erwähnt 89 92. Preiskapazitäten über Revionics und der Umgang mit Konkurrenzpreisen werden aus Produktbeschreibungen entnommen 98 18. Die Diskussion über Echtzeit versus Batch und marketingbezogene Widersprüche ergibt sich aus Blue Yonders eigenen breitgefächerten Marketingansprüchen im Vergleich zu bekannten technischen Beschränkungen 86 87. Zudem stützen wir uns auf die Analyse „Blue Yonder Review“ für kritische Standpunkte zu deren KI- und Integrationsbemühungen 84 101.
4. ToolsGroup – Probabilistischer Inventarspezialist, der in Retail AI expandiert
ToolsGroup ist ein Veteran in der Supply-Chain-Planung, bekannt vor allem für Bedarfsprognosen und Bestandsoptimierung. Seine Flaggschiff-Software, historisch bekannt als SO99+ (Service Optimizer 99+), war eine führende Lösung für servicelevel-orientierte Bestandsplanung und mehrstufige Optimierung 112 113. Einfach ausgedrückt, war ToolsGroup hervorragend darin, die Frage zu beantworten: „Was ist der minimale Lagerbestand, den ich an jedem Standort benötige, um einen 99%-Servicelevel (oder ein anderes Ziel) unter Unsicherheit zu erreichen?“ Dies machte es bei Distributoren und Herstellern, die mit vielen SKUs und der Notwendigkeit, Lagerengpässe zu vermeiden ohne Überbestände, sehr beliebt. Bemerkenswerterweise war ToolsGroup eines der ersten kommerziellen Tools, das probabilistische Prognosen und Planung (etwa in den 2000er Jahren) implementierte und propagierte, dass Unternehmen von Einzelpunktprognosen abweichen und stattdessen die gesamte Verteilung möglicher Nachfrage nutzen sollten 114 115. Dieser Ansatz, einst neuartig, wird heute als Best Practice angesehen – und tatsächlich folgten später auch andere Anbieter. In vielerlei Hinsicht war ToolsGroup ein früher Pionier dessen, was wir heute als „AI-gesteuerte“ Bestandsoptimierung bezeichnen, auch wenn sie zu der Zeit den KI-Buzzword seltener benutzten.
Für E-Commerce und andere komplexe Unternehmen mit großen Sortimentsbreiten und unregelmäßigem Bedarf ist ToolsGroups Stärke in der probabilistischen Modellierung von hoher Relevanz. Sie handhaben naturgemäß „Long-Tail“-Artikel, die sporadisch verkauft werden: Anstatt beispielsweise monatlich 2 Einheiten zu prognostizieren (was irreführend ist, wenn in den meisten Monaten 0 und in einem Monat 10 verkauft werden), erzeugen sie eine Wahrscheinlichkeitskurve der Nachfrage, die diese unregelmäßige Natur erfasst 116. Anschließend berechnet ihre Optimierung, wie viel Lagerbestand benötigt wird, sodass etwa nur eine 5%-ige Wahrscheinlichkeit besteht, dass ein Engpass vor der Wiederbeschaffung eintritt. Dies ist ideal für E-Commerce-Händler mit vielen langsam drehenden Artikeln – ToolsGroup überprognostiziert diese nicht nur, um ein Ziel zu erreichen, sondern plant einen Sicherheitsbestand, der ihrer tatsächlichen Volatilität entspricht. Sie verfügen zudem über Mechanismen für Neue-Produkt-Prognosen (etwa durch Analogien oder attributbasierte Modelle, um einen neuen SKU anhand ähnlicher Artikel zu prognostizieren) 117 und passen die Nachfrageverteilung bei Promotionen und Saisonalität entsprechend an.
Historisch lag der Fokus von ToolsGroup auf der Angebotsseite: Bedarfsprognosen, Sicherheitsbestandsberechnung, Wiederbeschaffungsplanung. Sie boten keine Preisgestaltung oder Sortimentsoptimierung an. In der Erkenntnis, dass diese Elemente die Bestandsplanung ergänzen, machte ToolsGroup einen strategischen Schritt: Sie akquirierten in den Jahren 2018–2019 ein Unternehmen namens JustEnough 118 119. JustEnough war eine auf den Einzelhandel ausgerichtete Software mit Lösungen für Finanzplanung im Merchandise, Sortimentsplanung, Zuweisung und Markdown-Pricing. Sie war dafür bekannt, Einzelhändlern zu helfen, zu planen, wie Produkte an Filialen verteilt werden, Sortimente pro Filiale zu planen und Preisabschläge (Rabattpläne für Produkte am Ende ihres Lebenszyklus) zu optimieren. Durch die Übernahme von JustEnough (das zuvor Teil eines Einzelhandelssoftwareunternehmens, MI9, war) erweiterte ToolsGroup sein Portfolio von reiner Supply Chain in den breiteren Bereich der Einzelhandelsplanung. Sie vermarkten nun eine integrierte Suite, die ihren SO99+-Motor mit den Fähigkeiten von JustEnough kombiniert, und zielt darauf ab, alles von der übergeordneten Planung bis zur Umsetzung – sowohl für Supply Chain als auch für Retail Merchandising 120 121 – abzudecken.
Integrationsherausforderungen: Wann immer ein Anbieter zwei unterschiedliche Plattformen zusammenführt, stellt sich die Frage der Integration. ToolsGroup arbeitet daran, das Datenmodell und die Workflows von SO99+ und den aus JustEnough stammenden Komponenten zu vereinheitlichen. Sie haben erwähnt, dass sie „das gleiche Datenmodell für taktische und operative Planung“ erreicht haben, um eine einzige Version der Wahrheit zu gewährleisten 122. So führten sie beispielsweise ein Konzept namens „Real-Time Retail“ ein, das das Planungssystem von JustEnough mit einem „Inventory Hub“ verknüpft, sodass Daten nahezu in Echtzeit fließen 123. Dies bedeutet, dass, sobald Verkäufe stattfinden oder sich Lagerbestände ändern, diese Informationen schnell an die Planungs-Engine weitergegeben werden, was raschere Reaktionen (wie Umlagerungen) ermöglicht. Sie behaupten, dass dies dynamische, kontinuierliche Planung statt fester periodischer Batches erlaubt 124. Es folgt einer ähnlichen Philosophie wie bei anderen: die Grenze zwischen Ausführungsdaten und Planung zu beseitigen, sodass Anpassungen an den Plänen „on the fly“ möglich sind.
Allerdings klingt ToolsGroups Marketing von „Real-Time Retail, der einzigen Lösung, die in Echtzeit auf das Einkaufsverhalten reagiert“ etwas übertrieben 125. Zwar ist es hervorragend, wenn ihr System häufig aktualisiert wird, doch in der Realität kann oder sollte nicht jede Entscheidung sofort getroffen werden. Eine Umlagerung von Lagerbeständen oder die Aktualisierung einer Prognose mitten in der Saison – ja, das kommt vor. Eine vollständige Neuoptimierung eines Sortiments oder eines Finanzplans „im Moment“ ist jedoch weniger plausibel – solche Entscheidungen erfordern in der Regel mehr Überlegung und finden wöchentlich oder monatlich statt. Wie bei anderen Anbietern bezieht sich „Echtzeit“ vermutlich nur auf bestimmte Ebenen (z. B. Umlagerungen und kurzfristige Anpassungen der Prognosen) und nicht auf die strategische Gesamtausrichtung. Heutzutage preist jeder Anbieter in gewisser Form „Echtzeit“, oft mit der Aussage, dass Daten und Empfehlungen binnen Minuten oder Stunden aktualisiert werden können, was in der Regel ausreichend ist. ToolsGroups CEO wurde zitiert, dass Einzelhändler schnell umschwenken müssen, um Margenerosion bei Nachfrageverschiebungen zu vermeiden 126 – was zutrifft, und nahezu-echtzeitliche Daten dabei helfen 127. Entscheidend ist, ob das System von ToolsGroup tatsächlich automatisch auf diese Daten reagiert oder lediglich einen Planer alarmiert. Sie behaupten, es „berechnet automatisch neu und empfiehlt Bestellungen oder Transfers, sobald neue Informationen eintreffen“ 127. Falls dies in der Praxis funktioniert, ist das mächtig: Beispielsweise könnte das System bei einem plötzlichen Anstieg der Online-Verkäufe einen sofortigen Lagertransfer von einem mittelmäßig performenden Laden zum E-Com-Lager vorschlagen. Wir haben bislang keine unabhängige Bestätigung darüber erhalten, inwieweit Kunden vollständig automatisiert arbeiten, aber ToolsGroup strebt diese Möglichkeit eindeutig an.
Mit der JustEnough-Integration kann ein ToolsGroup-Nutzer im Idealfall eine End-to-End-Planung durchführen: den Sortimentsmix pro Kanal festlegen, anfängliche Zuweisungen an Filialen planen, den SO99+-Motor zur Auffüllung und Aufrechterhaltung der Lagerbestände einsetzen und die Optimierung von Preisabschlägen zur Räumung von Beständen am Ende ihres Lebenszyklus nutzen. Der gemeinsame Optimierungsaspekt kommt ins Spiel, wenn diese Elemente miteinander kommunizieren: Beispielsweise, wenn das Preisabschlagsplanungstool der Bedarfsprognose mitteilt, dass bestimmte Artikel im nächsten Monat 50% Rabatt erhalten, sollte die Prognose für diese Artikel entsprechend angepasst werden, was wiederum die empfohlenen Lagerbestände verändert. ToolsGroup weist darauf hin, dass ihr vereinheitlichtes Datenmodell solche Verknüpfungen ermöglicht (Promotionen und Markdown-Pläne, die in das Nachfrage-Modell einfließen) 128 129. Vermutlich erfolgt die Optimierung jedoch sequenziell: Zuerst wird die Markdown-Strategie festgelegt und deren Auswirkungen auf den Lagerbestand beobachtet, statt dass ein einzelner Algorithmus gleichzeitig Preisabschläge und Lagerbestände optimiert. Das ist dennoch ein großer Fortschritt gegenüber isolierten Systemen. Es ist vergleichbar mit dem Ansatz von RELEX: Integrierte Daten sorgen für Konsistenz, aber es wird nicht ein einziges Optimierungsproblem gelöst, das Preisgestaltung und Angebot gleichzeitig berücksichtigt 130.
State-of-the-Art Kriterien: ToolsGroup glänzt eindeutig in probabilistischen Prognosen und dem Umgang mit Unsicherheiten. Seit Jahrzehnten betonen sie, dass Einzelpunktprognosen unzureichend sind und dass die Planung die Variabilität einbeziehen muss 7. Ihr System erzeugt nicht nur einen „erwarteten Wert“, sondern eine vollständige Verteilung (z. B. P10, P50, P90 Nachfrage) und nutzt diese, um Lagerziele zu berechnen, die den gewünschten Servicelevel erfüllen oder die Gesamtkosten minimieren 131. Beispielsweise wird statt „Prognose 100, also lagern wir 110 zur Sicherheit“ gesagt: „Mit 95%iger Wahrscheinlichkeit wird die Nachfrage ≤ X betragen, daher lagern wir X, um einen 95%-Service zu gewährleisten“ 131. Dadurch werden Nachfrageschwankungen von vornherein erfasst, und ToolsGroup berücksichtigt auch Lieferzeitunsicherheiten in diesen Berechnungen (zum Beispiel durch Anpassung des Sicherheitsbestands bei variierenden Lieferzeiten). Durch die Planung mit Wahrscheinlichkeiten werden Überraschungen gemindert – sowohl Engpässe als auch extreme Überbestände reduziert. Sie heben zudem gelegentlich hervor, dass die Nutzung ihrer probabilistischen Ergebnisse auch andere Systeme verbessern kann: So könnte man beispielsweise ToolsGroups risikoadjustierte Nachfragezahlen in ein ERP wie SAP APO zur Verbesserung einspeisen 132. Tatsächlich hatte ToolsGroup einmal behauptet, dass ihr Motor das Lebensende von Altsystemen verlängern könne, indem er bessere Input-Werte bereitstellt 132 – was impliziert, dass ihr Hauptvorteil in der Mathematik liegt und weniger in einer ausgefeilten Benutzeroberfläche.
Wenn wir von der Benutzeroberfläche sprechen, hatte ToolsGroup früher eine eher utilitaristische Oberfläche – mehr ein Back-End-Tool, das von Planern oder Analysten für Zahlen genutzt wurde, mit weniger Fokus auf ansprechende Dashboards. In den letzten Jahren wurde diese jedoch modernisiert (zum Beispiel durch webbasierte UIs) 133. Dennoch galt ihre Kernzielgruppe oft als die Supply-Chain-Analysten, die den ausgeklügelten Motor zu schätzen wussten, auch wenn die UI veraltet war. Heutzutage betonen sie die Automatisierung der Planung, um den Arbeitsaufwand zu reduzieren. ToolsGroups Materialien behaupten, dass „integrierte Automatisierung den Planungsaufwand um bis zu 90% senkt“ 134. Sie zitieren häufig Kundenergebnisse wie 40–90% Reduktion des Planungsaufwands und 20–30% Bestandsreduktion nach Einsatz ihres Systems. Das sind kühne Zahlen. Wir deuten sie mit Vorsicht, da eine 90%ige Arbeitsentlastung etwa dann eintreten könnte, wenn ein Unternehmen von 10 Vollzeitplanern auf 1 reduziert, was passieren kann, wenn zuvor primär Krisenmanagement betrieben wurde und ToolsGroup dieses Chaos geglättet hat 135. Aber das dürfte ein Ausnahmefall sein. Eine 20–30%ige Bestandsreduktion impliziert in der Regel, dass zuvor ein erhebliches Übermaß vorhanden war; typischerweise dürfte eine Verbesserung eher bei 10–15% liegen, wenn zuvor nicht völlig ineffizient gearbeitet wurde. Dennoch zeigt schon allein die Tatsache, dass ToolsGroup solche Bereiche angibt, dass sie bestrebt sind, routinemäßige Aufgaben der Prognose und Wiederauffüllung weitgehend zu automatisieren, um Planer vom ständigen Fehlerjagen zu entlasten. ToolsGroups langjährige Präsenz (gegründet 1993) bedeutet, dass sie Stabilität und tiefgreifende Branchenerfahrung 136 besitzen. Sie sind vielleicht nicht so groß wie Blue Yonder oder so gehypt wie manche KI-Startups, aber sie verfügen über eine treue Kundenbasis und einen Ruf für starke Algorithmen. Viele ihrer Kunden sind in den Bereichen Fertigung, Distribution, Aftermarket-Teile und im Einzelhandel tätig. Für ein E-Commerce-Unternehmen, das sich vorrangig um den Lagerbestand sorgt – nicht um Lagerengpässe, nicht um ein Ertrinken in Überbeständen – ist ToolsGroup eine sehr ausgereifte Lösung. Ihre multi-echelon Fähigkeiten sind vorteilhaft, wenn mehrere Fulfillment-Zentren oder ein globales Netzwerk vorhanden sind. Sie können nicht nur an jedem einzelnen Knoten optimieren, sondern über das gesamte Netzwerk hinweg (z. B. wie viel Lagerbestand in regionalen Lagern im Vergleich zu zentralen Lagern vorzuhalten ist). So wird der Lagerbestand dorthin verlagert, wo er benötigt wird, während der Gesamtbestand niedrig gehalten wird.
Schwachstellen: Der größte Nachteil von ToolsGroup lag in der Preisoptimierung. Die Übernahme von JustEnough brachte ihnen die Optimierung von Preisabschlägen (was Preisgestaltung bedeutet, jedoch nur für End-of-Life- oder Clearance-Szenarien) 137 138. Das ist nützlich für saisonalen oder modebasierten E-Commerce, bei dem veraltete Bestände systematisch abgebaut werden müssen. Allerdings verfügt ToolsGroup immer noch nicht über eine robuste tägliche dynamische Preisgestaltung à la Blue Yonder’s Revionics oder spezialisierter Preisgestalter. Möglicherweise bieten sie grundlegende Analysen zur Preiselastizität an oder verlassen sich hierfür auf Partner. Wenn die Priorität eines Kunden darin besteht, Verkaufspreise (aus Margen- oder Wettbewerbsgründen) im Tagesgeschäft zu optimieren, ist ToolsGroup nicht die beste Wahl. Ihre DNA liegt stärker im Bereich der Bestandsplanung – „wie decken wir die Nachfrage effizient, wenn die Preise vorgegeben sind.“ Sie beginnen zwar, die Nachfrageformung mit der Planung von Preisabschlägen und Aktionen anzugehen, aber eine vollständige Preisoptimierung für reguläre Preise ist nicht ihr Spezialgebiet 139. In Bezug auf die gemeinsame Optimierung kann ToolsGroup den Bestand bei gegebenem Preis optimieren, aber es wird nicht den besten Preis zur Maximierung des Gewinns vorschlagen (außer am Ende durch Vorschläge für Preisabschläge). Das ist ein wichtiger Unterschied: Die Optimierung von ToolsGroup ist primär angebotsorientiert (Lagerbestände, Nachfüllung), während Anbieter wie Blue Yonder oder RELEX in Preisgestaltungsmaschinen investiert haben, um auch nachfrageorientierte Maßnahmen (Preisänderungen, Aktionsstrategien) vorzuschlagen 139 140. Für manche Unternehmen mag das in Ordnung sein – sie nutzen vielleicht ein anderes Tool für die Preisgestaltung oder setzen Preise strategisch fest – aber das bedeutet, dass ToolsGroup einen Teil des heiligen Grals der gemeinsamen Optimierung verfehlt.
Technologie-Stack: ToolsGroup bietet jetzt eine cloudbasierte SaaS-Version an und hat einige Teile mit Namen wie „Inventory Hub“ und „Fulfill.io“ neu gebrandet, um sein Image zu modernisieren. Unter der Haube beruht die rechenintensive Arbeit vermutlich immer noch auf hochoptimiertem C++ oder ähnlichem Code, der über Jahre hinweg verfeinert wurde. Es gab keine Beschwerden über die Leistung von ToolsGroup – sie betreuen Kunden mit Millionen von SKU-Ort-Kombinationen und bewältigen diese. Falls überhaupt, könnte das Achillesferse von ToolsGroup darin liegen, dass es als ein „Optimizer-Tool“ angesehen wird, das eine fachkundige Konfiguration erfordert, um optimal genutzt zu werden 141 142. Sie haben mehr vorgefertigtes ML integriert, wie etwa Demand Sensing (kurzfristige Prognoseanpassungen anhand des neuesten Trends) und die automatisierte Identifikation der Faktoren, die die Nachfrage antreiben 142 143. Beispielsweise setzen sie Feature-Importance-Algorithmen ein, um einem Nutzer mitzuteilen, welche Variablen (Preis, Wetter, Aktionen) den Forecast am stärksten beeinflussen 144. Sie haben sogar in einem Blog einen Mythos aufgeklärt, wonach probabilistische Prognosen kein menschliches Urteil einbeziehen können – und klargestellt, dass Planer Overrides eingeben können und das System diese entsprechend berücksichtigt (unter Einbeziehung des historischen Bias des jeweiligen Planers) 145. Dies spiegelt einen ausgewogenen Ansatz wider: ToolsGroup versucht nicht, den Menschen komplett zu ersetzen; sie stellen eine ausgefeilte Engine zur Verfügung und erlauben menschliche Eingaben, aber die Mathematik stellt sicher, dass diese Eingaben die statistische Integrität nicht beeinträchtigen (zum Beispiel, wenn ein Planer stets zu optimistisch rechnet, lernt das System diesen Bias) 143 145.
ToolsGroup kann Kannibalisierung und Multi-Channel bis zu einem gewissen Grad bewältigen. Ihre probabilistischen Modelle können verwandte Produkte berücksichtigen, wenn sie konfiguriert werden (wahrscheinlich muss man Ersatzgruppen definieren oder ihr ML verwenden, um zusammenhängende Artikel zu clustern) 146. Es ist nicht völlig automatisch, aber sie haben die Fähigkeit, beispielsweise zu modellieren, dass wenn Produkt A ausverkauft ist, ein Teil der Nachfrage zu B übergeht 146. Sie schrieben über die Herausforderungen der Multi-Channel-Planung (das Aggregieren der Nachfrage aus mehreren Quellen) und wiesen darauf hin, dass herkömmliche einzahlige Prognosen in solchen Szenarien scheitern 147. Die Lösung von ToolsGroup kann beispielsweise eine Gesamtprognose der Nachfrage aus allen Kanälen erstellen und sogar dabei helfen, den Bestand bei Bedarf kanalweise zuzuordnen 148. Viele E-Commerce-Akteure verkaufen auch auf Marktplätzen oder betreiben mehrere Websites; ToolsGroup würde vermutlich raten, global zu planen und anschließend optimal zu allocieren (wobei ihr System sicherstellt, dass man beispielsweise nicht den gesamten Bestand der eigenen Website zuweist, wenn Amazon tatsächlich mehr Nachfrage generiert usw.). Die Kanalzuordnung kann oft mit einfacheren Geschäftsregeln erfolgen, aber es ist positiv, dass ihr Ansatz von Natur aus Multi-Channel unterstützt, indem er mit Wahrscheinlichkeiten arbeitet (welche das Zusammenführen und Aufteilen von Prognosen nach Bedarf ermöglichen) 148.
Die Benutzererfahrung nach der Übernahme ist ein Aspekt, den es im Auge zu behalten gilt. RELEX (intern als eine Plattform entwickelt) könnte ein einheitlicheres Gefühl vermitteln als ToolsGroup+JustEnough, die zuvor getrennt waren. ToolsGroup hat die Benutzeroberfläche vermutlich überarbeitet, um sie nahtlos zu gestalten, doch einige Nutzer könnten beispielsweise einen Unterschied zwischen dem Bestandsmodul und dem Sortimentsmodul feststellen 149 150. Wir haben noch keine Nutzerbewertungen zur neuen kombinierten Plattform gesehen, aber es besteht die Möglichkeit von Reibungspunkten. Zweifellos haben sie die Aktionsplanung in die Prognosen integriert (sodass Aktions-Uplifts in die Forecasts einfließen) 151 152, was wesentlich ist. Als Skeptiker würden wir potenziellen Nutzern raten, eine Demo eines vollständigen Workflows (z. B. von der Planung einer Aktion bis zur Anpassung des Bestandsplans) anzufordern, um zu überprüfen, ob die Integration so reibungslos funktioniert wie angekündigt.
Erfolgsbilanz: ToolsGroup verfügt über viele Fallstudien, die sich auf die Reduzierung von Beständen und die Verbesserung des Serviceniveaus konzentrieren – das ist ihre Spezialität. Es gab keine skandalösen Misserfolge in der Öffentlichkeit wie bei einigen größeren Anbietern, möglicherweise weil sie kleiner sind und ihre Projekte eng begleiten. Einige ältere JustEnough-Kunden wurden übernommen, und die Skalierbarkeit von JustEnough für sehr große Händler war vielleicht begrenzt (es richtete sich mehr an den Mittelstand), sodass ToolsGroup dies vermutlich verstärken musste 151 153. Das sollte man bedenken, wenn man zu den Top-Händlern gehört – sicherzustellen, dass der Sortiments-/Planungsteil auf Ihre Datenmengen skalierbar ist. Die Rechenstärke von ToolsGroup vermittelt Vertrauen, aber die Integration dieses Einzelhandelsaspekts könnte einige Umstrukturierungen erfordert haben.
Zusammenfassend ist ToolsGroup eine hoch glaubwürdige Option für Unternehmen, die ihre Bestände und den Servicelevel mithilfe fortschrittlicher Mathematik optimieren möchten – nun ergänzt durch einige Einzelhandelsplanungsfunktionen. Wir zählen es zu den führenden Anbietern in Bezug auf den technischen Ansatz, dank des langjährigen Einsatzes probabilistischer Modelle und einer bewährten Optimierungs-Engine. Es erfüllt viele unserer Kriterien: Unsicherheitsmodellierung (ausgezeichnet), wirtschaftliche Optimierung (es optimiert von Natur aus das Spannungsfeld zwischen Service und Kosten, was ein wirtschaftliches Ziel darstellt), Skalierbarkeit (im Allgemeinen gut, da es Millionen von SKU-Ort-Kombinationen bewältigt) und einen zunehmenden Grad an Automatisierung (Kunden reduzieren dadurch oft den manuellen Planungsaufwand erheblich). Allerdings stößt es beim Preis-Aspekt der gemeinsamen Optimierung etwas an seine Grenzen – falls dynamische Preisgestaltung zentral für Ihr Geschäft ist, benötigen Sie womöglich eine zusätzliche Lösung oder Strategie, da ToolsGroup die alltäglichen Preise nicht optimiert 137 139. Zudem könnte ToolsGroup als etwas kleinerer Anbieter nicht über das breite Ökosystem oder das umfangreiche Implementierungsteam verfügen, wie es größere Firmen tun – was aber auch positiv sein kann, wenn es eine direktere Betreuung durch ihre Experten bedeutet. Unser skeptischer Standpunkt ist, dass ToolsGroup, obwohl es im Marketing weniger auffällig ist, tatsächlich vieles von dem vorweggenommen hat, worum es bei „AI supply chain“ geht (probabilistische Prognosen, Automatisierung) 114 115 – es wurde jedoch nicht immer als „KI“ erkannt, weil es dies schon vor dem Hype um den Begriff praktizierte. Jetzt, wo sie Schlagworte in ihre Kommunikation aufgenommen haben, ist es im Grunde dieselbe solide Engine mit einem modernen Anstrich. Unternehmen sollten den Schlagwort-Hype hinter sich lassen und den Substanzgehalt bewerten – bei ToolsGroup liegt dieser in der starken Supply-Chain-Mathematik, wobei die neue Herausforderung darin besteht, wie gut die erweiterten Einzelhandelsplanungsfunktionen in dieses Konzept integriert werden.
Quellen: Der historische Fokus von ToolsGroup und dessen probabilistischer Ansatz werden in deren Literatur und in Drittanalyseberichten beschrieben 112 114. Die Integration von JustEnough sowie die Real-Time-Retail-Ansprüche stammen aus ToolsGroup-Ankündigungen 118 123. Wir zitieren ToolsGroup-eigene Angaben zu Arbeitslast und Bestandsreduzierung 134 135 und verweisen auf Skepsis, dass dies Best-Case-Szenarien sein könnten 154. Die eingeschränkte tägliche Preisoptimierung wird anhand von Branchenkenntnissen und dem Angebot (bzw. dem Fehlen desselben) von ToolsGroup in diesem Bereich hervorgehoben 137 139. Die Handhabung von Multi-Channel und Kannibalisierung wird aus Blogs und Materialien von ToolsGroup entnommen 146 148. Zusätzlich greifen wir auf unabhängige Kontexte zurück, wie die Erwähnung von „Legacy-Vendors“, die sich auf Übernahmen (Logility/Garvis, Kinaxis/Rubikloud) stützen, um die Herausforderungen bei der Integration von Übernahmen bei ToolsGroup zu kontrastieren 155. Aspekte zur Integration der Benutzererfahrung ergeben sich aus der Natur der Plattformen und vorhandenen Kommentaren (z. B. Aussagen zum einheitlichen Datenmodell von ToolsGroup) 122.
5. o9 Solutions – Integrierte Planung „Digital Brain“ mit großer Ambition
o9 Solutions ist ein neuerer Anbieter (gegründet 2009), der schnell an Bedeutung gewonnen hat und sich als nächstes Generation „Digital Brain“ für die integrierte Geschäftsplanung positioniert. Die o9-Plattform basiert auf der Idee eines Enterprise Knowledge Graph – im Grunde ein einheitliches Datenmodell des gesamten Unternehmens – kombiniert mit fortschrittlicher Analytik und KI, um Entscheidungsprozesse in der Nachfrageplanung, Bestandsplanung, SNOP/IBP (Sales & Operations Planning) und sogar im Revenue Management zu unterstützen. Einfach ausgedrückt, zielt o9 darauf ab, die einzige Plattform zu sein, auf der alle Planungsfunktionen (Prognose, Supply Chain, Commercial, Finanzen) zusammengeführt werden – angetrieben durch KI-Algorithmen und Echtzeit-Datenintegration 144 156.
Integrierter Umfang: o9 deckt einen breiten Bereich ab: Nachfrageprognosen, Supply Chain Planung (von der Beschaffung über die Produktion bis zur Distribution) und verfügt zudem über Module für Themen wie Preis- und Aktionsplanung 157 158. Sie vermarkten intensiv „Integrated Business Planning (IBP)“, was bedeutet, dass Nachfrage-, Angebots- und Finanzpläne in o9 synchronisiert sind 159. Dies entspricht dem Trend, Silos aufzubrechen – nicht nur innerhalb der Supply Chain, sondern auch zwischen Supply Chain und Commercial-Plänen. Zum Beispiel, wenn das Vertriebsteam eine Aktion plant, wird dies sofort im Bestandsplan in o9 berücksichtigt; und wenn es auf der Angebotsseite zu Engpässen kommt, sieht der Finanzplan die Auswirkungen. Es ist ein ganzheitlicher Ansatz, dem viele Großunternehmen nachstreben.
Für die gemeinsame Optimierung bietet o9 speziell Preisoptimierungstools an: Sie erwähnen eine Integration der Nachfrageplanung mit Elastizitätsmodellen und externen Faktor-Scorecards, um den optimalen Zeitpunkt für Preisänderungen zu finden 157. Zudem verfügen sie über Möglichkeiten zur Optimierung von Aktionen, um die historische Performance von Promotionen zu analysieren und zukünftige Kampagnen zu planen. Obwohl o9 nicht als dedizierter Preisgestalter im engeren Sinne gilt, besitzt es die Komponenten, um die Nachfrage über Preisgestaltung zu beeinflussen und in die Angebotsentscheidungen einzuspeisen. Es ist vermutlich eher auf einer höheren Ebene (zum Beispiel Szenarioplanung für Preisstrategien) und nicht so fein granuliert wie Revionics für tägliche Preisänderungen, deckt aber sowohl Aktionen als auch Preise im Rahmen der Gesamtplanung ab. Anders als Kinaxis (das historisch im Preisbereich nichts bot) geht o9 zumindest in gewissem Maße auf die Ertragsseite ein – ein Pluspunkt in unseren Kriterien der gemeinsamen Optimierung.
KI und Analytik: o9 positioniert sich als eine KI-gestützte Plattform. Unter der Haube integriert sie eine Reihe von Analysen:
- Predictive Analytics: statistische Prognosen und ML-Modelle für Nachfrage/Angebot 144.
- Verschreibende Optimierung: Es verfügt über Optimierungs-Engines (vermutlich Solver für lineare/integer Programmierung etc.) für Planungsszenarien 156.
- Simulation & Szenarioplanung: Eingebaute Was-wäre-wenn-Analysen, die es Nutzern erleichtern, unterschiedliche Angebots-/Nachfrageszenarien zu simulieren 160.
- Generative KI und NLP: Kürzlich hat o9 den Einsatz von generativer KI (ähnlich ChatGPT) hervorgehoben, etwa für das Abfragen des Plans in natürlicher Sprache oder zur automatischen Generierung von Erkenntnissen 161. Dies ist ein neuer Trend, um die Benutzererfahrung zu verbessern, anstatt an der Kernmathematik zu feilen.
- Offene Architektur: o9 ermöglicht die Integration von R-/Python-Bibliotheken 162, was bedeutet, dass Data Scientists bei Bedarf eigene Algorithmen einbinden können. Diese Offenheit ist für fortgeschrittene Nutzer, die die KI der Plattform erweitern möchten, sehr attraktiv.
Diese Funktionen deuten darauf hin, dass die KI von o9 nicht nur eine dünne Schicht ist, sondern fest integriert wurde. Sie präsentieren KI/ML nicht als einen nachträglichen Zusatz, sondern als integralen Bestandteil der analytischen Engine 163. Beispielsweise könnte o9 ML für das Demand Sensing nutzen (ähnlich wie RELEX, indem kurzfristige Prognosen anhand der neuesten Daten angepasst werden). Zudem betonen sie einen „Digital Twin“ des Unternehmens, auf dem Optimierungen laufen, um verschreibende Empfehlungen zu geben 164 156. Dieses Konzept besagt, dass das Modell von o9 Ihre tatsächliche supply chain (Kapazitäten, Beschränkungen etc.) so genau abbildet, dass es Ergebnisse präzise simulieren und entsprechende Maßnahmen vorschlagen kann (z. B. wenn ein bestimmtes Werk ausfällt, könnte das System empfehlen, die Produktion auf ein anderes Werk umzuleiten und den Bestand neu auszubalancieren).
Technischer Stack: o9 ist als moderne cloudbasierte Lösung konzipiert, die häufig auf Microsoft Azure bereitgestellt wird. Dabei wird Folgendes hervorgehoben:
- Eine Integrated Business Planning Language (IBPL) – eine maßgeschneiderte Skriptumgebung in o9 zur Erstellung von Modellen und Berichten 165. Dies erinnert an Lokad’s Envision oder AIMMS’s Modellierungssprache und ermöglicht Anpassungen über die Standardkonfiguration hinaus.
- Big Data & In-Memory Processing: Sie verwenden eine Kombination von Technologien; Hinweise auf Hadoop und In-Memory-Techniken deuten darauf hin, dass sie versuchen, große Datenmengen mit einer Mischung aus verteilter Speicherung und schnellem Speicherzugriff zu bewältigen 166. Möglicherweise speichern sie die Basisdaten in Hadoop (oder einem ähnlichen verteilten Dateisystem) und laden dann relevante Teilmengen in den Speicher für schnelle Berechnungen.
- Graph-Datenbanken: Forbes wies auf den Einsatz von Graph-Datenbank-Konzepten bei o9 hin 167, was mit ihrem „Knowledge Graph“-Ansatz übereinstimmt – Entitäten (Produkte, Kunden, Lieferanten) und deren Beziehungen in einem Graphen darzustellen, was für bestimmte Abfragen, wie das Ermitteln, wie sich eine Störung in einem Netzwerk ausbreitet, sehr leistungsfähig sein kann 168.
- API und Integration: Sie bieten offene APIs an, um sich mit ERP-Systemen und anderen Lösungen zu verbinden – in dem Bewusstsein, dass Integration entscheidend ist 169.
Technisch gesehen ist o9 also ziemlich cloud-native und für Skalierung ausgelegt. Man könnte erwarten, dass es große Prognosevolumen, Supply-Chain-Modelle etc. mit einer Kombination aus Arbeitsspeicher und verteilter Rechenleistung bewältigt. Es erfordert vermutlich immer noch eine erhebliche Konfiguration für jeden Kunden (zum Beispiel den Aufbau des Digital Twin-Modells ihrer supply chain). Das Vorhandensein einer kundenspezifischen Skriptsprache bedeutet, dass fortgeschrittene Kunden es tiefgehend anpassen können – was aber auch heißt, dass es nicht rein plug-and-play ist und ein gewisser Modellierungsaufwand notwendig ist (ähnlich der Philosophie von Lokad, wobei o9 auch mehr vorgefertigte Templates für Standardprozesse anbietet, da sie auch auf große, standardisierte Unternehmensprozesse abzielen).
Unabhängige Validierung: o9 verzeichnet ein schnelles Wachstum und betreut hochkarätige Kunden (z. B. wurde 2025 ein Deal mit Toyota angekündigt 170). Unabhängige Artikel haben o9s Innovation hervorgehoben: So diskutierte beispielsweise ein Beitrag von Dallas Innovates ihr „Digital Brain“ und wie es Silos aufbricht 171. Forbes hob ihre technologische Differenzierung hervor, etwa den Einsatz von Graph DB und fortschrittlicher Optimierung 168. Dies verleiht Glaubwürdigkeit, dass o9 nicht nur Marketing betreibt – sie haben mit echter Innovation Aufmerksamkeit erregt. Außerdem arbeiten sie mit großen SIs (Systemintegratoren) wie HCL und sogar mit Technologieunternehmen wie Microsoft zusammen, was ein gewisses Vertrauen in ihre Plattform demonstriert 172.
Skeptischer Blick – Herausforderungen: Während die Vision von o9 attraktiv ist, gehen wir in einigen Bereichen mit Vorsicht vor:
- Buzzword Overload: o9 verwendet Begriffe wie „self-driving supply chain“, „digital twin“, „knowledge graph“, „generative AI“ großzügig. Einige dieser Konzepte sind tatsächlich im Produkt vorhanden, können jedoch die Grundlagen verschleiern. Zum Beispiel betreiben viele Anbieter Szenarioplanung und bezeichnen es als digitalen Zwilling – dass o9 es mit trendigen Namen versieht, bedeutet nicht automatisch, dass es besser ist. Die eigentliche Frage ist, wie effektiv diese Ideen für einen Kunden umgesetzt werden können, anstatt sie nur zu erwähnen.
- Integrationskomplexität: Ein einheitliches digitales Modell eines großen Unternehmens zu erstellen, ist schwierig. Das bedeutet, Verbindungen zu vielen Datenquellen (ERP, CRM, MES, etc.) herzustellen, Daten zu bereinigen und in o9s Struktur zu überführen. Wenn die Datenqualität schlecht oder isoliert ist, kann ein o9-Projekt ins Stocken geraten. Der Erfolg der Plattform „hingt von der Datenqualität, nahtloser Integration… und der Akzeptanz durch die Nutzer ab“, wie eine Analyse feststellte 168. Das gilt für jede Planungssoftware, aber o9s breiter Anwendungsbereich bedeutet, dass viele Systeme berührt werden – was den Integrationsaufwand erhöht. Einige Nutzer könnten es als überwältigend empfinden, alle Planungsaspekte auf einmal zu digitalisieren.
- Nutzerakzeptanz: Wenn die Unternehmenskultur an getrennte Planungsprozesse gewöhnt ist, kann der Wechsel zu einer einzigen Plattform wie o9 eine große Veränderung bedeuten. Das Tool mag zwar hervorragend sein, aber wenn beispielsweise das Finanzteam den supply chain-getriebenen Prognosen nicht vertraut, könnten sie sich widersetzen. Dass o9 als einzige Wahrheitsquelle fungiert, erfordert ein organisatorisches Zusammenwirken, was schwierig sein kann (nicht ein technischer Mangel von o9, sondern eine reale Hürde).
- Nachgewiesene Rentabilität (ROI): o9 verfügt über Fallstudien und hat ein rasantes Wachstum verzeichnet, was darauf hindeutet, dass es Mehrwert liefert. Allerdings sind als relativ junges Produkt Langzeit-Effektivitätsdaten im öffentlichen Raum begrenzt. Einige Kunden schwärmen davon, andere finden es möglicherweise komplex. Die Frage ist, ob seine Ergebnisse (Serviceverbesserung, Bestandsreduzierung, etc.) deutlich ältere Ansätze übertreffen. Da es oft entweder Erbe-Systeme oder Excel/manuelle Prozesse in großen Unternehmen ersetzt, würde man signifikante Verbesserungen erwarten, wenngleich jede Umgebung einzigartig ist.
Im Vergleich zu anderen in dieser Studie ist o9s Fokus etwas breiter (nicht nur supply chain, sondern gesamtes IBP). Insbesondere bei der gemeinsamen Optimierung von Lagerbestand und Preisgestaltung erfüllt o9 die Anforderungen, indem es über Module für beides verfügt, doch ihre Preisoptimierung ist möglicherweise nicht so tiefgehend wie bei Lokad oder Blue Yonder. Es könnte sich eher auf Szenarioanalysen stützen (wie „so könnte sich die Nachfrage bei unterschiedlichen Preisniveaus verändern“) und dann entscheiden die Planer, anstatt täglich automatisch optimale Preise zu generieren. Sie erwähnen „PriceAI“ in der Microsoft App-Quelle, das Preise basierend auf Marktdaten und Zielsetzungen anpasst 173 – dies deutet darauf hin, dass sie zumindest über eine gewisse automatisierte dynamische Preisgestaltung verfügen. Falls dem so ist, könnte o9 potenziell Preise unbeaufsichtigt optimieren, beispielsweise für eine E-Commerce-Website, wobei Regeln und Wettbewerbsdaten berücksichtigt werden. Ohne direktes Nutzerfeedback bleiben wir vorsichtig optimistisch, dass o9s Preisgestaltung angemessen ist, doch wurde sie nicht als ihr primäres Unterscheidungsmerkmal hervorgehoben.
Wo o9 wahrscheinlich besonders glänzt, ist die Szenarioplanung und funktionsübergreifende Koordination. Ein Nutzer kann Was-wäre-wenn-Szenarien durchspielen (z. B. „Was wäre, wenn wir in dieser Kategorie die Preise um 5 % erhöhen und ein wichtiger Zulieferer sich um 2 Wochen verspätet? Wie wirkt sich das auf Umsatz und Bestände aus?“) und o9 kann die gesamte Kette der Auswirkungen simulieren. Das ist mächtig für Entscheidungsfindungen, erfordert jedoch erfahrene Nutzer, die die gewonnenen Erkenntnisse interpretieren und darauf reagieren. Es tendiert eher zu einem Human-in-the-Loop-Modell (das System generiert Erkenntnisse, Menschen treffen Entscheidungen) im Gegensatz zu reiner Automatisierung. Dennoch bewegen sie sich in Richtung stärker automatisierter Empfehlungen. In ihrem Marketing bezeichnen sie sich als ein „Decision Management“ bzw. „Decision Intelligence“ System, was bedeutet, dass sie auch Routineentscheidungen automatisieren möchten.
Aktuelle Marktposition: o9 wird in Analystenberichten (IDC, Gartner, etc.) häufig als Leader oder Visionär eingestuft und für seine moderne Technologie und sein rasantes Wachstum gelobt. Angeblich wuchs der Abonnementumsatz 2024 um 37 % 174, was deutliches Momentum zeigt. Zudem können sie auf bemerkenswerte Erfolge verweisen (das Toyota-Beispiel und andere Fortune 500-Unternehmen). Dies deutet darauf hin, dass große Unternehmen o9 in der Praxis als eine brauchbare Alternative zu etablierten Anbietern wie SAP oder Kinaxis in der Planung ansehen.
Es sei jedoch angemerkt: o9 ist nicht immun gegen die allgemeinen Herausforderungen von Unternehmenssoftware. Die Implementierung kann anspruchsvoll sein; der Erfolg hängt oft vom Implementierungspartner ab (da viele große SIs o9 für ihre Kunden umsetzen). Wird ein Projekt schlecht durchgeführt, könnte das Tool in die Verantwortung genommen werden. Wir sind nicht auf spezifische Horrorstorys in Bezug auf o9 gestoßen – was bedeuten könnte, dass es bisher keine größeren öffentlichen Fehlschläge gab oder dass es noch zu früh ist, um danach zu urteilen. Es könnte auch daran liegen, dass sie häufig ergänzend vorgehen, statt von Anfang an alles auszutauschen (einige Kunden nutzen o9 möglicherweise nur für bestimmte Planungsaspekte und führen es schrittweise ein).
Unsere Einschätzung: Wir betrachten o9 Solutions als einen starken Anwärter, der eine wirklich moderne Architektur und eine integrierte Philosophie mitbringt. Es erfüllt unsere Kriterien in mehreren Aspekten: Es berücksichtigt durchaus Preis- und Promotionsplanung als Teil der Planung und nicht als nachträglichen Gedanken (auch wenn die Tiefe der Optimierung dort moderat sein könnte, ist die Integration vorhanden) 157 158. Es geht mit Unsicherheiten mittels fortschrittlicher Prognosen um (sie unterstützen wahrscheinlich probabilistische oder zumindest szenariobasierte Planung, angesichts der Betonung von Risiken und Sensitivität). Es ist für Skalierbarkeit und Geschwindigkeit ausgelegt, wobei Cloud-Computing und In-Memory-Technologien dort eingesetzt werden, wo es angebracht ist 166 – wenngleich wir ein Auge auf die Kosten haben würden, falls viel In-Memory zum Einsatz kommt (ähnliche Überlegungen wie beim Geschwindigkeit- versus Speicherabgleich von Kinaxis). Ihr Ansatz zur Automatisierung ist eher hybrid: Die Analysen werden automatisiert und es können präskriptive Vorschläge gemacht werden, jedoch vermuten wir, dass viele o9-Nutzer es weiterhin als ein Entscheidungsunterstützungswerkzeug verwenden, statt als ein vollständig geschlossenes, automatisiertes System. Dennoch ist die Vision einer „self-driving supply chain“ eindeutig in ihrer Kommunikation verankert – sie bezeichnen ihre Plattform sogar als das „KI-gestützte digitale Gehirn“ für diesen Zweck 171.
Wir bleiben skeptisch gegenüber überzogenen Versprechen (zum Beispiel wenn jemand andeutet, dass o9 mühelos über Nacht jeden Planungsaspekt vereinheitlichen wird – das erfordert Arbeit). Diese Skepsis wird jedoch dadurch gemildert, dass o9 seine Leistungsfähigkeit durch seine wachsende Kundenbasis bereits unter Beweis gestellt hat. Im Grunde ist es eine dieser Plattformen, die viel liefern könnte, wenn sie ihr Potenzial voll ausschöpft – wie weit Unternehmen mit der Automatisierung von Entscheidungen voranschreiten, variiert jedoch.
In Bezug auf Rankings, wenn unser Fokus eng gefasst ist (Optimierung von Lagerbestand/Preisgestaltung), könnte o9 knapp hinter Anbietern wie Lokad oder RELEX liegen, da diese exakt auf dieses Problem (Lokad) beziehungsweise auf diese Branche (RELEX für den Einzelhandel) mit bewährten Algorithmen spezialisiert sind. o9 ist breiter aufgestellt und verfügt daher möglicherweise nicht über die sehr spezialisierten Algorithmen in manchen Nischen, deckt das Gebiet aber gut ab und ist technologisch auf dem neuesten Stand. Wir geben o9 hohe Punkte für Vision und eine solide technische Grundlage, mit dem einzigen Vorbehalt, dass wir mehr öffentliche Belege für die erzielten Ergebnisse sehen möchten (z. B. ob es Unternehmen geholfen hat, eine bestimmte Automatisierungsrate oder Bestandsreduzierung zu erreichen – jenseits anekdotischer Behauptungen).
Quellen: Die Fähigkeiten von o9 werden aus offiziellen Quellen zusammengefasst 159 157 sowie aus einer von Lokad verfassten Bewertung, die seine technischen Merkmale hervorhebt 165 166. Unabhängige Artikel, die o9s Ansatz und Erfolg belegen, werden zitiert 171 168. Unsere skeptischen Punkte beziehen sich auf eine allgemeine Bewertung von Schlagwörtern versus Realität 168. Informationen zum Preismodul und zur Promotionsplanung von o9 stammen aus den Beschreibungen auf ihrer Website 157 158. Zudem vermerken wir Beispiele für ihr Wachstum und Kundengewinne, wie in Pressemitteilungen berichtet 174 170.
6. Kinaxis – Schneller Anbieter von „Concurrent Planning“, dem das Preismodul fehlt
Kinaxis ist ein kanadischer Anbieter, bekannt für seine RapidResponse Plattform, die seit Jahrzehnten ein fester Bestandteil der supply chain Planung (insbesondere im High-Tech- und Automobilbereich) ist. Das Markenzeichen von Kinaxis ist die concurrent planning – die Fähigkeit, alle Bestandteile eines supply chain Plans (Nachfrage, Angebot, Bestand, Kapazität) in Echtzeit gemeinsam zu aktualisieren und mehreren Planern gleichzeitig die Arbeit mit denselben Daten zu ermöglichen. Im Grunde war Kinaxis Vorreiter bei einem superschnellen, In-Memory-Planungssystem, das Pläne dynamisch neu berechnen konnte, sobald sich etwas änderte, und den Nutzern sofortige What-if-Analysen sowie kaskadierende Updates lieferte 175 13. Dies war vor 15 Jahren revolutionär, als die meisten Planungen noch stapelweise durchgeführt wurden. Es bleibt sehr beliebt für Sales & Operations Planning (S&OP) und operative Planung in der komplexen Fertigung.
Historisch lag der Fokus von Kinaxis jedoch auf dem Ausgleich von Angebot und Nachfrage – nicht auf Preisgestaltung oder Revenue Management. Ihre Kunden sind oft Hersteller, die auf Lager produzieren oder nach Bestellung fertigen und denen Prognosegenauigkeit, Lieferzusagen und das Erreichen von Servicelevels wichtiger sind als eine dynamische Preisfestlegung. Bis vor Kurzem verfügte Kinaxis nicht über ein integriertes, fortgeschrittenes statistisches Prognosemodul; Kunden importierten entweder Prognosen oder nutzten einfache Methoden. Angesichts der Marktverlagerung hin zu KI begann Kinaxis, Machine Learning-basierte Prognosen und Analysen durch Übernahmen und Partnerschaften hinzuzufügen. Bemerkenswert ist, dass Kinaxis im Jahr 2020 Rubikloud erwarb, ein KI-Startup, das sich auf Einzelhandels-Nachfrageprognosen und Analysen spezialisiert hat 176. Zudem gingen sie Partnerschaften für probabilistische Prognosefähigkeiten ein. Diese waren im Wesentlichen „Bolt-ons“, um Lücken zu schließen 176 155. So konnte die Technologie von Rubikloud ein besseres Nachfrage-Sensing für den Einzelhandel/CPG bieten und die Stärke von Kinaxis in der Angebotsplanung ergänzen. Die Integration dieser in RapidResponse ist jedoch ein fortlaufender Prozess.
Aus unserer Sicht schneidet Kinaxis bei der gemeinsamen Optimierung von Lagerbestand und Preisgestaltung schlecht ab, da es die Preisgestaltung weitgehend gar nicht adressiert. Es handelt sich in erster Linie um ein Tool für die supply chain Planung (Nachfrage, Angebot, Bestand, Kapazität, eventuell SNOP-Finanzen) und nicht um ein Merchandising- oder Preisgestaltungstool. Selbst nach der Übernahme von Rubikloud – das durchaus einige Retail-KI für Promotions bot – fehlt im Kernangebot von Kinaxis weiterhin eine Preisoptimierung. Es mag ein Szenario ermöglichen, in dem ein Nachfrageplan mit unterschiedlichen Preisannahmen simuliert wird, aber es gibt keine Engine, die Preise empfiehlt. Wenn ein Unternehmen integrierte Preisentscheidungen benötigt, müsste Kinaxis mit einer separaten Preislösung kombiniert werden. Dies stellt eine kritische Lücke in Bezug auf die gemeinsame Optimierung dar; daher bewerten wir Kinaxis in diesem Kontext der umfassenden KI-Optimierung ab.
Im Hinblick auf den Umgang mit Unsicherheiten war der ursprüngliche Ansatz von Kinaxis eher deterministisch. Es wurde auf einer einzigen Prognose (oft nutzerbereitgestellt oder als Konsensplan) aufgebaut und anschließend die Angebotsweitergabe durchgeführt. Nativ wurden keine probabilistischen Prognosen oder Sicherheitsbestandsoptimierungen erstellt; stattdessen legten die Nutzer Sicherheitsbestandsrichtlinien fest, die Kinaxis berücksichtigte. Mit den jüngsten Verbesserungen wurden einige probabilistische Planungsverfahren eingeführt (wahrscheinlich durch Partnerschaften), um etwa Pufferwerte unter Unsicherheit zu berechnen. Allerdings kann man nicht sagen, dass Kinaxis ein Vorreiter in probabilistischen Methoden war – es holt durch Zusatzmodule auf. In ihrer aktuellen Kommunikation wird nun KI/ML erwähnt und es gibt etwas, das als „Planning.AI“ bezeichnet wird, doch die Details sind spärlich. Es klingt vor allem danach, dass ML-basierte Prognosen und möglicherweise eine Anomalieerkennung integriert werden, statt einer von Grund auf stochastischen Optimierung. Tatsächlich wurde in einer kritischen Analyse festgestellt, dass Kinaxis im Wesentlichen eine Legacy-Architektur in Evolution ist: deterministischer Kern mit angehängten neuen KI-Komponenten 177. Dies wirft Fragen hinsichtlich der Kohärenz des Technologie-Stacks auf. Die neuen KI-Komponenten könnten noch nicht vollständig integriert sein (z. B. könnte es erforderlich sein, einen separaten Prozess für die ML-Prognose durchzuführen und diese dann in die In-Memory-Engine einzuspeisen).
Die in-memory concurrent engine von Kinaxis ist zugleich seine Stärke und sein Achillesberg. Sie ermöglicht extrem schnelle Berechnungen und Szenariosimulationen bei moderaten Datenmengen, doch bei extrem großen Datenmengen stößt man an Speicher- und Performance-Grenzen 178 179. Es ist, als hätte man eine super leistungsstarke Tabellenkalkulation, mit der mehrere Personen gleichzeitig arbeiten können – ideal für interaktive Nutzung, aber nicht dafür ausgelegt, beispielsweise Milliarden von Datensätzen gleichzeitig zu analysieren. Kinaxis arbeitet in der Regel auf aggregierter Ebene (wöchentliche Intervalle, Produktfamilie oder SKU, je nach Fall). Sollten Unternehmen versuchen, Kinaxis für die Planung von beispielsweise Millionen von SKU-Kunden-Kombinationen in Echtzeit zu nutzen, könnte es zu Engpässen kommen oder es wären enorme RAM-Ressourcen und Servercluster erforderlich. Dies ist ein bekannter Kompromiss: Kinaxis setzt auf Geschwindigkeit, was zulasten der Skalierbarkeit gehen kann. Dies wurde dadurch kompensiert, dass es möglich ist, einige Details auszulagern (z. B. durch den Einsatz von Heuristiken oder vereinfachte Annahmen für feingranulare Details). Dennoch ist es nicht so grundsätzlich „big data“-orientiert wie der Ansatz von Lokad oder o9 180 181. So wies beispielsweise eine Quelle darauf hin, dass Unternehmen Kosten-/Performance-Grenzen erreichen könnten, wenn ihre Datenmengen riesig sind, sofern nicht in leistungsstarke Hardware für Kinaxis investiert wird 178. Kinaxis ist sich dieser Limitierung bewusst und arbeitet vermutlich daran, seine Berechnungen weiter zu verteilen (insbesondere bei Cloud-Einsätzen), aber es bleibt eine Einschränkung des Designs.
Ein weiterer Aspekt: Kinaxis ist bekannt für seine starke Szenarioplanung und Human-in-the-Loop Entscheidungsfindung. Planer nutzen das System, um gemeinsam zu arbeiten und schnell auf Veränderungen zu reagieren (etwa bei einem plötzlichen Nachfrageanstieg oder einem Problem mit einem Zulieferer). Dabei geht es weniger um die Automatisierung jeder einzelnen Entscheidung, sondern vielmehr darum, menschliche Planer zu unterstützen, damit sie bessere und schnellere Entscheidungen treffen. Kinaxis vermarktet oft die Synergie von „Mensch + KI“ anstelle vollständiger Autonomie 182 183. Sie benennen ihre KI-Fähigkeiten sogar „Maestro“ – eine Orchestrierungs-Plattform, die den Planern hilft, statt sie zu ersetzen 184 185. In unseren Kriterien befürworten wir zwar mehr Automatisierung, aber man könnte argumentieren, dass Kinaxis’ Philosophie pragmatisch ist: Dem Menschen das zu überlassen, was er am besten kann (Urteilsvermögen, Ausnahmen) und die Maschine die Zahlen in Echtzeit berechnen zu lassen. Der Nachteil ist, dass es immer noch mehr Mitwirkung der Planer erfordert und nicht so viel Arbeitsaufwand eliminiert, wie es beispielsweise Lokad oder ToolsGroup behaupten.
Kinaxis hat nicht öffentlich an Prognosewettbewerben oder Ähnlichem teilgenommen, und da es sich um eine Plattform handelt, ist es schwieriger, seine algorithmische Exzellenz isoliert zu quantifizieren. Sein Wert wurde in vielen Unternehmen durch verbesserte Agilität und Service-Metriken nachgewiesen (es gibt Fallstudien zur Bestandsreduzierung, zu schnelleren Planungszyklen etc., auch wenn wir keine spezifischen zitieren, da sie oft aus dem Kinaxis-Marketing stammen). Außerdem deutet die Übernahme von Rubikloud durch Kinaxis darauf hin, dass erkannt wurde, dass eine bessere AI/ML-Prognose notwendig ist, insbesondere um die Segmente Einzelhandel/CPG zu bedienen und nicht im AI-Buzz zurückzufallen. Rubikloud brachte einige Expertise in demand AI and even pricing AI for retail (Rubikloud hatte Produkte für Promo-Optimierung) mit. Aber die Integration von Rubikloud in Kinaxis bedeutet wahrscheinlich, dass diese Funktionen als separate Module oder Dienste existieren, anstatt tief in eine einzige Optimierung eingebunden zu werden. Eine Kritik aus der MQ-Review war, dass die neuen Funktionen von Kinaxis als *„bolt-ons“ gelten, was Fragen zur Kohärenz des Tech-Stacks aufwirft 155 – z. B.: Ist das Rubikloud-Modul nur lose gekoppelt?
Wettbewerbsposition: Im Gartner Magic Quadrant 2024 für supply chain planning war Kinaxis immer noch ein Leader, vor allem aufgrund seiner starken Umsetzungshistorie (viele Kunden, solide Finanzzahlen) 13. Aber technisch wird es als in Entwicklung befindlich angesehen, anstatt als wirklich bahnbrechend in AI. Gartner lobte seine Automatisierung und Ausrichtung, doch unabhängige Analysen wiesen auf Widersprüche hin: Kinaxis spricht von Echtzeit und beliebigem Detailgrad, aber in Wirklichkeit ist die Skalierung von Detailgenauigkeit und Echtzeit – selbst für Kinaxis – schwierig 179. Kinaxis’ parallele Verarbeitung ist großartig für kurzfristige Neuprogrammierungen und Simulationen, aber nicht von Natur aus probabilistisch oder kostenoptimierend – man muss immer noch die Regeln festlegen und die Ergebnisse beobachten, anstatt dass das System von selbst eine Zielfunktion optimiert (obwohl Kinaxis einige Optimierungslöser für spezifische Aufgaben wie supply allocation hat, handelt es sich nicht um eine globale Optimierung über alle Entscheidungen hinweg).
Für Pricing and market data integration nimmt Kinaxis nicht von Haus aus Wettbewerberpreise auf oder trifft Preisentscheidungen. Es kann vermutlich Nachfragefaktoren wie den Preis als Eingaben in seine Prognosen einbeziehen, sofern diese bereitgestellt werden, sammelt sie jedoch nicht. Die Übernahme von Rubikloud durch Kinaxis hat ihnen möglicherweise die Fähigkeit verliehen, Werbeaufschlagfaktoren zu berücksichtigen und eventuell AI zu nutzen, um die Effektivität von Werbeaktionen zu analysieren. Aber die alltägliche Preisgestaltung liegt nicht in ihrem Aufgabenbereich.
Bewertung: Kinaxis bleibt eine Spitzenlösung für supply chain planning in komplexen Fertigungs-/Distributionsszenarien, in denen Reaktionsgeschwindigkeit und gleichzeitige Zusammenarbeit von entscheidender Bedeutung sind. Es hilft Unternehmen definitiv, Was-wäre-wenn-Szenarien äußerst schnell durchzuspielen und Pläne synchron zu halten. Allerdings liegt Kinaxis – nach unserer Definition von AI-gestützter supply chain optimization, die Preisgestaltung und eine wirklich automatisierte Entscheidungsfindung einschließt – im Rückstand. Es betrachtet die Planung als eine Aufgabe, die von Planern mit großartiger Werkzeugunterstützung durchgeführt wird, anstatt dass das System den gesamten Prozess end-to-end vollautomatisch übernimmt. Es optimiert weder die Preisgestaltung noch das Sortiment (abgesehen davon, dass es sicherstellt, dass die Supply-Pläne einem bestehenden Sortiment entsprechen). Daher würde Kinaxis im Ranking der gemeinsamen Optimierung niedriger abschneiden, da es hauptsächlich innerhalb des supply chain-Silos optimiert. Wir sind auch vorsichtig hinsichtlich seiner Abhängigkeit von In-Memory-Technologie – die zwar hervorragend für die interaktive Nutzung ist, aber kostspielig werden kann und für sehr große Probleme möglicherweise eine Vereinfachung der Daten erfordert 178 181. Zum Beispiel, wenn ein E-Commerce-Unternehmen versuchen würde, Kinaxis für minutengenaue Neuprogrammierung von 100 Millionen SKU-Standort-Kombinationen einzusetzen, wäre es nicht das richtige Werkzeug; es ist besser geeignet für die Planung auf höherer Ebene, etwa von vielleicht Tausenden von SKU-Familien usw.
Man sollte auch bedenken, dass die typischen Kunden von Kinaxis (wie ein Elektronik-OEM oder ein Automobilzulieferer) möglicherweise keine Preisoptimierung von Kinaxis benötigen, da die Preisgestaltung in diesen Branchen oft von separaten Vertriebsteams oder über Kostenaufschlagsformeln abgewickelt wird. Deshalb hat Kinaxis diesem Bereich keine Priorität eingeräumt. Aber da sich die Welt zu integrierten Entscheidungen und AI hinbewegt, wird Kinaxis entweder in diese Bereiche expandieren müssen oder riskieren, veraltet zu wirken.
Wir stellen fest, dass Kinaxis auch Partnerschaften mit anderer Technologie eingegangen ist (z. B. wurde eine Partnerschaft mit Databricks angekündigt, um bei AI zu unterstützen und Fragmentierung zu reduzieren 186). Dies deutet darauf hin, dass man weiß, dass Big Data und AI besser gehandhabt werden müssen, indem moderne Datenplattformen genutzt werden. Es ist ein guter Schritt, hebt aber hervor, dass Teile zu einem älteren Kern hinzugefügt werden.
Zusammenfassend ist Kinaxis ein ziemliches Mischpaket. Es ist hervorragend in dem, wofür es entwickelt wurde – schnelle, parallele supply chain planning mit menschlicher Einbindung – und hat in diesem Bereich seinen Wert bewiesen. Aber im Kontext dieser Studie zur AI-getriebenen ganzheitlichen Optimierung fehlen Kinaxis wichtige Zutaten (Preisgestaltung, vollständige Automatisierung, probabilistische Optimierung), und die technische Architektur, die zwar bei bestimmtem Umfang sehr effektiv ist, skaliert nicht von Natur aus kostengünstig für massive Datenmengen oder berücksichtigt Unsicherheiten auf die eleganteste Weise. Unternehmen mit großflächigen Einzelhandelsnetzwerken oder mit Bedarf an Preisentscheidungen könnten Kinaxis ohne Erweiterungen als unzureichend empfinden. Daher bewerten wir Kinaxis auf der Innovationsskala für AI-Optimierung niedriger, erkennen aber seine starke Erfolgshistorie im Bereich supply chain planning an. Es ist der klassische Fall eines soliden Marktteilnehmers, der versucht, sich neu zu erfinden: Es fügt AI-Funktionen hinzu (wie die Technologie von Rubikloud) und bewirbt im Marketing „Planning AI“ 187, aber wir raten potenziellen Nutzern, einen Blick unter die Haube zu werfen – ein Großteil der AI von Kinaxis könnte derzeit oberflächliche Add-ons oder punktuelle Lösungen sein, anstatt eines transformierten Kerns 187.
Quellen: Kinaxis’ Concurrent Planning und die Tradition der In-Memory-Technologie werden in Analysen erwähnt 175 178. Die Hinzufügung von AI durch die Rubikloud-Übernahme ist dokumentiert 176. Kritiken an bolt-on AI und Skalierbarkeitsproblemen stammen aus einer Lokad-Review des Gartner MQ 155 13. Kinaxis’ Behauptungen zur Automatisierung und die Realität von Speichergrenzen werden zitiert 13 179. Wir verweisen auch auf Kinaxis’ eigene Aussagen zur Kombination von Mensch und AI (ihre Website und ihr Marketing verwenden Begriffe wie „human intelligence with AI“ 182). Die Partnerschaft mit Databricks zur Stärkung der AI-Datenverarbeitung wird in einem BusinessWire-Artikel erwähnt 186, was ihre Bestrebungen zur Schließung gewisser Lücken zeigt.
Schlussfolgerung: Zwischen Hype und Realität navigieren in der AI supply chain Optimierung
In dieser Marktstudie haben wir einen kritischen, evidenzbasierten Blick auf den Bereich der AI-getriebenen supply chain optimization geworfen. Die Ergebnisse zeigen eine Landschaft mit wenigen wirklich fähigen Akteuren und vielen Möchtegern-Anbietern. Das Konzept einer end-to-end Optimierung von Inventar, Preisgestaltung und Sortiment unter Unsicherheit ist unglaublich anspruchsvoll – es erfordert strenge Mathematik, skalierbare Technologie und Vertrauen in die Automatisierung, das nicht alle Anbieter liefern können. Lokad sticht hervor mit seinem einheitlichen, probabilistischen Ansatz und der Betonung von Entscheidungs-Optimierung gegenüber isolierter Planung. Es veranschaulicht, was „AI-gestützt“ bedeuten sollte: kundenspezifische Modellierung eines Unternehmens, probabilistische Prognosen, die direkt in wirtschaftliche Entscheidungsregeln einfließen, und Automatisierung, sodass Systeme weitgehend unbeaufsichtigt laufen können 21 3. Die Kosteneffizienz seiner Cloud-Architektur 32 und greifbare Erfolgsnachweise wie die Performance im M5-Wettbewerb 21 festigen seinen Status als Leader zusätzlich. Der Haken ist der Bedarf an fachkundiger Konfiguration – ein Preis für Flexibilität und Tiefe. RELEX und Blue Yonder, als bedeutende Suite-Anbieter, bieten eine breite Funktionalität und rennen der Modernisierung entgegen. RELEX glänzt im Einzelhandel mit seinem AI-Flair und integrierten Plattform und deckt alles ab, von Regalfläche bis Preisgestaltung, mit pragmatischer AI, die unzählige Signale verarbeitet 40 50. Wir stellten fest, dass RELEX’ Stärken in der probabilistischen Prognose und der nahtlosen Benutzererfahrung teilweise dadurch gemindert werden, dass ein Teil seiner „Autonomie“ noch menschliche Steuerung und sorgfältige Datenprüfung erfordert 60 11. Blue Yonder, ein Gigant im Bereich supply chain seit Jahrzehnten, verfügt eindeutig über alle Bausteine (insbesondere nach der Integration von Revionics für die Preisgestaltung) und tiefe branchenspezifische Algorithmen 72 98. Dennoch handelt es sich um ein Flickwerk im Übergang: Unsere Untersuchung ergab, dass Blue Yonders einheitliche „Luminate“-Vision ambitioniert ist und in der Praxis nicht vollständig realisiert wird 76 78. Kunden sollten sich vor Integrationslücken und der technischen Verschuldung hinter den AI-Schlagwörtern in Acht nehmen – die Dillard’s-Rechtsstreit-Saga ist ein eindrucksvoller Hinweis darauf, was passiert, wenn Versprechen die Realität übertreffen. Sowohl RELEX als auch Blue Yonder sind in ihren Fähigkeiten führend, aber ein kritischer Blick ist nötig, um ihre echten Innovationen (z. B. RELEX’ kontinuierliche Neuprognosen, die bewährten MEIO-Algorithmen von BY) von Marketing-Hype (z. B. Behauptungen totaler Echtzeitallwissenheit) zu unterscheiden. ToolsGroup stammt aus einer Tradition quantitativer Strenge (als Vorreiter der probabilistischen Inventaroptimierung) und hat sich nun durch Akquisitionen im Retail Planning erweitert. Wir haben festgestellt, dass ToolsGroup in der Handhabung von Unsicherheiten und in der Automatisierung der Supply-Planung 7 134 technisch stark ist und relativ offen darüber kommuniziert, was es leistet (Servicelevel und Inventar) und was nicht (tägliche Preisoptimierung) 137 139. Ihre Herausforderung wird darin bestehen, die neueren Merchandising-Fähigkeiten vollständig zu integrieren, um eine gemeinsame Optimierung anstelle einer sequentiellen Planung zu ermöglichen. Dennoch ist ihr Fokus auf Optimierungs-Mathematik statt glänzendem Marketing in einer Branche, in der einige neuere Anbieter in Schlagwörtern untergehen, erfrischend. o9 Solutions repräsentiert die neue Welle der „AI platforms“ und beeindruckt mit einem modernen Tech-Stack sowie einem breiten, integrierten Spektrum. Es strebt danach, ein „digitales Gehirn“ zu sein, das alle Planungsprozesse umfasst, und nutzt dabei innovative Ideen wie Wissensgraphen und offene Algorithmushubs 165 168. Unsere Skepsis gegenüber o9 bezieht sich nicht auf seine Technologie (die robust zu sein scheint), sondern auf die Komplexität, in der Realität eine All-in-One-Plattform zu liefern. Es verspricht viel – und kann vermutlich einzelne Komponenten schnell bereitstellen (es gibt Belege für erfolgreiche Projekte) – aber Unternehmen müssen darauf achten, sich nicht von der großen Vision mitreißen zu lassen, ohne einen schrittweisen Mehrwert sicherzustellen. Die Schlagwortdichte rund um o9 ist hoch, sodass potenzielle Nutzer konkrete Demonstrationen zu ihren spezifischen Problemen verlangen sollten (z. B. wie genau wird o9 unsere Preisgestaltung und unser Inventar gemeinsam optimieren, mit unseren Daten?). Das Potenzial ist zweifellos vorhanden. Schließlich zeigt Kinaxis (und in ähnlicher Weise SAP oder Oracle in groben Zügen), dass eine Führungsrolle im traditionellen supply chain planning nicht direkt in eine Führungsrolle in der AI-getriebenen Optimierung übersetzt wird. Kinaxis’ Concurrent Planning Engine ist hervorragend in dem, wofür sie entwickelt wurde – schnelle, menschengesteuerte Neuprogrammierung – verdeutlicht jedoch ein zentrales Thema: Viele etablierte Anbieter statteten ihre Legacy-Kerne lediglich mit AI-Funktionen nach 176 177. Sie mögen das Häkchen bei „has AI/ML“ setzen, jedoch auf eine fragmentierte, manchmal oberflächliche Weise. Das Fehlen einer Preisintegrationslösung bei Kinaxis ist ein klarer Nachteil in einer Studie, die auf gemeinsame Optimierung Wert legt. SAP und Oracle, die oben nicht ausführlich behandelt wurden, folgen einem ähnlichen Muster: riesige Portfolios mit etwas AI obendrauf (SAP wirbt mit „Business AI“ in seinem gesamten Portfolio 188, Oracle betont eine „composable architecture“ mit AI 189), bieten aber größtenteils weiterhin modulbasierte Lösungen an, die die Nutzer selbst zusammenfügen müssen. Die Integrationslast fällt oft auf den Kunden oder auf teure Berater, während die zuvor behandelten Anbieter bestrebt sind, ein nahtloseres Erlebnis zu bieten. Und wie Gartner MQ-Kritiker betonen, genießen diese großen Anbieter oft den Leader-Status aufgrund ihrer Größe und Beziehungen und nicht wegen technischer Überlegenheit 190 191. Wichtigste Erkenntnisse:
-
Vorsicht vor Schlagwörtern: Viele Anbieter verwenden großzügig Begriffe wie „AI-driven, cognitive, autonomous“. Unsere Untersuchungen zeigten, dass es leicht ist, fehlgeleitet zu werden, wenn man nicht in technische Dokumentationen oder unabhängige Studien einblickt. Zum Beispiel könnte ein Anbieter, der von „real-time AI planning“ spricht, immer noch auf nächtliche Batch-Läufe mit einer ML-Prognose angewiesen sein – im Grunde alter Wein in neuen Schläuchen 86 87. Fragen Sie stets nach Details: Was genau macht die AI? Wie wird sie getestet oder validiert? Können Verbesserungen belegt werden? Der skeptische Ansatz verlangt Transparenz, und das haben wir auch getan – indem wir beispielsweise aufdeckten, dass manche „AI“ schlicht den Einsatz von XGBoost oder neuronalen Netzen für Prognosen anstelle von ARIMA bedeutet, was in Ordnung, aber nicht revolutionär ist.
-
Integration ist König (und die Achillesferse): Das Heilige Gral ist ein einziges System, das über traditionell getrennte Bereiche (Inventar, Preisgestaltung, Sortiment) hinweg optimiert. Die Realität ist, dass Anbieter aus unterschiedlichen Ursprüngen stammen und ihre Fähigkeiten zusammenfügen. Lokad umging dies per Design (indem ein einheitliches Modell mittels Code erstellt wurde). RELEX entwickelte den größten Teil intern und wirkt daher kohärent, musste aber dennoch später Preisgestaltung hinzufügen. Blue Yonder und ToolsGroup verfolgten akquisitionsgetriebene Wege und fügen diese Elemente immer noch zusammen 76 118. Der derzeitige Zustand der meisten Angebote ist „integriert, aber nicht vollkommen einheitlich.“ Unternehmen sollten darauf vorbereitet sein, einiges an Aufwand zu betreiben, um die einzelnen Komponenten harmonisch zusammenwirken zu lassen. Die Anbieter, die auf gemeinsame Datenplattformen umsteigen (Blue Yonder mit Snowflake, ToolsGroup mit Inventory Hub etc.), sind auf dem richtigen Weg, aber es ist ein fortlaufender Prozess. In der Zwischenzeit muss man davon ausgehen, dass funktionsübergreifende Optimierung iterative Prozesse und menschliche Aufsicht erfordert, um sicherzustellen, dass nichts durch die Maschen fällt.
-
Probabilistische & wirtschaftliche Optimierung sind unerlässlich für Unsicherheit: Wir freuten uns zu feststellen, dass die Bedeutung probabilistischer Prognosen mittlerweile weitgehend anerkannt wird. Alle führenden Anbieter in unserer Studie führen dies entweder nativ durch oder behaupten zumindest, es zu unterstützen. Dies ist eine positive Entwicklung im Vergleich zu den Zeiten deterministischer Pläne, die oft zu bösen Überraschungen führten. Ebenso zeigt sich ein Trend, Kosten- und Gewinnüberlegungen einfließen zu lassen – im Grunde der Übergang von reinem Servicelevel- oder Fill-Rate-Denken zu gewinnoptimalen Entscheidungen 192. Dennoch variiert das Ausmaß. ToolsGroup und Lokad optimieren sehr explizit auf Service- oder Gewinnziele. RELEX und Blue Yonder berücksichtigen in manchen Planungen Kostenabwägungen (wie das Austarieren von Über- versus Unterprognosekosten 193). Nutzer, die Lösungen bewerten, sollten darauf achten, wie gut ein Tool nach wirtschaftlichem Wert priorisieren kann (z. B. werden nicht alle Lagerausfälle gleich behandelt – ein Ausfall eines margenarmen Artikels ist nicht so kritisch wie der eines margenstarken Artikels etc.). Wenn ein Anbieter nicht in der Lage ist, Stückkosten, Lagerhaltungskosten, Preiselastizität und dergleichen einzubeziehen, wird auch keine Menge AI-Magie ein wirklich optimales Ergebnis liefern. Es wird lediglich einen „machbaren“ Plan ergeben, bei dem möglicherweise Geld auf dem Tisch liegen bleibt.
-
Automatisierung vs. Kontrolle – Der menschliche Faktor: Ein roter Faden durch alle Anbieteranalysen war das Verhältnis zwischen erreichbarer Automatisierung und dem Bedarf an menschlicher Kontrolle. Es gilt, ein Gleichgewicht zu finden zwischen extremer Automatisierung (einrichten und vergessen) und Nutzerflexibilität. Einige Anbieter machen einen Fehler, indem sie zur Automatisierung tendieren (Lokad strebt diese an, RELEX schlägt sie vor, fügt dann aber viele vom Nutzer konfigurierbare Stellschrauben hinzu 11). Andere, wie Kinaxis, neigen dazu, den Nutzern auf Kosten der Automatisierung mehr Kontrolle zu geben. Die ideale Wahl hängt von der Unternehmenskultur und -reife ab. Die skeptische Haltung dieser Studie ist, dass viele Anbieter „autonome Planung“ versprechen, die Realität jedoch höchstens halbautonom ist 60 194. Unternehmen sollten sich nicht von Schlagwörtern täuschen lassen und glauben, sie könnten ihr Planungsteam nach der Installation eines KI-Systems auflösen. Stattdessen sollten sie anstreben, die Rolle des Planungsteams zu erhöhen: Die KI übernimmt Routinearbeiten und Zahlenspiele, während Menschen sich um Ausnahmen, Strategie und Validierung kümmern. Im Laufe der Zeit, wenn Vertrauen aufgebaut wird, kann dem System mehr Autonomie eingeräumt werden. Anbieter, die diesen Übergang erleichtern (indem sie Transparenz, Override-Funktionen und Lernen aus Overrides bieten), werden voraussichtlich die besten Ergebnisse erzielen. In diesem Zusammenhang könnte ein „Glashaus“-Ansatz (wie der von Lokad oder ToolsGroup, bei dem man die Logik einsehen und anpassen kann) mehr Vertrauen erwecken als eine reine Black-Box, die Antworten ohne Erklärung ausspuckt.
-
Beweise und Strenge statt Hype: Abschließend eine Meta-Beobachtung: Der Markt für supply chain Software wimmelt von Analystenberichten, gesponserten Fallstudien und rosigen ROI-Versprechen. Wir haben diese in dieser Studie bewusst außen vor gelassen, und dabei eine Diskrepanz zwischen einigen populären Wahrnehmungen und der technischen Realität festgestellt. So könnte beispielsweise Gartners Magic Quadrant X aufgrund der Marktpräsenz als führend aufführen, während X technisch im Bereich KI hinterherhinkt (wir sahen beispielsweise Andeutungen bei Oracle und Logility). Gleichzeitig könnte ein Anbieter, der bei manchen Analysten gar nicht im Fokus steht (vielleicht weil er nicht dafür zahlt), radikale Innovation liefern 25 190. Daher wäre es klug, wenn Entscheidungsträger über die glänzenden Quadranten hinausblicken und stattdessen in architektonische Whitepapers, technische Referate von Referenzkunden oder sogar in ein kleines Prototypenprojekt eintauchen. Wenn ein Anbieter dazu gedrängt wird, seine Technik an einem Teilaspekt Ihres Problems unter Beweis zu stellen (beispielsweise ein Proof-of-Concept zu einer Produktlinie über 8 Wochen), zeigt das oft, wie viel Substanz hinter dem Verkaufsgespräch steckt. Wir stellten zum Beispiel fest, dass Anbieter, die an externen Wettbewerben teilnehmen oder technische Blogs veröffentlichen (Lokad, Teile des Blue Yonder-Teams, ToolsGroup-Blogs), in der Regel geerdeter sind – sie legen ihr Denken der Überprüfung offen 103. Das ist ein gutes Zeichen. Im Gegensatz dazu könnten Anbieter, die lediglich generische Marketingfloskeln verwenden und keinerlei technische Tiefenanalysen vorweisen, eine mangelnde Substanz verbergen.
Insgesamt reift der Markt für KI-gestützte supply chain Optimierung, wird aber weiterhin von großen Versprechen und ungleichmäßiger Umsetzung geprägt. Unternehmen, die nach Lösungen suchen, müssen die Behauptungen jedes Anbieters mit harten Fakten abgleichen: Zeigt der Anbieter eine gemeinsame Optimierung oder redet er nur von Integration? Können sie Unsicherheiten quantitativ meistern oder verlassen sie sich noch auf vereinfachte Puffer? Wird KI wirklich sinnvoll eingesetzt (z. B. durch Siege oder gute Leistungen in neutralen Bewertungen) oder werden lediglich KI-Begriffe auf alte Methoden gestreut? Indem diese schwierigen Fragen gestellt werden – wie wir es in dieser Studie getan haben – kann man sich durch das Rauschen hindurchschneiden. Der Gewinn besteht darin, diejenigen wenigen Lösungen zu finden, die den Stand der Technik wirklich voranbringen, im Gegensatz zu jenen, die nur auf dem Hype-Zyklus mitfahren. Im Jahr 2025 existiert die Technologie, die Supply-Chain-Entscheidungen (von probabilistischer Prognose bis hin zur automatisierten Preisgestaltung) revolutionieren kann, doch die Wahl eines Anbieters erfordert, echte Innovation von „AI-washing“ zu unterscheiden. Wir hoffen, dass dieser Bericht geholfen hat, diesen Unterschied zu beleuchten und einen klareren Blick darauf zu vermitteln, welche Anbieter wirklich Grenzen verschieben und welche nur mit schicker Terminologie aufholen.
Fußnoten
-
eCommerce Optimization Software, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Eine kritische Überprüfung des 2024 Gartner Magic Quadrant für Supply Chain Planning Solutions, April 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
eCommerce Optimization Software, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Jury verleiht Dillard’s 246 Millionen Dollar wegen fehlerhafter Software des ehemaligen i2 Technologies ↩︎ ↩︎ ↩︎
-
Eine kritische Überprüfung des 2024 Gartner Magic Quadrant für Supply Chain Planning Solutions, April 2025 ↩︎ ↩︎
-
eCommerce Optimization Software, Februar 2025 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎
-
Eine kritische Bewertung von 2024 Gartner Magic Quadrant für Supply Chain Planungslösungen, April 2025 ↩︎ ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎
-
Software für Verbraucherpreisgestaltung / Promotionsplanung, angetrieben von KI ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
o9 von Envu ausgewählt, um seine supply chain Planungskapazitäten schnell zu transformieren - o9 Solutions ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎ ↩︎ ↩︎
-
Rezension von o9 Solutions, Anbieter integrierter Planungssoftware ↩︎
-
o9 steigert die Abonnementerlöse um 37 % in 2024 - o9 Solutions ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎ ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎ ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎
-
supply chain Maschinelles Lernen und Künstliche Intelligenz (KI) | Kinaxis ↩︎ ↩︎
-
Kinaxis: Mit KI leistungsstarke supply chain Ergebnisse erzielen | Supply Chain Magazine ↩︎
-
Kinaxis arbeitet mit Databricks zusammen, um die KI-gestützte supply chain Orchestrierung zu beschleunigen ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎ ↩︎
-
Eine kritische Rezension des 2024 Gartner Magic Quadrants für supply chain Planungslösungen, April 2025 ↩︎