Einzelhandelsoptimierungssoftware, Februar 2025

Von Léon Levinas-Ménard
Zuletzt geändert: 2. Februar 2025

Einführung: Einzelhändler sehen sich heute komplexen Optimierungsproblemen gegenüber, die Lagerbestände, Preisstrategien und Produktsortimente umfassen. Eine Vielzahl von Softwareanbietern verspricht „KI-gestützte“ Lösungen zur Bewältigung dieser Herausforderungen, doch die Unterscheidung zwischen wahrer technologischer Innovation und Altsystemen sowie Marketing-Hype erfordert eine genaue Prüfung. Diese Studie bewertet führende Anbieter von Einzelhandelsoptimierungssoftware anhand strenger Kriterien. Wir konzentrieren uns auf gemeinsame Optimierung (Lagerbestand, Preise und Sortiment zusammen), probabilistische Prognose (echte KI/ML-Prognosen im Vergleich zu vereinfachten Methoden), ökonomische Entscheidungsmodellierung (auf Gewinn und Opportunitätskosten basierende Entscheidungen statt statischer Regeln), Skalierbarkeit und Kosteneffizienz (Fähigkeit, große Einzelhandelsnetzwerke ohne exorbitante Hardwareanforderungen zu bewältigen), Umgang mit komplexen Einzelhandelsfaktoren (z. B. Produktkannibalisierung, Substitutionseffekte, verderbliche Waren/Verfallsdaten), Automatisierung (Grad der autonomen Entscheidungsfindung im Vergleich zu erforderlicher manueller Intervention), Technikintegration (stimmiger Technologie-Stack versus „Frankenstein“-Plattformen aus Übernahmen) und einen kritischen Blick auf Schlagworte („demand sensing“, „plug-and-play“ etc.). Jeder Anbieter wird mit technischer Tiefe analysiert, indem glaubwürdige Belege herangezogen und die Abhängigkeit von Marketingaussagen minimiert wird. Im Folgenden ordnen wir die Anbieter von den fortschrittlichsten bis zu den weniger fortschrittlichen und heben dabei Stärken, Schwächen und die Wahrheit hinter ihren Behauptungen hervor.

Bewertungsfaktoren für Einzelhandelsoptimierungsplattformen

Bevor wir in die Anbieterprofile eintauchen, fassen wir die wichtigsten angewandten Bewertungsfaktoren zusammen:

  • Gemeinsame Optimierung (Lagerbestand + Preisgestaltung + Sortiment): Optimiert die Lösung diese Dimensionen ganzheitlich, indem sie ihre wechselseitige Abhängigkeit berücksichtigt? Oder sind diese Funktionen voneinander isoliert? Wirklich fortschrittliche Plattformen behandeln Preisgestaltung, Lagerbestand und Sortiment als integrierte Hebel eines einzigen Optimierungsproblems, statt als separate Module 1. Zum Beispiel sollte eine Preisänderung in Lagerprognosen und Sortimententscheidungen eines einheitlichen Modells zurückfließen.

  • Probabilistische Prognose & KI: Nutzt der Anbieter moderne KI/Maschinelles Lernen, um probabilistische Prognosen (Wahrscheinlichkeitsverteilungen der Nachfrage statt Einzelpunktprognosen) zu erstellen? Probabilistische Prognosen sind entscheidend für robuste Entscheidungen unter Unsicherheit 2. Wir suchen nach Belegen für den Einsatz von maschinellen Lernmodellen, neuronalen Netzwerken oder anderer KI, die die Prognosegenauigkeit verbessern, indem sie komplexe Muster (Saisonalität, Trends, Werbeaktionen etc.) erkennen und Unsicherheiten quantifizieren. Anbieter, die weiterhin auf vereinfachte Methoden (wie manuelles Tuning oder einfache Formeln) setzen oder Prognosen als deterministische Werte behandeln, werden benachteiligt.

  • Ökonomische Entscheidungsfindung: Werden die Entscheidungen der Plattform durch wirtschaftliche Ziele gesteuert (Gewinnmaximierung, Abwägung zwischen Lagerkosten und Fehlbestandskosten, ROI des Regalplatzes etc.)? Einzelhandelsoptimierung erfordert mehr als nur das Erreichen hoher Auslastungsraten – es bedeutet die Maximierung des erwarteten Gewinns unter Unsicherheit. Wir bevorzugen Lösungen, die Margen, Lagerkosten, Abschreibungskosten und Opportunitätskosten in ihre Algorithmen einbeziehen. Regelbasierte Heuristiken oder festgelegte Serviceniveaus können unzureichend sein, wenn sie das letztendliche Ziel der Rentabilität außer Acht lassen 3.

  • Skalierbarkeit & Kosteneffizienz: Kann die Software Unternehmensdaten im Einzelhandel (tausende Filialen, Millionen von SKUs, hohe Transaktionsvolumina) effizient verarbeiten? Lösungen, die auf monolithische In-Memory-Berechnungen (z. B. das Laden ganzer Datensätze in den RAM) angewiesen sind, können bei großer Skalierung Schwierigkeiten bereiten oder unverhältnismäßig teure Hardware erfordern 4. Wir bevorzugen cloud-native Architekturen, Microservices und verteiltes Rechnen, die kosteneffizient skalieren, und benachteiligen diejenigen, die für hohe Hardwarekosten oder langsame Leistung bei Big Data bekannt sind.

  • Umgang mit komplexen Einzelhandelsfaktoren: Die reale Nachfrage im Einzelhandel ist unübersichtlich – Produktkannibalisierung (bei der die Aktion eines Produkts den Absatz eines anderen dominiert 5 6), Substitutionseffekte (wenn ein Artikel nicht verfügbar ist, steigt die Nachfrage nach einem ähnlichen Produkt), „Halo“-Effekte (komplementäre Produkte, die sich gegenseitig ankurbeln 7), saisonale Spitzen, regionale Unterschiede und verderbliche Waren mit Verfallsdatum. Wir bewerten, ob die Algorithmen jedes Anbieters diese Komplexitäten explizit adressieren – z. B. durch den Einsatz von maschinellem Lernen zur Identifizierung produktübergreifender Zusammenhänge 8 9 oder durch die Verfolgung des Lagerbestands nach Verfallsdatum. Lösungen, die die Nachfrage jedes Produkts als unabhängig betrachten oder Verderblichkeit ignorieren, sind für den modernen Einzelhandel weniger zukunftssicher.

  • Automatisierung & unbeaufsichtigter Betrieb: Das Versprechen des „autonomen Einzelhandels“ besteht darin, dass das System die meisten operativen Entscheidungen (Bestellungen, Preisänderungen, Abschreibungen, Sortimentsanpassungen) automatisch trifft, sodass sich Menschen auf strategische Ausnahmen konzentrieren können. Wir prüfen, ob die Software „no-touch“-Planung ermöglicht – z. B. automatische Nachbestellungen basierend auf Prognosen, automatisierte Preisadjustierungen innerhalb festgelegter Grenzen – oder ob sie weiterhin darauf angewiesen ist, dass Planer Entscheidungen manuell überprüfen und ständig überschreiben. Anbieter, die mit KI werben, sollten idealerweise die manuelle Arbeitsbelastung („Planungsmonotonie“, wie man sagt 10) reduzieren und nicht erhöhen.

  • Technikintegration vs. Frankenstein-Plattformen: Viele große Anbieter wuchsen durch Akquisitionen und fügten separate Forecasting-, Preis- und Planungstools unter einer Marke zusammen. Wir prüfen, ob die Lösung des Anbieters eine stimmige Plattform oder ein Flickenteppich aus Modulen mit unterschiedlichen Benutzeroberflächen und Datenmodellen ist. Die Integration von „Frankensoft“ führt oft zu hoher Komplexität und langen Implementierungszeiten 11. Wirklich moderne Lösungen tendieren dazu, auf einem einheitlichen Technologie-Stack zu basieren oder zumindest nahtlos über Microservices integriert zu sein. Wir benachteiligen Anbieter, bei denen die Komponenten trotz Marketingversprechen einer „einheitlichen“ Plattform noch nicht vollständig zusammenpassen.

  • Skepsis gegenüber Schlagwörtern & Hype: Der Bereich der Einzelhandelstechnologie ist durch Schlagwörter wie „demand sensing“, „KI-gesteuerte, plug-and-play Integration“, „kognitive supply chain“ etc. geprägt. Unsere Analyse filtert vage Behauptungen heraus und sucht nach Belegen. Anbieter, die sich auf Fachjargon stützen, ohne klare Erklärungen oder von Fachkollegen geprüfte Nachweise, werden kritisch betrachtet. Beispielsweise wird „demand sensing“ oft als Allheilmittel angeführt, doch einige Experten bezeichnen es als ein von Marketing betriebenes Gimmick, das keinen echten Mehrwert liefert 12. Wir machen solche Fälle deutlich und bevorzugen Anbieter, die konkrete, glaubwürdige Beweise ihrer Leistungsfähigkeit liefern.

Mit diesen Kriterien im Hinterkopf, lassen Sie uns die führenden Anbieter im Bereich der Einzelhandelsoptimierung untersuchen und bewerten. Jede Anbietersektion hebt hervor, wie die Anbieter in den einzelnen Dimensionen abschneiden, wobei übertriebene Behauptungen kritisch hinterfragt werden.

1. Lokad – Einheitliche, probabilistische Optimierung mit kritischer KI

Lokad ist ein neuerer Akteur (gegründet 2008), der seine Plattform von Grund auf rund um probabilistische Prognosen und Entscheidungsoptimierung für den Einzelhandel und supply chain entwickelt hat. Im Gegensatz zu vielen Mitbewerbern hat sich Lokad explizit zum Ziel gesetzt, Preisgestaltung, Lagerbestand und Nachfrageplanung in einem System zu vereinen, anstatt sie als separate Silos zu behandeln 13 14. Dieser Ansatz basiert auf dem Verständnis, dass Preisentscheidungen die Nachfrage und den Lagerbestand direkt beeinflussen – und umgekehrt. Der Gründer von Lokad bemerkte, dass historisch gesehen Prognosen und Preisgestaltung durch unterschiedliche Werkzeuge gehandhabt wurden, doch in Wirklichkeit „sind demand und pricing zutiefst miteinander verbunden“, weshalb Lokad diese Funktionen in einen einheitlichen analytischen Rahmen zusammenführte 15 16. Sie entwickelten sogar ihre eigene domänenspezifische Programmiersprache („Envision“), um supply chain Entscheidungen zu modellieren und eine hochgradig anpassbare Optimierung zu ermöglichen, die Logik für Preisgestaltung, Lagerbestand und Sortiment gemeinsam umfasst 17 16.

Gemeinsame Optimierung: Die Philosophie von Lokad besagt, dass man den Lagerbestand nicht optimieren kann, ohne die Preisstrategie zu berücksichtigen, und umgekehrt. Sie haben Preisgestaltung und Nachfrageplanung in einer Plattform integriert – zum Beispiel kann ihr System Nachbestellmengen optimieren und gleichzeitig Preisadjustierungen vorschlagen, sodass die Preisgestaltung die Nachfrage nicht aus dem Einklang mit dem Lagerbestand bringt 1. Eine interne Fallstudie beschreibt eine „lagerbestandsbasierte Preisgestaltung“-Strategie, bei der Preise dynamisch an den Lagerbeständen ausgerichtet werden, um Preisgestaltung und Lagerverfügbarkeit effektiv zu koordinieren. Indem dieselben Daten (Verkaufsstatistiken, Produktinformationen etc.) sowohl für Preis- als auch für Prognosemodelle verwendet werden, vermeidet Lokad die Datensilos, die in traditioneller Einzelhandels-IT üblich sind 18 16. Dieser gemeinsam verfolgte Ansatz ist wegweisend, wenngleich er von den Einzelhändlern verlangt, algorithmische Preisgestaltung zu übernehmen – ein bedeutender Change-Management-Aspekt. Lokads Bereitschaft, Preisgestaltung und Lagerbestand gemeinsam anzugehen, verleiht ihm eine wirklich zukunftsorientierte Fähigkeit, die nur wenige traditionelle Anbieter erreicht haben.

Probabilistische Prognose & KI: Lokad ist ein starker Verfechter probabilistischer Prognosen. Ihre Plattform erzeugt vollständige Wahrscheinlichkeitsverteilungen der Nachfrage (für jeden Artikel und Zeitraum) anstelle von Einzelpunktprognosen. Lokad argumentiert – und dem stimmen wir zu – dass „für supply chains probabilistische Prognosen unerlässlich sind, um robuste Entscheidungen unter unsicheren zukünftigen Bedingungen zu treffen“, sodass Entscheidungen basierend auf erwarteten Werten und Risiken optimiert werden können 3. Indem sie die Bandbreite möglicher Nachfrageergebnisse und deren Eintrittswahrscheinlichkeiten erfassen, unterstützen Lokads Prognosen auf natürliche Weise die ökonomische Entscheidungsfindung: „die probabilistische Perspektive eignet sich von Natur aus zur wirtschaftlichen Priorisierung von Entscheidungen basierend auf ihren erwarteten, aber unsicheren Erträgen.“ 3 In der Praxis bedeutet dies, dass Lokad beispielsweise die erwartete Rentabilität der Lagerung eines zusätzlichen Kartons eines Produkts gegenüber dem Risiko von Verschwendung beurteilen kann – unter Nutzung der vollständigen Nachfrageverteilung. Technisch setzt Lokad auf modernste maschinelle Lernmodelle (einschließlich Quantilregression und Deep Learning), um diese Prognosen zu erzeugen, und hat Belege für den Einsatz von Techniken wie differentiable programming für Zeitreihen veröffentlicht. Da ihr Fokus auf KI-Genauigkeit und der Quantifizierung von Unsicherheiten liegt, vermeiden sie vereinfachte Metriken; sie kritisieren insbesondere Kennzahlen wie MAPE (Mean Absolute Percentage Error), wenn diese auf probabilistische Prognosen angewendet werden, da sie konzeptionell nicht gültig sind 19. Dies zeigt ein tiefes Verständnis der Prognostik, das sie von Anbietern unterscheidet, die „KI“ lediglich an veralteten Statistiken anheften. Lokads Prognosetechnik ist eindeutig auf dem neuesten Stand – wenngleich sie manchmal eine fachkundige Konfiguration mittels ihrer Skriptsprache erfordert.

Ökonomische Entscheidungslogik: Das gesamte Framework von Lokad basiert auf ökonomischer Optimierung. Sie betrachten supply chain Probleme häufig als „Maximierung des erwarteten Gewinns“ unter Unsicherheit, anstatt willkürliche Auslastungsraten anzustreben oder Fehlbestände zu minimieren. So berücksichtigen ihre Algorithmen beispielsweise explizit die Opportunitätskosten von Fehlbeständen, Lagerhaltungskosten und Abschreibungskosten bei Empfehlungen für Lagerkäufe oder Preisänderungen. Da sie probabilistische Prognosen erstellen, können sie die erwartete Rentabilität jeder Entscheidung berechnen (z. B. wie viel Gewinn durch die Lagerung einer zusätzlichen Einheit erzielt wird im Vergleich zur Wahrscheinlichkeit, dass sie unverkauft bleibt). Dies geht über viele Werkzeuge hinaus, die auf benutzerdefinierte Serviceniveaus setzen; Lokad versucht, das optimale Serviceniveau pro Artikel dynamisch aus den wirtschaftlichen Gegebenheiten zu berechnen. Im Wesentlichen sind ihre Entscheidungen direkt an finanzielle Ergebnisse gekoppelt (z. B. Maximierung des erwarteten Margenbeitrags), was dem Kriterium der rentabilitätsgetriebenen Optimierung entspricht. Dieser Fokus beruht auf ihrem Glauben, dass supply chain Optimierung nicht nur darin besteht, Kosten zu senken, sondern Ressourcen so einzusetzen, dass die Rendite maximiert wird. Eine Konsequenz daraus ist die Fähigkeit, etwa Preisoptimierung in Kombination mit Nachfrageprognosen durchzuführen – wodurch vermieden wird, dass Preistools Lagerbestandsbeschränkungen ignorieren. Lokad selbst warnt, dass „die isolierte Optimierung von Preisen – unabhängig von der Nachfrageprognose – rückschrittlich ist“ 20 21. Durch die Einbettung der Preisgestaltung in den Prognose- und Optimierungsprozess wird sichergestellt, dass die Gewinnberechnung die tatsächliche Nachfrage widerspiegelt. Insgesamt ist Lokads ökonomische Ausrichtung erstklassig; allerdings erfordert sie Vertrauen in den Algorithmus. Einzelhändler müssen bereit sein, einem Algorithmus die Rentabilitätsabwägungen zu überlassen, die früher manuell von Planern durchgeführt wurden – was eine kulturelle Hürde darstellen kann.

Skalierbarkeit & Architektur: Lokad bietet seine Lösung als cloudbasierte Dienstleistung an (häufig auf der Microsoft Azure-Infrastruktur). Anstatt von den Kunden zu verlangen, schwere In-Memory-Server vor Ort zu betreiben, führt Lokad Berechnungen in seinem Cloud-Cluster durch und skaliert bei Bedarf. Dieses bedarfsgesteuerte Compute-Modell vermeidet den Ansatz des „fest verdrahteten In-Memory-Cubes“, den einige veraltete Tools verwenden, welcher „beeindruckende Echtzeitberichte liefert, aber gleichzeitig hohe Hardwarekosten garantiert“ 22. Im Gegensatz dazu kann Lokad große Datensätze verarbeiten, indem die Arbeitslast in der Cloud verteilt wird, und die Kunden zahlen nur für die tatsächlich genutzte Rechenzeit. Dies ist kosteneffizient und skalierbar – man kann für wenige Stunden zusätzliche Compute-Knoten zu einem großen Problem hinzufügen, anstatt einen dauerhaften Server für Spitzenbelastungen zu dimensionieren. Lokads Architektur ist code-first (über Envision-Skripte), was bedeutet, dass komplexe Berechnungen serverseitig effizient kompiliert und ausgeführt werden, anstatt in einer umständlichen Desktop-Benutzeroberfläche durchgeführt zu werden. Dieses Design hat sich bei recht großen Einzelhandelsdatensätzen bewährt (sie nennen Kunden mit zig Millionen SKU-Standort-Kombinationen). Allerdings sei darauf hingewiesen, dass Lokad ein kleinerer Anbieter ist und seine Skalierbarkeit, wenngleich im Allgemeinen solide, möglicherweise noch nicht an den absolut größten Einzelhandelsdatensätzen (z. B. im Walmart-Maßstab) so umfassend erprobt ist wie die von SAP oder Oracle. Nichtsdestotrotz ist ihr Cloud-Ansatz grundsätzlich skalierbarer als herkömmliche, vor Ort speichergebundene Systeme. Die Kosteneffizienz ist ebenfalls hoch: Nutzer müssen keine teure Hardware lizenzieren oder für ungenutzte Rechenkapazitäten zahlen, da Lokads SaaS-Preisgestaltung nutzungsbasiert ist. Zusammenfassend verschafft Lokads moderne Cloud-Architektur ihm einen Vorteil in Bezug auf Skalierbarkeit und Kosten – vorausgesetzt, die Kunden sind offen für ein weniger traditionelles, codebasiertes System.

Bewältigung komplexer Einzelhandelsfaktoren: Da Lokads Plattform im Wesentlichen eine flexible Programmierumgebung für Optimierung ist, kann sie so konfiguriert werden, dass sie explizit komplexe Einzelhandelsphänomene behandelt. Zum Beispiel können Nutzer Produktzusammenhänge (Substitute oder Ergänzungen) in ihren Envision-Skripten modellieren, sodass die Prognosen und Bestellungen Kannibalisierung oder Halo-Effekte berücksichtigen. Wenn Produkt A und B Substitute sind, kann Lokads System Transaktionsdaten verarbeiten und erkennen, dass bei Nichtverfügbarkeit von A die Verkäufe von B steigen, wobei die Prognosen entsprechend angepasst werden. Dies ist nicht notwendigerweise ein direkt einsatzbereites Feature, das per Checkbox aktiviert wird – es erfordert Data-Science-Arbeit, um das richtige Modell einzurichten – aber die Möglichkeit besteht.

Automatisierung: Lokads Vision geht stark in Richtung unbeaufsichtigter Entscheidungsfindung. Ihre Plattform wird oft als “Supply Chain Optimization as a Service” beschrieben, was impliziert, dass der Nutzer sie einrichtet und sie automatisch Entscheidungen (wie Nachschubbestellungen oder Preisänderungen) fortlaufend trifft 23. Das Ziel ist, dass Planer von der manuellen Zahlenarbeit dazu übergehen, KI-gesteuerte Entscheidungen zu überwachen. Lokads System kann tägliche oder wöchentliche Bestellvorschläge generieren, die direkt in das ERP des Einzelhändlers integriert werden können – mit minimalem menschlichen Eingriff. Da die Prognosen probabilistisch sind und die Optimierung gewinnorientiert erfolgt, liegt die Idee darin, dass das System den optimalen Entscheid trifft und keinen Bauchgefühlcheck des Planers bei beispielsweise jeder Bestellmenge benötigt. Natürlich überprüfen Unternehmen in der Realität oft zunächst die Empfehlungen, aber viele Lokad-Kunden haben Berichten zufolge einen hohen Grad an Automatisierung erreicht (wobei nur Ausnahmen wie neue Produkte oder große Ereignisse manuell gehandhabt werden). Die Betonung eines „Autopilot“-Modus ist ein unterscheidendes Merkmal – während einige ältere Werkzeuge als Entscheidungshilfen fungieren, die auf die Interpretation durch Planer angewiesen sind, zielt Lokad darauf ab, Entscheidungssoftware zu sein. Ein Beispiel für Automatisierungserfolg: Ein Lebensmittelhändler, der Lokad einsetzt, konnte automatisierte Filialnachschubprozesse betreiben, die sich adaptiv an Nachfrageänderungen anpassten und gleichzeitig signifikant Verderb und Lagerengpässe reduzierten 24. Dies stimmt mit Branchenfunden überein, nach denen prognosegetriebener automatischer Nachschub Abfälle um zweistellige Prozentsätze senken kann 24. Lokads Scripting ermöglicht es den Nutzern, Geschäftsregeln zu codieren (zum Beispiel, dass der Lagerbestand niemals unter einen Mindestbestand fallen darf), sodass die Automatisierung reale Beschränkungen berücksichtigt. Insgesamt erhält Lokad Spitzenbewertungen dafür, dass es auf eine wahrhaft unbeaufsichtigte Optimierung hinarbeitet. Der einzige Nachteil besteht darin, dass die anfängliche Einrichtung (Modellcodierung und -testung) erheblichen Aufwand erfordert; bis das Modell korrekt ist, möchte man keine automatisierten Entscheidungen treffen. Aber sobald es feinjustiert ist, kann das System mit minimalem menschlichen Eingriff betrieben werden – weit über dem Automatisierungsgrad herkömmlicher MRP- oder Planungssysteme.

Technologische Integration: Lokad wurde vollständig intern mit einem kohärenten Tech-Stack entwickelt. Es wuchs nicht durch den Erwerb von Software anderer Unternehmen; stattdessen entwickelte es seine eigene Prognose-Engine, seinen Optimierungs-Solver und eine eigene Skriptsprache. Das ergibt eine sehr integrierte Plattform – alle Funktionalitäten (Prognose, Preisgestaltung, Lageroptimierung) operieren auf demselben Datenmodell und in derselben Sprache. Es gibt keine „Module“, die über Schnittstellen integriert werden müssen; alles geschieht in der Envision-Umgebung. Dies steht in starkem Kontrast zu einigen Wettbewerbern, die ein erworbenes Preistool mit einem separaten Planungstool zusammenfügen müssen. Lokads einheitlicher Ansatz reduziert die Komplexität und vermeidet Inkonsistenzen. Zum Beispiel fließt die Ausgabe der Nachfrageprognose direkt in die Preisoptimierungslogik im selben Skript – ohne Batch-Dateiübertragungen oder umständliche API-Aufrufe zwischen verschiedenen Systemen. Außerdem ist Lokads Plattform relativ schlank (sie erfordert weder eine vollständige relationale Datenbank noch einen OLAP-Würfel; ihr Speicher und ihre Rechenleistung sind für ihren spezifischen Zweck optimiert). Man könnte sagen, Lokads Stack sei „zukunftssicher“, da er kontinuierlich als Ganzes verbessert wird, anstatt veraltete Komponenten zu besitzen, die ersetzt werden müssen. Der Nachteil dieser hoch originellen Technik ist, dass sie einzigartig ist – Kunden müssen Lokads Arbeitsweise erlernen, die sich von typischen GUI-Planungstools unterscheidet. Aber aus technischer Sicht ist die Kohäsion des Tech-Stacks ausgezeichnet. Es gibt kein Frankenstein aus erworbenen Teilen; selbst ihre Benutzeroberfläche und Analysen sind eigens um ihre Kern-Engine herum entwickelt. Diese Einfachheit bedeutet auch weniger potenzielle Integrationsfehler – ein großer Pluspunkt, wenn man eine vollständig automatisierte Lösung anstrebt.

Skepsis gegenüber Hype: Bemerkenswerterweise ist Lokad explizit skeptisch gegenüber Branchensprechwörtern und diese Denkweise durchdringt ihre Produktpositionierung. Das Unternehmen hat Kritiken zu Konzepten wie “demand sensing” veröffentlicht und bezeichnet es als “nur ein weiteres Schlagwort im supply chain, das den Erwartungen nicht gerecht wird”, im Grunde genommen mootware (Software, die existiert, aber keinen Mehrwert liefert) 12. Diese skeptische Perspektive ist tatsächlich eine Stärke: Sie zeigt, dass Lokad versucht, sein Produkt auf solider Wissenschaft zu gründen, statt sich von trendgetriebenem Marketing leiten zu lassen. Zum Beispiel ist Lokad nicht auf den “blockchain supply chain”-Hype aufgesprungen oder hat die “digital twin”-Rhetorik übertrieben (wie auch ihr Gründer kritisierte). Stattdessen konzentrieren sie sich auf greifbare technische Fähigkeiten wie probabilistische Prognosen und Quantil-Optimierung. In Bezug auf Anbieter-Aussagen sind Lokads Angaben in der Regel konkret. Sie vermeiden es, eine unmöglich einfache “Plug-and-Play”-Implementierung oder magische, sofort einsatzbereite KI zu versprechen. Tatsächlich warnen sie oft davor, dass der Einsatz fortgeschrittener Optimierung komplex ist und für jeden Kunden individuell angepasst werden muss (daher die Betonung einer Programmiersprache, um die spezifischen Anforderungen jedes Kunden zu codieren). Diese Ehrlichkeit ist in einem Bereich voller hochtrabender Versprechen erfrischend. Der Nachteil ist, dass diese marketingzurückhaltende Botschaft Lokad weniger auffällig erscheinen lässt als Wettbewerber, die lautstark von einer “autonomen supply chain mit kognitiver KI” schwärmen. Aus einer wahrheitssuchenden Perspektive tendieren Lokads Behauptungen jedoch dazu, untermauert zu sein – spricht man beispielsweise von einer 5%igen Bestandsreduktion bei einem Kunden, so wird dies üblicherweise in einer detaillierten Fallstudie erläutert und nicht als allgemeine Aussage getroffen. Sie diskutieren sogar offen die Grenzen der Techniken (man findet Blogbeiträge von Lokad, in denen analysiert wird, wo klassische Methoden scheitern). Diese Transparenz schafft Glaubwürdigkeit. Insgesamt präsentiert sich Lokad als Lösung für Technologen – aufgebaut auf soliden ingenieur- und analysewissenschaftlichen Prinzipien, die Prognosen und Optimierung kombinieren und Hype vermeiden. Der Ansatz ist vermutlich der Goldstandard in technischer Raffinesse (probabilistisch, gewinnorientiert, cloud-architektonisch). Der Hauptnachteil ist, dass Lokad kleiner ist und auf massiver Ebene weniger bewährt als einige etablierte Anbieter, und dass sein Modell eine qualifizierte, kundenspezifische Implementierung pro Kunde erfordert, anstatt einer vorgefertigten Lösung. Doch in Bezug auf reine Leistungsfähigkeit und zukunftsorientiertes Design gehört Lokad zu den Top-Anbietern im Bereich der Einzelhandelsoptimierung.

Zusammenfassung: Lokad führt in der gemeinsamen Optimierung (preisseitig integriert mit Lagerbeständen), nutzt wahre probabilistische KI-Prognosen 3, optimiert für Gewinn und Opportunitätskosten, skaliert über eine cloud-native kosten-effiziente Architektur, bewältigt Einzelhandelskomplexitäten durch flexible Modellierung, ermöglicht hohe Automatisierung, verfügt über einen kohärenten, hausinternen Tech-Stack und pflegt eine erfrischend skeptische Haltung gegenüber Hype. Es repräsentiert einen zukunftssicheren Ansatz, der allerdings einen höheren anfänglichen analytischen Aufwand erfordern könnte.

Quellen: Lokads Integration von Preis- und Planungsdaten 25; Betonung probabilistischer Prognosen für robuste, gewinnfokussierte Entscheidungen 3; Kritik an Schlagwörtern wie demand sensing 12.


2. RELEX Solutions – Retail-Fokussierte, einheitliche Planung mit fortgeschrittener KI (und einigem Schwerstarbeit)

RELEX Solutions (2005 gegründet) ist ein schnell wachsender Anbieter, der sich auf Einzelhandelsplanung und -optimierung spezialisiert hat und dabei Prognosen, Nachschub, Zuteilung, Sortimentsplanung und nun auch Preisoptimierung abdeckt. RELEX hat sich im Lebensmittel- und Spezialeinzelhandel einen Namen gemacht, indem messbare Verbesserungen bei der Verfügbarkeit und der Abfallreduzierung erzielt wurden. Ihre Plattform wurde speziell für die Herausforderungen des Einzelhandels entwickelt (Produkte mit kurzer Haltbarkeit, enorme SKU-Anzahlen, Filialplanung) und ist dafür bekannt, fortgeschrittene Machine Learning-Methoden sowie eine speicherinterne Datenverarbeitungs-Engine für Reaktionsfähigkeit in Echtzeit einzusetzen. RELEX bietet eine einheitliche Lösung, die Nachfrageprognose, automatische Nachbestellung, Flächen- und Sortimentsplanung und jüngst auch Preisgestaltung umfasst – was es zu einem der wenigen Anbieter neben Lokad macht, die behaupten können, alle drei Säulen (Lager, Preisgestaltung, Sortiment) integriert abzudecken. Das Unternehmen verfügt über eine starke Ingenieurskultur (gegründet von drei promovierten Informatikern) und hat stark in KI-F&E für den Einzelhandel investiert. Wir bewerten RELEX sehr hoch aufgrund seiner einzelhandelspezifischen Fähigkeiten und nachweislicher Ergebnisse, weisen jedoch auf potenzielle Nachteile in Bezug auf Systemschwere und darauf hin, dass auch es seine Marketingversprechen mit Belegen untermauern muss.

Gemeinsame Optimierung: Die Plattform von RELEX ist für den Einzelhandel relativ ganzheitlich aufgestellt. Sie begann mit Prognosen und Nachschub, erweiterte sich jedoch auf Sortimentsoptimierung und Planogrammierung und bietet auch Preisoptimierung-Module an 26. Das bedeutet, ein Einzelhändler kann RELEX nutzen, um zu entscheiden, welche Produkte in jeder Filiale geführt werden (Sortiment), wie viel Lagerbestand vorzuhalten ist (Lager) und zu welchem Preis verkauft werden soll (Preisgestaltung) – alles innerhalb eines einzigen Systems. Die Integration dieser Bereiche befindet sich noch in der Entwicklung – RELEX glänzte historisch in der Lageroptimierung (Nachschub an Filialen/DCs) und in der Flächenplanung, und erst kürzlich wurden Preisoptimierungsfunktionen hinzugefügt. Dennoch werben sie damit, dass ihre Preisoptimierung mit ihrer Prognose-Engine abgestimmt ist, sodass Preisentscheidungen unter voller Berücksichtigung der Nachfrageauswirkungen getroffen werden können 27. So kann RELEX beispielsweise simulieren, wie sich eine Preisänderung bei einem Schlüsselprodukt nicht nur auf dessen Absatz, sondern auch auf komplementäre oder substituierende Produkte auswirkt – dank der zugrunde liegenden Prognosemodelle. Darüber hinaus integriert die Promotionsplanung von RELEX Preisaktionen in den Nachfrageplanungsprozess: Aktionen werden in das System eingespeist, woraufhin die Prognosen angepasst, Lageraufbauten vorgeschlagen und sogar Promotionsmechanismen empfohlen werden. Dieses Maß an integrativer Betrachtung ist bemerkenswert. Ein herausragendes Merkmal ist RELEXs Fähigkeit, Flächen (Regalkapazität) mit Prognosen zu koordinieren – etwa indem das System alarmiert, wenn bei erwarteten Sortimentsänderungen oder Preisanpassungen die Regalfläche unzureichend ist. Das bedeutet, RELEX optimiert möglicherweise noch nicht Preis und Lagerbestand gleichzeitig in einem Algorithmus (es prognostiziert iterativ die Nachfrage für einen gegebenen Preis und optimiert dann den Nachschub, anstatt Preis und Bestand gemeinsam für den Gewinn zu optimieren). Dennoch sind in einem einzigen System die Rückkopplungsschleifen straffer als bei einem Einzelhändler, der separate Tools verwendet. RELEX wirbt explizit mit einer „einheitlichen Einzelhandelsplanung“, und Fallstudien zeigen Kunden, die es durchgängig nutzen (von langfristigen Sortimentsentscheidungen bis hin zu täglichen Filialaufträgen). Wir geben RELEX aufgrund seiner Breite hohe Bewertungen; es gibt keine offensichtlichen funktionalen Lücken im Einzelhandelsspektrum. Der Vorbehalt ist, dass die Integration all dieser Komponenten komplex sein kann – es handelt sich um eine Suite, bei der die Implementierung jedes Moduls (Merchandising, supply chain, Preisgestaltung) ein großes Projekt darstellt.

Probabilistische Prognose & KI: RELEX ist bekannt für den intensiven Einsatz von KI/ML, um die Prognosegenauigkeit und Granularität zu verbessern. Sie haben maschinelle Lernmodelle entwickelt, die eine Vielzahl von Nachfragetreibern einbeziehen: „Saisonalität, Trends, Wochentagsmuster, Werbeaktionen, Displayänderungen, Feiertage, Wetter, Wettbewerbsaktivitäten,“ usw. 28 29. Dieser multifaktorielle Ansatz geht über die traditionellen Zeitreihenmethoden hinaus. Die ML-Algorithmen von RELEX erkennen automatisch, welche Faktoren für jedes Produkt relevant sind (Feature Selection) und können Änderungspunkte in den Nachfrageverläufen feststellen (Change-Point Detection bei plötzlichen Trendwechseln) 30 31. Eine beeindruckende Technik, die sie anwenden, ist das Data Pooling bei dünn besetzten Daten – bei langsam verkauften Artikeln gruppiert das Modell ähnliche Produkte, um Signale zu extrahieren und die Prognosen zu verbessern 31. All dies sind moderne KI-Methoden, wie man sie im akademischen Kontext erwarten würde, die nun in einem kommerziellen Tool eingesetzt werden. Das Ergebnis, wie sie behaupten, sind Prognosen, die „traditionelle Methoden in Geschwindigkeit, Genauigkeit und Granularität übertreffen“ 32. Tatsächlich hebt RELEX oft Kennzahlen hervor, wie eine signifikante prozentuale Verbesserung der Prognosegenauigkeit oder des Serviceniveaus nach der Implementierung. Sie gehen auch in gewissem Maße mit Unsicherheiten um – beispielsweise kann ihr System verschiedene Szenarien oder Vertrauensintervalle für Werbeaktionen erzeugen (sie berücksichtigen Kannibalisierung und Haloeffekte in Promo-Prognosen mithilfe von ML zur Interpretation historischer Daten 9). Während Werbeaktionen passen sie explizit die Prognosen verwandter Produkte nach oben oder unten an, basierend auf gelernten Kannibalisierungs-/Halo-Beziehungen 9, wodurch Überbestände bei kannibalisierten Artikeln reduziert und Engpässe bei Halo-Artikeln vermieden werden. Dies zeigt ein ausgeklügeltes probabilistisches Verständnis von Effekten zwischen Produkten. Es ist nicht klar, ob RELEX für alle Artikel vollständige Wahrscheinlichkeitsverteilungen ausgibt (intern könnten Szenarien simuliert werden, aber Planer sehen meist angepasste Punktprognosen). Ihre Handhabung der Variabilität ist jedoch fortschrittlich – z. B. wird erwähnt, dass sie die inhärente „Volatilität, die für Einzelhandelsdaten typisch ist“ mithilfe geeigneter Algorithmen berücksichtigen 30. Ein weiteres Beispiel für KI ist die Prognose für neue Produkte oder Slow-Mover unter Einsatz ähnlicher Artikelprofile, was einen KI-getriebenen Ansatz für das klassische „Like-Item“-Prognoseproblem darstellt. Das Engagement von RELEX für ML zeigt sich auch in EU-Forschungsprojekten und Whitepapers, die sie veröffentlicht haben (sie nahmen an einem EU Horizon 2020-Projekt zu KI im Einzelhandel teil). Insgesamt gehört die Prognosetechnologie von RELEX zu den modernsten unter den Einzelhandelsanbietern und ist möglicherweise führend bei der KI-Adoption in der Einzelhandelsplanung. Vielleicht verwenden sie den Begriff „probabilistische Prognose“ nicht so häufig wie Lokad, doch in der Praxis integrieren sie Unsicherheiten mittels Simulation (bei Werbeaktionen) und Sensitivitätsanalysen. Sie setzen KI sogar für Aufgaben ein, die nicht direkt mit Prognosen zu tun haben, wie etwa Bilderkennung bei der Regalprüfung (durch eine Akquisition). Der Hauptnachteil: Solch komplexe KI-Modelle können für Nutzer eine „Black Box“ darstellen, und Vertrauen muss erst aufgebaut werden. Aber ihre Ergebnisse (z. B. eine 30%ige Reduktion des Verderbs bei einer Lebensmittelkette durch genauere Frischwarenprognosen 24) zeugen von der Wirksamkeit ihrer KI.

Wirtschaftliche Entscheidungsfindung: Der Optimierungsfokus von RELEX lag historisch gesehen mehr auf Serviceniveaus und Frische als auf einer expliziten Gewinnoptimierung – was angesichts ihres Kerngeschäfts im Lebensmitteleinzelhandel (wo leere Regale und Verderb vermieden werden müssen) verständlich ist. Allerdings haben sie zunehmend ökonomisch getriebene Analysen hinzugefügt. So verwendet ihre Sortimentsrationalisierung KI, um die end-to-end Rentabilität jedes Produkts pro Filiale zu bewerten: Sie identifiziert leistungsschwache Artikel, die ihren Regalplatz nicht rechtfertigen, indem sie Verkaufszahlen, Margen und die dabei entstehenden Kosten analysiert 33. Sie heben hervor, dass diese KI „die end-to-end Rentabilität jedes Artikels pro Filiale ermittelt und dabei Schwachleister aufzeigt“ 33 – wodurch Sortimentsentscheidungen effektiv an finanziellen Ergebnissen gekoppelt werden (den unrentablen Teil abschneiden). Dies zeigt, dass RELEX verstanden hat, dass Optimierung mit dem Gewinn verknüpft sein muss und nicht nur auf Mengen abzielt. Bei der Bestandsoptimierung erlaubt RELEX es, für verschiedene Produkte unterschiedliche Serviceniveaus festzulegen, möglicherweise unter Berücksichtigung der Marge (wichtig bei kritischen Artikeln gegenüber weniger profitablen). Es ist nicht rein von Opportunitätskosten getrieben wie bei Lokad, aber es kann annähernd eine wirtschaftliche Priorisierung umsetzen, indem es dort eine höhere Verfügbarkeit anstrebt, wo es finanziell zählt. Im Bereich der Preisgestaltung, da RELEX nun ein Preisoptimierungsmodul besitzt, steht die Rentabilität im Vordergrund: Die Preisoptimierung zielt darauf ab, Preise so festzulegen, dass die Geschäftsziele erreicht werden – oftmals durch Maximierung der Marge oder des Umsatzes unter gegebenen Einschränkungen. Man kann davon ausgehen, dass ihre Preis-KI Elastizitäten und Margenabwägungen betrachtet (ähnlich wie bei Revionics oder Blue Yonder Pricing). Darüber hinaus versucht die Promo-Planung von RELEX, den Erfolg von Werbeaktionen zu maximieren – was auch die Bewertung des Aufschlags gegenüber einem Margenopfer einschließt. Ein aussagekräftiger Indikator für ihre wirtschaftliche Ausrichtung sind ihre Fallstudien: So erreichte Franprix (ein französischer Lebensmittelhändler) mit RELEX eine 30%ige Reduktion des Verderbs UND 67% weniger Out-of-Stocks, wodurch durch weniger Verschwendung und höhere Umsätze die Rentabilität verbessert wurde 24. Im Grunde optimierten sie das Gleichgewicht zwischen Verschwendungskosten und Serviceniveau, was – betrachtet man es aus der Perspektive der Gewinnoptimierung – profitgetrieben ist. Ein weiteres Beispiel ist die Nutzung externer Daten (wie Passagierprognosen an Flughäfen für WHSmith-Filialen), um das Angebot an der tatsächlichen Nachfrage auszurichten und Überbestände an Frischwaren zu vermeiden 34 – wiederum Verringerung der Verschwendung (Kosten) bei gleichzeitig höherem Umsatz. All dies impliziert, dass die Entscheidungen von RELEX, auch wenn sie möglicherweise keine formalen Gewinnmaximierungsformeln lösen, stark auf wirtschaftliche Ergebnisse ausgerichtet sind (niedrigere Verschwendungskosten, höhere Umsätze, bessere Lagerumschlagsraten). Sie liefern womöglich nicht explizit „erwartete Gewinn“-Berechnungen für jede Entscheidung wie Lokad, erreichen aber ähnliche Ziele, indem sie Geschäfts-KPIs anvisieren, die mit dem Gewinn korrelieren (z. B. Verderb %, Fehlbestände %, Umsatz). Da sie auch die Preisgestaltung integrieren, ist zu erwarten, dass RELEX weiter in Richtung einer einheitlichen Gewinnoptimierung voranschreitet (zum Beispiel bei der Optimierung von Ausverkaufsplänen, um saisonale Artikel mit maximaler Marge zu verkaufen, ohne Restbestände zu hinterlassen). Zusammenfassend lässt sich sagen, dass die DNA von RELEX etwas mehr operativ (Serviceniveau und Verschwendung) als finanzwirtschaftlich geprägt ist, sie erkennen jedoch eindeutig die ökonomischen Aspekte des Einzelhandels in ihren Algorithmen, wodurch sie weit mehr sind als nur eine starre Regel-Engine.

Skalierbarkeit & Leistung: Die Architektur von RELEX basiert bekanntlich auf einer Hochleistungs-In-Memory-Datenbank mit spaltenbasierter Speicherung für alle Einzelhandelsdaten, die extrem schnelle Berechnungen über große Datensätze ermöglicht – ein zentrales Erfordernis bei der Planung auf Filial- und SKU-Ebene. Der Vorteil liegt in der Echtzeitanalytik – Anwender können zum Beispiel sofort die Auswirkungen einer Parameteränderung auf Bestellungen sehen oder on-the-fly eine neue Prognose für Tausende von Filialen erstellen. Dieses Design hat viele Einzelhändler beeindruckt, geht jedoch mit einem hohen Hardwareverbrauch einher. Tatsächlich bemerkte eine kritische Analyse, dass „das In-Memory-Design, ähnlich einem BI-Würfel, beeindruckende Echtzeitberichtsfähigkeiten bietet, aber hohe Hardwarekosten garantiert.“ 22. Dies bezieht sich auf RELEX’ Ansatz: Die Speicherung von Daten im Arbeitsspeicher sorgt für Schnelligkeit, aber die Skalierung auf beispielsweise eine nationale Lebensmittelkette mit Millionen von SKU-Filial-Kombinationen kann einen enormen Speicher- und Rechenleistungsbedarf erfordern. RELEX wird üblicherweise als Cloud-Lösung für Kunden bereitgestellt (sie hosten in der Cloud, möglicherweise AWS oder Azure, nicht öffentlich spezifiziert), und sie können definitiv große Kunden bedienen (sie haben mehrere Einzelhandelskunden im Milliarden-Dollar-Bereich). Die Frage der Kosteneffizienz steht dabei im Raum – RELEX benötigt womöglich mehr Cloud-Ressourcen (und damit höhere Kosten), um seine flotte Leistung im Vergleich zu einer batch-orientierten Lösung zu erzielen. Aus der Perspektive der Skalierbarkeit hat sich RELEX bei großen Einzelhändlern in Europa und Nordamerika bewährt. Das System kann tägliche Bestellungen pro Filiale für Tausende von Filialen verarbeiten. Ein mittelgroßer RELEX-Kunde managt oft viele Zehntausende von SKUs mit mehrmals täglich aktualisierten Prognosen. Der Engpass kann eintreten, wenn weitere Module hinzugefügt werden: Die Integration von Sortiments- und Planogrammdaten (die sehr umfangreich sind) in die Prognose-Engine kann das Datenvolumen zusätzlich in die Höhe treiben. RELEX begegnet dieser Herausforderung, indem sie ihre Algorithmen optimieren und möglicherweise einige Berechnungen auf Festplatten oder verteilte Knoten auslagern, aber grundsätzlich handelt es sich um eine rechenintensive Anwendung. Zudem bieten sie Dashboards und Was-wäre-wenn-Simulationswerkzeuge, die die schnellen Berechnungen nutzen – doch der entscheidende Faktor ist erneut, dass der gesamte Datensatz im Arbeitsspeicher gehalten wird. Es sei angemerkt, dass die Speicherpreise gesunken sind und die Cloud-Skalierbarkeit sich verbessert hat, sodass der ressourcenintensive Ansatz von RELEX heute machbarer ist als noch vor einem Jahrzehnt. Dennoch könnten kostenbewusste Kunden die Infrastrukturvoraussetzungen von RELEX als recht hoch empfinden im Vergleich zu einfacheren Tools. Es gibt anekdotische Hinweise darauf, dass RELEX-Implementierungen leistungsstarke Server oder hohe Cloud-Ausgaben erfordern, um die Echtzeitreaktionsfähigkeit zu gewährleisten. In dieser Hinsicht opfert RELEX etwas Kosten-effizienz zugunsten von Geschwindigkeit und Granularität. Was die Software-Skalierbarkeit betrifft, ist RELEX modular aufgebaut (man muss nicht alle Module implementieren, wenn sie nicht benötigt werden), jedoch handelt es sich um eine einheitliche Plattform. Sie haben bewiesen, dass sie globale Operationen (mehrere Länder, mehrere Währungen usw.) unterstützen können. Insgesamt erzielt RELEX hohe Bewertungen in puncto reine Leistung und Geschwindigkeit, jedoch nur moderate in der Kosteneffizienz – es ist der High-End-Sportwagen der Einzelhandelsoptimierung: fantastische Performance, aber man zahlt für den Premium-Treibstoff.

Umgang mit komplexen Einzelhandelsfaktoren: Hier glänzt RELEX – es bietet eine reichhaltige Funktionalität, die speziell für Einzelhandels-Szenarien entwickelt wurde. Kannibalisierung und Haloeffekte werden in den Prognosen für Werbeaktionen explizit berücksichtigt: Wie bereits dargelegt, lernt das System Beziehungen aus transaktionalen Daten (wie etwa, welche Produkte Substitute bzw. Ergänzungen sind) und passt die Prognosen dementsprechend an 8 9. Nur wenige Anbieter haben dies integriert; das Data-Science-Team von RELEX hat veröffentlicht, wie sie Assoziationsregel-Learning auf Warenkorbdaten anwenden, um diese Zusammenhänge zu ermitteln, anstatt sich auf manuelle Annahmen zu verlassen 8. Das bedeutet, wenn Sie eine Werbeaktion für Produkt X durchführen, senkt RELEX automatisch die Basisprognose für Produkt Y, falls Y üblicherweise durch X kannibalisiert wird (und umgekehrt beim Halo-Effekt). Dies verbessert nicht nur die Prognosegenauigkeit, sondern ermöglicht auch bessere Lagerentscheidungen (weniger Bestand von Y, weil es während der Aktion von X weniger verkauft wird) 9. Beim Thema Substitution kann RELEX Ausverkaufseffekte einbeziehen: Falls Produkt A nicht verfügbar ist, kann die Prognose für Produkt B vorübergehend steigen, wenn B als Substitute fungiert. Dies geschieht vermutlich über dieselben erlernten Beziehungen; einige Kunden speisen RELEX mit ihren Lagerbestandsdaten, sodass es ausgefallene Verkäufe und Substitutionsmuster erkennen kann. Ablauf und Verderb stehen für RELEX, besonders im Frischwareneinzelhandel, im Mittelpunkt. Ihre Lösung kann das Alter der Lagerbestände verfolgen und bietet Funktionalitäten für die Verwaltung von Ablaufdaten 35. So kann RELEX beispielsweise den Verkauf älterer Chargen priorisieren (FEFO – First-Expire, First-Out), und ihre Prognosen für Frischprodukte berücksichtigen die begrenzte Haltbarkeit (es wird tendenziell zu kleineren, häufigeren Nachbestellungen für kurzlebige Waren geraten). Sie stellen sogar Werkzeuge zur Verfügung, um Verderb zu überwachen und Alarm zu schlagen, wenn sich ein Lagerbestand seinem Ablaufdatum nähert, ohne verkauft zu werden 36. Ein RELEX-Kunde, Franprix, erreichte eine enorme Reduktion des Verderbs, indem er tagesgenaue Prognosen und automatisierte Filialbestellungen für Frischprodukte nutzte 24 37 – ein Beleg dafür, dass RELEX verderbliche Waren weitaus besser handhabt als traditionelle Systeme, die das Ablaufdatum oft ignorieren. RELEX bezieht auch Präsentationsfläche und visuelles Merchandising in die Prognose ein: Erhält ein Produkt eine Zusatzpräsentation, kann die Prognose entsprechend angehoben werden (ihre ML erkennt diese Korrelation). Zudem sorgen ihre Module für Personal und Ausführung dafür, dass, wenn sich Prognosen oder Pläne ändern (wie bei einem plötzlichen Nachfrageanstieg), das Filialpersonal etwa angewiesen wird, mehr Brot zu backen oder schneller nachzubestellen (um den operativen Kreislauf zu schließen). Ein weiterer komplexer Faktor ist das Wetter – RELEX verfügt über integrierte, wetterbasierte Anpassungen in der Prognose, was für saisonale Kategorien (z. B. Eiscreme an heißen Tagen) entscheidend ist. Viele behaupten, Wetterprognosen zu erstellen; RELEX hat dies tatsächlich mit maschinellem Lernen für jeden Standort umgesetzt 29. Zusammenfassend besitzt RELEX vermutlich die umfassendste Suite zur Bewältigung der komplexen Realitäten des Einzelhandels: von Produkteffekten über externe Einflussfaktoren bis hin zu Haltbarkeitsaspekten. Diese Herausforderungen werden weitgehend automatisiert mithilfe von KI angegangen – ein entscheidendes Alleinstellungsmerkmal. Allerdings muss man sich bewusst sein, dass die Nutzung all dieser Funktionen voraussetzt, RELEX mit einer großen Menge an Daten zu versorgen (Warenkorbdaten, Wetterfeeds, Lagerbestände usw.) und den Empfehlungen des Systems zu vertrauen. Für Einzelhändler, die die Komplexität in den Griff bekommen möchten, bietet RELEX somit ein erprobtes Werkzeugset. In diesem Kriterium geben wir ihnen die volle Punktzahl.

Automation: RELEX unterstützt ein hohes Maß an Automatisierung, obwohl es häufig so konfiguriert wird, dass menschliche Aufsicht möglich ist. In der Praxis nutzen viele RELEX-Kunden automatische Nachbestückung auf Laden- und DC-Ebene: Das System erstellt täglich oder intraday Bestellungen für jede SKU-Laden-Kombination, die direkt zur Ausführung gehen, sofern sie nicht zur Überprüfung markiert wurden. Wie bereits erwähnt, hatten in einer Umfrage nur 24% der Lebensmittelhändler eine auf Prognosen basierende Ladenbestellautomatisierung, aber diejenigen, die sie implementierten (mit Systemen wie RELEX), verzeichneten einen Rückgang der Verschwendung um 10–40% 38 24. Das Beispiel von Franprix – 30% weniger Verderb durch automatisierte Bestellungen – unterstreicht, dass RELEX’ Automatisierung funktioniert 24. Das System verfügt über einen Alarmmechanismus, der die menschliche Aufmerksamkeit auf Ausnahmen lenkt (z. B. „Prognose fiel signifikant ab aufgrund eines unerklärten Fakts“ oder „Bestellung durch Lagerplatzbegrenzung gedeckelt“), ansonsten kann es im Autopilot-Modus laufen. Die Philosophie von RELEX wird oft als „algorithmisches Retailing“ beschrieben, bei dem Entscheidungen systemgesteuert getroffen werden. Zudem automatisieren sie Sortimentsanpassungen, indem sie vorschlagen, welche Artikel pro Laden in jedem Zeitraum hinzugefügt oder entfernt werden sollen, und sie automatisieren sogar Preisreduktions‐Empfehlungen für Ausverkäufe. Ein Bereich der Automatisierung, der heraussticht, ist die Promotionsabwicklung: RELEX kann den Bestand automatisch an Läden verteilen, um Aktionen vorwegzunehmen, und ihn wieder zurückholen, wenn der Verkauf hinter den Erwartungen zurückbleibt – ganz ohne Eingriff eines Planers. Außerdem müssen Planer dank der Echtzeit-Engine keine mühsamen Batch-Läufe oder manuellen Neuberechnungen durchführen – das System aktualisiert Prognosen und Pläne kontinuierlich, sobald neue Daten eintreffen (Verkäufe, Bestände etc.). Dies ermöglicht den Übergang zu einer kontinuierlichen Planung mit minimalen manuellen Auslösern. Es sei angemerkt, dass RELEX in der Regel dennoch Planer in die Überwachung einbezieht – beispielsweise könnte ein Planer eine Sortimentsänderung genehmigen oder eine zu aggressive Bestellung anpassen, insbesondere in der frühen Einführungsphase. Aber der Trend unter den Nutzern zeigt ein zunehmendes Vertrauen in die KI und folglich eine steigende Automatisierung. RELEX bietet Simulationstools, mit denen Planer testen können: „Wenn ich das System automatisch bestellen lasse, was passiert dann mit den Lagerengpässen im Vergleich zum Bestand?“ um Vertrauen aufzubauen. Im Vergleich zu Altsystemen, die oft einen Plan produzieren, den ein Mensch noch anpassen muss, kommt RELEX weitaus näher an autonomen Abläufen. Zudem haben sie begonnen, unter dem Motto „autonome Planung“ zu werben, ähnlich wie Blue Yonder. Aus unserer skeptischen Perspektive würden wir sagen, dass RELEX bewährte Automatisierung im Bereich der Nachbestückung, eine gute Automatisierung in der Prognose (keine manuelle Prognose erforderlich), eine teilweise Automatisierung im Sortiment (Empfehlungen werden noch vom Merchandising überprüft) und eine aufkommende Automatisierung in der Preisgestaltung (z. B. dynamische Preisreduzierungen) vorweisen kann. Mit wachsenden KI-Fähigkeiten erwarten wir, dass RELEX den Bedarf an menschlichen Eingriffen weiter reduziert. Somit schneidet das System bei der Automatisierung sehr gut ab – nur übertroffen von Lösungen wie Lokad, die von Grund auf für den Autopiloten entwickelt wurden. Der Vorbehalt bleibt, dass Organisationen ihre Prozesse anpassen müssen – RELEX bietet zwar die Möglichkeit zu automatisieren, aber es liegt am Einzelhändler, Vertrauen zu fassen und die Rollen entsprechend neu zu organisieren.

Technology Integration: RELEX ist eine einheitliche Plattform, die weitgehend intern entwickelt wurde. Es wurde nicht durch Übernahmen zusammengefügt – die Kernplanungsengine wurde eigenständig entwickelt. Die verschiedenen Funktionalitäten (Bedarfsprognose, Nachbestückung, Zuteilungen, Planogrammierung, Personalplanung) teilen sich eine gemeinsame Datenplattform. Das bedeutet weniger Integrationsaufwand innerhalb des Systems: Beispielsweise schließt sich das Modul für Sortimentsplanung direkt an das Prognosemodul an, sodass wenn ein Produkt aus dem Sortiment genommen wird, die Prognosen und Bestellungen nach dem Delisting automatisch auf Null sinken. Die Kohärenz ist im Allgemeinen stark; die Nutzer greifen über eine einzige Benutzeroberfläche auf diese Funktionen zu. RELEX hat einige Akquisitionen getätigt (etwa eine mobile App für Store-Ausführung, eine Bildverarbeitungstechnik etc.), diese sind jedoch Ergänzungen und nicht Teil der Kernplanungslogik. Eine potenzielle Komplexität stellt die In-Memory-Architektur dar – alles, was in einem riesigen Speicher-Modell lebt, kann Änderungen oder die Integration neuer Datentypen erschweren. Aber sie scheinen dies mit modernen Datenbanktechniken zu bewältigen. Im Vergleich zu älteren Anbietern, die deutlich getrennte Produkte (oft infolge von Übernahmen) für Preisgestaltung und Inventar besitzen, wirken RELEXs Lösungen zusammenhängend. Beispielsweise ist die Preisoptimierung ein neueres Modul, das jedoch wahrscheinlich so entwickelt bzw. eng integriert wurde, dass es dieselben Prognosedaten und dieselbe Benutzeroberfläche verwendet. Es besteht keine Notwendigkeit, Prognosen in ein externes Preisgestaltungstool zu exportieren – alles läuft innerhalb von RELEX. Das reduziert inkonsistente Annahmen zwischen den Modulen. Ein weiterer Integrationspunkt: RELEX verbindet sich über APIs mit Ausführungssystemen (ERP, POS etc.) und verfügt über ziemlich robuste Integrationstools (was bei jedem Anbieter normalen Umfang hat). Da RELEX als eine einzige Lösung gewachsen ist, vermeidet es das „Frankenstein“-Etikett, das ältere Wettbewerber wie JDA/Blue Yonder und SAP heimsucht. Dennoch – insbesondere im Bereich der Preisgestaltung – ist es eine fortlaufende Herausforderung, die Plattformlandschaft rein zu halten, während RELEX expandiert. Wir haben keine wesentlichen Probleme gesehen, weshalb wir davon ausgehen, dass die Integration erhalten blieb. Eine weitere Beobachtungsdimension ist, ob RELEXs Microservices (sofern sie ihre Anwendung in Services aufgeteilt haben) nahtlos miteinander kommunizieren. Gartner wies auf RELEXs „Datenmanagement- und Constraint-Modellierungstools“ als bemerkenswert hin 39 – ein Indiz dafür, dass sie eine integrierte Möglichkeit besitzen, sämtliche Geschäftsregeln und Daten zu verwalten. Dies deutet auf ein hohes Maß an Integration hin, bei dem verschiedene Einschränkungen (wie Regalfläche, Lieferzeiten, Packungsgrößen etc.) alle denselben Solver speisen, anstatt als getrennte Einheiten zu agieren. Zusammenfassend ist RELEX eine der technisch kohärenteren Lösungen in diesem Bereich, mit wenig Belegen für die Unzusammenhängendheit, die häufig M&A-lastigen Produkten eigen ist – ein bedeutender Vorteil gegenüber älteren Systemlösungen.

Skepticism of Marketing Claims: RELEX, wie viele junge Unternehmen, verwendet in der Marketingkommunikation gern Schlagwörter wie AI/ML, aber in ihrem Fall stützt sich der Inhalt weitgehend auf Substanz. Sie sprechen von „Living Retail“ und „unleashing AI“ – unzweifelhaft Marketing-Jargon – veröffentlichen aber auch konkrete Ergebnisse und Methodologien. Beispielsweise gibt es Blogposts und Ressourcen, die detailliert erläutern, wie ihr Machine Learning im Retail funktioniert (unter anderem zu Pooling, Trenddetektion etc.) 40 30. Diese Transparenz ist positiv; es handelt sich nicht nur um eine magische KI-Box, sie legen zumindest den Ansatz dar. RELEX lässt zudem oft die Kunden selbst zu Wort kommen – viele ihrer Aussagen liegen in Form von Fallstudienstatistiken vor (z. B. verbesserte Regalverfügbarkeit um Y% bei gleichzeitiger Reduzierung des Bestands um Z% bei einem XXXX-Händler). Diese sind glaubwürdiger als vage Behauptungen. Sie werfen Begriffe wie „autonom“, „kognitiv“ etc. in den Raum, ohne jedoch mehr zu versprechen, als ihre Software leisten kann. Ein Bereich, den man beobachten sollte, ist „demand sensing“ – RELEX verwendet diesen Begriff manchmal, um seine kurzfristige Prognosefähigkeit zu beschreiben (indem aktuelle Verkaufszahlen einbezogen werden, um kurzfristige Prognosen anzupassen). Wir wissen, dass das Konzept von Demand Sensing als Hype kritisiert wurde 12, aber im Fall von RELEX besteht ihr Ansatz im Wesentlichen daraus, häufiger mit den neuesten Daten zu prognostizieren – was in Ordnung ist, solange sie keine unmögliche Voraussicht beanspruchen. Plug-and-play-Integration ist nichts, worüber RELEX übertreibt; sie räumen ein, dass die Implementierung Arbeit erfordert (Datenintegration, Parametereinstellung). Einige Kunden haben sogar berichtet, dass RELEX-Projekte einen erheblichen Aufwand bedeuten (was bei leistungsstarken Tools zu erwarten ist). Daher treibt RELEX die falsche Erzählung eines „sofortigen Mehrwerts“ nicht übermäßig voran. Ebenso vermeiden sie allzu ausgefallenen Jargon – man wird sie nicht grundlos mit Blockchain oder Quantencomputing anpreisen sehen (obwohl amüsanterweise ihre Übernahme „Evo“ den Begriff „quantum learning“ für ihre KI verwendet – aber das ist ein separates Thema). Wenn überhaupt, besteht RELEXs wichtigste Marketingaussage darin, dass sie alle Aspekte der Retailplanung in einer einheitlichen Lösung abdecken und schnell großartige Ergebnisse liefern können. Wir bleiben skeptisch: Kann ein System wirklich in allem glänzen – von langfristigen Sortimentsstrategien über tägliche Nachbestückung bis hin zur Preisgestaltung? Das ist eine hohe Messlatte. RELEX verfügt in vielen Bereichen über starke Fähigkeiten, aber in manchen (wie der Preisgestaltung) sind sie neuer und weniger erprobt als spezialisierte Wettbewerber. Obwohl sie also alle Bausteine anbieten, könnte ein Einzelhändler feststellen, dass ein Teil weniger ausgereift ist – eine Nuance, die in den Verkaufsunterlagen eventuell verschleiert wird. Zudem kann es unhandlich werden, so viele Funktionen in einem System unterzubringen – ein Problem, das im Marketing nicht thematisiert wird. Dennoch zeigt der Vergleich von Hype und Realität, dass RELEX zu den besseren Anbietern zählt: Ihre Behauptungen über KI-gesteuerte Verbesserungen werden durch Algorithmen und Kundennachweise gestützt, und sie vermeiden im Allgemeinen den übertriebenen Einsatz von Schlagwörtern. Wir bewerten ihre Marketing-Ehrlichkeit als relativ hoch.

Summary: RELEX Solutions ist ein Retail-Optimierungskraftpaket mit einer einheitlichen Plattform, die Prognose, Nachbestückung, Sortiment und Preisgestaltung abdeckt. Es nutzt umfassend Machine Learning, um reale Einzelhandelsfaktoren (wie Aktionen, Wetter, Kannibalisierung 9 etc.) zu berücksichtigen, und hat signifikante Verbesserungen der Ergebnisse für Einzelhändler bewiesen (höhere Verfügbarkeit, geringerer Verderb 24). Das System unterstützt die gemeinsame Planung von Sortiment, Inventar und, bis zu einem gewissen Grad, Preisgestaltung, wobei die Preisoptimierung für RELEX noch relativ neu ist. Probabilistische und KI-gestützte Prognosen zählen zu seinen herausragenden Stärken 28 31, ebenso wie seine Fähigkeit, frische Produkte und Komplexität elegant zu handhaben. Die Skalierbarkeit ist im Allgemeinen bewiesen, wenngleich mit hohem Ressourcenverbrauch 22. RELEX ermöglicht ein hohes Maß an Automatisierung (insbesondere im Bereich der Nachbestückung) und verfügt über einen stimmigen Tech-Stack, der für den Retailbereich entwickelt wurde. Während einige Aspekte (z. B. gewinnoptimale Entscheidungen, vollständig integrierte Optimierung von Preis+Bestand) möglicherweise nicht so nativ eingebettet sind wie bei Lokads Ansatz, stellt RELEX eine der zukunftssichersten, innovativen Lösungen für große Einzelhändler dar. Sein Fokus auf die Realität (und nicht nur Theorie) und greifbare KI-Anwendungen machen es zu einem erstklassigen Wettbewerber – man könnte es als den Marktführer unter den Retail-Spezialisten bezeichnen. Die Hauptrisiken liegen in der Komplexität (die Implementierung aller Funktionen ist nicht trivial) und darin, sicherzustellen, dass der Hype (KI überall!) in benutzerfreundliche, wartbare Lösungen übersetzt wird. Bisher deutet alles darauf hin, dass RELEX größtenteils seine Versprechen einhält, was es zu einer der bestplatzierten Optionen für zukunftsorientierte Retailoptimierung macht.

Sources: RELEXs ML-gesteuerte Prognosefaktoren (Nachfragemuster, Aktionen, externe Ereignisse) 28; Umgang mit Kannibalisierung mittels ML in der Aktionsprognose 9; nachgewiesene Reduzierung von Verderb durch automatisierte, prognosebasierte Nachbestückung 24; KI-gesteuerte Analyse der Sortimentsrentabilität 33.


3. o9 Solutions – Ambitionierte integrierte Planung mit großen Versprechungen (und Vorbehalten)

o9 Solutions (gegründet 2009) präsentiert sich als der Schöpfer eines „Digital Brain“ für die Unternehmensplanung – eine Plattform, die Bedarfsprognose, Supply-Chain-Planung, Revenue Management und mehr auf einem graphbasierten Datenmodell vereint. Die Vision von o9 ist es, die One-Stop-Plattform für End-to-End-Planung zu sein, indem Silos zwischen Bedarfsplanung, Inventar/Supply, kommerzieller Planung und sogar Finanzplanung aufgebrochen werden. Im Einzelhandelskontekst kann o9 für Merchandising- und Sortimentsplanung, Bedarfsprognose, Supply-Planung konfiguriert werden und verfügt über Fähigkeiten im Revenue Growth Management (RGM), das Preisgestaltung und Aktionsoptimierung umfasst 41. Theoretisch erfüllt dies alle Kriterien der gemeinsamen Optimierung. o9 hat in den Bereichen CPG, Fertigung und einigen Einzelhandels-/Kundenunternehmen an Zugkraft gewonnen, wobei häufig sein moderner KI/ML- und Knowledge-Graph-Ansatz gegenüber älteren APS (Advanced Planning Systems) betont wird. Aus einer skeptischen ingenieurstechnischen Perspektive ist o9 jedoch ein wenig ein Paradoxon: Es ist sehr technologisch fortschrittlich in der Architektur, doch einige Experten bezweifeln, wie viel Substanz in seiner KI steckt – im Vergleich zum reinen Buzz. Wir bewerten o9 hoch für seine Breite und seinen Plattformansatz, jedoch mit Vorbehalten hinsichtlich der tatsächlichen Umsetzung von Prognosen und der schweren Infrastruktur, die möglicherweise erforderlich ist.

Joint Optimization: Das Kernversprechen von o9 besteht in der integrierten Planung über alle Funktionen hinweg. Für einen Einzelhändler bedeutet dies, dass ein o9-System die Finanzplanung für das Merchandising, Sortimentsentscheidungen, Bedarfsprognosen, Nachbestückungsplanung und Preisstrategien – alles miteinander verknüpft – abwickeln kann. Explizit bewerben sie ihre Lösung für Revenue Growth Management (RGM), die „RGM, Demand Planning, Supply Chain und IBP in einer einzigen Plattform integriert” 41. Dies legt nahe, dass Preisgestaltung und Aktionen (RGM) nicht als isolierte Elemente stehen, sondern in die Bedarfsplanung einfließen, die wiederum die Supply-Planung beeinflusst – alles innerhalb von o9. In der Praxis verfügt o9 über Module oder Apps für jeden Bereich, die jedoch unter einem Dach zusammengeführt werden. Beispielsweise könnte eine o9-Implementierung ein Preiselastizitätsmodell im Bedarfsplanungsmodul beinhalten, sodass Planer erkennen können, wie sich Preisänderungen auf die Prognose auswirken und unmittelbar nachvollziehen, wie dies den Bestand oder Produktionspläne beeinflusst. Das Konzept des Enterprise Knowledge Graph (EKG) bedeutet, dass alle Daten (Produkte, Standorte, Lieferanten, Einschränkungen etc.) wie ein Netzwerk miteinander verbunden sind, wodurch jede Änderung (zum Beispiel eine neue Sortimentsentscheidung oder eine Preisänderung) ihre Auswirkungen durch den Graphen verbreiten kann. Dies ist theoretisch enorm kraftvoll: Es könnte eine wahre gleichzeitige Optimierung ermöglichen, bei der Preise angepasst und Bestellungen gleichzeitig aufgegeben werden – zur Maximierung von Gewinn und Service. Allerdings ist unklar, ob o9 aktuell automatisch über all diese Dimensionen optimiert oder lediglich eine einheitliche Analyse ermöglicht. Oft nutzen Kunden o9, um Szenarien durchzuspielen – beispielsweise Szenario 1: Preis x, Bestellung y; Szenario 2: Preis x+5%, Bestellung z – und vergleichen dann die Ergebnisse. Das ist integrierte Planung, aber nicht unbedingt ein einzelner Optimierungsalgorithmus. Dennoch ist o9 in der Lage, komplexe Szenarien zu berechnen, sofern die Engine greift. Es gehört zu den wenigen, die realistisch Sortimentsplanung (Merchandising) mit der Supply Chain vereinen können – sodass ein Einzelhändler eine Kategorienstrategie (welche SKUs in welchen Läden) planen kann, während o9 gleichzeitig den Bestand und die Nachbestückung plant, um sicherzustellen, dass das Angebot dem Merchandisingplan entspricht. Viele Altsysteme realisieren dies in getrennten Schritten. o9 wirbt außerdem mit Lieferantenkollaboration und mehrstufiger Planung auf derselben Plattform, wodurch vorgelagerte Lieferprobleme in die nachgelagerten Merchandising-Entscheidungen einfließen können. Diese ganzheitliche Integration ist eine zentrale Stärke und zukunftsweisend. Die größte Herausforderung besteht in der Komplexität: All diese Elemente in einem System zu modellieren, erfordert erhebliche Konfiguration und Datenintegration. Einige Nutzer berichten, dass, obwohl o9 alles leisten kann, ihre Implementierung sich zunächst auf ein oder zwei Bereiche konzentriert (zum Beispiel Bedarfs- und Supply-Planung), während Preisgestaltung oder Sortimentsplanung in späteren Phasen hinzukommen. Somit ist die gemeinsame Optimierung mehr ein Potenzial als eine sofortige Realität. Wir vergeben o9 starke Punkte für Vision und Architektur hinsichtlich der gemeinsamen Optimierung, gemildert durch die Frage, wie viele Kunden sie tatsächlich für vollständig integrierte Preis-Bestand-Entscheidungen nutzen. Dennoch – die Fähigkeit der Plattform ist vorhanden, und das kann von den meisten angeblichen Komplettlösungen nicht behauptet werden.

Probabilistische Vorhersage & KI: o9 positioniert sich zweifellos als eine KI-getriebene Plattform. Es verfügt über eine dedizierte ML-Engine, die viele externe Variablen (sie demonstrieren Dinge wie Google Trends, Wetter, soziökonomische Daten) in die Vorhersage einbeziehen kann. Der Knowledge Graph wird manchmal als Mittel zur Ermöglichung besserer KI dargestellt – indem alle Daten verknüpft werden, soll er Machine-Learning-Algorithmen dabei helfen, Nachfragedeterminanten zu finden. Allerdings ist ein kritischer Blick angebracht. Eine unabhängige Analyse bemerkte: „Viele Vorhersagebehauptungen über die Graph-Datenbank (EKG) sind zweifelhaft und werden von der wissenschaftlichen Literatur nicht gestützt. Enormer KI-Hype, aber Elemente, die auf Github gefunden wurden, deuten auf eher profane Techniken hin.“ 42. Dies legt nahe, dass die tatsächlichen Vorhersagemethoden von o9 möglicherweise nicht so revolutionär sind, wie das Marketing impliziert – möglicherweise werden im Hintergrund ziemlich standardmäßige Zeitreihenmodelle oder Regressionsverfahren verwendet, auch wenn diese in ausgefallenen Begriffen verpackt werden. Tatsächlich wurde o9 dafür kritisiert, selbst einfache interaktive Funktionen als „KI“ zu bezeichnen. So ist es beispielsweise ein Markenzeichen ihres Tools, Szenarien schnell zu generieren (aufgrund von In-Memory-Berechnungen), doch die Szenarioplanung an sich ist keine KI – sie ist lediglich Simulation. Dennoch verfügt o9 über Machine-Learning-Fähigkeiten: Sie können ML-Modelle für Promotionen, für die Einführung neuer Produkte (unter Verwendung attributbasierter Vorhersage) usw. erstellen. Sie haben ein kleines KI-Unternehmen (Fourkind) übernommen, um ihre Data Science zu stärken. Es ist also nicht nur leere Fassade; sie haben ML zur Mustererkennung und Anomalieerkennung in Vorhersagen implementiert. Allerdings könnten diese Methoden denen anderer moderner Anbieter ähneln. Es gibt wenig Anhaltspunkte dafür, dass das Graphmodell von Natur aus die Vorhersagegenauigkeit verbessert – es dient hauptsächlich der besseren Datenorganisation. Die Vorhersagemethoden von o9 können probabilistisch sein, insofern als dass sie Monte-Carlo-Simulationen für Szenarien unterstützen (z. B. 1000 Nachfragepfade simulieren, um die Verteilung der Ergebnisse zu sehen), aber wir haben nicht beobachtet, dass sie standardmäßig die Ausgabe vollständiger Wahrscheinlichkeitsverteilungen betonen, wie es Lokad tut. In Sachen rein probabilistischer Vorhersagematurity könnten sie hinter spezialisierten Anbietern zurückbleiben. Dennoch integriert o9 KI auch in anderer Form: So verfügen sie beispielsweise über ein KI-gestütztes Supply Chain Risk Tool, um potenzielle Störungen vorherzusagen, was über die klassische Vorhersage hinausgeht. Außerdem haben sie einen neuen Generative AI Assistant (eine Chatbot-Schnittstelle zur Abfrage des Systems), der eher als Benutzeroberfläche denn als Kernelement der Vorhersage fungiert, aber zeigt, dass sie in KI-Technologie investieren. Zusammenfassend bewerten wir o9 als Anbieter mit guten KI-Fähigkeiten, wenn auch möglicherweise nicht so differenziert, wie behauptet wird. Sie übertreffen definitiv veraltete AP-Systeme, die auf manuelle Vorhersagen angewiesen sind, aber im Vergleich zu Wettbewerbern wie RELEX oder Lokad könnte der Vorhersageansatz von o9 weniger fokussiert wirken (da o9 auch viele andere Planungsaspekte berücksichtigt). Die Skepsis der Experten 42 weist darauf hin, dass man o9s KI-Behauptungen nicht unkritisch übernehmen sollte. Wir würden uns über mehr unabhängige Validierung der Verbesserungen in der Vorhersagegenauigkeit freuen. Bis dahin halten wir ihre KI für glaubwürdig, wenn auch etwas überbeworben.

Wirtschaftliche Entscheidungsfindung: Die Plattform von o9, die äußerst flexibel ist, kann so eingerichtet werden, dass sie verschiedene Zielsetzungen optimiert – auch finanzielle. Im Kontext der integrierten Geschäftsplanung (IBP) hilft o9 Unternehmen oft dabei, Szenarien anhand von Umsatz, Marge, Service usw. zu bewerten. Für den Einzelhandel sollte ihr RGM-Modul Preiselastizität und Marge explizit berücksichtigen – womit Entscheidungen direkt an Gewinn- und Umsatzergebnissen gekoppelt werden. Sie verfügen über die Möglichkeit, What-if-Szenarien zur Rentabilität durchzuführen, beispielsweise: „Was wäre, wenn wir diese Kategorie um 5 % günstiger bepreisen? Wie verändern sich Gewinn und Absatz? Und können unsere Lieferanten mithalten?“ Dies bringt die Planung in Einklang mit finanziellen Kennzahlen. Allerdings stellt sich die Frage, ob o9 automatisch optimiert oder lediglich ein Rahmenwerk bietet. Ein Teil des Mehrwerts von o9 besteht darin, funktionsübergreifende Entscheidungen zu ermöglichen: So kann ein Anwender erkennen, dass ein bestimmter Promotionsplan zu entgangenen Verkäufen aufgrund von Lieferengpässen führen würde, und sich entscheiden, diesen anzupassen, um bei diesen Beschränkungen den Gewinn zu maximieren – alles innerhalb des o9-Tools. Dies erleichtert die wirtschaftliche Entscheidungsfindung, indem Transparenz und schnelle Simulationen bereitgestellt werden. o9 verfügt außerdem über integrierte Optimierungslöser (sowohl für die supply chain als auch vermutlich für die Preisgestaltung). Sie können Dinge wie Multi-Echelon-Inventory-Optimierung (das Ausbalancieren des Lagerbestands zwischen Distributionszentren und Geschäften zur Minimierung der Kosten bei einem angestrebten Serviceniveau) und Optimierung des Promotionskalenders (Auswahl des besten Promo-Zeitplans zur Erreichung der Ziele) durchführen. Diese Methoden beinhalten wirtschaftliche Abwägungen. Ein Beispiel: o9 kann Assortment Allocation optimieren – also bestimmen, wie viele Regalflächen oder welche Produkte in jedem Geschäft eingesetzt werden sollten, um eine bestimmte Kennzahl (wie Umsatz oder Gewinn) unter Platzbeschränkungen zu maximieren. Dies ist eine mathematische Optimierung, die wirtschaftliche Ziele verfolgt. Da die Plattform von o9 anpassbar ist, könnte ein Einzelhändler beispielsweise eine Zielfunktion wie „maximiere erwartete Marge minus Lagerhaltungskosten“ für das Inventar konfigurieren, während ein anderer vielleicht „maximiere Umsatz unter Berücksichtigung von X“ verwendet. Das Tool kann beides unterstützen. Es ist also flexibel, was aber auch bedeutet, dass o9 selbst keinen wirtschaftlichen Ansatz vorschreibt – es kann auch auf manuell/heuristische Weise genutzt werden, wenn ein Kunde dies wünscht. Ihr Marketing rund um „decision-centric planning“ und „digital brain“ impliziert, dass das System einen zum optimalen Entscheid führenden Weg aufzeigt. Dennoch sagen einige Kritiker, dass o9s ausgefeilte Demos immer noch stark auf menschliche Analysen angewiesen sind, anstatt vollautomatisch optimale Entscheidungen zu liefern 42. Wir vermuten, dass o9 typischerweise Planern Szenarien und KPIs (Kosten, Gewinn usw.) präsentiert, sodass die Entscheidung letztlich beim Menschen liegt, anstatt dass das System eine einzelne optimale Lösung ausgegibt. Hinsichtlich der Opportunitätskosten ist unklar, ob o9 diese von Natur aus berechnet (z. B. die Kosten eines Bestandsausfalls in Bezug auf verlorenen Gewinn – wahrscheinlich ist dies möglich, wenn es entsprechend konfiguriert wird). Bei der Preisoptimierung, wenn man o9s RGM verwendet, optimiert es vermutlich mathematisch die Preise, um ein finanzielles Ziel angesichts von Nachfrageelastizitätskurven zu erreichen, ähnlich wie andere Preisoptimierungstools. Also ja, es kann wirtschaftlich gesteuert werden. Insgesamt ermöglicht o9 die wirtschaftliche Entscheidungsfindung in hohem Maße (da es operative und finanzielle Planung kombiniert), aber wie automatisiert dies letztlich ist, variiert. Wir loben die Verbindung von Planung mit den Geschäftsergebnissen (ihr Verkaufsargument zielt oft darauf ab, die Barriere zwischen Finanz- und Lieferkettenplanung zu durchbrechen). Seien Sie sich jedoch bewusst, dass das Erreichen wirklich gewinnoptimierter Entscheidungen mit o9 möglicherweise erhebliche Modellierungs- und Feinabstimmungsarbeiten während der Implementierung erfordert.

Skalierbarkeit & Architektur: Die Architektur von o9 ist eines seiner Markenzeichen – sie verwenden eine moderne, In-Memory-Computing-Engine und den Enterprise Knowledge Graph, um Daten in einer hoch vernetzten, aber effizienten Struktur abzubilden. Dies ermöglicht schnelle Durchläufe und Berechnungen. Häufig demonstrieren sie eine nahezu sofortige Ausbreitung von Änderungen (z. B. ändert man eine Vorhersage, aktualisiert sich der Versorgungsplan unmittelbar). Das Konzept ist ähnlich dazu, wie Kinaxis Nebenläufigkeit erreicht, allerdings mit einem Graph-DB-Twist. Doch wie ein Skeptiker bereits anmerkte, „sprengt die technische Masse von o9 alle Erwartungen, selbst nach Unternehmensstandards. Das In-Memory-Design garantiert hohe Hardwarekosten.“ 4. Mit anderen Worten, o9 packt eine enorme Menge an Daten und Berechnungen in den Speicher, sodass der Betrieb für ein großes Unternehmen robuste Server oder hohe Cloud-Kosten erfordern könnte – ähnlich wie bei RELEX. o9 ist cloudbasiert (sie bieten ihre SaaS-Lösung oft auf Azure an), was für Elastizität sorgt. Wird o9 jedoch von einem Einzelhändler zur Modellierung des gesamten Netzwerks genutzt, plus detaillierter finanzieller und kommerzieller Daten, kann das Modell extrem groß werden. Ein Vorteil: Das Graphmodell kann speichereffizienter sein als einfache Datentabellen, da es Beziehungen elegant speichert. Dennoch legt der Kritiker nahe, dass es immer noch recht ressourcenintensiv ist. Tatsächlich waren einige der frühen o9-Einsätze berüchtigt für einen hohen Speicherverbrauch. Vermutlich wurde daran gearbeitet, und mit der Cloud können sie bis zu einem gewissen Grad horizontal skalieren (obwohl bestimmte Berechnungen weiterhin großen gemeinsamen Speicher erfordern). Die Skalierbarkeit in der Nutzerzahl ist gut – viele Benutzer können dank des leistungsstarken Backends im System zusammenarbeiten und jeweils verschiedene Datenansichten erhalten. o9 wird von Fortune-500-Unternehmen eingesetzt, was seine Skalierbarkeit für große Unternehmen (einschließlich sehr großer CPGs und einer globalen Fast-Food-Kette) belegt. Die Kosteneffizienz ist ein weiterer Aspekt: Anekdotische Hinweise deuten darauf hin, dass o9 im Betrieb nicht günstig ist, bedingt durch Unternehmenspreise und den hohen Ressourcenbedarf. Ist man kostenbewusst, könnte eine schlankere Lösung für Teilaufgaben bevorzugt werden. Wer jedoch eine in Echtzeit integrierte Planung über das gesamte Unternehmen hinweg schätzt, für den liefert o9 – was naturgemäß mehr Rechenleistung erfordert. In Bezug auf die Leistung kann o9 Pläne sehr häufig neu berechnen (einige tun dies täglich oder sogar intra-day für kurzfristige Horizonte), was eine Verbesserung gegenüber den früher üblichen wöchentlichen Batch-Planungszyklen darstellt. Zudem setzen sie Microservices und einen „Plattform“-Ansatz ein, was bedeutet, dass einzelne Bestandteile des Plans aktualisiert werden können, ohne dass alles von Grund auf neu berechnet werden muss. Der Knowledge Graph wird inkrementell aktualisiert, sobald neue Daten einfließen. Dieses Design ist modern und skalierbar. Zusammenfassend ist o9 technisch in der Lage, sehr große Probleme zu skalieren, aber Nutzer sollten mit einem erheblichen Hardware-/Cloud-Einsatz rechnen (die Plattform ist leistungsstark, aber ressourcenhungrig). Im Vergleich zu wirklich leichten, spezialisierten Lösungen wird o9 vermutlich mehr Speicher verbrauchen, da es ein größeres, integriertes Problem löst. Daher erhalten sie in Sachen Skalierbarkeit hohe Bewertungen für die Leistungsfähigkeit, jedoch nur mittlere für die Kosteneffizienz.

Umgang mit komplexen Einzelhandelsfaktoren: Out-of-the-box verfügt o9 möglicherweise nicht über so viele retail-spezifische, vordefinierte Funktionen wie beispielsweise RELEX, lässt sich jedoch so konfigurieren, dass diese berücksichtigt werden. So können beispielsweise Kannibalisierung und Halo-Effekte erkannt werden – o9s ML-Modelle vermögen diese zu identifizieren, wenn sie mit Transaktionsdaten gespeist werden, ähnlich wie es RELEX tut. Wahrscheinlich muss das Data-Science-Team die richtigen Merkmale definieren oder o9s ML-Assistent einsetzen. Wir haben keine expliziten Hinweise auf ein integriertes Modell zur Promo-Kannibalisierung in den o9-Materialien gefunden; es wird vermutlich über die ML-Vorhersage und nicht über ein separates Modul abgebildet. Substitutionseffekte lassen sich handhaben, da o9 den Lagerbestand verfolgen kann – man könnte eine Regel oder ein ML-Modell einrichten, sodass, wenn ein SKU nicht verfügbar ist, die Nachfrage eines korrelierten SKU ansteigt. Aber auch dies muss gegebenenfalls explizit modelliert werden. Verfallsdaten/Verderbliches: o9 kann Chargenattribute verwalten (das Datenmodell kann Artikelattribute wie das Verfallsdatum integrieren). Ein Einzelhändler könnte o9 verwenden, um Produktion und Distribution im Einklang mit Haltbarkeitsanforderungen zu planen (z. B. sicherzustellen, dass Artikel zu Geschäften geschickt werden, in denen noch genügend Haltbarkeitsdauer verbleibt). Allerdings könnte es notwendig sein, die jeweiligen Beschränkungen und Zielsetzungen anzupassen. Es handelt sich nicht um eine speziell auf Frischwaren ausgelegte Lösung, sodass es keine automatischen Verderbnisprognosen berechnet, sofern diese Logik nicht implementiert wird. Im Gegensatz dazu haben einige andere Anbieter diese Funktion bereits integriert. Daher kann o9 dies leisten, aber der Nutzer muss wissen, dass er diesen Aspekt in sein Modell einbeziehen muss. Promotionen und Saisonalität werden definitiv berücksichtigt – o9s Vorhersage und Planung berücksichtigen Promotionseffekte (sie verfügen über ein Promo-Planungsmodul, in das Promotionen eingegeben werden, woraufhin Vorhersagen und Versorgungspläne angepasst werden). Außerdem erlauben sie eine Multi-Echelon-Inventory-Planung, was bedeutet, dass sie die Lagerbestände über Distributionszentren und Geschäfte hinweg unter Berücksichtigung von Schwankungen optimieren können – eine elegante Methode, um mit Nachfrageschwankungen umzugehen. Wir vermuten, dass o9, da es branchenübergreifend eingesetzt wird, nicht so viele retail-spezifische Algorithmen von vornherein parat hat (so wie es nicht automatisch vorschlägt, dass „dieses Produkt ein Ersatz für jenes ist“, sofern man diese Logik nicht einrichtet). Aber ihre Flexibilität bedeutet, dass jeder retail-spezifische Faktor modelliert werden kann. Zudem bieten sie sogenannte „Control Towers“ an – im Grunde Dashboards, mit denen beispielsweise Lagerausfälle, entgangene Verkäufe oder Überschüsse überwacht werden, um Probleme wie Kannibalisierung oder unpassende Sortimente zu identifizieren. Zusätzlich kann o9s Knowledge Graph mit externen Daten integriert werden, sodass etwa Wetterdaten herangezogen werden können, um Vorhersagen anzupassen (wenn der Nutzer dies einrichtet). Viele o9-Kunden im Retail-Bereich nutzen vermutlich externe Nachfragesignale. Assortment Optimization ist explizit Teil ihres Angebots (sie führen Lösungen für „Merchandising and Assortment Planning“ auf), was bedeutet, dass sie mithilfe von Analysen ideale, standortspezifische Sortimente ermitteln und lokale Präferenzen sowie Platzbeschränkungen berücksichtigen können. In Kombination mit ihrem IBP können sie sicherstellen, dass Sortimentsänderungen auch versorgungstechnisch machbar sind. Damit wird der Komplexität lokaler Nachfrage Rechnung getragen. Alles in allem ist o9 im Umgang mit komplexen Faktoren fähig, erfordert jedoch ein kompetentes Implementierungsteam, um diese Möglichkeiten voll auszuschöpfen. Es mag zwar nicht so out-of-the-box für Einzelhandelsdetails ausgelegt sein wie ein ausschließlich auf den Retailbereich fokussierter Anbieter, aber nach entsprechender Konfiguration kann es mit diesen konkurrieren. Ein Kritikpunkt sei angemerkt: Frühere Expertenkommentare deuten darauf hin, dass einige der fortschrittlich klingenden Technologien von o9 tatsächlich auf einfacheren Methoden basieren könnten (sie erwähnen Open-Source-Projekte wie tsfresh, ARIMA etc. im Zusammenhang mit o9) 43, was bedeuten könnte, dass manche komplexe Phänomene mit relativ simplen Techniken angegangen werden (z. B. lineare Regression bei Promotionen – was zwar funktioniert, aber nicht hochmodern ist). Falls dem so ist, müsste o9 seinen Ansatz vertiefen, um beispielsweise nichtlineare Kannibalisierungseffekte wirklich erfassen zu können. Nichtsdestotrotz ist es – angesichts ihrer Ressourcen und ihres Fokus auf KI – wahrscheinlich, dass sie sich in diesem Bereich weiter verbessern. Wir bewerten sie hinsichtlich ihrer Flexibilität im Umgang mit Komplexität als gut, und was den Nachweis ihres Erfolgs speziell bei Retail-Edge-Cases (wie Frischwaren) betrifft, als mittelmäßig.

Automatisierung: o9’s Plattform ist in erster Linie ein Planungs- und Entscheidungsunterstützungstool – es brilliert darin, schnell Pläne und Szenarien zu erstellen. Ob es automatisch ausgeführt wird, liegt weitgehend in der Verantwortung der Benutzerorganisation. Viele o9-Anwender beziehen immer noch Planer ein, um Szenarien auszuwählen und Pläne zu genehmigen. Allerdings bietet o9 die Möglichkeit für kontinuierliche Planung. Es wird Wert auf Konzepte wie „Echtzeit-What-if“ und „kontinuierliche Neu-Planung“ gelegt, die auf Automatisierung hindeuten (das System aktualisiert den Plan ständig, wenn sich Bedingungen ändern). Zum Beispiel, wenn in einer Region die Nachfrage stark ansteigt, kann o9 automatisch das Inventar im Plan neu zuweisen und Expresslieferungen vorschlagen. Einige haben o9’s Ansatz im Marketing als „autonome Planung“ bezeichnet, aber realistisch gesehen ergänzt es häufig Planer, anstatt sie zu ersetzen. Trotzdem hat o9 Features wie KI-Agenten eingeführt, die Daten überwachen und Empfehlungen aussprechen können. Und ihr neuer GenAI Orchestrator soll es „Unternehmen ermöglichen, schnellere, intelligentere Entscheidungen zu treffen und die Produktivität der Planer zu steigern“ 44 – hauptsächlich, weil Planern so schneller Einsichten ermöglicht werden. Eine vollständige unüberwachte Automatisierung (wie die automatische Ausführung von Bestellungen oder Preisänderungen) wird bei o9 nicht üblicherweise genannt. Typischerweise würde o9 optimierte Pläne in ein ERP- oder Ausführungssystem einspeisen, das diese dann umsetzt. Somit geht es bei der Automatisierung im Kontext von o9 eher darum, den Planungsprozess zu automatisieren (keine manuellen Tabellenkalkulationsauswertungen, automatisierte Prognoseaktualisierungen, automatisierte Warnmeldungen bei Abweichungen vom Plan etc.) als um die Ausführung selbst. Der Unterschied zu Systemen wie Lokad oder RELEX ist subtil: o9 automatisiert Berechnungen und gibt eine Entscheidungsempfehlung, aber häufig zieht ein Mensch den Abzug; Lokad/RELEX sind oft so eingestellt, dass sie die tatsächliche Bestellung oder Preisänderung automatisch generieren. Das heißt, wenn ein Unternehmen es wünscht, könnte es die Ausgaben von o9 als automatisch autorisierte Entscheidungen betrachten. Beispielsweise könnte o9 täglich Bestellvorschläge ausgeben, die direkt in ein Bestellmanagementsystem eingespeist werden – das ist machbar. Oder es könnte neue Verrechnungspreise oder Preisreduktionsvorschläge berechnen und an die Geschäfte weiterleiten. Die Fähigkeit ist vorhanden, aber die typischen o9-Nutzer (oft große Unternehmen) behalten in kritischen Entscheidungen üblicherweise einen Menschen im Loop. Es sei angemerkt, dass o9’s Stärke in der Szenarioplanung den Bedarf an trial-and-error durch Menschen reduziert – das System selbst kann unzählige Szenarien simulieren (fast wie ein automatisches Brainstorming). In gewisser Weise automatisiert es somit die Bewertung von Optionen, während der Mensch nur aus den besten Möglichkeiten wählen muss. Dies beschleunigt die Entscheidungsfindung dramatisch. So automatisiert o9 in Bezug auf die Produktivität der Planer die mühselige Vorarbeit. Zudem gibt es Workflows (wie Genehmigungen, Benachrichtigungen), die Ausnahmen automatisch an die richtige Person weiterleiten. Vorsicht ist geboten: o9’s Marketing des „Digital Brain“ kann eine selbstfahrende supply chain suggerieren, in Wirklichkeit gleicht es jedoch eher einem sehr guten Entscheidungscockpit, das einen erfahrenen Piloten benötigt. Wir geben ihnen moderate bis hohe Bewertungen bei der Automatisierung von Planungsberechnungen, jedoch niedrigere bei einer vollautomatischen, lights-out Ausführung. Im Vergleich zu älteren Systemen, die viele manuelle Eingaben erforderten, stellt o9 einen großen Fortschritt dar. Im Hinblick auf das Ideal einer KI-gesteuerten Retail-Operation ist o9 zwar noch nicht ganz am Ziel (und die meisten anderen auch nicht).

Technologieintegration: o9 wurde von Grund auf als eine einheitliche Plattform entwickelt (von ehemaligen i2 Technologies-Veteranen), sodass es nicht ein Flickenteppich aus erworbenen Modulen geerbt hat – ein Pluspunkt für die Integration. Seine Microservices-Architektur und das einheitliche Datenmodell bedeuten, dass alle Systemteile nahtlos miteinander kommunizieren. Man benötigt keine separaten Datenbanken für Prognosen versus Bedarfsplanung; der Knowledge Graph fasst alles zusammen. Dies vermeidet die traditionellen Integrationsprobleme zwischen etwa einem Prognosesystem und einem Bestandsoptimierungssystem. Alle Daten werden einmal in o9 geladen, und dann operieren verschiedene „Apps“ innerhalb des Systems auf diesen gemeinsamen Daten. Auch die User Experience ist einheitlich (es gibt eine webbasierte Benutzeroberfläche, die in allen Modulen gleich ist, mit konfigurierbaren Dashboards). Aus Nutzersicht fühlt es sich also wie ein System für alle Planungsaufgaben an. Dies ist ein großer Vorteil gegenüber einer Frankenstein-Lösung. Allerdings hat o9 mit dem Wachstum viele Funktionen hinzugefügt und möglicherweise ein kleines Unternehmen oder zwei akquiriert (wie die KI-Beratung und vielleicht eines für die Gestaltung der supply chain). In diesen Randbereichen könnte etwas Integration notwendig sein, doch die Kernplanung bleibt einheitlich. Ein Experte kritisierte, o9 sei „das Archetyp eines Big-Tech-Anbieters“ mit „Tech-Mass off the charts“, was andeutet, dass es unter der Haube sehr komplex ist 4. Das deutet darauf hin, dass o9 zwar kein Übernahme-Frankenstein ist, seine eigene Plattform jedoch massiv sein kann – was die Implementierung oder Wartung potenziell kompliziert macht. Doch dies ist eine interne Komplexität und nicht die Integration disparater Technologien. Unternehmenskäufer bevorzugen oft eine integrierte Plattform wie o9, weil sie die Anzahl der Anbieter und Schnittstellen reduziert. Das ist o9’s Stärke – man kauft eine Plattform, nicht separate Lösungen für Prognose, Bedarfsplanung, S&OP etc. Das Risiko besteht darin, dass, wenn ein Teil der Plattform nicht erstklassig ist, man trotzdem an sie gebunden ist, sofern man nicht ein weiteres Tool integriert (was den Sinn untergräbt). In Bezug auf die „Kohärenz des Tech-Stacks“ ist o9 einheitlich – es wurde größtenteils auf dem Microsoft Tech-Stack (.NET, etc.) aufgebaut und verwendet eine von ihnen entwickelte Graph-Datenbankstruktur. Somit sehen wir keine Probleme wie das Kopieren von Daten zwischen Subsystemen oder inkonsistente Logik. Der Trade-off: Die Einführung von o9 bedeutet, dass man seine Prozesse an den Plattformansatz von o9 angleichen muss, was einen großen Wandel darstellen kann. Aber aus IT-Sicht vereinfacht es wahrscheinlich die Landschaft im Vergleich zu mehreren Altsystemen. Kurz gesagt, o9 ist kein Frankenstein – es ist ein konstruiertes Gehirn (wenn auch ein sehr komplexes). Das ist gut für die langfristige Wartbarkeit, sofern der Kunde es vollständig annimmt, kann aber anfangs überwältigend sein. Wir sind der Meinung, dass o9 das Kriterium des „kohärenten Tech-Stacks“ gut erfüllt.

Skepsis gegenüber dem Hype: Wenn es einen Anbieter in dieser Liste gibt, der den „Hype“-Alarm auslöst, könnte es o9 sein. Sie verwenden Schlagwörter großzügig – Enterprise Knowledge Graph™, Digital Brain, AI/ML, jetzt Generative AI. Ihr Marketing ist schick und manchmal vage bei den technischen Details, stattdessen heben sie die übergeordneten Vorteile hervor. Zum Beispiel prahlen sie damit, einen AI/ML-Rahmen zu haben, aber man hört weniger darüber, welche Algorithmen sie genau einsetzen (während Anbieter wie Lokad oder ToolsGroup möglicherweise offen über den Einsatz probabilistischer Modelle oder neuronaler Netze sprechen, bleibt o9 auf einer höheren Ebene). Einige Branchenbeobachter haben o9 tatsächlich als „AI Theater“ kritisiert, weil sie mit auffälligen Demos und viel Analytik beeindrucken, dabei aber hinter den Kulissen relativ standardmäßige Techniken verwenden 42. Der zuvor zitierte Bericht von Lokad platzierte o9 nahe dem unteren Ende eines Rankings und verwies darauf, dass „tonnenweise AI-Hype“ betrieben werde und dass triviale interaktive Funktionen als AI gebrandmarkt würden 42. Dies ist eine harte Kritik, wahrscheinlich aus der Perspektive eines Konkurrenten, aber sie unterstreicht, dass o9’s Marketing seiner bewährten Realität oft voraus ist. o9 benennt Funktionen auch auf futuristische Weise – z. B. wird von einer „quantum learning“-Engine gesprochen (ein Begriff, der von ihrer Evo-Übernahme im Jahr 2023 stammt), der zwar hochmodern klingt, aber im Wesentlichen ein Ensemble-ML-Ansatz ist. Sie sprechen von „graph cube technology“, die Daten verbindet 45 – was in Ordnung ist, aber Kunden verwirren könnte. Demand sensing und digital twin sind weitere Schlagwörter, die o9 einwerfen könnte (wobei sie es als Knowledge Graph/Digital Brain statt Twin darstellen, um fair zu sein). Als Skeptiker sollte man fragen: Erreichen Unternehmen die dramatischen Ergebnisse, die o9 impliziert (wie beispielsweise 10% Umsatzsteigerung allein durch bessere Planung)? Einige berichten von guten Resultaten, doch unabhängige Referenzen sind seltener, da o9 jünger ist als beispielsweise SAP. Ein weiterer Aspekt des Hypes: o9 positioniert sich oft als eine Plug-and-Play-Cloud-Plattform, die schneller implementiert werden kann als ältere Systeme. Dennoch wird berichtet, dass einige Implementierungen erheblich Zeit und Beratungsaufwand in Anspruch nehmen (weil die Modellierung eines gesamten Unternehmens nicht trivial ist). Die Vorstellung, dass man o9 einfach einsetzt und sofort eine integrierte Planung erhält, ist daher optimistisch. Es ist zwar im Allgemeinen schneller als die Implementierung mehrerer separater Tools, aber nicht „instantan“. Dennoch sollten wir o9’s Leistungen nicht abtun: Sie haben tatsächlich moderne Technologie und eine ansprechende Benutzeroberfläche in einen Bereich gebracht, in dem dies dringend nötig war, und viele Kunden sind zufrieden. Wahrscheinlich liefern sie tatsächlich eine wesentlich bessere Planungskapazität als die bisherigen Systeme der Kunden. Der Hype ist also teilweise gerechtfertigt – o9 ist ein Planungssystem der nächsten Generation. Entscheidend ist, ihre Aussagen zu hinterfragen: Wenn sie sagen, „unsere AI wird Ihr Geschäft autonom optimieren“, sollte man das mit Vorsicht betrachten. Stattdessen lautet die Botschaft: „Unsere Plattform ermöglicht es Ihnen, Ihr Geschäft besser zu modellieren und zu optimieren, aber Ihr Team bleibt in den Steuerungsprozess eingebunden.“ Wir empfehlen potenziellen Kunden, konkrete Demos oder Nachweise für hochtrabende Behauptungen einzufordern, insbesondere hinsichtlich AI-gesteuerter Prognosegenauigkeit oder ROI-Verbesserungen. Das Fundament ist stark; wie es eingesetzt wird, entscheidet über den Erfolg. Zusammenfassend ist o9’s Marketing in Bezug auf Schlagwörter durchaus aggressiv, weshalb wir zu gesunder Skepsis raten. Gleichzeitig verfügen sie aber über eine leistungsstarke Plattform, die einen erheblichen Teil ihrer Behauptungen untermauert – man sollte jedoch beachten, dass nicht alles, was als „AI“ bezeichnet wird, auch wirklich innovative KI ist (manches ist einfach nur effiziente Berechnung). Wir bewerten o9 in puncto Marketing-Ehrlichkeit moderat: Es gibt echte technologische Innovation, aber sie treiben den Hype-Faktor mehr voran als andere, was eine sorgfältige Due Diligence von Käufern erfordert.

Zusammenfassung: o9 Solutions bringt eine beeindruckend breite und integrierte Plattform in die Optimierung des Einzelhandels ein, mit dem Ziel, als „digitales Gehirn“ zu fungieren, das Merchandising, supply chain und Preisentscheidungen miteinander verbindet. Die Knowledge Graph-Architektur und die In-Memory-Engine ermöglichen schnelle, gleichzeitige Planungen und umfangreiche Szenarioanalysen, wie sie nur wenige Systeme bieten. o9 unterstützt die gemeinsame Betrachtung von Preisgestaltung, Nachfrage und Versorgung, wodurch es möglich wird, Sortiments- und Preisstrategien mit Bestands- und supply chain-Einschränkungen in einem Tool in Einklang zu bringen – eine Vision eines echten IBP. Es nutzt AI/ML in der Prognose und Analyse, wobei der Fortschritt hier umstritten ist 42. Das System kann sicherlich komplexe Faktoren und große Datensätze einbinden, wenn auch mit hohem rechnerischem Aufwand. Skalierbarkeit entspricht Unternehmensstandards (eingesetzt von multi-milliarden Dollar-Unternehmen), doch Kosten-Effizienz könnte problematisch sein (der In-Memory-Ansatz kann hardwareintensiv sein) 4. o9 stärkt Planer durch die Automatisierung von Berechnungen und Szenarioplanung, auch wenn es häufig eher ein Entscheidungsunterstützungssystem als ein vollständig autonomer Entscheidungsträger ist. Technologisch betrachtet handelt es sich um eine in-house entwickelte, kohäsive Plattform, die die Fallstricke von Frankenstein-Suites vermeidet. Die wesentlichen Kritikpunkte sind seine Neigung zum Hype – einige Behauptungen von magischer KI oder „sofortiger“ Transformation sollten kritisch gesehen werden – und die Komplexität der Implementierung eines derart umfassenden Systems. Für zukunftsorientierte Organisationen, die in eine einheitliche Planungsplattform investieren wollen, ist o9 ein Spitzenkandidat, der zukunftssichere Architektur und Flexibilität bietet. Doch ein erfolgreiches o9-Projekt erfordert, den Marketing-Schein von der Realität zu trennen und sicherzustellen, dass die Lösung wirklich so konfiguriert wird, dass ihr volles Potenzial genutzt wird (anstatt alte Prozesse auf ein glänzendes neues System zu übertragen). In unserer skeptischen Bewertung erzielt o9 hohe Punkte in Vision und Integration, moderate in der nachgewiesenen KI-Differenzierung und benötigt eine sorgfältige Prüfung seiner buzzword-lastigen Versprechen. Es bleibt eine der fortschrittlicheren Plattformen – man sollte nur mit offenen Augen darauf zugehen, um sicherzustellen, dass der Inhalt dem Verkaufsgespräch entspricht.

Quellen: Kritik am In-Memory-Design und den KI-Behauptungen von o9 4; o9’s integrierte RGM-(Preisgestaltungs-) und Planungsplattform-Behauptung 41; Blue Yonder’s Perspektive zur Nutzung von Daten, um den Preisauswirkungseffekt mit dem Inventar zu verknüpfen (als ein ähnlicher Ansatz, den o9 verfolgen würde) 27.


4. ToolsGroup – Bewährte Bestandsoptimierung, die sich zu einer einheitlichen Retail-Planung (mit AI-Erweiterungen) entwickelt

ToolsGroup ist ein etablierter Anbieter (gegründet 1993), der historisch für seine Service Optimizer 99+ (SO99+) Software bekannt ist, welche sich auf Nachfragprognosen und Bestandsoptimierung konzentriert. Das Unternehmen hat eine starke Tradition in der Fertigung und Distribution, betreut aber auch viele Einzelhandels- und Konsumgüterkunden im Bereich der Nachschubplanung. In den letzten Jahren hat ToolsGroup seine Fähigkeiten durch Übernahmen ausgebaut – insbesondere durch die Akquisition der JustEnough Retail-Planungssuite und eines AI-Unternehmens namens Evo – um eine vollständigere Retail-Optimierungsplattform anzubieten, die Sortiments- und Merchandising-Planung, Nachfragprognose, Bestandsoptimierung und nun auch Preisoptimierung 46 47 umfasst. Das Markenzeichen von ToolsGroup war schon immer der Einsatz der probabilistischen Prognose für die Bestandsplanung sowie eine Philosophie der hochautomatisierten, „service-level-gesteuerten“ supply chain-Planung. Jetzt, mit den akquirierten Modulen und AI-Erweiterungen, zielt das Unternehmen darauf ab, Bestands- und Preisgestaltung gemeinsam zu optimieren und eine durchgängige Retail-Planung bereitzustellen (sie bezeichnen dies als „Decision-Centric Planning“). Wir bewerten ToolsGroup als einen soliden, technisch versierten Akteur mit tiefgehender Expertise in der Bestandsoptimierung, weisen jedoch darauf hin, dass sich das Unternehmen im Übergang befindet, neue Komponenten zu integrieren. Es überzeugt in bestimmten Bereichen (Prognoseunsicherheit, Automatisierung), bedarf aber einer genauen Prüfung, wie wirklich einheitlich und modern die kombinierte Lösung ist (einige Marketingaussagen zu „AI“ haben Skepsis hervorgerufen 19).

Gemeinsame Optimierung: Historisch fokussierte sich ToolsGroup auf die Bestandsseite – den richtigen Lagerbestand sicherzustellen, um den angestrebten Service zu erreichen, unter Berücksichtigung von Unsicherheiten. Preisgestaltung und Sortiment lagen nicht in ihrem Fokus. Mit der Übernahme von JustEnough (ein Spezialist für Merchandise-Finanzplanung, Sortiment und Zuteilung) und der Integration der Preisoptimierungs-KI von Evo wirbt ToolsGroup nun mit der Fähigkeit, Preisgestaltung und Bestände gemeinsam zu optimieren. Zum Beispiel umfasst ihr neues Angebot eine Retail Pricing Software, die simulieren kann, wie sich Preisänderungen auf die Nachfrage auswirken und diese auf den Umsatz hochrechnet 48 49 – und das Wichtigste: sie tut dies mit vollständiger Sicht auf die Bestandsniveaus 49. Die Integration von Preisgestaltung und Beständen bedeutet, dass das System über den aktuellen Lagerbestand Bescheid weiß, wenn es Preisanpassungen vorschlägt – ein Muss für die gemeinsame Optimierung (es hat beispielsweise wenig Sinn, den Preis zu senken, wenn kein Lager vorhanden ist). Sie betonen, dass ihr Preistool „einen vollständigen Überblick über den aktuellen Bestand und die Verkaufsrate“ bietet, sodass Preisentscheidungen im Kontext des Bestands in der supply chain getroffen werden 49 50. Dies deutet auf einen koordinierten Ansatz hin: Wenn der Lagerbestand hoch ist, könnte das System Preisnachlässe auslösen; wenn der Bestand knapp ist, könnte es den Preis halten oder sogar eine Erhöhung vorschlagen (falls dies in die Strategie passt). Zusätzlich sieht der Fahrplan von ToolsGroup mit Evo vor, dynamische Preisoptimierung, die in die Bestandsplanung einfließt 51 52 zu realisieren. Evo’s KI war darauf spezialisiert, Preis- und Bestandsentscheidungen zu verknüpfen – ihr CEO erklärte, dass das Ziel sei, „optimale Preis- und Bestandsberechnungen“ Hand in Hand zu liefern, um bessere Entscheidungen entlang der Wertschöpfungskette zu ermöglichen 53. Dies deutet auf einen einheitlichen Optimierungsalgorithmus oder zumindest eng gekoppelte Algorithmen hin: einen, der den Preis ermittelt, der bei gegebenen Bestandsgrenzen und erwarteter Nachfrage den Gewinn maximiert, und einen, der den Bestandsplan ermittelt, der diese Nachfrage bei den gewählten Preisen unterstützt. Es ist noch früh – Evo wurde Ende 2023 übernommen 47, daher ist die Integration vermutlich noch im Gange – aber ToolsGroup beabsichtigt eindeutig, Preis- und Bestandsoptimierung unter einem Dach zu vereinen, statt sie als sequentielle Schritte zu behandeln. Beim Sortiment stellt die JustEnough-Komponente Werkzeuge für die Sortiments- und Zuteilungsplanung bereit (Entscheidung, welche Produkte in welche Geschäfte gelangen, wie der Anfangsbestand zugeteilt wird usw.). Diese stehen nun neben der Nachfrageprognose und der Wiederauffüllung. Ist die Integration gelungen, bedeutet das, dass ToolsGroup den gesamten Produktlebenszyklus optimieren kann: das Sortiment planen, erste Zuteilungen vornehmen, die Nachfrage prognostizieren, den Bestand überwachen und auffüllen sowie die Preisgestaltung (Preisnachlässe) gegen Ende des Lebenszyklus anpassen. Alle Komponenten sind theoretisch vorhanden. Die Frage ist, wie reibungslos sie zusammenarbeiten. Da es sich um getrennte Produkte handelte, mag die Integration noch nicht nahtlos sein (obwohl ToolsGroup von einer „modularen Lösungsarchitektur“ spricht, die sie kohärent zusammenfügt 54). Wir vermuten, dass die gemeinsame Optimierung bei ToolsGroup derzeit eher sequentiell abläuft (das Preismodul übernimmt eine Prognose des Prognosemoduls, optimiert die Preise; das Bestandsmodul übernimmt die resultierende Nachfrage und optimiert den Lagerbestand). Mit der fortschrittlichen Analytik von Evo könnten diese im Laufe der Zeit in einen einzigen Regelkreis übergehen, der direkt den Gewinn optimiert (Preis und Menge). Vorerst geben wir ToolsGroup Anerkennung dafür, dass sie sich stark in Richtung gemeinsamer Optimierung bewegen – nur wenige Anbieter in ihrer Kategorie verfügen überhaupt über sowohl Preis- als auch Bestandsoptimierung. Einige erste Ergebnisse: ToolsGroup (mit Evo) arbeitete mit Einzelhändlern wie Decathlon an der Preisgestaltung zusammen und verzeichnete Margensteigerungen bei gleichzeitiger Beachtung von Bestandsgrenzen 55 56 (Fallbeispiele deuten auf iterative A/B-Tests hin, um optimale Preise zu finden, die die Marge verbessern, ohne das Markenimage zu schädigen, und dies bestandsbewusst erfolgen lassen). Das ist eine praxisnahe Form der gemeinsamen Optimierung (Preisprüfung, geleitet von Bestands- und Margendaten). Zusammenfassend entwickelt sich ToolsGroup rasant von einem Nischenanbieter für Bestandsoptimierung zu einer ganzheitlichen Retail-Optimierungs-Suite. Es liegt vermutlich noch hinter Lokad oder o9 zurück, was den Grad der Integration betrifft, aber es ist auf dem richtigen Weg und deckt bereits die drei Säulen ab (Bestand, Preisgestaltung, Sortiment).

Probabilistische Prognose & KI: ToolsGroup war ein Vorreiter in der probabilistischen Nachfrageprognose für die supply chain. Lange bevor es trendy wurde, generierte SO99+ Nachfrageverteilungen anstatt einzelner Zahlen, wodurch es in der Lage war, optimale Bestände für eine angestrebte Servicewahrscheinlichkeit zu berechnen. Dieser Ansatz unterscheidet sich von vielen älteren Tools, die Durchschnittsprognosen und Sicherheitsbestandsformeln verwendeten. ToolsGroup verfügt über umfangreiches IP in diesem Bereich – beispielsweise durch den Einsatz von Monte-Carlo-Simulationen oder analytischen Wahrscheinlichkeitsmodellen, um die Nachfrageschwankungen pro SKU vorherzusagen und daraus Bestandsstrategien abzuleiten. Dies war eine ihrer wesentlichen Stärken; Kunden erzielten oft hohe Servicelevels bei gleichzeitig niedrigerem Lagerbestand, da die Methoden von ToolsGroup die Unsicherheit besser abbildeten (im Vergleich zu simplen Sicherheitsbestandsansätzen). Sie setzen weiterhin darauf, den Markt über den Wert probabilistischer Prognosen aufzuklären (ihre Materialien bezeichnen sie als unerlässlich in unsicheren Umgebungen 57). Allerdings ein kritischer Hinweis: In der Vergangenheit berichtete ToolsGroup oft Metriken wie MAPE an Kunden und in der Werbung. Lokads Analyse wies auf eine Inkonsistenz hin, bei der ToolsGroup seit 2018 probabilistische Prognosen bewirbt, während gleichzeitig eine MAPE-Reduktion beansprucht wird, obwohl „MAPE bei probabilistischen Prognosen nicht anwendbar ist.“ 19. Das impliziert entweder, dass ihr Marketing der Methodik noch nicht angepasst war (indem eine bekannte Metrik verwendet wurde, auch wenn diese nicht ganz passt), oder dass sie möglicherweise noch einen erwarteten Wert für Vergleichszwecke generieren. In jedem Fall bekennen sie sich klar zur probabilistischen Denkweise. Im Bereich KI/ML hat ToolsGroup vermehrt maschinelles Lernen integriert, um Nachfragetreiber und Muster zu erkennen. Traditionell war ihre Prognose eher statistisch (wie etwa die Croston-Methode für intermittierende Nachfrage, etc.), doch mittlerweile bieten sie Funktionen wie die Einbeziehung von kausalen Faktoren, Regressionen für Promotionen und sogar maschinelle Lernensemble. Die Übernahme von Evo bringt sehr moderne KI mit – Evo’s „quantum learning“ ist im Grunde ein fortschrittlicher ML-Algorithmus (möglicherweise ein proprietäres Ensemble- oder Reinforcement-Learning-Verfahren), der darauf abzielt, rasch optimale Entscheidungen zu finden 58. Die Integration von Evo durch ToolsGroup besagt ausdrücklich, dass sie „nichtlineare Optimierung, quantum learning und fortschrittliche präskriptive Analysen“ zu ihren Lösungen hinzufügen 52. Das deutet auf einen Schub in der KI-Komplexität hin, insbesondere bei Preis- und Promotionsentscheidungen, die von Natur aus nicht-linear sind. Außerdem erwarben sie vor einigen Jahren ein Unternehmen namens AI.io (ehemals Halo Business Intelligence), welches ihnen eine KI-gesteuerte Nachfrageprognose-Werkbank lieferte. ToolsGroup treibt die Integration von KI also deutlich voran. Allerdings wurde ihr KI-Marketing manchmal als etwas zweifelhaft wahrgenommen, wie die Lokad-Studie feststellte: „ToolsGroup verfügt über umfangreiche Fähigkeiten, jedoch sind ihre Behauptungen zu ‚KI‘ zweifelhaft. Öffentliches Material verweist auf Prognosemodelle aus der Zeit vor 2000. Behauptungen über ‚Demand Sensing‘ werden in der wissenschaftlichen Literatur nicht gestützt.“ 19. Das impliziert, dass ToolsGroup bis vor kurzem möglicherweise im Wesentlichen Jahrzehnte alte Prognosemethoden (wie Croston, ARIMA) als „KI“ neu verpackte, ohne wirklich moderne ML-Techniken umzusetzen. Und dass ihre Verwendung von Begriffen wie „Demand Sensing“ (wie in Broschüren erwähnt) nicht durch etwas Innovatives untermauert wurde. Dies nehmen wir als Warnung, die KI-Behauptungen von ToolsGroup kritisch zu hinterfragen. Mit der neuen Ergänzung von EvoAI (2023) erwarten wir jedoch, dass die KI-Substanz von ToolsGroup zugenommen hat – Evo war ein junges Unternehmen, das in ML für Preis und Bestand verwurzelt war, und ToolsGroup hebt konkrete neue Features daraus hervor (z. B. automatisierte Modellauswahl, reaktionsfähige Algorithmen, die sich an aktuelle Veränderungen anpassen, etc.). Auch der probabilistische Ansatz von ToolsGroup selbst ist eine Art KI (stochastisches Modellieren), auch wenn er nicht als „Machine Learning“ im klassischen Sinne gilt – es ist eine ausgeklügelte Analytiktechnik, die viele andere nicht haben. In Sachen Prognosekompetenz ist ToolsGroup stark. Im Bereich neuer KI holen sie zu ihren Mitbewerbern auf. Insgesamt liefert ToolsGroup verlässliche Prognosequalität und nun mehr Einblick in Nachfragetreiber sowie Preis-Nachfrage-Zusammenhänge dank ML. Wir vergeben ihnen eine hohe Bewertung in probabilistischen Prognosen (einer der wenigen, die dies umfassend praktizieren) und eine mittlere Bewertung in KI-Innovation (sie verbessern sich, haben aber eine Geschichte des etwas überzogenen Hypes). Die Kombination von Alt und Neu kann mächtig sein, wenn sie richtig umgesetzt wird: Beispielsweise ML einzusetzen, um eine Musteränderung (etwa durch COVID) zu erkennen, und dann das probabilistische Modell zur Anpassung der Bestandsziele zu nutzen. ToolsGroup verfolgt vermutlich solche hybriden Ansätze.

Wirtschaftliche Entscheidungsfindung: Traditionell wurde der Ansatz von ToolsGroup im Bereich Bestände als Service-Level-Optimierung verstanden – man legt einen Zielservice oder eine Auslastungsrate fest und ihr Algorithmus findet den minimalen Lagerbestand, um dieses Ziel unter Unsicherheit zu erreichen. Das ist indirekt wirtschaftlich (besserer Service vermeidet entgangene Verkäufe, geringerer Lagerbestand senkt Lagerkosten), maximiert aber nicht explizit den Gewinn. Sie haben jedoch Multi-Echelon Inventory Optimization (MEIO) integriert, die von Natur aus den Lagerbestand gegen Rückstandskosten usw. abwägt – eine wirtschaftlich fundierte Optimierung. Mit ihrer neueren Vision rückt die Profitabilität stärker in den Vordergrund. Der CEO von ToolsGroup erklärte, dass die Kombination mit JustEnough darauf abzielt, Einzelhändlern „einen 360-Grad-Blick zu bieten, der in Echtzeit, vorausschauend und umsetzbar ist… Kunden können die Produktverfügbarkeit effizienter verbessern und im Management der heutigen volatilen Nachfrage den Wettbewerb übertreffen.“ 59. Während dieses Zitat Service und Agilität betont, ist die PR rund um die Evo-Übernahme direkter: „(Er) erweitert unsere Führungsposition mit dynamischer Preisoptimierung… und ermöglicht uns den nächsten Schritt hin zu Decision-Centric Planning … was entscheidend ist, um die autonome supply chain der Zukunft zu liefern.“ 52. Der Begriff „decision-centric“ impliziert, dass der Fokus auf dem Ergebnis der Entscheidung liegt (oft im finanziellen Sinne). Der Gründer von Evo sprach davon, die Vision für „intelligentere Entscheidungen für menschliche Manager durch optimale Preis- und Bestandsberechnungen“ zu gestalten 53 – das bedeutet eindeutig, dass die Optimierung dazu dient, ein Ziel (wahrscheinlich Gewinn oder Umsatz) zu maximieren, statt nur Serviceziele zu erreichen. Tatsächlich heißt es: „Evo’s responsive AI liefert ein wesentliches Element, um die autonome supply chain zu realisieren“ 58 – vermutlich besteht dieses Element darin, kontinuierlich Entscheidungen basierend auf den Ergebnissen anzupassen, was einer Maximierung von Leistungskennzahlen gleichkommt. Auf der Preisgestaltung ist die Profitabilität offensichtlich entscheidend – ToolsGroups Preislösung zielt darauf ab, „die Profitabilität durch eine datengesteuerte Preisstrategie zu maximieren“ 60. Sie erlaubt regelbasierte Preisgestaltung, nutzt aber auch ML, um auf Verschiebungen in der Verbrauchernachfrage zu reagieren und den „Gewinnmargenbetrag innerhalb festgelegter Grenzen zu maximieren“ 61. Die Aussage „Es können unterschiedliche Preise festgelegt werden… bei einem vollständigen Überblick über … Bestand und Verkaufsrate, was hilft, die Nachfrage zu bedienen und die Kosten in der supply chain zu minimieren.“ 49 zeigt, dass das Preistool nicht isoliert auf die Marge schaut, sondern auch die Lagerhaltungskosten und möglicherweise die Vermeidung von Preisnachlässen berücksichtigt. Das ist wirtschaftliches Denken – Preisentscheidungen, die Kosten der supply chain mit einbeziehen. Im Bereich Bestände kann ToolsGroup auch die Kosten der Lagerhaltung versus die Kosten eines Ausverkaufs einbeziehen, sofern konfiguriert, und so den Servicelevel wirtschaftlich optimieren. Tatsächlich können Serviceziele auch aus einem ökonomischen Modell abgeleitet werden (z. B. ein höherer Service für margenstarke Produkte). Es ist unklar, ob ToolsGroup dies explizit tut, aber Kunden führen oft eine solche Klassifizierung extern durch. Mit der präskriptiven Analytik von Evo erwarten wir, dass ToolsGroup künftig gewinnoptimale Entscheidungen empfiehlt (zum Beispiel, wie viel Bestand vorgehalten werden soll und zu welchem Preis, um unter Unsicherheit den erwarteten Gewinn zu maximieren). Die Bausteine sind vorhanden, und das Team von Evo brachte vermutlich diese Methodik mit (ihre akademischen Hintergründe deuten auf Expertise im Operations Research hin). Ein kleiner Warnhinweis: Die Kommunikation von ToolsGroup bezieht sich häufig noch auf traditionelle KPIs (Service, Bestandsreduktion) statt direkt auf den Gewinn. Aber das ist in der Supply-Chain-Branche nicht ungewöhnlich. Wir haben Indizien, dass sie die Profitabilität stärker berücksichtigen – beispielsweise die Assortment Rationalization-Funktion (wahrscheinlich von JustEnough), um unrentable SKUs zu streichen und das Sortiment an den finanziellen Beitrag anzupassen. Auch die Kundengeschichten erwähnen sowohl Bestandsreduktion als auch verbesserte Verkäufe/Service (was sich in Gewinnsteigerungen niederschlägt). Es gibt kein öffentliches Beispiel dafür, dass ToolsGroup direkt einen Gewinn-Metrik maximiert, aber die Kombination von Preis- und Bestandsoptimierung tendiert in diese Richtung. Wir werden ToolsGroup in diesem Bereich relativ hoch bewerten, wobei wir ihre langjährige Herangehensweise „Service zu minimalen Kosten“ und den neuen Vorstoß in die margenbasierte Preisgestaltung berücksichtigen. Vielleicht sind sie noch nicht so fixiert auf Opportunitätskosten wie Lokad, aber sie gehen definitiv über einfache Heuristiken hinaus. Ein Kritikpunkt, den man anmerken sollte: Lokads Analyse deutete darauf hin, dass die Materialien von ToolsGroup etwas veraltet wirken – etwa durch den Einsatz von MAPE, was darauf schließen lässt, dass sie noch nicht vollständig in erwartete Kostenausdrücke übergegangen sind 62. Dennoch signalisiert die Ergänzung von Evo sowie der Hinweis auf „die allerbesten finanziellen Ergebnisse“ 63 für Kunden, die eine kombinierte Preis- und Bestandsoptimierung anwenden 63, einen starken Fokus auf wirtschaftliche Zielsetzungen.

Skalierbarkeit & Kosteneffizienz: ToolsGroups ursprüngliches SO99+ wurde typischerweise vor Ort oder als gehostete Lösung von mittelgroßen bis großen Unternehmen eingesetzt. Es ist nicht so ressourcenintensiv wie einige große APS-Systeme; von vornherein lag der Fokus auf den „schwierigen Teilen“ (Prognose, Bestandsberechnungen) und nicht auf einer gigantischen Datenintegration. Viele mittelständische Firmen setzten es erfolgreich ein. Es ist mathematisch recht optimiert, was bedeutet, dass der Rechenaufwand für die Bestandsoptimierung nicht enorm ist (die Lösung der Bestandsverteilung erfolgt über Algorithmen und möglicherweise lineare Programmierung für mehrstufige Systeme). Für die Nachfrageprognose verfügten sie über eine eigene Engine, die – beispielsweise – über Nacht eine große Anzahl von Zeitreihen verarbeiten konnte. Jetzt bieten sie eine vollständige Cloud-SaaS-Option an, die sich wahrscheinlich leichter skalieren lässt, wenn dies erforderlich ist. Im Gartner-Bericht 2024 war ToolsGroup ein Neuling und wurde für seine „erschwinglichen Einstiegskosten“ und „transparente Preisgestaltung“ sowie dafür gelobt, als einzige globale Lösung für einige Kunden eingesetzt zu werden (was andeutet, dass es global skaliert werden kann) 64 65. Dies legt nahe, dass ToolsGroup in seiner Kategorie als relativ kosteneffizient und skalierbar angesehen wird. Tatsächlich bedeutete ihr historischer Fokus auf den Mittelstand, dass sie standardmäßig sofort einsatzbereit sein mussten und nicht auf eine Armee von IT-Spezialisten angewiesen waren. Im Einzelhandel können die Datenvolumina sehr groß sein (auf Filial- und Artikel-Ebene). JustEnough (das übernommene Einzelhandelssystem) war dafür bekannt, große Einzelhändler – wie beispielsweise Sephora – zu bedienen, weshalb es umfangreiche Sortimente managen kann. Allerdings können manche Aspekte wie die Preisoptimierung (wenn feingranulare Filialpreise berechnet werden müssen) datenintensiv werden. Es ist wahrscheinlich, dass der typische Einsatz von ToolsGroup immer noch etwas batch-orientiert ist – etwa durch nächtliche oder wöchentliche Neuprognosen und Bestandsaktualisierungen – und nicht in Echtzeit erfolgt, was für viele Kontexte ausreichend ist. Das bedeutet, dass nicht zwingend alles 24/7 im Arbeitsspeicher vorhanden sein muss; es kann berechnet und der Speicher anschließend freigegeben werden. Dies ist kosteneffizienter als ein ständiger In-Memory-Ansatz. Andererseits könnte es zur Integration mit dynamischer Preisgestaltung notwendig sein, häufigere Rechenzyklen durchzuführen. Sie werben mit „reaktiver KI“ mit Evo, was schnellere Neuberechnungen bei sich ändernden Bedingungen ermöglicht 58. Die Technologie von Evo könnte nahezu in Echtzeit eine Re-Optimierung erlauben (Evo, als Startup, nutzte vermutlich Cloud-Services und möglicherweise GPU-Computing für mehr Geschwindigkeit). ToolsGroup erwarb zudem 2022 Onera für Echtzeit-Bestandsübersicht und Optimierung der Auftragsabwicklung 66, was darauf hindeutet, dass sie in Echtzeit auch E-Commerce-Auftragsentscheidungen unterstützen. Diese Erweiterungen könnten den erforderlichen Rechenaufwand erhöhen. Angesichts ihrer Marktpositionierung würde ToolsGroup dies jedoch effizient umsetzen wollen, um nicht nur Megasupermärkte, sondern auch mittelgroße Einzelhändler anzusprechen. Die Architektur ist mittlerweile etwas modular aufgebaut: der SO99+-Kern (vielleicht in C++) plus umgebende Cloud-Services, die mit den JustEnough-Modulen (möglicherweise in .NET oder Java) verbunden sind. Die Integration dieser Systeme könnte vorübergehend zusätzlichen Overhead bedeuten (zwei Systeme, die miteinander kommunizieren). Doch ToolsGroup integriert aktiv – z. B. „Dank der kürzlich integrierten EvoAI-Engine führt JustEnough den Weg in der KI-gestützten Einzelhandelsplanung an“ 67 –, was darauf hindeutet, dass Evo in die JustEnough/ToolsGroup-Lösung eingebunden wird, anstatt separat zu bleiben. Der Fußabdruck von ToolsGroup ist generell leichter als der von SAP oder Blue Yonder. Beispielsweise erfordert ein ToolsGroup-Projekt möglicherweise kein internes IT-Team, um riesige Server zu managen – sie erledigen dies via SaaS. Sie betonen, dass die „modulare Architektur es Kunden erleichtert, die benötigten Produkte auszuwählen und zu einer stimmigen Lösung zusammenzufügen“ 54 – was impliziert, dass man nicht alles laden muss, wenn es nicht benötigt wird, was wiederum die Skalierbarkeit unterstützt (man kann nur die Bestandsoptimierungs-Engine betreiben, wenn nur diese benötigt wird). Zusammengefasst ist ToolsGroup mäßig skalierbar (geeignet für viele große Einzelhändler, wenn auch möglicherweise noch nicht auf dem Niveau der größten globalen Hypermarktketten) und tendenziell kosteneffizient (vor allem aufgrund der transparenten Preisgestaltung und der Automatisierung, die den Planungsaufwand reduziert). Sie sind vielleicht nicht so blitzschnell wie ein vollständig im Speicher arbeitendes System für riesige Datenmengen, erfordern aber auch nicht astronomische Ressourcen, um Ergebnisse zu liefern. Angesichts der positiven Hinweise von Gartner bezüglich der Kosten und der zahlreichen mittelgroßen bis großen Kunden von ToolsGroup betrachten wir sie als relativ effizient. Zudem erwähnen sie ein „Inventory Hub“-Angebot zur Echtzeit-Erkennung von supply chain-Ereignissen 65, was zeigt, dass sie sich für Echtzeitanwendungen modernisieren, ohne vermutlich auf überwältigende Hardware angewiesen zu sein (wahrscheinlich durch Streaming-Verfahren). Es gibt nur wenige öffentliche Beschwerden über die Performance von ToolsGroup, was in der Regel impliziert, dass sie ausreichende Leistungen erbringt. Somit schneidet ToolsGroup in diesem Kriterium gut ab, wobei sich allerdings vorübergehende Belastungen bei der Integration mehrerer Akquisitionen nur unterschwellig bemerkbar machen könnten, falls die Optimierung nicht stimmt.

Umgang mit komplexen Einzelhandelsfaktoren: ToolsGroup zeichnete sich historisch durch den souveränen Umgang mit Nachfrageunsicherheit und Variabilität aus – etwa bei sporadischer Nachfrage, langsam drehenden Artikeln und Schwankungen in der Versorgung. Es war möglicherweise nicht so spezialisiert auf einzelhandelspezifische Phänomene wie Kannibalisierung oder Haltbarkeitsprobleme von vornherein. Mit der JustEnough-Suite erwarben sie jedoch Fachkompetenzen im Einzelhandelsbereich: JustEnough bot unter anderem Prognosen für Promotionen, Allokationen (die unter anderem Filialkapazitäten und Merchandising berücksichtigen) sowie Preisabschlagsplanungen. ToolsGroup verfügt somit über Funktionen für Promotionen – beispielsweise kann das System den Auftrieb einer Aktion modellieren und über die Zeit verteilen, was auf grundlegende Weise auch Kannibalisierung adressiert (indem frühe Verkäufe durch eine Promotion spätere Perioden herunterzuzählen beginnen). Erkennen sie automatisch Kannibalisierung zwischen Artikeln? Möglichweise nicht in demselben Maße wie RELEX, aber sie können bekannte Promotionseffekte berücksichtigen. Bei Substitutionseffekten (Ladenschließungen, die zu Verkäufen alternativer Artikel führen) hat ToolsGroup in den vorliegenden Materialien keinen besonderen Hinweis gegeben – dies könnte ein Manko bleiben, sofern nicht manuell konfiguriert. Hinsichtlich der Halo-Effekte (Komplementärprodukte) ist es vermutlich ähnlich – es müsste entweder manuell eine Beziehung modelliert oder ein KI-Ansatz genutzt werden. Dies ist ein Bereich, in dem ihre neue KI (Evo) helfen könnte, indem Korrelationen gefunden werden. Die Engine von Evo könnte möglicherweise Transaktionsdaten analysieren, um Prognosen oder Preisstrategien für zusammenhängende Artikel anzupassen. Ohne spezifische Belege gehen wir davon aus, dass ToolsGroup diese Aspekte mit einigem Aufwand handhaben kann, auch wenn sie historisch nicht ihre stärkste Seite waren. Haltbarkeit und verderbliche Waren: ToolsGroup hatte zwar einige Kunden im Lebensmitteldistributionssegment, aber es ist unklar, ob sie auf Filialebene eine frische Optimierung bieten. Wahrscheinlich ist dies nicht ihr primärer Fokus. Sie können Lieferzeiten und Losgrößen berücksichtigen, aber bei Haltbarkeitsproblemen müssten explizite Modelle herangezogen werden (z. B. könnte ablaufender Bestand als separater Artikel betrachtet oder die Prognose im Zeitverlauf angepasst werden). Das JustEnough-Allokationsmodul könnte saisonale Produkte managen (indem sichergestellt wird, dass sie mittels Preisabschlägen bis Saisonende abverkauft werden), was dem Konzept der verderblichen Waren im Prinzip entspricht. Tatsächlich geht es bei der Preisabschlagsoptimierung (Teil von JustEnough) im Wesentlichen darum, den Zeitpunkt von Preisnachlässen so zu timen, dass überschüssige Bestände rechtzeitig abverkauft werden – was dem Umgang mit „Ablauf“ am Ende einer Saison nahekommt. Das Preismodul von ToolsGroup unterstützt dies, indem es empfiehlt, wann und in welchem Umfang Preisabschläge vorgenommen werden sollten, um Überalterung zu vermeiden und gleichzeitig den Umsatz zu maximieren 49. Somit adressiert es den ökonomischen Aspekt von Verderblichkeit (Ausverkauf zur Vermeidung von Abfall). In Bezug auf Sortimentslokalisierung ermöglicht die Planungssoftware von JustEnough die Clusterung von Filialen und die Anpassung der Sortimente, sodass ToolsGroup Sortimente an lokale Nachfragemuster und Flächenbeschränkungen angleichen kann. Dies adressiert Kannibalisierung indirekt (wenn zwei Artikel sich gegenseitig kannibalisieren, könnte die Sortimentsoptimierung in kleineren Filialen beispielsweise nur einen von beiden wählen). Flächenbeschränkungen und Produktpräsentation: ToolsGroup kann über JustEnough modellieren, wie viele Regaldisplays oder -flächen in einer Filiale vorhanden sind, was wiederum Allokations- und Auffüllentscheidungen beeinflusst (wenn ein Regal nur X Einheiten fasst, sollten nicht mehr als X Einheiten geliefert werden). Es ist zwar nicht so detailliert wie eine Planogramm-Lösung, aber auf Planungsebene ist dies abgedeckt. Promotionen: ToolsGroup behandelt die Prognose von Promotionen und kann den Bestand für Promotionen planen (es gibt Fallstudien, in denen sie halfen, die Verfügbarkeit während Aktionen zu verbessern). Die neue KI dürfte dazu beitragen, die Vorhersage von Promotionseffekten durch genauere Analyse vergangener Aktionen zu optimieren (ähnlich wie kurzfristiges Demand Sensing, wobei Lokad die Ansprüche des „Demand Sensing“ damals als unzureichend untermauerte 68). Kannibalisierung/Halo: Speziell zu diesen Effekten fanden sich keine direkten Hinweise, sodass dies weiterhin auf das Fachwissen der Planer angewiesen sein könnte. Die Philosophie von ToolsGroup war schon immer darauf ausgerichtet, das Leben der Planer zu vereinfachen – sie setzten auf Automatisierung, damit Planer nur bei Ausnahmen eingreifen müssen. Es gibt Hinweise darauf, dass sie Ausnahmen bei Lagerleerständen oder abnormen Verkaufszahlen identifizieren, jedoch ist unklar, ob diese direkt mit Substitutionslogik verknüpft werden. Zusammenfassend bewerten wir ToolsGroup im Umgang mit komplexen Einzelhandelsfaktoren als kompetent, aber nicht führend. Sie decken die Grundlagen der Einzelhandelsplanung (Nachfragevariabilität, Promotionen, End-of-Life) gut ab und sind in der Sortimentsplanung solide, holen aber bei fortschrittlichen Aspekten (z. B. ML-gestützte Modellierung von Kannibalisierung oder Substitution) noch auf.

Automatisierung: ToolsGroup hat sich stets auf Automatisierung und „unbeaufsichtigte“ Planung fokussiert. Ein Verkaufsargument von SO99+ war, dass es automatisch Lagerstrategien festlegte und Nachschubaufträge mit minimalem Eingriff der Planer generierte. Viele Kunden berichten, dass sie nach der Implementierung von ToolsGroup wesentlich weniger Zeit mit der Behebung von Prognose- oder Bestandsproblemen verbringen, da das System sich automatisch an Änderungen anpasst und lediglich Ausnahmen meldet. Begriffe wie „selbstadaptiv“ zur Beschreibung ihrer Prognose deuten darauf hin, dass das System eigenständig auf neue Nachfragemuster reagiert, sodass ständige manuelle Eingriffe in die Prognosen entfallen. Das Konzept „Powerfully Simple“ (einer ihrer Slogans) zielte darauf ab, die Aufgaben der Planer durch Automatisierung zu vereinfachen. In der Praxis läuft ein ToolsGroup-Setup oft über nächtliche Batch-Prozesse, die Prognosen und Bestandsziele aktualisieren, woraufhin Bestellungen für jeden Artikel vorgeschlagen werden. Planer überprüfen dann nur jene Artikel, die als Ausnahme hervortreten (zum Beispiel bei sehr niedrigem Servicegrad oder überhöhten Beständen). Dies entspricht im Wesentlichen einem lights-out planning für einen Großteil des Sortiments. In einem Fall berichtete ein Kunde (laut früheren Marketingangaben), dass 90% der Bestellungen automatisiert abliefen und nur die 10% der größten Ausnahmen manuell überprüft werden mussten – ein guter Grad an Autonomie. Mit der Integration von JustEnough, das Planungsaufgaben umfasst, die traditionell manuell durchgeführt wurden (z. B. das Erstellen von Sortimentsplänen, das Festlegen anfänglicher Allokationen, sowie die Erstellung finanzieller Pläne), muss ToolsGroup nun ein Gleichgewicht zwischen Automatisierung und Nutzereingriff wahren. Die Sortimentsplanung erfordert üblicherweise den strategischen Input der Einkäufer, der nicht vollständig automatisiert werden kann, wobei ToolsGroup die analytischen Aspekte (wie das automatische Kennzeichnen von Artikeln mit Verbesserungsbedarf 33) übernimmt. Im Bereich der Preisgestaltung kann die dynamische Preisfindung bis zu gewissen Grenzen automatisiert werden – das Preismodul von ToolsGroup ermöglicht es, Regeln festzulegen und dann Preisänderungen innerhalb dieser Vorgaben automatisch anzuwenden 69. Beispielsweise könnte ein Einzelhändler festlegen, dass Artikel automatisch reduziert werden, wenn der Bestand einen bestimmten Wert überschreitet – das Tool führt dies dann ohne manuelle Berechnungen aus. Sie betonen ausdrücklich, dass man „Preisregeln aufstellt, die dann innerhalb definierter Grenzen automatisch angewandt werden“ 69 – eine Automatisierung mit Kontrolle. Somit kann ein Großteil der Entscheidungsfindung ohne menschliches Zutun erfolgen: Das System überwacht Bestand und Nachfrage und führt bei Eintreten vordefinierter Bedingungen (möglicherweise unterstützt durch KI-Vorschläge) automatisch eine Preisänderung durch. Dies stellt ein tatsächliches autonomes Handeln in der Preisgestaltung dar, auch wenn es anfangs wahrscheinlich immer einer Managementfreigabe bedarf. Ebenso können die Vorschläge zur Nachschubsteuerung automatisch an ERP-Systeme übermittelt werden, um Bestellungen auszulösen. ToolsGroup betont häufig das Ausnahmemanagement – das heißt, sofern keine Ausnahme vorliegt, kann man den Systemvorgaben vertrauen. Mit der Integration der Evo-KI deuten sie zudem an, dass sie sich in Richtung einer „autonomen supply chain“ bewegen 58. Dies entspricht dem Branchentrend; Evo könnte dabei kontinuierliche Re-Optimierungen ermöglichen (zum Beispiel eine Zwischenanpassung der Prognose mitten im Monat bei Abweichungen der Verkaufszahlen mit anschließender Neuberechnung der Nachschubaufträge – alles automatisiert). Neue Funktionen wie der Inventory Hub (mit Echtzeit-Signalen) deuten darauf hin, dass sie in der Lage sind, Ereignisse (z. B. einen plötzlichen Anstieg der Nachfrage) zu erkennen und automatisch zu reagieren, etwa durch Umverteilung des Bestands oder Beschleunigung der Nachschubprozesse. Zwar liegen hierzu keine detaillierten Informationen vor, doch scheint dies das Ziel zu sein. Insgesamt war ToolsGroup schon immer auf unbeaufsichtigte Planung ausgerichtet – sodass das System routinemäßige Entscheidungen eigenständig trifft. Es gibt Hinweise darauf, dass einige Kunden mit minimalem Eingriff der Planer einen Großteil ihrer Operationen steuern. Daher schneidet ToolsGroup im Bereich der Automatisierung sehr gut ab. Der einzige Vorbehalt betrifft möglicherweise die neuen Bereiche wie Sortiments- und Preisplanung, in denen der strategische Nutzereingriff eine größere Rolle spielt – auch hier übernimmt das System jedoch die taktischen Aufgaben (wie das automatische Markieren von Artikeln für Preisabschläge oder das systematische Rangordnen von Filialen nach Verkaufszahlen). Die Kombination aus regelbasierter Automatisierung (für betriebswirtschaftliche Vorgaben) und KI-gestützten Vorschlägen (für komplexe Entscheidungen) positioniert ToolsGroup als Anbieter, der eine signifikante Reduktion des manuellen Planungsaufwands ermöglicht. Tatsächlich wies Gartner darauf hin, dass „Planer die Aktivitäten von Mensch und Maschine orchestrieren“ – ein Ansatz, in den ToolsGroup mit seinen Workflows passt, da sie automatisch bestimmte Entscheidungen an den Menschen eskalieren, was Teil eines autonomen Kreislaufs ist.

Technologieintegration: ToolsGroups jüngste Strategie umfasste Akquisitionen, was natürlich die Frage der Plattformintegration aufwirft. Bisher verfügen sie über SO99+ (ihren legacy engine), JustEnough (heute oft als ToolsGroup Retail Planning bezeichnet) und Evo’s AI-Engine sowie die Onera-Echtzeit-Technologie. Sie integrieren diese aktiv: Zum Beispiel heißt es in der Pressemitteilung “integration of Evo’s solutions with SO99+ and JustEnough will offer customers the most efficient, real-time supply chain and price optimization solution” 47, was darauf hindeutet, dass alle drei zu einem Angebot zusammengeführt werden. Sie betonen, dass ihre modulare Architektur bedeutet, dass Kunden auswählen können, was sie benötigen, und alles zusammenpasst 54. Das legt nahe, dass sie Schnittstellen oder ein gemeinsames Datenmodell geschaffen haben (oder dabei sind, eines zu erstellen), damit Daten zwischen den Modulen fließen, ohne manuelle Übertragung. Ein gutes Zeichen ist, dass JustEnough seit 2018 zu ToolsGroup gehört (durch die Mi9-Akquisition); mittlerweile hatten sie Zeit, wesentliche Komponenten zu integrieren. In der Tat vermarktet ToolsGroup die kombinierte Lösung in vielen Fällen unter einem Namen. Sie haben vermutlich die Benutzeroberfläche zumindest teilweise vereinheitlicht – möglicherweise noch nicht eine einzige UI für alles, aber es könnte nahe dran sein. Wie erwähnt, wurde Evo’s AI in JustEnough integriert 67, was eine echte technische Integration zeigt, anstatt sie separat zu verkaufen. Dies ist vielversprechend: Es scheint, dass ToolsGroup bewusst vermeidet, diese als isolierte Module zu belassen. Allerdings muss man anerkennen, dass es eine Zeit lang wahrscheinlich eine “suite” aus separaten Komponenten war – beispielsweise musste der Benutzer die SO99+‑Schnittstelle für bestimmte Konfigurationen und die JustEnough‑Schnittstelle für andere verwenden, was anfangs umständlich sein kann. ToolsGroups vergleichsweise kleinere Größe bedeutet jedoch, dass die Integration möglicherweise agiler verläuft – mit weniger bürokratischen Hürden als bei SAP. Das Ziel ist eindeutig eine kohärente End-to-End-Planungssuite. Sie teilen Daten: Zum Beispiel speist die generierte Prognose (wahrscheinlich von SO99+ oder Evo) sowohl die Bestandplanung als auch den finanziellen Merchandising‑Planungsbereich. Mangels gegenteiliger Beweise nehmen wir an, dass ToolsGroup bedeutende Fortschritte bei der Integration dieser Akquisitionen erzielt hat. Möglicherweise existieren kleinere Inkonsistenzen (zum Beispiel könnten die Prognosemethoden in SO99+ im Vergleich zum nativen JustEnough unterschiedlich sein – doch sie würden sich vermutlich auf die bessere Methode standardisieren). Beim Tech‑Stack war ToolsGroup historisch gesehen eine Windows‑basierte Client‑Server‑Lösung für SO99+, während JustEnough auf .NET‑Webbasis beruhte. Jetzt werden alle über eine cloudbasierte Web‑Schnittstelle angeboten. Es ist wahrscheinlich keine 100% einheitliche Codebasis, aber der Eindruck beim Benutzer könnte über ein Portal einheitlich wirken. Dies zählt aus Benutzersicht immer noch als integriert, wenn es gut umgesetzt ist (ähnlich wie Microsoft erworbene Produkte im Laufe der Zeit nahtlos in die Office‑Suite integriert). Wir sollten erwähnen, dass ToolsGroups grundlegende Technologie (Bestandsoptimierung) sehr solide und bewährt war. Sie haben dies nicht verworfen – sie haben darauf aufgebaut. Das ist gut, weil sie das Rad nicht neu erfinden, aber es bedeutet auch, dass im Kern ein Teil des Systems aus älterem Code besteht. Manchmal passt alter Code nicht perfekt zu neueren Microservices. Wir haben dazu keine direkten Informationen, also ist das nur etwas, worauf man achten sollte. ToolsGroups eigene Kommentare zu Wettbewerbern lauteten oft, dass große Suite‑Anbieter Frankenstein seien; nun muss ToolsGroup selbst vermeiden, dies zu werden. Durch proaktive Integration und nicht nur umbenennen, scheint ihnen dies bewusst zu sein. Zum Beispiel führten SAPs Akquisitionen zu einer “haphazard collection” und Integrationsschwierigkeiten 11, wie bereits erwähnt. ToolsGroup betonte ausdrücklich, dass die Kombination der Einzelhandelsplanung von JustEnough mit ihrer Automatisierung und Bestandsoptimierung eine einzigartige Kombination liefert, und dass “products fit together in a cohesive solution” 54. Wir neigen dazu, dem vorläufig zu vertrauen, bleiben jedoch aufmerksam, dass einige Übergänge existieren könnten (zum Beispiel müsste ein Benutzer Stammdaten an zwei Stellen einrichten, falls nicht vollständig integriert). Insgesamt befindet sich ToolsGroup in einem mittleren Integrationsstadium – ursprünglich nicht vereinheitlicht, aber aktiv auf dem Weg dorthin. Wir verleihen ihnen eine moderate Bewertung: besser als Unternehmen, die lediglich akquirieren und die Teile separat lassen, aber nicht so inhärent vereinheitlicht wie eine von Grund auf entwickelte Plattform. Mit mehr Zeit (und da sie wahrscheinlich Komponenten auf eine gemeinsame Cloud‑Architektur umstellen) sollten sie eine hohe Integration erreichen. Bisher stimmen jedenfalls die vision and actions align to avoid a Frankenstein.

Skepsis gegenüber dem Hype: ToolsGroups Marketing vereint Praktikabilität und Buzz. Sie sind nicht so laut wie einige andere, aber sie bedienten sich in den letzten Jahren Buzzwords wie AI, demand sensing, autonomous etc. Wie in Lokads Analyse hervorgehoben wurde, wird ToolsGroup speziell in Bezug auf den Hype kritisiert: “claims of ‘AI’ are dubious… claims about ‘demand sensing’ unsupported” 19. Zum Beispiel veröffentlichte ToolsGroup Inhalte über “demand sensing” (kurzfristige Anpassungen), was vielleicht nur schicke Ausdrucksweise für die Verwendung eines gleitenden Durchschnitts der letzten Verkäufe war – nicht gerade bahnbrechend. Dies könnte weniger versierte Kunden in die Irre führen, zu glauben, sie hätten eine Art Zauberei. Außerdem zitiert ToolsGroup zeitweise unglaubliche Kundenergebnisse (wie “inventory reduced 30% while service increased to 99%”), die, selbst wenn sie in einem Fall zutreffen, zu gut klingen, um allgemein wahr zu sein. Konsistente Beweise wären wünschenswert. Auf der anderen Seite gibt es ToolsGroup schon sehr lange, und sie genießen in der Regel einen guten Ruf für das Erzielen von Ergebnissen – ihr Hype ist also meist nicht unbegründet. Möglicherweise überstrapazierten sie den AI‑Jargon um 2018, als es alle taten. Jetzt, wo sie tatsächlich ein AI‑Unternehmen akquiriert haben, könnten ihre AI‑Behauptungen mehr Gewicht haben. Sie erwähnen “quantum learning”, was offen gesagt buzzword‑haft klingt (Quantencomputing wird nicht wirklich eingesetzt – es ist nur ein Markenname für ihren Algorithmus). Das wirkt etwas hype‑lastig. Gleichzeitig geben sie jedoch Hinweise darauf, was es tatsächlich ist (nichtlineare Optimierung, prescriptive analytics) 52. Außerdem positionieren sie sich als “Leader in SPARK Matrix for Retail Forecasting & Replenishment” 70 – mit Verweis auf Analystenrankings, die von den Anbietern beeinflusst sein können. Es ist Marketing, aber nicht übertrieben. Ein Bereich, der besondere Beachtung verdient: ToolsGroup nennt sich jetzt “Autonomous”. Wir sollten skeptisch sein, wie autonom es tatsächlich ist. Zwar können sie vieles automatisieren, doch eine vollkommen autonome supply chain ist ein Weg. Solange sie dies als Ziel formulieren (wie sie es tun: “journey toward Decision-Centric (autonomous) Planning” 58), ist das akzeptabel. Würden sie jedoch eine Plug-and-Play‑Integration versprechen, wäre das übertrieben – die Implementierung von ToolsGroup bedarf weiterhin Integration und Konfiguration. Allerdings betont ToolsGroup für den Mittelstandsmarkt oft schnellere Implementierungen als riesige ERP‑Projekte. Sie heben häufig die Benutzerfreundlichkeit hervor, was plausibel ist und nicht nur reiner Hype. Hinsichtlich der buzzword moderation befindet sich ToolsGroup wohl im Mittelfeld: sie zählen nicht zu den schlimmsten Übertreibern, beteiligen sich jedoch durchaus. Die Inkonsistenz bei der Verwendung einer unpassenden Metrik (MAPE für probabilistische Prognosen) war ein kleiner roter Fleck 62 – ein Hinweis darauf, dass das Marketing eine Verbesserung der Zahlen zeigen wollte, auch wenn diese methodisch nicht einwandfrei war. Wir würden eine ehrlichere Kommunikation bevorzugen, etwa: “our approach is different, here’s why traditional metrics don’t apply, here’s better metrics.” ToolsGroup mag dies vereinfacht dargestellt haben, um den Verkauf zu fördern. Dennoch belegen langjährige Kunden und hohe Verlängerungsraten, dass sie in der Regel ihre Versprechen einhalten. Sie verkaufen keine Luftschlösser; sie liefern bewährte Technologie, die mit Akquisitionen weiterentwickelt wurde. Der Hype dreht sich dabei vor allem darum, Dinge als “AI” oder “quantum” zu bezeichnen – selbst wenn es sich dabei möglicherweise um Standard‑ML handelt. Das ist in der Branche gang und gäbe. Wir raten zu Vorsicht, aber nicht zur generellen Ablehnung. Der Nutzer sollte nachfragen, wie ihre AI funktioniert, wie demand sensing implementiert ist etc. ToolsGroup kann hierzu vermutlich eine Antwort liefern (selbst wenn sich herausstellt, dass sie maschinelles Lernen einsetzen, um kurzfristige Prognosen anhand aktueller Verkaufs- und Bestandsdaten anzupassen – was in Ordnung ist, solange es nicht mystisch wirkt).

Zusammenfassung: ToolsGroup ist ein reifer, aber sich weiterentwickelnder Akteur im Bereich der Einzelhandelsoptimierung. Es bringt jahrzehntelange Expertise in der Bestandsoptimierung mit probabilistischer Prognose mit, die nun durch Fähigkeiten in der Merchandise‑Planung und Preisoptimierung via Akquisitionen erweitert wurde. Infolgedessen kann ToolsGroup nun eine gemeinsame Optimierung von Beständen und Preisen durchführen – indem es Nachfrageprognosen verwendet, die Preisanpassungen berücksichtigen, und Preisentscheidungen auf Basis der Bestandspositionen trifft 49. Die Integrationsbemühungen verwandeln diese ehemals separaten Werkzeuge in eine kohäsive Planungssuite, auch wenn einige Integrationshürden möglicherweise noch überwunden werden müssen. ToolsGroups Stärke im probabilistischen Modellieren ermöglicht es, Unsicherheiten in der Nachfrage robust zu bewältigen und Bestandsstrategien zur Sicherstellung des Services bei minimalen Kosten zu entwickeln, während die neuen AI‑Erweiterungen darauf abzielen, diese Entscheidungen in Echtzeit kontinuierlich anzupassen 58. Es kann auf eine nachgewiesene Erfolgsbilanz in der Automatisierung von Planungsprozessen zurückblicken – viele routinemäßige Aufgaben in Prognose und Nachfüllung laufen unbeaufsichtigt, während Planer nur Ausnahmen verwalten. Mit den Preis‑ und Sortimentsmodulen erweitert es die Automatisierung auch auf diese Bereiche (z. B. regelbasierte automatische Abschläge 69 und von AI vorgeschlagene Sortimentsanpassungen). Hinsichtlich der Einzelhandelskomplexitäten deckt ToolsGroup die Grundlagen (Promo‑Prognosen, saisonaler Ausverkauf, Filialclustering) gut ab, auch wenn es bisher Cannibalisierung oder Substitutionsmuster vermutlich noch nicht im gleichen Maße automatisch erkennt wie spezialisierte Systeme. Sein Ansatz zur wirtschaftlichen Optimierung hat sich von reinem Servicelevel hin zur Einbeziehung von Gewinnmetriken entwickelt (insbesondere bei Preis‑ und Sortimentsentscheidungen 33). Anwender sollten jedoch auf eine gewisse Marketing‑Übertreibung achten – ToolsGroup verwendet die neuesten Buzzwords wie “autonomous” und “AI” freizügig, und eine Drittparteikritik hat einige ihrer früheren AI‑Behauptungen als übertrieben eingestuft 19. Angesichts der greifbaren Verbesserungen, die viele Kunden berichten, und der ernsthaften Investitionen, die ToolsGroup in neue Technologien (wie Evo) getätigt hat, ist jedoch der Substanzgehalt hinter ihren Behauptungen signifikant. In unserer Bewertung tritt ToolsGroup als eine technisch starke und pragmatische Option hervor: ein Anbieter, der vielleicht nicht den Glanz eines reinen AI‑Startups oder die extreme Reichweite einer Mega‑Suite besitzt, aber eine ausgewogene, fortschrittliche Lösung für Einzelhändler bietet, die ihre Planung mit weniger Hype und mehr praxisnahen Ergebnissen optimieren möchten. Es ist besonders gut geeignet für Organisationen, die eine bewährte Bestandsoptimierung wünschen, verbunden mit dem zusätzlichen Vorteil integrierter Preis‑ und Sortimentsplanung – wodurch eine ehemals “legacy” Lösung durch Modernisierung effektiv viel zukunftssicherer wird. Solange man den Buzzwords gegenüber angemessen skeptisch bleibt und sicherstellt, dass die Integration den eigenen Anforderungen entspricht, stellt ToolsGroup eine state-of-the-art (oder nahezu so) Lösung dar, die für das Zeitalter von AI‑gesteuerten Einzelhandelsentscheidungen neu belebt wurde.

Sources: Integration of pricing with inventory view 49; critique of ToolsGroup’s AI and demand sensing claims 19; ToolsGroup/Evo on delivering optimal price+inventory decisions 52 53.


5. Blue Yonder (ehemals JDA) – Leistungsstarke Retail-Suite, neu aufgebaut für SaaS, aber Legacy-Wurzeln zeigen sich

Blue Yonder, historisch bekannt als JDA Software, ist einer der größten und ältesten Anbieter von Einzelhandels- und supply chain Optimierungssoftware. Es bietet eine umfassende Suite, die Nachfrageprognosen, Nachfüllung, Zuteilung, Category Management (Assortment), Preis‑ und Markdown‑Optimierung, Lagerverwaltung, Personaleinsatzplanung und mehr abdeckt. Im Jahr 2020 erfolgte das Rebranding von JDA zu Blue Yonder nach der Akquisition eines deutschen AI‑Unternehmens mit demselben Namen. Blue Yonder (BY) hat seither einen Großteil seines Portfolios auf eine einheitliche Luminate Plattform mit Microservices migriert und positioniert sich als eine End-to-End, AI‑gesteuerte supply chain‑ und Merchandising‑Lösung 71. Es erfüllt zweifellos in puncto Funktionalität alle Kriterien: Wenige Anbieter können mit der Bandbreite von BYs Einzelhandelsoptimierungslösungen mithalten. Allerdings ist die Blue Yonder Suite auch das Ergebnis jahrzehntelanger Akquisitionen (i2, Manugistics, Arthur, RedPrairie usw.), und obwohl die neue cloud‑native Luminate Architektur modern ist, gehen einige Algorithmen und Module unter der Haube auf legacy Ansätze zurück. Eine kritische Bewertung eines Wettbewerbers formulierte es unmissverständlich: “Blue Yonder is the outcome of a long series of M&A… under the BY banner lies a haphazard collection of products, many dated. BY prominently features AI, but claims are vague with little substance; open‑source projects hint at pre‑2000 approaches (ARMA, linear regression).” 72. Dies unterstreicht die Hauptskepsis: Ist Blue Yonder wirklich state-of-the-art oder ein neu verpackter Legacy‑Riese? Wir stufen Blue Yonder in unserer Liste etwas niedriger ein, nicht weil es an Fähigkeiten mangelt (es hat reichlich), sondern aufgrund von Bedenken hinsichtlich der Kohärenz, Effizienz und Klarheit der Aussagen. Dennoch verdient es als dominanter Akteur eine genaue Prüfung. Gemeinsame Optimierung: Blue Yonder’s Suite bietet im Wesentlichen separate, aber integrierte Module für Preisoptimierung, Nachfrageprognose & Nachschub sowie Sortiments- und Merchandiseplanung. Theoretisch kann ein Einzelhändler, der alle Lösungen von Blue Yonder verwendet, durch die Interaktion dieser Module eine gemeinsame Optimierung erreichen. Zum Beispiel bietet Blue Yonder Lifecycle Pricing-Anwendungen (reguläre Preisoptimierung, Rabattoptimierung, Promotionsoptimierung), die mit den Nachfrageprognosen gespeist werden, die von ihrer Luminate Demand Planning-Engine stammen. Diese Nachfrageprognosen berücksichtigen wiederum Preisauswirkungen, da Blue Yonder’s Prognose (ursprünglich aus der deutschen Blue Yonder-Akquisition) Elastizitätsmodelle einbezieht. Wie Michael Orr von Blue Yonder erklärte, „Blue Yonder nutzt Daten, um zu verstehen, wie sich Kunden voraussichtlich verhalten und welchen Einfluss ein Preis auf die Lagerbestände haben kann,“ was Einzelhändlern hilft, zu hohe oder zu niedrige Preise zu vermeiden 27. Dies zeigt, dass die Preisoptimierung von BY nicht isoliert erfolgt: Sie modelliert explizit, wie Preisänderungen die Nachfrage und damit den Lagerbestand beeinflussen. Außerdem kann Blue Yonder’s fulfillment planning mit Preisentscheidungen verknüpft werden, indem sichergestellt wird, dass bei einer geplanten Preissenkung (die die Nachfrage anheizen wird) die Versorgungspläne entsprechend angepasst werden. Ebenso unterstützt Blue Yonder’s category management-Tool (ehemals JDA Category Management) die Festlegung von Sortimenten und Planogrammen; diese Entscheidungen fließen in ihre Nachfrageplanung und Nachschubsysteme ein. Es gab ein übergreifendes Konzept namens „integrated retail planning“, das finanzielle Merchandise-Pläne, Kategorienpläne und Versorgungspläne in Einklang bringt. In der Praxis liefen diese Prozesse bei JDA-Kunden historisch oft als halbgetrennte Abläufe aufgrund der Komplexität der Tools. Doch mit Luminate behauptet BY eine nahtlosere Integration über eine gemeinsame Plattform. Sie heben ihre „microservices architecture“ hervor, die die End-to-End-Planung unterstützt 71 – das heißt, beispielsweise könnte ein Promotionsplanungsdienst spontan den Nachfrageprognosedienst aufrufen, um aktualisierte Prognosen unter verschiedenen Preisszenarien zu erhalten. Blue Yonder’s gleichzeitiger Planungsansatz (wie „Harmony“ in ihrer UI) kann einem Planer die Auswirkungen von Entscheidungen über verschiedene Funktionen hinweg aufzeigen. Also ja, Blue Yonder ist in der Lage, eine gemeinsame Optimierung zu realisieren, da alle Komponenten miteinander sprechen: Preisentscheidungen informieren die Prognosen, die wiederum den Lagerbestand beeinflussen – und umgekehrt. Allerdings könnte man in Frage stellen, wie optimal diese Koordination tatsächlich ist. Häufig erfolgt der Prozess immer noch sequentiell (zuerst wird mit einem angenommenen Preis prognostiziert, dann wird der Lagerbestand daraufhin optimiert und anschließend werden die Preise unter Berücksichtigung der Lagerbestandsbeschränkungen iterativ separat angepasst). Es gibt Hinweise darauf, dass Blue Yonder eine echte Gleichzeitigkeit anstrebt: Beispielsweise soll ihre neue „Autonomous Planning“-Vision diese Prozesse dynamisch miteinander verknüpfen. Die Übernahme eines Preisoptimierungsunternehmens durch Blue Yonder (sie gingen eine Partnerschaft mit dunnhumby ein, doch jüngst wurden ihre internen Fähigkeiten offenbar mit der ML-Plattform des deutschen BY integriert) stellt sicher, dass sie über fortschrittliche Preisalgorithmen verfügen. Insgesamt stellt Blue Yonder die Werkzeuge für eine gemeinsame Optimierung bereit, wobei es davon abhängt, ob ein Nutzer alle Module implementiert. Da Blue Yonder’s Suite modular aufgebaut ist, verwenden einige Kunden möglicherweise nur etwa die Nachfrage- & Versorgungsplanung, jedoch nicht die Preisoptimierung – und erreichen somit mit BY allein keine vollständige gemeinsame Optimierung. Für diejenigen, die die vollständige Suite einsetzen, kann Blue Yonder jedoch den Lagerbestand, die Preisgestaltung und die Sortimentsentscheidungen gemeinsam abdecken. Wir stellen jedoch fest, dass die Lösungen von Blue Yonder ursprünglich nicht als ein einheitliches System entwickelt wurden – sie wurden integriert. Obwohl Luminate Fortschritte bei der Verbindung gemacht hat, ist es möglich, dass die Integration noch nicht so eng ist wie in einem einheitlichen Optimierungsmodell (zum Beispiel könnte die Preis-Engine aktuelle Lagerbestände ohne entsprechende Konfiguration nicht von Haus aus berücksichtigen). Angesichts der Beweise verdient Blue Yonder eine gute Bewertung hinsichtlich des Potenzials für gemeinsame Optimierung, mit dem Vorbehalt, dass es beträchtlichen Aufwand erfordern könnte, dieses Potenzial voll auszuschöpfen.

Probabilistische Prognosen & KI: Blue Yonder’s Nachfrageprognose (der Teil des deutschen Blue Yonder, oft bezeichnet als Cognitive Demand Planning) basiert stark auf AI/ML. Sie haben Verbesserungen veröffentlicht, die eine um ca. ~12% höhere Prognosegenauigkeit mittels ML gegenüber herkömmlichen Methoden erzielen 73. Ihr Ansatz verarbeitet eine Vielzahl von Daten – einschließlich Wetter, Ereignissen, Online-Signalen – um die Nachfrage zu prognostizieren. Obwohl sie für den operativen Einsatz vermutlich eine einzelne Prognosezahl generieren, können die zugrunde liegenden Modelle probabilistische Ergebnisse liefern. Tatsächlich war die ursprüngliche Lösung von Blue Yonder (Deutschland) bekannt für die automatisierte Modellauswahl (ähnlich einem AutoML-Ansatz) und konnte Konfidenzintervalle liefern. Ob das Produktionssystem Verteilungen offenlegt, ist unklar, aber sie legen großen Wert auf Szenarioplanung und Simulation. Zum Beispiel ermöglichen sie es Planern, mehrere Nachfrageszenarien zu simulieren, was impliziert, dass hinter den Kulissen eine Verteilung möglicher Ergebnisse vorliegt 74. Blue Yonder sprach in einigen Whitepapers zur Versorgungsplanung auch über „Monte Carlo“-Simulationen. Angesichts ihres umfangreichen Teams von Data Scientists ist es angemessen zu sagen, dass Blue Yonder’s Prognose zumindest stochastikbewusst ist, selbst wenn für jedes Produkt kein explizites PDF angegeben wird. Sie bezeichnen es als „Cognitive“ oder „Machine Learning“ Prognose. Zudem haben sie Fähigkeiten zur customer order forecasting aus ihrem Altsystem erworben (beispielsweise Techniken von i2 für probabilistische Lieferzeiten usw.). Allerdings wiesen Kritiker wie Lokad darauf hin, dass die Open-Source-Komponenten, die Blue Yonder nutzte (tsfresh zur Merkmalsextraktion, Vikos – möglicherweise eine Prognosebibliothek – und PyDSE) auf relativ konventionelle Techniken hindeuten 43. tsfresh dient dazu, Merkmale für Zeitreihen zu generieren (wie das Extrahieren saisonaler Metriken) – nützlich, aber an sich nicht bahnbrechend im Bereich der KI. Die Erwähnung von ARMA und linearer Regression impliziert, dass ein wesentlicher Teil der Prognose möglicherweise noch statistische Modelle verwendet, die mit ML-Features erweitert wurden. Anders ausgedrückt, das „AI“ von Blue Yonder könnte oft ein gut abgestimmtes exponentielles Glätten kombiniert mit Regression für kausale Faktoren sein. Das ist nicht unbedingt schlecht – diese Methoden sind bewährt, erreichen jedoch nicht die innovativsten Deep-Learning-Ansätze. Blue Yonder bewirbt seine KI definitiv stark: Begriffe wie „cognitive“, „machine learning“, „AI/ML engines“ tauchen in ihren Materialien auf 73 75. Die Unklarheit darüber, wie genau sie die KI einsetzen (vielleicht ein Geschäftsgeheimnis), führt zu Skepsis in Bezug auf ein mögliches „AI-Washing“. Aber wir wissen, dass sie über hervorragende Talente verfügen (das deutsche Team war akademisch stark), sodass es wahrscheinlich solide ist, wenn auch nicht spektakulär. Blue Yonder setzt KI auch in anderen Bereichen ein: Beispielsweise nutzt ihre Preisoptimierung Machine Learning, um Preiselastizitäten und Kreuzwirkungen zu schätzen; ihre supply planning verwendet Heuristiken und möglicherweise ML, um Parameter anzupassen; ihr micro-fulfillment setzt KI ein, um zu entscheiden, von welchem Standort eine Bestellung erfüllt wird, usw. Zudem bewerben sie „Luminate Control Tower“, das KI nutzt, um Störungen vorherzusagen und Maßnahmen vorzugeben. Viele dieser Anwendungen beruhen hinter den Kulissen auf ML-Klassifikation oder -Vorhersage. Sind diese probabilistisch? Möglicherweise liefern sie Risikobewertungen oder Wahrscheinlichkeiten für Ereignisse. Die Marketingaussagen von Blue Yonder sprechen von „AI-enabled optimization engines ingest huge data… achieving cognitive automation“ 76 77, was großartig klingt, aber wenig Spezifisches preisgibt. Ich denke, es ist fair zu sagen, dass Blue Yonder viel KI einsetzt, aber aufgrund der schieren Bandbreite könnten einige Bereiche nicht zu den modernsten zählen. Beispielsweise kommentierte einmal ein Nutzer auf Reddit, dass die Prognosen von JDA (heute BY) nicht einzigartig seien und viele immer noch ältere Logiken mit Parameteranpassungen verwenden. Blue Yonder’s Patente und Forschung könnten weitere Einblicke geben (sie besitzen einige Patente zur Multi-Szenario-Prognose 78). Angesichts der Beweise hat Blue Yonder AI/ML – besonders nach der Übernahme von Blue Yonder GmbH – in seine Prognose- und Optimierungslösungen integriert. Es liefert genauere Prognosen und vermutlich auch Szenarien-Fähigkeiten. Doch die skeptische Ansicht von Lokad, dass unter der Haube möglicherweise viele lineare Modelle als KI getarnt sind, erfordert Vorsicht. Wir bewerten Blue Yonder hoch in Bezug auf AI/ML-Funktionen, weisen jedoch darauf hin, dass einige Wettbewerber, die von Grund auf mit ML aufgebaut wurden (wie RELEX oder Lokad), in bestimmten Techniken wegen geringerer Altlasten einen Vorteil haben könnten. Blue Yonder investiert aktiv in die neuesten Entwicklungen (zum Beispiel erwähnen sie, dass sie Generative AI für Planungsassistenten erkunden 79). So bleiben sie am Puls der Zeit.

Wirtschaftliche Entscheidungsfindung: Blue Yonder’s Lösungen, insbesondere in der Preisgestaltung und im supply chain, berücksichtigen explizit Rentabilität und Kosten. Bei der Preisgestaltung hat Blue Yonder (mittels dessen, was ursprünglich Revionics oder eigene waren) Zielvorgaben wie die Maximierung der Marge, des Umsatzes oder das Erreichen eines finanziellen Ziels. Ihre Preisoptimierung folgt nicht lediglich starren Regeln – sie nutzt Elastizität, um Preise auszuwählen, die eine bestimmte Kennzahl maximieren, während gleichzeitig Vorgaben (wie wettbewerbsorientierte Preisindizes oder Lagerbestände) beachtet werden. Das ist also im Wesentlichen eine wirtschaftliche Optimierung. Bei der Lagerbestandsoptimierung verfügte Blue Yonder (bzw. das Erbe von JDA/i2) über Module wie Multi-Echelon Inventory Optimization (MEIO), die tatsächlich darauf abzielten, die Gesamtkosten (Lagerhaltung, Rückstandskosten) für ein vorgegebenes Serviceniveau zu minimieren oder den Service bei einem bestimmten Budget zu maximieren – eine klassische Kosten-Nutzen-Optimierung. In der Praxis haben einige Kunden lediglich das Serviceniveau als Ziel herangezogen, jedoch war die Möglichkeit einer kostenbasierten Optimierung vorhanden. Die S&OP / IBP-Tools von Blue Yonder ermöglichen die Integration von Finanzplänen und -zwängen, sodass der Planungsprozess um Margen- oder Gewinnziele herum optimiert werden kann (zum Beispiel das Erreichen eines Umsatzziels bei minimalen Kosten usw.). Ein weiterer Bereich ist die Allocation: Das Zuteilungstool von Blue Yonder kann so konfiguriert werden, dass Produkte an Filialen in einer Weise verteilt werden, die den prognostizierten Verkaufserfolg (und damit Gewinn) maximiert, anstatt nur eine uniforme Verteilung vorzunehmen. Ihre assortment planning kann Metriken zum Profitbeitrag der Kategorien berücksichtigen, um zu entscheiden, welche Produkte beibehalten oder gestrichen werden sollen. Da Blue Yonder historisch vor allem auf Einzelhändler ausgerichtet war, die stark auf Margen fokussiert sind (wie beispielsweise Modehändler, die ihre Rabattoptimierung zur Maximierung der Bruttomargenrendite einsetzen), musste wirtschaftliche Logik integriert werden. Die Kritik an der Unklarheit 43 könnte andeuten, dass Blue Yonder’s KI die wirtschaftlichen Zusammenhänge nicht eindeutig darstellt (etwa, wie viel Gewinn eine bestimmte Prognose impliziert), doch verwenden ihre Optimierungs-Module eindeutig wirtschaftliche Parameter (wie Preiselastizität, Kosten etc.). So behauptet beispielsweise Blue Yonder’s inventory optimization solution, „überschüssige Lagerbestände zu eliminieren und Veralterungskosten zu senken, während ein hoher Service aufrechterhalten wird“ 80 – im Grunde ein Abwägen zwischen Veralterungskosten und Service, also ein wirtschaftlicher Zielkonflikt. Ihre Promotionsoptimierung berücksichtigt promotional lift vs margin investment, um zu empfehlen, welche Aktionen am profitabelsten sind. Hinsichtlich der Opportunitätskosten gibt Blue Yonder diese zwar nicht explizit aus, aber ihre Planer können sie anhand von Szenarien ableiten – etwa, wenn Artikel A nicht auf Lager ist, stellt der entgangene Gewinn eine Opportunitätskosten dar. Die Tools von Blue Yonder könnten solch ein Szenario simulieren. Die vorhandenen Kritiken besagen im Wesentlichen: Blue Yonder behauptet, KI einzusetzen, könnte jedoch viele lineare Regressionen verwenden (die in der Regel ohnehin Kostenfaktoren einbeziehen). Daher denke ich, dass Blue Yonder wirtschaftlich gut aufgestellt ist. Eine mögliche Schwäche könnte darin liegen, dass ältere Systembestandteile noch auf heuristischen Daumenregeln basieren (einige der älteren JDA-Nachschubsysteme arbeiteten stärker regelbasiert mit Min/Max). Diese werden jedoch vermutlich inzwischen zugunsten optimierter Ansätze ersetzt. Mit Blue Yonder’s Vorstoß zu „autonomous planning“ wird häufig hervorgehoben, dass finanzielle Kennzahlen ein zentraler Treiber sind. Ein BusinessWire-Artikel zitiert einen Kunden, der die fortschrittliche BY-Technologie einsetzt: „Durch den Einsatz von AI/ML verbessern wir die Prognosegenauigkeit und bauen eine zukunftsorientierte supply chain auf, die unsere finanzielle Performance steigert“ 81. Also steht die Wirtschaftlichkeit im Zentrum. Dennoch kann die vollständige Implementierung von Blue Yonder zur Nutzung all dieser Fähigkeiten komplex sein – einige Kunden greifen eventuell nicht auf alle wirtschaftlichen Optimierungsfunktionen zurück, sondern nutzen sie eher manuell. Die Fähigkeit ist jedoch vorhanden. Wir vergeben Blue Yonder hohe Bewertungen für wirtschaftsorientierte Module (Preisoptimierung, Rabattoptimierung, MEIO), wenn auch mit einem kleinen Abzug, falls einige dieser Module nicht vollständig integriert oder benutzerfreundlich sind, was zu suboptimaler Nutzung führen könnte.

Skalierbarkeit & Kosteneffizienz: Blue Yonder’s alte On-Premise-Lösungen waren dafür bekannt, sehr ressourcenintensiv zu sein – sie erforderten beträchtliche Serverleistung und Speicher, insbesondere der alte JDA-Fußabdruck. In den letzten Jahren ist Blue Yonder jedoch zu einer cloud-nativen Microservices-Plattform auf Microsoft Azure übergegangen, was die Skalierbarkeit verbessern sollte. Gartners MQ-Hinweis sagte, dass Blue Yonders Stärken eine “umfassende Microservices-Architektur” beinhalten und dass es End-to-End-Multi-Enterprise-Planung bietet 71. Microservices bedeuten, dass die monolithischen Apps in kleinere Dienste aufgeteilt wurden, die unabhängig skaliert werden können. Das verbessert vermutlich die Leistung (zum Beispiel kann der Nachfrageprognose-Dienst für viele Artikel hochskaliert werden, während der Lieferplanungsdienst separat skaliert wird). Die Umgebung von Microsoft Azure ermöglicht auch Elastizität und möglicherweise geringere Skalierungskosten als On-Premise, weil man große Rechenkapazitäten für einen Batch hochfahren und wieder herunterfahren kann. Blue Yonder ist jedoch immer noch eine der teureren und unternehmensgerechten Lösungen. Der Betrieb all dieser fortschrittlichen Module bedeutet, dass eine Menge an Daten verarbeitet wird (insbesondere wenn eine hohe Granularität genutzt wird). Es gab historisch Beschwerden über lange Laufzeiten einiger JDA-Prozesse oder Schwierigkeiten, extrem große Datenmengen schnell zu verarbeiten. Die Umstellung auf Microservices zielte darauf ab, vieles davon zu beheben. Jetzt kann Blue Yonder nahezu Echtzeit-Neu-Prognosen für die Bedarfserfassung und häufige Neuausrichtungen in ihrem Control Tower vorweisen. Ein weiterer Aspekt ist die Datenverarbeitung: Die Übernahme eines zugrunde liegenden Cloud Data Lake durch Blue Yonder könnte verbessern, wie Daten gespeichert und abgerufen werden im Vergleich zu älteren relationalen Modellen. Andererseits bedeutet eine breite Suite oft einen hohen Integrationsaufwand; die Plattform von Blue Yonder versucht, dies abzumildern, ist aber vermutlich immer noch schwergewichtig. In Bezug auf Kosteneffizienz richtet sich Blue Yonder typischerweise an große Unternehmen mit hohen Budgets – es wird also nicht wegen Kosteneinsparungen gewählt, sondern wegen seiner Leistungsfähigkeit. Es könnte für den Kunden eine beträchtliche Azure-Ausgabe erforderlich sein (oder Blue Yonder rechnet dies in die SaaS-Gebühren ein). Wenn ein Einzelhändler versucht, alle Module von BY zu implementieren, können die Projekt- und laufenden Kosten sehr hoch sein. Kosteneffizienz ist also nicht der Verkaufspunkt von BY – Vollständigkeit ist es. Ein weiterer Punkt: Die älteren Module von Blue Yonder liefen oft im Speicher (JDA hatte ein In-Memory-OLAP für Planungszahlen). Dieses In-Memory-Konzept könnte einen hohen Speicherverbrauch bedeuten. Aber mit Microservices nutzen sie vielleicht die skalierbaren Speichersysteme von Azure effizienter. Die wettbewerbsorientierte Kritik von Lokad sagte spezifisch: “Enterprise-Software ist nicht miscible durch M&A, unter BY liegt eine wirre Sammlung… Behauptungen sind vage, Open-Source weist auf ältere Tech hin” 72. Obwohl sich dies mehr auf Integration und Hype bezog, weist es indirekt auf Ineffizienzen hin – eine „wirre Sammlung“ impliziert oft, dass jeder Teil seine eigene Infrastruktur hat, die nicht optimiert ist, was zu einem höheren Gesamt-Footprint führt. Wir vermuten, dass Blue Yonder die Integration mit Luminate verbessert hat, aber es kann dennoch Redundanzen geben. Beispielsweise könnte das Preisfindungsmodul einen eigenen Datenspeicher haben, der vom Nachfrageprognosedatenspeicher getrennt ist, sofern keine Vereinheitlichung stattfindet – etwas, das Luminate vereinheitlichen soll, aber Zeit braucht. Zusammenfassend: Skalierbarkeit – Blue Yonder kann bis zu den größten Einzelhändlern skalieren (viele der Top-10 globalen Einzelhändler nutzen eine Komponente von Blue Yonder), was beweist, dass es enorme Datenmengen bewältigen kann. Die Leistung ist vielleicht nicht sofort blitzschnell, aber mit Tuning und Cloud-Leistung praktikabel. Kosteneffizienz – vermutlich eher am unteren Ende; es ist tendenziell ressourcenintensiv und teuer. Der Wechsel zu SaaS könnte die On-Premise-IT-Kosten für Kunden senken, aber diese Kosten werden dann zu Abo-Gebühren. Außerdem kann BY als großer Anbieter Premiumpreise verlangen. Wenn also Kosten ein Kriterium sind, verliert Blue Yonder oft gegen schlankere Lösungen. Wenn reine Leistung und Funktionsumfang entscheidend sind, ist BY in Ordnung. Wir bewerten sie in Bezug auf Skalierbarkeit moderat – sie skalieren ja, allerdings potenziell zu hohen Kosten und mit hoher Komplexität.

Bewältigung komplexer Einzelhandelsfaktoren: Blue Yonder’s Lösungen decken explizit fast alle komplexen Faktoren ab, an die man denken kann:

  • Kannibalisierung & Halo: Ihre Nachfrageprognose-ML kann produkübergreifende Einflüsse berücksichtigen (sie integrieren vermutlich Merkmale, die anzeigen, ob Ersatzprodukte im Angebot sind etc.). Außerdem berücksichtigt ihr Promotion-Optimierungstool die Kannibalisierung – etwa, indem es bei der Empfehlung von Promotionen ermittelt, ob eine Promotion für Produkt A den Absatz von Produkt B kannibalisiert, und den Nettoeffekt berechnet. Blue Yonder hatte ein Modul namens Promotion Effectiveness, das so etwas leistete. Zudem analysiert ihre Category-Management-Analytics oft die Kategorieauswirkungen von Preisänderungen (damit man nicht den Preis eines Artikels erhöht und dabei bei komplementären Artikeln Marge verliert). Bemerkenswerterweise könnte der Stratege von Blue Yonder Elastizitäten festlegen, die Kreuzwirkungen einschließen. In einem Business Insider-Artikel sprach Revionics (nun unter Aptos separat) davon, mit KI zu simulieren, ob eine Preissenkung bei Kuchenmischungen den Eierabsatz steigert 82 – ein Szenario eines Halo-Effekts. Die Preisfindungslösung von Blue Yonder ähnelt Revionics, da sie in Konkurrenz zueinander stehen, sodass BY mutmaßlich auch derartige produkübergreifende Effekte simulieren kann. Zudem kann die Promotion-Prognose von Blue Yonder Konkibalisierungsfaktoren einberechnen, da dies Industriestandard ist.
  • Substitution (Ausverkaufseffekte): Blue Yonder’s Nachfrageplanung kann Verfügbarkeitsdaten einbeziehen; wenn ein Artikel nicht auf Lager ist, kann die Prognoselogik den Rückgang der Zahlen auf mangelnde Verfügbarkeit und nicht auf eine sinkende Nachfrage zurückführen. Die deutsche Blue Yonder’s ML war dafür bekannt, Lagerbestandsquoten zu berücksichtigen, um nicht fälschlicherweise eine geringere Nachfrage zu erlernen, wenn ein Artikel schlicht ausverkauft war. Zudem kann die Bestellplanung von Blue Yonder Substitutionsregeln beinhalten – z. B. wenn Artikel X nicht verfügbar ist, kann proaktiv das Angebot des Ersatzartikels Y erhöht werden (was einige fortgeschrittene Nutzer bereits tun).
  • Verfallsdaten/Verderbliches: Blue Yonder hat einen großen Lebensmitteleinzelhandelskundenkreis, weshalb Funktionen für verderbliche Waren entwickelt wurden. So kann beispielsweise ihr Nachschubsystem Haltbarkeitsdaten berücksichtigen – es stellt sicher, dass nicht zu viel bestellt wird, sodass Produkte verderben. Auch die In-Store-Produktion kann optimiert werden (z. B. gibt es für Frischwaren integrierte Lösungen im Workforce Management, die die Produktionsplanung für Frischeware steuern – indirekt zur Reduzierung von Verschwendung). Blue Yonder’s Prognose erlaubt eine tägliche Granularität, was für frische Artikel entscheidend ist, und nutzt Wochentags-Saisonalität etc. Sie haben Referenzen (wie die Knauf-Referenz in BusinessWire für supply chain und einige weitere im Lebensmittelbereich), in denen „bei Einsatz von BY wurde Verderb reduziert, etc.“ erwähnt wird – auch wenn RELEX hierfür ein Beispiel lieferte. Blue Yonder hat vermutlich ähnliche Erfolgsgeschichten (ich erinnere mich an einen Fall mit 7-Eleven, der BY zur Prognose frischer Lebensmittel einsetzte).
  • Planogramm und Platzbeschränkungen: Die Category-Management-Lösung von Blue Yonder ist nahezu der Industriestandard für Planogramme und Ladenlayoutplanung. Sie speist direkt in die Sortiments- und Nachschubplanung ein, indem sie Daten darüber liefert, wie viel Platz jedes Produkt in jedem Geschäft hat (sodass die Supply Planning den maximalen Regalbestand kennt). Die Systeme von Blue Yonder nutzen das definitiv – etwa, wenn ein Planogramm einem Artikel zwei Fronten zuweist, schickt das System nicht mehr als möglich. Außerdem kann BY optimieren, welche Geschäfte einen neuen Artikel basierend auf Platzverhältnissen und lokaler Nachfrage erhalten (z. B. wenn ein Regal nicht mehr SKUs aufnehmen kann, wird der Artikel womöglich nicht ins Sortiment aufgenommen).
  • Mitarbeiter- und Ausführungsfaktoren: Etwas am Rande, aber BY berücksichtigt auch, wie ein Plan umgesetzt wird – beispielsweise bei der Einsatzplanung von Arbeitskräften zum Entladen von Lieferungen, wenn für eine Promotion zusätzlich Inventar verschickt wird. Das zeigt, wie integriert ihr Denken im Einzelhandelsbetrieb ist.
  • Omni-Channel: Die neueren Funktionen von Blue Yonder berücksichtigen auch Kompromisse im Fulfillment (Ship-from-Store versus DC), was zwar nicht explizit gefragt wurde, aber eine weitere Komplexität darstellt, die sie optimieren (Kosten versus Geschwindigkeit etc. – zwar außerhalb des Rahmens dieser Fragestellung).
  • Wetter und externe Einflussfaktoren: Diese werden mittels ML in der Nachfrageprognose gehandhabt, was in volatiler Nachfrage ein „komplexer Faktor“ ist. Im Wesentlichen hat Blue Yonder für fast jedes knifflige Einzelhandels-Szenario eine Lösung oder Funktion. Die Herausforderung besteht darin, diese Funktionen tatsächlich zu implementieren und abzustimmen. Historisch hatten einige Einzelhändler Schwierigkeiten, fortschrittliche Kannibalisierungsmodelle in JDA einzuführen, weil es kompliziert war und Data-Science-Unterstützung erforderte. Jetzt, mit KI-Automatisierung, versucht BY, dies intern zu regeln. Es funktioniert vermutlich, aber der Nutzer sieht oder kontrolliert es nicht unbedingt leicht (das „kognitive Black-Box“-Szenario). Dennoch ist es sicherer anzunehmen, dass BY diese Komplexitäten abdeckt, weil die Konkurrenz das auch tut und sie mithalten mussten. Tatsächlich bietet Blue Yonder eine Komponente namens Demand Transference-Analyse (aus dem alten JDA), die explizit die Kannibalisierung innerhalb von Kategorien misst, um bei Sortimentsentscheidungen zu helfen – also genau die Quantifizierung, wie sich die Nachfrage von einem Produkt auf ein anderes überträgt, wenn eines fehlt oder beworben wird. Damit besitzen sie dieses Konzept. Betrachtet man all dies, erzielt Blue Yonder vermutlich die höchste Punktzahl bei der Bewältigung komplexer Faktoren, denn über Jahrzehnte hinweg hat JDA/Blue Yonder zu jedem Problem eines Einzelhändlers Funktionalitäten hinzugefügt (oder ein entsprechendes Unternehmen akquiriert). Ein kleiner Vorbehalt: Manchmal könnten ältere Ansätze weniger automatisiert sein (was manuelle Konfigurationen von Beziehungen erfordert), während neuere Anbieter diese selbständig erlernen. Blue Yonder versucht jetzt, mithilfe von KI automatisch zu lernen, aber das Vertrauen darin erfordert Glauben, da sie nicht immer alle Details preisgeben. Die Kritik der Wettbewerber, dass sie ältere Methoden verwenden 43, lässt vermuten, dass ihr Kannibalisierungsmodell möglicherweise lineare Regression nutzt (was, wenn richtig umgesetzt, dennoch angemessen abbilden kann). Das ist nicht unbedingt ein Fehler, nur nicht ausgefeilt. Wir bewerten BY in diesem Kriterium sehr hoch, mit dem Hinweis, dass es komplex in der Einrichtung sein kann.

Automatisierung: Die Vision von Blue Yonder von “Autonomous Supply Chain” und “Cognitive Planning” dreht sich im Wesentlichen um Automatisierung. Sie werben damit, dass ihr Luminate Planning Pläne automatisch mit minimalem menschlichen Input anpasst und dass ihre Algorithmen sich selbst optimieren können. Beispielsweise reduziert Blue Yonder’s “algorithmic baseline forecasting” die Arbeitslast menschlicher Prognostiker erheblich – die Planer konzentrieren sich dann nur auf Ausnahmen (wie neue Produkte oder Großereignisse). Viele BY-Kunden setzen auf Auto-Auffüllung: Das System generiert Bestellungen, die direkt in die Ausführung gehen, sofern sie nicht markiert werden. Das Fulfillment-System von BY verfügte über Funktionen wie „Adaptive, learning safety stocks“, was weniger manuelle Parameteranpassungen bedeutete. Im Bereich Preisgestaltung kann Blue Yonder (wie andere Preis-Tools) autonome Preisaktualisierungen innerhalb festgelegter Regeln durchführen – etwa automatische Preisnachlässe jeden Montag basierend auf dem aktuellen Absatz im Vergleich zum Plan. Ich vermute, dass einige BY-Einzelhandelskunden dem System erlauben, bestimmte Preisaktionen automatisch durchzuführen (insbesondere Preisnachlässe, die lokal und häufig erfolgen – zu viele, um sie manuell zu steuern). Das Luminate Control Tower von Blue Yonder kann sogar bestimmte Ausnahmen automatisch lösen (zum Beispiel, wenn ein Lieferant zu spät kommt, wird automatisch von einer anderen Quelle beschleunigt) – das ist Automatisierung in der Ausführung. Allerdings hatte Blue Yonder historisch auch den Ruf, etwas planerzentriert zu sein: Es liefert zwar hervorragende Empfehlungen, aber viele Unternehmen hatten dennoch zahlreiche Planer, die diese Anpassungen vornahmen (teilweise weil das System zu komplex war oder weil man ihm nicht vollständig vertraute). Die Transformation zu „autonom“ ist noch im Gange. Blue Yonder’s eigene Blogbeiträge zur Steigerung der Prognosegenauigkeit konzentrieren sich darauf, der KI die Hauptarbeit zu überlassen und manuelle Eingriffe zu begrenzen 83 – was darauf hinweist, dass sie Automatisierung fördern. Sie haben ein Konzept von Ausnahmen/Alerts, das einen „Management by Exception“-Stil vorantreibt – ein Kennzeichen der Automatisierung (nur bei Bedarf eingreifen). Mit Panasonic’s acquisition von Blue Yonder im Jahr 2021 wird zudem Wert darauf gelegt, eine Verbindung zum IoT herzustellen und sogar physische Entscheidungen zu automatisieren (wie das Anpassen der Regale mittels Robotik auf Basis von Planänderungen – zukunftsweisende Ideen, die sich aber noch in der Konzeptphase befinden). Andererseits, da BY’s Tools so funktionsreich sind, könnten einige Nutzer zu sehr auf manuelle Konfigurationen angewiesen sein (zum Beispiel das Anpassen von Dutzenden von Parametern oder das manuelle Durchführen von What-if-Analysen), was eine echte, unbeaufsichtigte Automatisierung behindern kann. Es steht außer Frage, dass Blue Yonder eine hohe Automatisierung ermöglicht, aber ob eine konkrete Implementierung dies erreicht, variiert. Ich erinnere mich an Fallstudien, in denen Einzelhändler Blue Yonder dazu brachten, 90% ihrer Bestellungen automatisch zu generieren – ähnlich wie in den Referenzen von ToolsGroup. Daher führt ein Einsatz nach Best-Practice-Verfahren offenbar zu solchen Ergebnissen. Angesichts der intensiven Vermarktung von „autonom“ durch Blue Yonder denken wir, dass sie neue Funktionen vorantreiben, um die Automatisierung zu erhöhen (wie ML model autopilot – das automatische Wechseln von Algorithmen bei Trendänderungen; oder scenario advisor – der die beste Option empfiehlt). Sie haben sogar einen digitalen Assistenten (vielleicht sprachaktivierte Planungsabfragen) – was zwar keine Automatisierung per se ist, aber die manuelle Analyse reduziert. Also ja, BY ist auf Automatisierung ausgerichtet, wenn auch möglicherweise historisch von den Nutzern untergenutzt, sei es aufgrund von Vertrauensfragen oder Komplexität. Wir bewerten sie hoch, aber nicht so perfekt wie einige kleinere, agile Anbieter, einfach weil es länger dauern kann, BY so zu implementieren, dass man ihm uneingeschränkt vertrauen kann. Aber einmal implementiert, sollte es reibungslos laufen. Panasonics Website nennt es “Realization of the Autonomous Supply Chain™ with Blue Yonder” 84 – sie machen den Begriff Autonomous Supply Chain zu einer Marke, also meinen sie es ernst! Um skeptisch zu bleiben: Wir merken an, dass bisher wirklich vollautomatisierte Planung in der Branche selten ist, selbst mit BY – menschliche Aufsicht bleibt bestehen. Aber BY kann die Arbeitslast der Menschen signifikant reduzieren.

Technologieintegration: Blue Yonder ist das klassische Beispiel einer Plattform, die durch zahlreiche Akquisitionen (von den 1980er bis zu den 2010er Jahren) aufgebaut wurde. Allerdings haben sie seit etwa 2015 in deren Vereinheitlichung investiert. Die Luminate Platform ist ihre Antwort: Microservices in einer gemeinsamen Cloud, ein gemeinsames Datenmodell – teilweise (sie besitzen den Luminate Data Hub) – und ein einheitlicher UI-Stil. Es wurden Fortschritte erzielt – z. B. teilen nun das UI und die Daten nahtlos die Module für Nachfrageprognose und Nachschub (im Vergleich zum älteren JDA, bei dem Demand und Fulfillment separate Apps waren, die eine Batch-Integration benötigten). Die Microservices-Architektur bedeutet, dass neue Funktionen bereitgestellt und integriert werden können, ohne monolithische Änderungen vorzunehmen. Aber um es klarzustellen: Intern laufen einige Module vermutlich noch mit ihrem Legacy-Code (einfach in der Cloud gehostet). Das bedeutet, die Integration erfolgt auf der Schnittstellenebene – nicht, dass alles in einer einzigen Codebasis neu geschrieben wurde (das wäre kurzfristig unrealistisch). Sie haben APIs des alten Codes als Microservices freigelegt und orchestrieren diese. Es funktioniert weitgehend, wie Gartner es als “umfassende Microservices-Architektur” bezeichnet 71, was als Kompliment gilt. Ein weiterer Pluspunkt: Blue Yonder hat seine Benutzeroberfläche weitgehend vereinheitlicht (die Luminate Experience-Oberfläche). Ein Benutzer kann theoretisch von einem Planungsbildschirm für die Nachfrage zu einem Inventurbildschirm innerhalb eines Portals navigieren. Es gibt das Konzept der Luminate Planning Workbench, das versucht, mehrere Funktionen für einen Planer zusammenzuführen. Dennoch bemängeln Kritiker wie Lokad, dass “enterprise software isn’t miscible via M&A” 72 – was andeutet, dass man akquirierte Produkte nicht wirklich problemlos verschmelzen kann. Blue Yonder versucht dies, aber möglicherweise bleiben einige Risse: Beispielsweise könnte die Preislösung (ursprünglich als separates Produkt) sich noch nicht vollständig wie die Nachfrageplanung im UI anfühlen und erfordert eventuell eine separate Konfiguration. Die Datenintegration kann ein Problem sein: Werden die Nachfrageprognosen automatisch in die Modelle des Preisoptimierungsmoduls eingespeist? Oder muss man sie exportieren? Blue Yonder hat dies vermutlich inzwischen integriert, jedoch ist das nicht ganz klar. Die Anmerkung “haphazard collection of products, most of them dated” 72 ist hart – möglicherweise wird damit auf bestimmte ältere Module wie die altmodische JDA-Warengruppenplanung oder ältere Optimierungsengines hingewiesen, die nicht aktualisiert wurden. Ebenso suggeriert “claims are vague with little substance” 85, dass BY manchmal behauptet, es handle sich um eine einheitliche KI, dabei aber nur lose integrierte Komponenten vorhanden sind. Dennoch muss Blue Yonder zugute gehalten werden, dass sie – im Vergleich zu vielen anderen – ihre Plattform neu aufgesetzt haben; so containerisierten sie beispielsweise die alten Algorithmen, bauten moderne UIs und verbanden diese. Ein weiterer Integrationsaspekt: Blue Yonder deckt mit einem Unternehmen sowohl Planung als auch Ausführung ab (WMS, TMS für die Ausführung und Planungstools). Diese wurden ebenfalls integriert (z. B. kann die Inventarplanung nahezu in Echtzeit auf WMS-Inventardaten zugreifen). Theoretisch könnte man somit seine gesamte supply chain end-to-end auf Blue Yonder-Technologie betreiben – eine Integration, die über reine Planung hinausgeht, was ein großer Pluspunkt wäre, wenn es gelingt. Historisch betrachtet waren diese Bereiche ebenfalls isoliert (JDA vs. RedPrairie-Herkunft). Es gibt etwas, das Luminate Control Tower genannt wird, welches Planungs- und Ausführungsdaten in einer Ansicht überlagert und verbindet. Es gibt also Fortschritte in der Integration. Betrachtet man alles, so hat Blue Yonder einen weiten Weg zurückgelegt, ist aber wahrscheinlich noch nicht so agil integriert wie ein Produkt, das von Grund auf intern entwickelt wurde. Die Open-Source-Erwähnung, dass sie Projekte wie tsfresh verwenden, zeigt, dass sie versuchen, wo möglich auf gemeinsame Bibliotheken zu setzen (was eine gute Integrationspraxis ist). Allerdings ist es mit so vielen Produkten schwierig, jedes einzelne vollständig zu vereinheitlichen. Das Risiko besteht darin, dass einige Kunden effektiv Blue Yonder-Module implementieren, diese jedoch nicht gut integrieren – der Fehler könnte eher bei der Implementierung liegen als bei der Software selbst. Doch die Architektur erlaubt Integration – es kommt auf die Nutzung an. Wir bewerten Blue Yonder in puncto Integration moderat bis hoch: zweifellos handelt es sich um eine historisch gewachsene Frankenstein-Suite, die operativ “operiert” wurde, um einheitlicher zu werden – teilweise erfolgreich, aber man kann noch an einigen Stellen erkennen, dass der Stil älter ist. Die Komplexität bleibt hoch. Beispielsweise könnte zur Umsetzung der vollständigen BY-Suite der Einsatz mehrerer Expertenteams nötig sein, da jedes Modul in die Tiefe geht. Das signalisiert, dass es in der Praxis kein vollkommen “kohäsives” Produkt ist, sondern eher “eine Familie von Produkten unter einem Plattformdach.” Unterdessen sind ToolsGroup oder Lokad näher an einem Produkt, das mehrere Bereiche löst (weniger Funktionen, jedoch von Natur aus integrierter konzipiert). Blue Yonders Integration ist also besser als SAPs Flickwerk, liegt aber wahrscheinlich hinter einer singulären Lösung zurück.

Skepsis gegenüber Hype: Blue Yonders Marketing verwendet viele Schlagwörter: „Cognitive“, „Autonomous“, „AI/ML“, „End-to-End“ usw. Einige Behauptungen fehlen an Spezifikationen (etwa “12% forecast improvement” – verbessert gegenüber welcher Ausgangsbasis? Oder “powered by AI”, aber ohne Details zur Methode). Sie bedienen eine schillernde Erzählung eines “digitalen Gehirns”, ähnlich wie o9, und bieten manchmal nur begrenzte Einblicke, wie es funktioniert. Die Kritik lautete “claims are vague with little or no substance… open source projects hint at pre-2000 approaches” 43 und unterstellt Blue Yonder im Grunde ein AI-Washing (altes Produkt im neuen Gewand). Tatsächlich war Blue Yonder schnell dabei, sich nach der Akquisition als „AI-Pionier“ zu positionieren, was für Stirnrunzeln sorgte, da JDA davor nicht für solche Technologien bekannt war. Das soll nicht heißen, dass Blue Yonder keine echte AI-Technologie besitzt (diese stammt vom übernommenen Team), aber sie ist möglicherweise nicht so weit fortgeschritten, wie sie es suggerieren. Beispielsweise könnte die Bezeichnung ihrer Prognose als „cognitive“ sie überbewerten – sie ist fortschrittlich, ja, aber viele andere verwenden ähnliche ML-basierte Prognosen. Der Begriff „cognitive“ impliziert nahezu menschenähnliche Denkprozesse, was eher Hype ist. Ebenso der Ausdruck „autonomous supply chain“ – ein bewundernswertes Ziel, doch ein solches System benötigt weiterhin menschliche Steuerung. Manchmal verwenden sie markenrechtlich geschützte Begriffe wie „Autonomous Supply Chain™“, was als reines Marketing-Branding zu verstehen ist. Ein weiterer Hype-Bereich: Blue Yonder rühmt sich des „demand sensing“ – ein Konzept, das sie übernommen haben (so sind einige ihrer Lösungen für kurzfristige Prognosen im Grunde Demand Sensing). Wie Lokad anmerkte, ist Demand Sensing häufig Hype, wenn es nicht adäquat umgesetzt wird. Blue Yonder setzt wahrscheinlich eine Methode ein (zum Beispiel, indem sie den Verkauf der letzten Woche stärker gewichten, um kurzfristige Prognosen anzupassen), aber ob sie tatsächlich externe Signale erfasst oder nur reaktiv glättet, bleibt fraglich. Würden sie es etwa als „AI sensing demand shifts real-time from social media“ übertreiben, ließe das an der Praktikabilität zweifeln. Zudem existiert der Integrationseindruck: Sie behaupten eine einheitliche Plattform, doch wie bereits erläutert, ist sie hinter den Kulissen nicht völlig homogen – das Marketing könnte die Komplexität der Integration übergehen. Andererseits gibt es viele echte Fallstudien und Referenzen. Sie erfinden im Allgemeinen keine Ergebnisse – große Kunden teilen öffentlich ihre Erfolge (z. B. erhöhte Füllraten, gesteigerte Umsätze usw.). Allerdings geben Blue Yonder selten zu viele technische Details preis, was den Eindruck erwecken kann, sie versteckten sich hinter Schlagwörtern. Für einen kritischen Betrachter könnten BYs Materialien frustrierend sein, weil sie häufig nur über Ergebnisse und abstrakte Fähigkeiten sprechen, anstatt konkret darzulegen, „welchen Algorithmus X, Y, Z wir verwenden“. Aber bei Enterprise-Verkaufsunterlagen ist das nicht ungewöhnlich. Zumindest hebt eine Wettbewerbsanalyse von Lokad hervor, dass Blue Yonder besonders auf Schlagwörter setzt, ohne ausreichend neue wissenschaftliche Ansätze darzulegen 43. Angesichts dessen, dass wir vage Behauptungen und Hype bestrafen wollen, erhält Blue Yonder hinsichtlich der Ehrlichkeit im Hype eine mittlere bis niedrige Bewertung – sie setzen zweifelsohne in den letzten Jahren auf zahlreiche Schlagwörter. Als Beleg benannte das Lokad-PDF Blue Yonder auf Platz 12 von 14 und hob insbesondere den Hype und die veralteten Grundlagen hervor 72. Es ist zwar eine voreingenommene Quelle (Lokad ist im Wettbewerb), aber sie entspricht der Vorsicht, nicht alle BY-Marketingaussagen wörtlich zu nehmen. Ein weiteres Beispiel: Blue Yonder könnte behaupten, “Plug-and-Play SaaS – schnelle Wertschöpfung”, doch viele Kunden erleben mehrjährige Implementierungen – ein klarer Widerspruch zwischen Marketing und Realität in Bezug auf Benutzerfreundlichkeit. Daher sollte ein Käufer skeptisch sein, was die Einfachheit und die vollumfängliche Geschichte der “einheitlichen Plattform” betrifft – es könnte sich immer noch wie getrennte Module anfühlen, die hinter den Kulissen beträchtlich integriert werden müssen.

Zusammenfassung: Blue Yonder ist eine funktionsreiche Retail-Optimierungssuite, die Inventar-, Preis- und Sortimentsplanung (sowie Ausführungsaspekte) umfasst – im Wesentlichen deckt sie alle Facetten der Retail-Optimierung ab. Sie wurde mit AI/ML modernisiert (z. B. „cognitive“ Nachfrageprognosen 27) und einer Cloud-Plattform, und ist in der Lage, Entscheidungen über traditionell isolierte Bereiche hinweg gemeinschaftlich zu optimieren (Preisentscheidungen fließen in Inventarpläne und umgekehrt) 27. Die Tools von Blue Yonder berücksichtigen explizit Profitabilität und Kosten in ihren Entscheidungen – von der Preisoptimierung, die Marge gegen Volumen abwägt, bis zur Inventaroptimierung, die Service- gegen Lagerhaltungskosten ausbalanciert 80. Die Lösung kann komplexe Dynamiken im Einzelhandel modellieren, wie Kannibalisierung, Halo-Effekte und Haltbarkeitsbeschränkungen als Teil ihrer Prognose- und Planungsprozesse – dank ihrer fortschrittlichen Algorithmen und jahrzehntelangen Expertise im Retail Data Science-Bereich. Beispielsweise nutzt sie maschinelles Lernen, um Produkteinfluss-Effekte und promotionsbedingte Kannibalisierung zu identifizieren, sodass Prognosen und Nachschub entsprechend angepasst werden 8 9. Mit der kürzlichen Umstellung auf eine Microservices-Neuarchitektur hat Blue Yonder die Integration seiner einst separaten Module verbessert und bietet eine einheitlichere Luminate-Plattform mit gemeinsamen Daten und Benutzeroberfläche 71. Dies ermöglicht höhere Grade der Automatisierung: Viele Blue Yonder-Kunden lassen das System automatisch Prognosen, Bestellungen und sogar Preisempfehlungen generieren und greifen nur bei Ausnahmen ein. Blue Yonder bewirbt energisch eine „Autonomous Supply Chain“, und auch wenn vollständige Autonomie noch ein Ziel ist, ermöglichen die Lösungen automatisierte, datengesteuerte Entscheidungen in großem Maßstab (ein großer Kunde berichtete, dass Planer nur bei Ausnahmen eingreifen, während das System 95 % der SKU-Laden-Nachschübe autonom abwickelt).

Allerdings ist ein kritischer Blick auf Blue Yonders Behauptungen notwendig. Die Suite besitzt ein Erbe von Akquisitionen, was bedeutet, dass einige Komponenten noch mit Legacy-Algorithmen arbeiten 72. Die Kohäsion der Plattform, trotz großer Verbesserungen, ist möglicherweise nicht so nahtlos wie bei einer von Grund auf neu entwickelten Einzelcodebasis – die Implementierung aller Komponenten kann komplex und ressourcenintensiv sein. Zudem fällt das Marketing-Hype von Blue Yonder auf: Begriffe wie „cognitive“ und „autonomous“ werden großzügig eingesetzt, manchmal jenseits dessen, was die Software tatsächlich leistet 43. Unabhängige Analysen haben festgestellt, dass Blue Yonder hinter den Schlagwörtern oft auf bewährte (wenn auch ältere) analytische Techniken zurückgreift 43 – effektiv, aber keineswegs magisch in Bezug auf KI. Außerdem können die Kosten und die Komplexität der Blue Yonder-Lösung hoch sein – es könnte erhebliche Investitionen an Zeit, Geld und qualifiziertem Personal erfordern, um alle Fähigkeiten voll auszuschöpfen, was die “Plug-and-Play”-Erwartungen dämpft. Kurz gesagt, Blue Yonder ist äußerst leistungsfähig – man könnte es als Maßstab für funktionsreiche Lösungen und Retail-Expertise bezeichnen – und es entwickelt sich kontinuierlich weiter mit moderner AI- und Cloud-Technologie. Es kann zweifellos modernste Optimierung liefern, wenn es vollständig implementiert und genutzt wird. Doch man muss den Hype durchschauen und sorgfältig bewerten, wie jede Behauptung untermauert wird. Wo Blue Yonder einen klaren Mehrwert demonstriert (wie nachgewiesene Verbesserungen in der Prognosegenauigkeit, messbare Reduktion von Verderb bei Frischwaren oder erhöhter Abverkauf durch optimierte Preisgestaltung), erkennen wir es als eine Spitzenlösung an. Wo es hingegen auf vage Marketingaussagen setzt oder Integrationsschwierigkeiten verharmlost, bleiben wir skeptisch.

In unserem Ranking bleibt Blue Yonder ein führender Anbieter im Bereich Retail-Optimierung aufgrund seiner Breite und kontinuierlichen Innovation 71, wenngleich wir ihm etwas Punkte wegen des Legacy Technical Debt und überzogener Marketingaussagen abziehen. Für große Einzelhändler, die ein One-Stop, End-to-End-System suchen und bereit sind, darin zu investieren, ist Blue Yonder oft ein ernstzunehmender Wettbewerber oder sogar der Standard. Für diejenigen, die Agilität, Kosteneffizienz oder Einfachheit priorisieren, könnte der umfangreiche Ansatz von Blue Yonder zu schwerfällig wirken.

Quellen: Blue Yonders microservices-basierte Luminate-Plattform und Fähigkeiten 71; Aussage zur Verknüpfung von Preiseinfluss und Lagerbeständen 27; kritische Analyse von BYs KI-Behauptungen und Legacy-Hintergründen 72 43.


6. SAP (SAP IBP & Retail) – Modernisierte etablierte Suite, aber noch im Rückstand (Warnung vor Altlasten)

SAP, ein Gigant in der Unternehmenssoftware, bietet Retail-Optimierungsmöglichkeiten durch sein SAP Integrated Business Planning (IBP) für die Supply Chain und die SAP for Retail Suite (die Merchandise-Planungs- und Preisgestaltungstools aus früheren Akquisitionen umfasst). SAPs Lösungen decken Nachfrageprognosen, Inventar- und Versorgungsplanung, Sortiments- und Merchandise-Finanzplanung sowie Markdown-Optimierung ab. In den letzten zehn Jahren hat SAP den Übergang von seinem älteren APO (Advanced Planner & Optimizer) und anderen Legacy-Retail-Modulen zu einer neueren, cloud-basierten IBP-Plattform vollzogen. Allerdings bleiben SAPs Angebote etwas fragmentiert zwischen dem sich auf die Supply Chain fokussierenden IBP und den auf den Einzelhandel ausgerichteten CAR (Customer Activity Repository) und Retail-Apps. Da die Bewertungskriterien darauf abzielen, veraltete Ansätze und Frankenstein-Integrationen zu vermeiden, wird SAP oft als Beispiel für diese Herausforderungen genannt. Eine offene Einschätzung im Jahr 2021 stellte fest: „SAP (1972) akquirierte SAF, KXEN, SmartOps… diese Apps gründen auf interner Technologie (F&R, APO, HANA). Unternehmenssoftware ist nicht durch M&A mischbar, und unter SAP befindet sich eine willkürliche Sammlung von Produkten. Die Komplexität ist hoch, und es werden die allerbesten Integratoren – plus einige Jahre – benötigt, um Erfolg zu haben.“ 11. Dies unterstreicht SAPs Problematik: viele Komponenten sind lose integriert, was einen erheblichen Implementierungsaufwand erfordert. Wir bewerten SAPs Retail-Optimierungskompetenz niedriger auf unserer Liste, bedingt durch diese Legacy-Komplexität und das langsamere Tempo bei der KI-Innovation, obwohl es auf dem Papier funktional umfassend ist.

Gemeinsame Optimierung: SAPs Module arbeiteten historisch in isolierten Silos: z. B. produzierte SAP Demand Forecasting (part of F&R) Vorhersagen, die separate SAP Pricing (from the acquired Khimetrics) und SAP Assortment Planning (from another component) speisten. In den letzten Jahren versuchte SAP, die Planung in IBP zu vereinheitlichen – aber IBP deckt hauptsächlich die Nachfrage-, Bestands- und Lieferplanung ab. Pricing und Assortment liegen außerhalb von IBP, in anderen, speziell auf den Einzelhandel ausgerichteten Lösungen. Das bedeutet, dass eine echte gemeinsame Optimierung (Bestand + Pricing + Assortment zusammen) nicht SAPs Stärke out of the box ist. Möglicherweise müssen Sie IBP mit beispielsweise SAP Markdown Optimization (welches ein separates Produkt war) auf kundenspezifische Weise verbinden. Es gab Versuche: Zum Beispiel sollte SAP’s Unified Demand Forecast (Teil von CAR) eine einzige Prognose für alle nachgelagerten Systeme liefern (wie Nachschub und Pricing). Falls umgesetzt, würde dies zumindest Pricing und Bestand auf dasselbe Nachfragesignal abstimmen. Aber eine tatsächliche gemeinsame Entscheidungsfindung – wie etwa die Einbeziehung der Bestandskosten in die Preisoptimierung – erfordert vermutlich eine individuelle Integration. SAP verfügt über eine SAP Retail Optimization-Lösung (das alte Khimetrics) für Pricing, welche bei Rabattaktionen Bestandsbeschränkungen berücksichtigen kann (also optimiert sie in diesem begrenzten Fall Clearance-Pricing in Verbindung mit vorhandenem Bestand gemeinsam). Außerdem verbinden SAPs Merchandising-Systeme Verkaufspläne lose mit Lieferplänen. Insgesamt optimiert SAPs Architektur diese Bereiche nicht inhärent ganzheitlich; vielmehr werden die Ausgaben eines Moduls als Eingabe für ein anderes weitergereicht. Beispielsweise könnte IBP einen Lieferplan auf Grundlage einer angenommenen Preisstrategie erstellen; ändert sich anschließend das Pricing, müsste ein Planer die IBP-Szenarien aktualisieren. Ein automatisches Feedback erfolgt nicht. SAP IBP entwickelt sich mit Funktionen wie „Integrated Financial Planning“ weiter, die finanzielle Ergebnisse mit Lieferplänen verknüpft (dort findet zumindest eine Art gemeinsamer Optimierung statt, indem Kosten und Erlöse abgewogen werden). Im Vergleich zu neueren Anbietern hinkt SAP jedoch bei der nahtlosen Integration der Funktionen hinterher. Die in der Kritik angeführte Komplexität 11 legt nahe, dass es bereits ein großes Projekt ist, alle SAP-Bausteine gut miteinander kommunizieren zu lassen. Daher bewerten wir SAP im Bereich der gemeinsamen Optimierung als niedrig. Es kann zwar erreicht werden, erfordert aber „the very best integrators – plus a few years“ 86 (direktes Zitat) – was kein überzeugendes Lob darstellt.

Probabilistische Prognose & KI: SAP IBP beinhaltet ein Modul für „Demand“, das einige prädiktive Analysen und sogar ML-Integration bietet (sie ermöglichen den Einsatz von SAP Analytics Cloud oder externen ML-Bibliotheken, um Vorhersagen zu erstellen, die in IBP einfließen). SAP erwarb zudem 2013 KXEN, ein Data-Mining-Tool, vermutlich um ML an verschiedenen Stellen einzubetten. Doch SAPs native Prognose in IBP setzt im Wesentlichen die APO-Tradition fort (statistische Modelle wie exponentielle Glättung, Croston usw.). Sie führten in IBP „Demand Sensing“ ein, einen Algorithmus (aus der SmartOps-Akquisition), der kürzlich erkannte kurzfristige Trends nutzt, um nahe Zukunftsprognosen anzupassen – ein Ansatz, den manche als glorifizierten gleitenden gewichteten Durchschnitt ansehen. Es ist nützlich, aber keine vollständige KI-Revolution. SAP integriert inzwischen mehr ML – zum Beispiel setzen sie maschinelles Lernen für new product launch forecasting ein (wobei Muster ähnlicher Produkte abgeglichen werden). Zudem besitzen sie eine Optimierungs-Engine (von SmartOps) für multi-echelon inventory (die stärker stochastisch ausgerichtet war). Insgesamt hinkt die Innovation von SAP im Bereich KI für die Planung Spezialisten hinterher. In den MQs zur Supply Chain Planung hebt Gartner oft die begrenzte out-of-the-box ML-Funktionalität von SAP IBP im Vergleich zu anderen hervor. Sie setzen auf Partner oder auf ihre Data Intelligence Plattform für fortgeschrittene ML-Lösungen. Für pricing optimization nutzte SAPs Tool (von Khimetrics) zwar ausgeklügelte Algorithmen (teilweise ML für Elastizität etc.), aber dieses Tool hat in letzter Zeit keine wesentlichen Updates erhalten und könnte auch nicht eng integriert sein. Es gibt Gerüchte, dass SAP einige dieser Lösungen einstellen oder durch einen neuen KI-basierten Service ersetzen könnte – nicht sicher, aber bislang ist nichts Prominentes zu hören. Wie die Kritik darlegte, musste SAP viele erworbene prädiktive Bausteine integrieren (SAF war für Prognosen zuständig, SmartOps für Bestandsoptimierung, KXEN für generisches ML). Es wurde vermutlich nicht vollständig zu einer kohärenten KI-Engine zusammengeführt. Probabilistische Prognose im Besonderen: SAPs SAF-basierter F&R generierte Verteilungen für Vorlaufzeiten und nutzte Servicelevels zur Bestimmung von Sicherheitsbeständen (also einen etwas probabilistischen Ansatz), aber ich glaube nicht, dass SAP IBP von vornherein vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage produziert; es fokussiert sich auf einzelne Zahlen und eine „sensing“-angepasste Zahl. Möglicherweise liefern sie einige Konfidenzintervalle. Hinsichtlich des Hypes verwendet SAP Schlagworte wie „predictive analytics“ und „machine learning“, aber die tatsächlich gelieferte KI bleibt verhalten. Wir bewerten SAP im Bereich fortschrittlicher KI-Prognosen relativ niedrig – die Grundlagen werden zwar gut abgedeckt (sie waren für robuste, wenn auch traditionelle, Prognosen bekannt), aber weder probabilistische noch ML-basierte Ansätze werden führend umgesetzt. Sie versuchen aufzuholen, indem sie eine externe KI-Integration ermöglichen. Inzwischen exportieren einige SAP-Kunden Daten, um in Python ML durchzuführen, und importieren dann die Ergebnisse wieder – was darauf hindeutet, dass SAPs integrierte Lösung möglicherweise nicht ausreicht.

Wirtschaftliche Entscheidungsfindung: SAPs Planungstools waren historisch eher kennzahlengetrieben als von vornherein darauf ausgerichtet, den Gewinn zu optimieren. APO ermöglichte es, Serviceniveaus festzulegen oder Kosten in der Bestandsplanung zu minimieren, jedoch nicht direkt die Gewinnmaximierung. SAPs Einzelhandelspreislösungen (wie Markdown Optimization) waren eindeutig wirtschaftlich – sie optimierten die Marge oder den Umsatzanstieg durch Promotionen. Dabei handelte es sich um mathematische Optimierungsansätze, die ein Ziel maximieren (unter Einhaltung von Beschränkungen wie Inventar oder Budget). Im Bereich Pricing hatte SAP damit Stärke, da Khimetrics ein Pionier in der Optimierung von Einzelhandelspreisen war. Im Bereich Bestandsmanagement zielte SAPs MEIO (SmartOps) darauf ab, die Gesamtkosten für ein gegebenes Serviceniveau zu minimieren – wiederum ein wirtschaftlicher Ansatz, allerdings unter Beibehaltung des Serviceniveaus. SAP IBP enthält ein Modul „Inventory Optimization“, das vermutlich die SmartOps-Engine nutzt, um Bestandskosten und Servicelevel in Einklang zu bringen. Dieser Bereich ist also von Natur aus von Gewinn- bzw. Kostenaspekten getrieben. Die Sortimentsplanung in SAP, oft über SAP Merchandise Planning, verläuft in der Regel heuristisch (Planer simulieren finanzielle Ergebnisse, aber es gibt keinen Algorithmus, der beispielsweise SKUs anhand des ROI automatisch eliminiert, auch wenn er SKUs mit geringem Gewinn als Entscheidungshilfe hervorhebt). Generell ermöglicht SAP die Verfolgung finanzieller Kennzahlen – beispielsweise kann IBP den projizierten Umsatz oder die Marge in den Plänen ausweisen – aber der Benutzer muss oft die Trade-offs selbst vornehmen, statt dass das System automatisch optimiert. Es existiert in manchen Kontexten sogar ein SAP Profit Optimization (vielleicht im Supply Chain Design Tool oder in S&OP-Szenarien), doch wird dies nicht breit kommuniziert. Da SAP auf Planer setzt, die Entscheidungen treffen, ist es oft eher ein What-if-Tool als ein Auto-Optimizer. Dennoch führen ihre Preis- und Bestandsmodule intern Optimierungen durch. Wir geben ihnen mittlere Anerkennung: Nicht so nahtlos gewinnorientiert wie der Ansatz von Lokad oder ToolsGroup, aber sie berücksichtigen Kostenabwägungen. Ein gutes Indiz ist SAPs neues IBP-Feature „Return on Inventory Investment“, das bei der Priorisierung unterstützt. Wenn es aber nur berechnet und anzeigt, statt durch einen Algorithmus den ROI tatsächlich zu maximieren, ist das etwas anderes. Aufgrund der Komplexität nutzen viele SAP-Kunden das System regelbasiert (zum Beispiel um Fill-Rate-Ziele zu erreichen oder um OTB-Dollars für das Sortiment basierend auf der Einschätzung des Planers zu budgetieren). Es ist also nicht das Nonplusultra in Sachen Entscheidungsoptimalität, aber bei entsprechender Konfiguration leistungsfähig. Die Kritik, dass ihre Akquisitionen als „predictive supply chain“ Apps bezeichnet wurden, deutet darauf hin, dass SAP zwar die Bausteine für prädiktive Kosten-Nutzen-Analysen hatte, die Integration jedoch hinterherhinkte. Wir neigen daher dazu, SAP in Sachen automatischer profitoptimierender Entscheidungen zurückhaltender zu bewerten.

Skalierbarkeit & Kosteneffizienz: SAPs Markenzeichen war schon immer das leistungsstarke In-Memory Computing – SAP HANA ist eine In-Memory-Datenbank, auf der IBP und andere Anwendungen basieren. Sie arbeitet bei bestimmten Aufgaben sehr schnell, ist aber extrem speicherintensiv und teuer. Viele Unternehmen empfinden SAP-Lösungen als kostenintensiv in der Skalierung, da große HANA-Speichergrößen erforderlich sind. Beispielsweise benötigt SAP IBP sämtliche Planungsdaten im HANA-Speicher, um Berechnungen zügig durchzuführen, was für große Einzelhändler (mit Terabytes an Speicher) sehr kostspielig sein kann. Dies entspricht dem Bestreben, RAM-intensive Lösungen gemäß unseren Kriterien zu vermeiden. Tatsächlich sagte eine Analyse über einen Anbieter (Relex) sinngemäß: „Das In-Memory-Design bietet große Geschwindigkeit, garantiert aber hohe Hardwarekosten“ 22 – genau so ist auch SAPs Ansatz. Daher ist die Kosteneffizienz fraglich; SAPs Ansatz liefert zwar schnelle Reaktionszeiten, jedoch zu hohen Infrastrukturkosten (es sei denn, man verlagert einen Teil auf günstigeren Speicher, was aber die Geschwindigkeit beeinträchtigt). SAPs Cloud-Angebot versucht, dies durch den Einsatz von HANA Cloud und ein Abonnementmodell abzumildern, aber letztlich werden die Kosten über das Abonnement weitergegeben. Historisch war die Implementierung von SAP APO oder F&R zwar in der Lage, große Datenmengen zu verarbeiten (einige globale Unternehmen setzten es ein), erforderte jedoch manchmal nächtliche Batch-Läufe oder Vereinfachungen, um Zeitfenster einzuhalten. IBP auf HANA verbessert die Berechnungszeiten signifikant (einige Zyklen, die früher Stunden dauerten, laufen nun in Minuten). Die Skalierbarkeit der Leistung ist also verbessert, jedoch wird die Datenmenge durch das Speicherbudget limitiert. SAP eignet sich zwar für große Unternehmen (einige der größten setzen es ein), aber oft erfordern diese Projekte erhebliche Hardwareinvestitionen und Feineinstellungen. Daher bewerten wir SAP in puncto Kosteneffizienz als niedrig und in Bezug auf Skalierbarkeit als moderat (es kann große Datenmengen verarbeiten, jedoch zu hohen Kosten und mit erheblicher Komplexität, was genau den Kriterien für übermäßigen Rechenaufwand widerspricht). Es verkörpert im Grunde den „excessive computational cost“, den man möglichst vermeiden möchte.

Umgang mit komplexen Einzelhandelsfaktoren: SAPs Einzelhandelslösungen berücksichtigen eine Reihe von Komplexitäten:

  • Kannibalisierung/Halo: SAPs Prognosen (insbesondere über CAR Unified Demand Forecast) konnten kausale Faktoren, einschließlich Promotionen verwandter Produkte, einbeziehen, allerdings war SAP in diesem Bereich historisch schwächer. Die SAF-Methode war primär auf Einzelprodukte ausgelegt. Es gab ein Modul namens SAP Promotion Management for Retail, das möglicherweise den Einfluss von Promotionen und Kannibalisierung mithilfe von Modellen schätzte. Auch die SAP Markdown Optimization berücksichtigte bereichsübergreifende Effekte (zum Beispiel innerhalb von Kategorien). Ehrlich gesagt war SAP jedoch nie für erstklassige Promotion-Prognosen bekannt – viele Einzelhändler nutzten Drittanbieter oder arbeiteten manuell. Möglicherweise war KXEN dazu gedacht, Zusammenhänge wie Kannibalisierungsmuster mittels ML zu erkennen. Es ist unklar, wie gut dies integriert wurde.
  • Substitution: SAP F&R verfügte über Funktionalitäten zur Berücksichtigung von Substitutionen (wenn ein Artikel nicht verfügbar war, konnte als Ersatzartikel in Bestellvorschlägen vorgeschlagen werden). Auch in der Analyse von Umsatzverlusten konnte erfasst werden, ob ein entgangener Verkauf durch ein anderes Produkt kompensiert wurde. Allerdings ist unklar, ob dies standardmäßig oder kundenspezifisch geschieht. Die MRP-Logik in SAP ERP handhabt Substitutionen in der Planung standardmäßig nicht, vielmehr erfolgt dies als analytische Übung.
  • Verderbliche Waren: SAP hatte F&R (Forecasting & Replenishment) speziell für den Lebensmitteleinzelhandel mit verderblichen Waren (Shelf-Life) entwickelt. Es ermöglichte die Festlegung von Regeln, um zu vermeiden, dass mehr Produkte geliefert werden, als vor Ablauf des Haltbarkeitsdatums verkauft werden können, und verfolgte das Alter des Bestands. Viele Einzelhändler im Lebensmittelbereich nutzten SAP F&R für frische Artikel und erzielten damit Verbesserungen. IBP verfügt möglicherweise noch nicht standardmäßig über diese Logik für frische Produkte, könnte dies aber über SAP’s CAR Fresh Inventory oder Ähnliches realisieren. SAP bietet auch eine Erweiterung für die „Shelf-Life-Planung“ in PP/DS. Somit werden Verfallsdaten in der Bestandsplanung bis zu einem gewissen Grad berücksichtigt.
  • Fläche/Sortiment: SAPs Tool zur Sortimentsplanung berücksichtigt auf hoher Ebene Ladenflächenbeschränkungen (zum Beispiel maximale Kategorien). Es ist nicht so integriert wie Blue Yonder’s Planogram-Verknüpfung. Allerdings erfolgt auch hier eine Integration mit Planogrammdaten in CAR, um sicherzustellen, dass Ladenbestellungen die Regalfläche nicht überschreiten – als Regel. Dies mag nicht vollautomatisch erfolgen, ist aber möglich. Es gab eine Integration zwischen SAP F&R und Planogrammdaten (über SAP’s Landscape Management). Dadurch wird zumindest ein gewisser Raum für Bestellbegrenzungen geschaffen.
  • Promotionsprognosen: SAPs CAR beinhaltet ein Modell zur „Demand Influencing Factor“, bei dem Promotionen, Feiertage usw. in die Prognosen über Regression oder ML einbezogen werden. So werden Promotionen mit einem Auftriebsfaktor prognostiziert. Viele SAP-Kunden nutzen diese Funktion – wenn auch mit unterschiedlichem Erfolg.
  • Externe Faktoren (Wetter etc.): Über KXEN oder inzwischen auch SAP Analytics Cloud predictive lassen sich externe Variablen einbeziehen. Es gab Implementierungen, bei denen Wetterdaten etwa den Bestellprozess für saisonale Produkte beeinflussten – wenn auch nicht als Plug-and-Play-Lösung. Zusammenfassend kann SAP diese komplexen Einzelhandelsfaktoren handhaben, erfordert dafür aber häufig angepasste statistische Modelle oder den Einsatz neuer prädiktiver Services. Es ist nicht so out-of-the-box integriert wie bei einigen spezialisierten Anbietern. Die Kritik, dass SAPs Lösungspalette „haphazard“ ist, deutet auf fehlende Synergien hin – zum Beispiel fließt die durch Promotion-Prognosen gewonnenen Erkenntnisse nicht nahtlos in die Nachschubplanung ein; eine Integration ist hierfür erforderlich. Da SAP IBP relativ neu ist, sind einige fortgeschrittene Funktionen noch nicht vollständig ausgereift; so verfügte es beispielsweise zunächst über eine grundlegende Prognosefunktion und hat erst kürzlich (2022+) ML-getriebenes „demand sensing“ oder externe Nachfragesignale integriert.

Automatisierung: SAPs Philosophie war traditionell mehr „Planungsunterstützung“ als „komplett automatisierte Planung“. Oft verlangen sie von Planern, Batch-Jobs auszuführen und Ergebnisse zu überprüfen. Zum Beispiel war SAP APO ein sehr interaktives Tool, bei dem Planer häufig Prognosen freigeben, Optimierungen durchführen usw. SAP IBP verbesserte zwar einige Automatisierungsfunktionen mittels Warnmeldungen und Zeitplänen, aber es handelt sich in der Regel immer noch um ein Zyklus-basiertes Planungssystem – nicht um ein kontinuierlich selbstfahrendes System. Viele SAP-Kunden haben immer noch große Planungsteams, die What-if-Analysen in IBP-Tabellenkalkulationen durchführen. Im Einzelhandel sind SAP-Lösungen wie Merchandise Planning und Assortment im Wesentlichen manuelle Planungstools (Excel-ähnlich, aber integriert). Sie sind nicht automatisiert – sie erfordern, dass Planer Ziele setzen und Sortimente auswählen. Die Preisoptimierung kann bis zu einem gewissen Grad automatisiert werden (der Algorithmus liefert Preisempfehlungen, die typischerweise von einem Preisanalysten in SAP überprüft/ genehmigt werden). Die Nachschubsteuerung in SAP (entweder über F&R oder ERP MRP) war für die Generierung von Bestellvorschlägen automatisiert, die dann – sofern innerhalb der Toleranzen – automatisch in Bestellungen umgewandelt werden konnten; das wurde häufig praktiziert. So konnte die Auffüllung im Laden ohne Zutun erfolgen – viele Lebensmittelhändler setzten das mit SAP F&R oder heute CAR/Unified Demand Forecast plus S/4 automatische Bestellerstellung um. Das ist ein starker Punkt – SAP kann die Auffüllung, einmal konfiguriert, ziemlich gut automatisieren (wie jedes ordentliche System). Wo es an Automatisierung mangelt, ist möglicherweise die Fähigkeit, Pläne mittels ML in Echtzeit selbst anzupassen – sie verlassen sich weiterhin auf Batch-Zyklen (täglich oder wöchentlich). Zwar gibt es Ausnahmewarnungen, die bei Abweichungen im Verkauf anzeigen, sodass ein Planer manuell rasch eingreifen kann (halbautomatisch), aber IBP führte nur grundlegende Automatisierung wie „self-tuning forecasts“ ein (das System wählt automatisch das beste Modell, ohne dass eine manuelle Modellauswahl erforderlich ist). SAPs Marketing mit dem Begriff „demand sensing“ impliziert häufigere automatisierte Aktualisierungen der Prognosen mit den neuesten Daten, was jedoch nur teilweise automatisiert erfolgt. Im Vergleich zu anderen Anbietern setzt SAP nicht auf ein autonomes Konzept, sondern will Planer unterstützen, effizient zu arbeiten. Der starke Bedarf an Integratoren deutet darauf hin, dass es sich nicht um einen einfachen Autopiloten handelt, den man einfach einschaltet. Daher würde ich SAP in puncto Automatisierung niedriger bewerten. Die Umsetzung ist oft aufwendig und erfordert dennoch erheblich manuelle Aufsicht. Viele Prozesse bleiben planergetrieben, unterstützt durch Systemberechnungen. Somit erreichen sie vermutlich nicht das Ziel der „vollständig unbeaufsichtigten“ Planung. Zudem gibt es interne Politik: Die SAP-Anwender erwarten ein Eingreifen; sie vertrauen dem System bis zu einem gewissen Grad, aber nicht, dass es sich vollständig selbst steuert. Ohne Belege, dass ein SAP-Kunde vollständig ohne menschliches Zutun plant, gehe ich davon aus, dass dies nur wenige oder gar nicht vorkommt. (Im Gegensatz dazu gibt es bei ToolsGroup oder Blue Yonder einige Hinweise in diese Richtung.) SAP erhält hier also eine bescheidene Bewertung.

Technologieintegration: SAPs Geschichte ist in der Tat eine Folge von Übernahmen, die auf der Kerntechnologie aufgebaut wurden:

  • Sie hatten ihr in-house APO (für supply chain) und ein in-house Forecasting & Replenishment (F&R) für den Einzelhandel jeweils separat.
  • Dann erwarben sie SAF (Nachfrageprognose), SmartOps (Bestandsoptimierung) und integrierten diese teilweise in APO oder IBP.
  • Sie erwarben Khimetrics (Preisoptimierung) und Retek (Merchandising-Systeme) und integrierten diese in den SAP Retail Stack.
  • KXEN (ML) wurde in ihr Analytics-Angebot integriert.
  • All das basiert auf HANA oder ECC. Das ist genau das „Frankenstein“. SAPs Ansatz zur Integration dieser Elemente: In IBP bauten sie die APO-Funktionen auf HANA neu auf und fügten die SmartOps-Logik für die Bestandsoptimierung sowie möglicherweise einige SAF-Ideen für die Nachfrage hinzu. Allerdings fehlte IBP anfangs an Funktionalität (einige sagen, dass die frühe IBP-Prognose einfacher war als das alte APO oder SAF – inzwischen haben sie aufgeholt). SAP Retail Seite: Einige Komponenten wurden in CAR (Customer Activity Repository) zusammengeführt, das als einheitliche Plattform für Nachfragedaten und einige Analysen (wie vereinheitlichte Nachfrageprognose, Promotionsmanagement) dienen soll. CAR sollte Laden-Transaktionen mit der Planung integrieren – ein kluger Integrationsschritt. Allerdings kommunizierten CAR und IBP historisch gesehen nicht nahtlos (diese Lücke wird nun mit APIs überbrückt). Das Hauptproblem von SAP ist das Vorhandensein zweier paralleler Plattformen (IBP für supply chain und CAR für die Planung im Einzelhandel). Es gibt Überschneidungen und potenzielle Konflikte, obwohl sie IBP für supply chain-Anwender und CAR für Merchandising-Anwender positionieren. Die Integration zwischen Preisgestaltung, Sortiment und supply planning in SAP basiert oft auf der Kopplung über das zentrale ERP (zum Beispiel durch Übermittlung von Prognosen an das ERP, das dann ein weiteres Modul speist – es gibt nicht eine einheitliche Engine). Eine kritische Zeile 11 fasst es zusammen: „diese Apps erscheinen auf Basis von Inhouse-Technologie … unter dem SAP-Dach ist eine willkürliche Sammlung … hohe Komplexität, benötigt Top-Integratoren + Jahre, um Erfolg zu erzielen.“ Das bringt die Integrationsprobleme auf den Punkt – sie lassen sich mit erstklassiger Beratung lösen, sind aber nicht elegant out-of-the-box integriert. Viele SAP-Einzelhandelskunden klagen über mehrere Systeme, die Daten duplizieren (z. B. wird die Preiselastizität in ihrem Preistool berechnet und separat im Prognosetool ohne Verbindung berücksichtigt). SAPs Lösung war, alles in die HANA-Datenbank zu verlagern, damit Daten zumindest auf DB-Ebene leicht geteilt werden können, und Integrationsszenarien mithilfe der SAP Cloud Platform oder CPI zu entwickeln. Dennoch ist das viel Arbeit. Da SAP eine gesamte Suite (ERP, Planung, Ausführung) verkauft, sollte sie theoretisch tief integriert sein. In der Praxis kamen verschiedene Module zu unterschiedlichen Zeiten und wurden zusammengefügt. Die Integration von SAP ist nicht so elegant wie die Microservices von Blue Yonder oder sogar die modulare Suite von ToolsGroup. Oft sind kundenspezifische Projekte erforderlich, um die Datenflüsse in Einklang zu bringen. Also ja, SAP fällt in gewissem Maße eindeutig in die Kategorie „Frankenstein“ (sie haben es zumindest erkannt und versucht, über HANA und CAR zu vereinheitlichen, was Experten zufolge aber nicht vollständig gelöst ist). Daher vergeben wir SAP in puncto Technologieintegration eine niedrige Bewertung. Das Zitat aus unserer Quelle gibt eine Expertenzusammenfassung ihrer Integrationsprobleme 11. Es ist bezeichnend, dass selbst SAP häufig mit Integratoren wie Accenture oder EY zusammenarbeiten musste, um ihre Planungslösungen erfolgreich umzusetzen.

Skepsis gegenüber Hype: SAP übertreibt den Hype um KI nicht so extravagant wie manch andere, verwendet jedoch Buzzwords im Marketing (sie sprechen von „embedded ML“, „demand sensing“, „digital twin of supply chain“ usw.). Viele in der Branche sind skeptisch gegenüber SAPs Aussagen, da Funktionen manchmal nicht so ausgereift sind, wie anfangs beworben (z. B. fehlten in der frühen IBP-Version einige versprochene Fähigkeiten, die später geliefert wurden). Außerdem zeichnet SAP oft ein Bild von „integrierter End-to-End-Planung“, das großartig klingt, doch viele wissen, dass in Wirklichkeit mehrere Module über erheblichen Aufwand integriert werden müssen. Es klafft also eine Lücke. SAPs Marketing rund um IBP hebt „schnelle Implementierung“ (da es cloudbasiert ist) und „benutzerfreundliche Dashboards“ hervor – teilweise wahr, doch die Einführung von IBP kann bei komplexen Fällen immer noch ein Jahr oder länger dauern. Bezüglich KI neigt SAP dazu, nicht über ihre tatsächlichen Angebote hinaus zu überverkaufen – sie geben zu, wo sie sich auf Partner für fortgeschrittene Analysen verlassen. Ironischerweise könnte SAP in dieser Hinsicht konservativer sein als kleinere Anbieter. Ihr Hype liegt mehr in den Integrationsversprechen (etwa durch „Integrated Business Planning“, das alles integriert erscheinen lässt, obwohl es in Wirklichkeit nur die supply chain Planung abdeckt und nicht die gesamte Einzelhandelsplanung). Ein weiteres Beispiel: SAPs „Demand-Driven Replenishment“ – ein Buzzword rund um die von ihnen vorangetriebene DDMRP-Methodik, das von einigen als Hype/Trend statt als bewährte Methode angesehen wird. Sie sind auf diesen Zug aufgesprungen. Auch Begriffe wie „Digital Supply Chain“ werden im SAP-Marketing häufig verwendet. Angesichts der Größe von SAP ist der Hype vielleicht weniger übertrieben, dennoch präsentieren sie ihre Lösung eindeutig als zukunftssicheres All-in-One-Angebot, während Kritiker sie stellenweise als komplex und veraltet empfinden. Aus skeptischer Sicht muss man darauf hinweisen, dass viele der von SAP versprochenen Vorteile nur mit umfangreichen Anpassungen erzielt werden können oder gar nicht so automatisch sind, wie suggeriert wird. Eine unabhängige Studie bewertete SAP im Mittelfeld der Anbieter und hob explizit das M&A-Flickwerk und die Komplexität hervor 11. Das besagt im Grunde: „Glaub nicht, dass alles nahtlos funktioniert; im Inneren ist es ziemlich chaotisch.“ Eine Abwertung aufgrund der Hype-Ausrichtung ist daher gerechtfertigt. Wir stellen fest, dass SAP gegenüber Großkunden relativ transparent kommuniziert, dass eine starke Implementierung erforderlich ist – also nicht so glanzvoll gehypt wird, jedoch das Marketing verschweigt, wie viel Aufwand notwendig ist, um das System reibungslos zum Laufen zu bringen. Deshalb ist eine moderate Skepsis hinsichtlich des Hypes angebracht – nicht so buzzword-lastig wie bei o9 oder Blue Yonder, aber dennoch mit zahlreichen optimistischen Behauptungen, die einer kritischen Überprüfung bedürfen.

Zusammenfassung: SAPs Angebote zur Einzelhandelsoptimierung wirken auf dem Papier umfassend, leiden jedoch darunter, dass sie ein Legacy-Flickwerk sind, das nicht vollständig in die moderne, KI-gesteuerte Ära übergegangen ist. Die SAP IBP-Plattform und die zugehörigen Einzelhandelsmodule können zwar Bestand, Preisgestaltung und Sortiment abdecken – jedoch nicht in wirklich einheitlicher, gemeinsamer Optimierung. Gemeinsame Optimierung wird durch isolierte Tools eingeschränkt: So erfolgen beispielsweise Nachfrageplanung und Nachschubsteuerung in IBP oder F&R, während Preis- und Sortimentsplanung in separaten SAP-Modulen stattfinden, mit lediglich batchweiser Datenübertragung zwischen ihnen. SAP fehlt eine einzige Engine, die Bestände und Preise gleichzeitig optimiert (diese Entscheidungen werden von Menschen und Prozessen koordiniert, nicht von einem Algorithmus).

SAP setzt KI/ML punktuell ein – zum Beispiel „demand sensing“ Algorithmen zur Anpassung kurzfristiger Prognosen oder Machine Learning für die Prognose neuer Produkte –, doch viele seiner Vorhersagen beruhen weiterhin auf traditionellen Methoden und benutzerdefinierten Regeln 11. Es ist bezeichnend, dass SAP spezialisierte Unternehmen (SAF, SmartOps) erwerben musste, um APO zu ergänzen, und selbst heute sind probabilistische Prognosen und fortgeschrittene ML nicht so nativ integriert wie bei einigen Wettbewerbern. Die Planung in SAP liefert typischerweise Einzelwert-Prognosen und verlässt sich darauf, dass Szenarioplaner die Unsicherheit bewerten, anstatt vollständige Wahrscheinlichkeitsverteilungen der Nachfrage auszugeben (wobei die Bestandsoptimierung die Variabilität über Service-Level oder Sicherheitsbestände berücksichtigt). Im Hinblick auf die wirtschaftliche Optimierung können SAPs Tools so konfiguriert werden, dass sie bestimmte finanzielle Ergebnisse optimieren (ihre Markdown-Optimierung maximiert die Marge, die Bestandsoptimierung minimiert die Kosten bei Zielservice etc.), tendieren jedoch zu modulspezifischen Optimierungen statt zu einer übergreifenden Gewinnmaximierung des gesamten Einzelhandelsbetriebs. Planer, die SAP nutzen, jonglieren oft manuell mit mehreren Zielvorgaben (zum Beispiel das Austarieren von Umsatz- und Bestandszielen durch eigene Anpassungen, anstatt dass eine KI dies automatisch übernimmt).

Ein Hauptproblem des Lösungspakets von SAP ist das Skalierbarkeits-gegen-Kosten-Problem. SAP setzt stark auf seine In-Memory-HANA-Datenbank. Zwar ermöglicht dies schnelle Berechnungen großer Datensätze (was beispielsweise sehr detaillierte store-SKU-Prognosen nahezu in Echtzeit ermöglicht), aber es „garantiert hohe Hardwarekosten“ 22 und kann teuer in der Skalierung sein. SAP IBP läuft am besten auf HANA mit erheblicher Speicherzuweisung, was für manche Aufgaben überdimensioniert (und überteuert) sein kann. Dies widerspricht dem Kriterium der Kosteneffizienz; SAPs Ansatz mag den Unternehmensmaßstab bewältigen, jedoch nicht ohne einen hohen Infrastruktur- und Lizenzkostenpreis. Wenn es um komplexe Einzelhandelsfaktoren (Kannibalisierung, Substitution, Verderb etc.) geht, verfügt SAP über entsprechende Fähigkeiten, die jedoch oft umfangreiche Konfiguration erfordern und nicht so schlüsselfertig sind wie manch neuere Lösungen. So kann SAP beispielsweise Promotions modellieren und sogar einige Kannibalisierungseffekte durch seine Customer Activity Repository (CAR)-Analysen oder durch die Konfiguration von Kreuzelastizitäten im Preistool berücksichtigen, jedoch werden diese Zusammenhänge nicht automatisch erkannt – sie beruhen typischerweise darauf, dass Analysten Annahmen eingeben oder separate Analysen außerhalb des Kernplanungslaufs durchgeführt werden. Ebenso konnte SAP F&R die Haltbarkeit für verderbliche Waren berücksichtigen und Bestellungen entsprechend begrenzen, doch die Implementierung einer Frischwarenplanung in SAP war historisch gesehen herausfordernd und manchmal weniger ausgereift als spezialisierte Tools (einige Einzelhändler setzten daher auf kundenspezifische Lösungen für Frischwaren). Automatisierung in der Einzelhandelsplanung von SAP ist vergleichsweise gering. SAP stellt Planungssysteme bereit, doch der Planungsprozess wird häufig benutzergetrieben: Planer legen Parameter fest, starten Prognoseläufe, überprüfen Ausnahmen und geben Bestellungen oder Preise frei. Es gibt automatisierte Berechnungen (zum Beispiel generiert das System Bestellvorschläge oder optimierte Preise), aber eine fortlaufend unbeaufsichtigte Operation wird selten erreicht, ohne dass erhebliche menschliche Aufsicht erforderlich ist. Man muss in den Aufbau automatisierter Workflows investieren (und selbst dann behalten viele SAP-Nutzer Menschen im Prozess, bedingt durch Vertrauensprobleme oder Systemkomplexität). Im Wesentlichen werden die Tools von SAP oft als Entscheidungsunterstützung und nicht als Entscheidungsfindung beschrieben.

Schließlich ist die Technologieintegration ein Schwachpunkt. SAPs Lösung zur Einzelhandelsoptimierung ist in der Tat eine „willkürliche Sammlung“, die aus mehreren Übernahmen auf dem ERP-Kern basiert 11. Trotz Bemühungen wie SAP IBP (das die supply chain Planung auf einer Plattform vereinheitlichen soll) und SAP CAR (das darauf abzielt, Einzelhandels-Transaktionsdaten und Analysen zu vereinheitlichen) ist die Realität, dass SAPs Tools für Bestand, Preisgestaltung und Sortiment nicht von Natur aus als Einheit operieren. Ein nahtloser Ablauf erfordert umfangreiche Integrationsarbeiten (oft von erfahrenen SAP-Integratoren über lange Projekte) 86. Selbst dann müssen sich die Nutzer mit mehreren Benutzeroberflächen und Datenduplikationen auseinandersetzen. Diese uneinheitliche Architektur ist genau das „Frankenstein“-Szenario, vor dem man sich in Acht nehmen sollte – eine Lösung, die technisch zu allem fähig ist, sich aber wie mehrere zusammengefügte Systeme anfühlt und somit zu hoher Komplexität und Wartungsaufwand führt. Skepsis ist geboten bei der Bewertung von SAPs Versprechen. SAP positioniert IBP und seine Einzelhandels-Suite oft als „integrierte End-to-End-Lösung“, doch Experten merken an, dass „Unternehmenssoftware nicht einfach durch M&A verschmolzen werden kann“ 11 – was andeutet, dass SAPs Integration hinter der Vision zurückbleibt. Zudem durchziehen Buzzwords wie „Echtzeit“, „prädiktiv“ und „demand sensing“ das SAP-Marketing, wobei viele Nutzer feststellen, dass der eigentliche Mehrwert dieser Funktionen erheblichen Aufwand und Anpassungen erfordert. Zusammenfassend sind SAPs Fähigkeiten zur Einzelhandelsoptimierung in bestimmten modernen Bereichen breit, aber nicht tief und verlässlich, aber nicht elegant. Sie repräsentieren vielmehr einen Legacy-Enterprise-Ansatz: leistungsstark im Umfang und in der Lage, in großen Umgebungen zu skalieren, aber massig, teuer und komplex – oft ist erhebliche menschliche und IT-Unterstützung nötig, um Ergebnisse zu erzielen 86. Für Einzelhändler, die bereits stark in SAPs Ökosystem investiert haben, können diese Tools funktionsfähig gemacht werden und von der nahtlosen ERP-Integration profitieren. Allerdings könnten sie sich eine Generation zurückliegend anfühlen im Vergleich zum echten Stand der Technik in KI-gesteuerter, ganzheitlicher Einzelhandelsoptimierung. Aufgrund dieser Faktoren ordnen wir SAP eher am unteren Ende ein – es verkörpert viele Fallstricke, die diese Studie hervorheben möchte (Legacy-Technologie, Integrationsprobleme, hohe Gesamtbetriebskosten und Marketing, das die Benutzerfreundlichkeit womöglich zu sehr übertreibt).

Quellen: Kritik an SAPs kumulierter Produktkomplexität und Integrationsherausforderungen 11; hochrangiger Vergleich, dass In-Memory-Designs (wie SAPs) Leistung zugunsten der Hardwarekosten eintauschen 22.


(Die übrigen Anbieter und Analysen können ähnlich folgen, wobei zukunftsgerichtete Wettbewerber in den Fokus rücken und jene, die stark auf Akquisitionen oder Schlagworte angewiesen sind, bestraft werden. Der Übersicht halber schließen wir hier die detaillierten Bewertungen ab.)


Zusammenfassung der Anbieter-Rankings:

  1. Lokad – Hervorragend in einheitlicher, probabilistischer Optimierung; hoch innovativ, minimaler Hype 25 3.
  2. RELEX Solutions – Einzelhandelsnative Plattform mit starker ML und integrierter Planung; fortgeschrittene Modellierung von Promotion/Kannibalisierung 9.
  3. o9 Solutions – Visionäres, integriertes Planungssystem “Digital Brain” mit breitem Umfang, jedoch Vorsicht bei behaupteter KI gegenüber tatsächlicher Implementierung 4.
  4. ToolsGroup – Bewährter Bestandsoptimierer, der sich zu einer vollständigen Einzelhandels-Suite entwickelt; gute Automatisierung, momentan jedoch in die Integration neuer Akquisitionen eingebunden 19 52.
  5. Blue Yonder – Umfassende Einzelhandels-Suite, neu erfunden mit KI; äußerst funktionsreich, jedoch innerlich noch etwas veraltet 72.
  6. SAP (IBP & Retail) – Leistungsstarker Marktführer mit breiter Abdeckung; gehemmt durch Legacy-Komplexität und geringere Agilität, was eine starke Integration erfordert 11.

Jeder Anbieter bringt, wie oben detailliert, Stärken und Schwächen mit. Zusammenfassend stechen diejenigen wie Lokad und RELEX hervor, die echte gemeinsame Optimierung, probabilistische Prognosen und einen sauberen Technologie-Stack von Grund auf 25 3 betonen, da sie zukunftssicher und im Einklang mit unseren Kriterien agieren. Andere, insbesondere die großen Legacy-Suites, mussten moderne Techniken nachrüsten und können Ergebnisse liefern – allerdings nicht ohne das Gewicht älterer Architektur und manchmal unbegründeter Marketingaussagen 72. Nutzer sollten diese Abwägungen durch eine skeptische, ingenieurwissenschaftlich fundierte Betrachtung anstellen, um die Lösung zu wählen, die ihren Bedürfnissen wirklich entspricht, ohne nur den Schein des Hypes zu bieten.

Fußnoten


  1. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎ ↩︎

  2. Probabilistische Prognose (Supply Chain) ↩︎

  3. Probabilistische Prognose (Supply Chain) ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  4. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  5. Kannibalisierung und Halo-Effekte in Nachfrageprognosen | RELEX Solutions ↩︎

  6. Kannibalisierung und Halo-Effekte in Nachfrageprognosen | RELEX Solutions ↩︎

  7. Kannibalisierung und Halo-Effekte in Nachfrageprognosen | RELEX Solutions ↩︎

  8. Kannibalisierung und Halo-Effekte in Nachfrageprognosen | RELEX Solutions ↩︎ ↩︎ ↩︎ ↩︎

  9. Kannibalisierung und Halo-Effekte in Nachfrageprognosen | RELEX Solutions ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  10. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎

  11. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  12. Demand Sensing, ein anschauliches Beispiel für Mootware ↩︎ ↩︎ ↩︎ ↩︎

  13. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎

  14. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎

  15. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎

  16. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎ ↩︎ ↩︎

  17. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎

  18. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎

  19. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  20. Preisoptimierung für den Einzelhandel ↩︎

  21. Preisoptimierung für den Einzelhandel ↩︎

  22. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  23. Supply Chain Optimierung als Service - Lokad ↩︎

  24. Frische-Waren-Auffüllung als Schlüssel zur verbesserten Rentabilität | RELEX Solutions ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  25. Die Vereinheitlichung von Preisgestaltung und Planung ↩︎ ↩︎ ↩︎

  26. Preisoptimierungssoftware | RELEX Solutions ↩︎

  27. 4 Tech-Unternehmen, die Einzelhändlern und Geschäften mit prädiktiver Preisgestaltung helfen - Business Insider ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  28. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎ ↩︎ ↩︎

  29. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎ ↩︎

  30. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎ ↩︎ ↩︎

  31. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎ ↩︎ ↩︎

  32. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎

  33. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  34. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎

  35. Frische-Inventarsoftware | RELEX Solutions ↩︎

  36. Waste not: Wie Lebensmittelhändler frische Erzeugnisse transformieren von … ↩︎

  37. Frische-Waren-Auffüllung als Schlüssel zur verbesserten Rentabilität | RELEX Solutions ↩︎

  38. Frische-Waren-Auffüllung als Schlüssel zur verbesserten Rentabilität | RELEX Solutions ↩︎

  39. Was sich geändert hat: 2024 Magic Quadrant für Supply Chain Planungslösungen ↩︎

  40. Den richtigen KI-Einsatz zur Bewältigung von drei zentralen Supply-Chain-Herausforderungen | RELEX Solutions ↩︎

  41. Umsatz-Wachstumsmanagement-Software powered by AI | o9 Solutions ↩︎ ↩︎ ↩︎

  42. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  43. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  44. Blue Yonder führt Generative AI-Fähigkeit ein, um die Supply-Chain-Verwaltung und -Orchestrierung dramatisch zu vereinfachen ↩︎

  45. Schalte den vollen Geschäftswert frei mit o9 AI/ML-Fähigkeiten ↩︎

  46. Demand Management Akquisition optimiert End-to-End Planung ↩︎

  47. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎ ↩︎ ↩︎

  48. Einzelhandels-Preissoftware | Markdown Pricing Tool ↩︎

  49. Einzelhandels-Preissoftware | Markdown Pricing Tool ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  50. Einzelhandels-Preissoftware | Markdown Pricing Tool ↩︎

  51. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎

  52. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  53. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎ ↩︎ ↩︎

  54. ToolsGroup erwirbt Mi9 Retails Demand Management Business | ToolsGroup ↩︎ ↩︎ ↩︎ ↩︎

  55. Decathlon | ToolsGroup ↩︎

  56. Wie man genauere Verkaufsprognosen erstellt Masterclass ↩︎

  57. Probabilistische Prognose – ein Primer | ToolsGroup ↩︎

  58. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  59. ToolsGroup erwirbt Mi9 Retails Demand Management Business | ToolsGroup ↩︎

  60. Einzelhandels-Preissoftware | Markdown Pricing Tool ↩︎

  61. Einzelhandels-Preissoftware | Markdown Pricing Tool ↩︎

  62. Marktstudie, Supply Chain Optimierung Anbieter ↩︎ ↩︎

  63. ToolsGroup erwirbt Evo für branchenführende Responsive AI | ToolsGroup ↩︎ ↩︎

  64. Was sich geändert hat: 2024 Magic Quadrant für Supply Chain Planungslösungen ↩︎

  65. Was hat sich geändert: 2024 Magic Quadrant für Supply Chain Planungslösungen ↩︎ ↩︎

  66. ToolsGroup erwirbt Onera, um die Retail Plattform von der Planung … ↩︎

  67. ToolsGroup JustEnough® bringt Responsive AI zu NRF 2024 ↩︎ ↩︎

  68. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  69. Einzelhandelspreis-Software | Markdown Preisgestaltungs-Tool ↩︎ ↩︎ ↩︎

  70. ToolsGroup als führend positioniert in der SPARK Matrix für Retail … ↩︎

  71. Was hat sich geändert: 2024 Magic Quadrant für Supply Chain Planungslösungen ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  72. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  73. Nachfrageplanung Software | Blue Yonder ↩︎ ↩︎

  74. Blue Yonder transformiert und erneuert die Supply Chain Planung … ↩︎

  75. AI for Supply Chain | Blue Yonder ↩︎

  76. Supply chain Nachfrageprognose und Planung - Google Patents ↩︎

  77. Drei Wege, die Genauigkeit der Nachfrageprognose in einer volatilen Welt zu erhöhen ↩︎

  78. Supply chain Nachfrageprognose und Planung - Google Patents ↩︎

  79. Generative AI: Kraftmultiplikator für autonome Supply Chain … ↩︎

  80. Supply Chain Lagerbestandsoptimierung | Blue Yonder ↩︎ ↩︎

  81. Knauf baut eine autonome Supply Chain mit Blue Yonder ↩︎

  82. 4 Technologieunternehmen, die Einzelhändlern und Geschäften mit prädiktiver Preisgestaltung helfen - Business Insider ↩︎

  83. Digitale Supply Chain Planung mit Blue Yonder Solutions - Infosys ↩︎

  84. Realisierung der Autonomous Supply Chain™ mit Blue Yonder ↩︎

  85. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎

  86. Marktanalyse, Supply Chain Optimierungsanbieter ↩︎ ↩︎ ↩︎