eCommerce-Optimierungssoftware, Februar 2025
Einführung
Der Markt für eCommerce-Optimierungssoftware ist übersät mit gewagten Behauptungen über KI-getriebene Wunder, doch ein genauer Blick unter die Haube zeigt, dass nur wenige Anbieter das Versprechen erfüllen, Bestände, Preise und Sortimente gemeinsam zu optimieren mit modernster Technologie. In dieser Studie bewerten wir führende Lösungen für reine eCommerce-Anbieter (Online-Händler ohne stationäre Geschäfte) und ordnen die relevantesten Anbieter – darunter Lokad, RELEX Solutions, Blue Yonder und ToolsGroup – nach ihren technischen Vorzügen und Schwächen. Lokad zeichnet sich als Spitzenreiter aus dank seines einheitlichen, probabilistischen Ansatzes und hohem Automatisierungsgrad, während RELEX und Blue Yonder umfassende Lösungen bieten, die jeweils durch undurchsichtige KI-Komplexität und Altlasten getrübt werden. ToolsGroup liefert eine bewährte Bestandsoptimierung, die auf fundierter Mathematik basiert, steht jedoch vor Integrationsherausforderungen, wenn sie in die Preisgestaltung und das Sortiment expandiert. Überall wenden wir einen zutiefst skeptischen Blick an: Wir durchdringen das Marketinggetue, hinterfragen Anbieterbehauptungen anhand unabhängiger Belege und heben die oft unausgesprochenen Vorbehalte hervor (z. B. das Versäumnis, Entscheidungen ganzheitlich zu optimieren oder die Abhängigkeit von teuren Architekturen). Ziel ist eine narrative, technisch fundierte Analyse, die die Wahrheit über den Hype stellt, sodass eCommerce-Akteure verstehen, wer den Stand der Technik tatsächlich vorantreibt – und wer hinterherhinkt.
Die Goldstandard-Kriterien: Gemeinsame Optimierung & fortschrittliche Technologie
Jeder Anbieter kann mit KI oder Big Data angeben, doch die wirkliche Optimierung eines eCommerce-Geschäfts erfordert das Erreichen hoher technischer und funktionaler Anforderungen. An erster Stelle steht die gemeinsame Optimierung: die Fähigkeit, gleichzeitig Entscheidungen zu Bestandsniveaus, Preisgestaltung und Sortimentszusammenstellung zu treffen. Diese isoliert zu behandeln – wie es viele ältere Systeme tun – ist grundsätzlich fehlerhaft, da sie eng miteinander verknüpft sind (Preisgestaltung beeinflusst die Nachfrage, was den Bestand beeinflusst, Sortimentsänderungen wirken sich auf beides aus etc.). Eine eCommerce-Optimierungslösung muss alle drei koordinieren; so könnte sie beispielsweise entscheiden, weniger von einem Produkt zu lagern und es früher rabattieren, wenn Prognosen langsamen Verkauf anzeigen, oder die Preise bestimmter Artikel erhöhen, um Lagerengpässe zu vermeiden. Lösungen, die den Bestand optimieren, aber die Preisgestaltung ignorieren – oder umgekehrt – lassen Geld auf dem Tisch liegen und sind von vornherein suboptimal.
Über die gemeinsame Optimierung hinaus sollten wirklich moderne Lösungen aktuelle Techniken und Architekturen nutzen:
- Probabilistische Prognosen: Anstatt einzelner Punktprognosen sollte man Wahrscheinlichkeitsverteilungen verwenden, um die Unsicherheit der Nachfrage abzubilden. Dies ist entscheidend für eCommerce, das mit volatilen Nachfrageverläufen und einem „Long Tail“ an SKUs zu kämpfen hat. Traditionelle Werkzeuge (z. B. alte SAP- oder Oracle-Module), die eine einzelne Zahl und eine Sicherheitsreserve liefern, unterschätzen oft die tatsächliche Variabilität 1 2. Führende Anbieter setzen heute auf probabilistische oder „stochastische“ Modelle, die die Bandbreite möglicher Ergebnisse quantifizieren.
- Wirtschaftliche Optimierung: Entscheidungen sollten von wirtschaftlichen Zielen (Gewinn, Kosten, Service-Level-Ziele) geleitet werden und sich nicht nur auf heuristische Regeln stützen. So berücksichtigt ein wirklich optimiertes System beispielsweise die Gewinnmargen und Lagerhaltungskosten von Produkten bei der Festlegung von Bestandsmengen und Preisen. Es priorisiert Maßnahmen, die den erwarteten Gewinn maximieren oder die Gesamtkosten minimieren, statt blind eine bestimmte Lieferrate anzustreben. Dies erfordert, dass Kosten- und Erlösparameter in die Algorithmen integriert werden.
- Skalierbarkeit und Kosteneffizienz: ECommerce-Daten sind immens (potenziell Millionen von SKUs, tägliche Transaktionen, mehrere Kanäle). Die Software muss große Datenmengen verarbeiten, ohne exorbitante Hardwarekosten oder träge Leistung. Architekturen, die naiv alles im Arbeitsspeicher (RAM) halten, können im großen Maßstab unerschwinglich teuer werden. Moderne Konzepte nutzen Cloud Computing sinnvoll, z. B. durch verteilte Verarbeitung, festplattenbasierte Datenspeicher und effiziente Algorithmen. Eine Lösung, die einen riesigen Serverpark oder teure Plattformen (wie den übermäßigen Einsatz der Snowflake-Daten-Cloud) benötigt, könnte den ROI schmälern. Umgekehrt kann clevere Technik Terabyte-große Datensätze innerhalb weniger Stunden auf Standard-Cloud-Instanzen verarbeiten 3 4.
- Kannibalisations- und Substitutionseffekte: Bei Entscheidungen zu Sortiment und Preisgestaltung muss das System berücksichtigen, dass Produkte die Nachfrage der jeweils anderen beeinflussen. Wenn beispielsweise zwei Produkte enge Substitute sind, führt der Ausfall des einen dazu, dass ein Teil der Nachfrage auf das andere übergeht (ein Kannibalisierungseffekt). Dies erfordert mehr als eine einfache OLAP-Analyse oder manuell definierte Produktgruppen; es bedarf Modellen, die Kreuzelastizitäten oder Anbindungsraten erlernen. Viele Altsysteme gehen davon aus, dass die Nachfrage jedes Produkts unabhängig ist, was zu Fehlern in der Prognose und der Sortimentsplanung führt. Ein topmoderner Anbieter sollte solche Zusammenhänge explizit modellieren (z. B. durch den Einsatz von Machine Learning auf Transaktionsdaten zur Ableitung von Produktaffinitäten).
- Marktplatz- und Wettbewerbseinflüsse: Reine eCommerce-Anbieter werden oft von Marktplatzdynamiken beeinflusst – beispielsweise durch Konkurrenz auf Amazon oder eBay, Drittanbieter usw. Optimierungssoftware sollte idealerweise Signale wie Wettbewerberpreise oder Lagerengpässe auf Marktplätzen einbeziehen. Nur wenige machen dies gut. Es ist eine komplexe, aber zunehmend relevante Herausforderung: Wenn ein Wettbewerber bei einem beliebten Artikel keinen Lagerbestand mehr hat, sollte Ihr System diese Gelegenheit erkennen und entsprechend den Preis oder die Werbeausgaben anpassen. Ebenso, wenn Sie sowohl direkt als auch über Marktplätze verkaufen, sollte das System kanalsübergreifend optimieren (um beispielsweise eine Überbestückung der eigenen Website zu vermeiden, wenn das Produkt über Amazon FBA verkauft wird).
- Multi-Channel- und Omni-Channel-Fähigkeiten: Auch ohne stationäre Geschäfte kann ein eCommerce-Händler über mehrere Online-Kanäle verfügen (eigene Website, Marktplätze, eventuell regionale Seiten). Die Optimierungsengine sollte die Nachfrage und den Bestand über alle Kanäle hinweg ganzheitlich verwalten – indem sie beispielsweise erkennt, dass Bestände geteilt werden oder dass Preisentscheidungen in einem Kanal Auswirkungen auf einen anderen haben können. „End-to-End“-Planung ist nicht nur ein Schlagwort; sie bedeutet, dass die Software das Gesamtbild sieht (von den Lieferanten bis zu den Kunden, über alle Vertriebskanäle hinweg).
- Hoher Automatisierungsgrad („Robotisierung“): Das ultimative Versprechen dieser Systeme ist das autonome Entscheiden. Sie sollten theoretisch unbeaufsichtigt arbeiten können, indem sie Auffüllaufträge, Preisaktualisierungen usw. erzeugen, ohne dass Benutzer täglich an den Reglern drehen müssen. In der Praxis erlauben alle Anbieter noch eine Benutzerkonfiguration, aber wir bevorzugen diejenigen, die den Bedarf an manuellen Anpassungen minimieren. Vorsicht vor Lösungen, die mit Automatisierung prahlen, aber Dutzende von Reglern (Parameter, Gewichtungsfaktoren, Regeln) offenlegen – das ist ein innerer Widerspruch. Wahre Automatisierung entsteht dadurch, dass die Algorithmen optimale Einstellungen finden, anstatt dass Benutzer sie ständig neu kalibrieren müssen. Die besten Systeme verwenden Techniken wie sich selbst lernende Modelle, die sich mit neuen Daten anpassen, sodass die Entscheidungen im Laufe der Zeit ohne manuelles Eingreifen optimal bleiben 5. Je weniger „Treiber“-Einstellungen ein Benutzer pflegen muss, desto glaubwürdiger die Automatisierung.
- Robuste, kosteneffiziente Architektur: Wir haben bereits die Kosteneffizienz angesprochen, doch es sei ausdrücklich erwähnt: Einige moderne Lösungen setzen auf Cloud Data Warehouses (wie Snowflake), um zu skalieren. Dies kann Infrastrukturprobleme beseitigen, führt jedoch zu einem verbrauchsabhängigen Kostenmodell. Wenn ein Planungstool riesige Datenmengen auf einer Plattform wie Snowflake verarbeiten muss, können die Kosten in die Höhe schießen (ähnlich der MIPS-basierten Preisstruktur von IBM in den 1990er Jahren, bei der mehr CPU-Nutzung exponentiell höhere Gebühren bedeutete). Eine ideale Lösung bewältigt Big Data mit intelligenten Algorithmen, um den Cloud-Einsatz (und damit die Kosten) in einem angemessenen Rahmen zu halten 4. Ebenso können durch Akquisitionen entstandene Lösungen zu einem Flickenteppich von Modulen auf unterschiedlichen Technologiestacks werden, was zu hohen Integrationskosten für den Kunden führt (sei es in finanzieller Hinsicht oder durch Systemlatenz). Cloud-native zu sein und von Grund auf integriert zu werden ist ein Vorteil – allerdings nur, wenn die Architektur wirklich redundante Datenbewegungen eliminiert, ohne neue Engpässe zu verursachen.
Mit diesen Kriterien als Grundlage wenden wir uns nun den Anbietern zu. Wir bewerten Lokad, RELEX, Blue Yonder und ToolsGroup als die relevantesten Akteure für eCommerce-Optimierung und beurteilen jeden anhand der oben genannten Maßstäbe. Die Analyse ist narrativ – sie konzentriert sich darauf, wie jeder Anbieter das Problem angeht und wo Skepsis angebracht ist – und nicht als reine Checkliste von Funktionen. Wichtig ist, dass wir uns, wo immer möglich, auf glaubwürdige Belege (und direkte Zitate) stützen und die Falle vermeiden, Anbieterbehauptungen ungeprüft zu übernehmen.
1. Lokad – Einheitliche quantitative Optimierung mit probabilistischem Rückgrat
Lokad sticht als Anbieter hervor, der explizit auf der Idee der gemeinsamen Optimierung mittels modernster Technologie basiert. Anders als herkömmliche supply chain Software, wird Lokad nicht als eine Reihe von Modulen (Prognose, MRP etc.) angeboten, die angepasst werden müssen, sondern als eine programmatische Plattform, auf der für jeden Kunden eine einheitliche Optimierungslogik implementiert wird. Dieser Ansatz, den sie als die Quantitative Supply Chain bezeichnen, erfordert möglicherweise mehr Data Science im Vorfeld, liefert jedoch eine Lösung, die maßgeschneidert darauf ausgerichtet ist, alle Entscheidungen gemeinsam zu optimieren – Bestand, Preisgestaltung, Nachschub, alles in einem. Die Philosophie von Lokad ist, dass Prognosen nur ein Mittel zum Zweck sind; das wahre Ziel besteht darin, Entscheidungen (z. B. wie viel eingekauft werden soll, welcher Preis gesetzt wird) zu optimieren, indem alle Beschränkungen und wirtschaftlichen Abwägungen berücksichtigt werden.
Im Kern steht die probabilistische Prognose. Lokad war ein früher Vorreiter im Einsatz vollständiger Wahrscheinlichkeitsverteilungen zur Erfassung der Nachfrage und hat sein Können sogar in neutralen Prognosewettbewerben unter Beweis gestellt. Im renommierten M5 Forecasting Competition (2020) belegte ein Lokad-Team von 909 Mannschaften weltweit den 6. Platz 6 – eine beeindruckende Bestätigung ihrer Technologie, zumal sich M5 auf detaillierte Einzelhandelsdaten konzentrierte (wie sie eCommerce-Unternehmen begegnen). Bemerkenswert ist, dass M5 probabilistische (Quantil-)Prognosen verlangte, was eine Stärke von Lokad unterstreicht. Dieses Ergebnis beweist nicht nur akademische Kompetenz, sondern auch praktische Relevanz: Ihre Prognosen zählten zu den besten, was jeder Optimierung von Bestand und Preisgestaltung zugrunde liegt. Zudem hat der CEO des Unternehmens betont, dass über einen gewissen Punkt hinaus Verbesserungen der Prognosegenauigkeit abnehmende Renditen im Vergleich zu einer besseren Modellierung von Entscheidungen bringen 7. Anders ausgedrückt: Lokad konzentriert sich darauf, die Entscheidungen (wie Bestellmengen, Allokationen etc.) mithilfe der probabilistischen Prognosen zu optimieren, anstatt einer minimalen Verbesserung der Prognosegenauigkeit nachzujagen, die kaum einen materiellen Einfluss hat. Dieser Ansatz ist erfrischend und für den eCommerce von Bedeutung, da er anerkennt, dass der Umgang mit Lagerengpässen, intermittierender Nachfrage und Substitutionseffekten häufig wichtiger ist als eine geringe prozentuale Verbesserung eines Prognosewerts 7.
Technologisch ist Lokad state-of-the-art und stark technisch orientiert. Sie haben ihren eigenen cloud-native Tech-Stack entwickelt (einschließlich einer benutzerdefinierten domänenspezifischen Sprache namens “Envision” zur Erstellung von Optimierungsskripten). Dieser Stack ist darauf ausgelegt, große Datenmengen effizient und wirtschaftlich zu verarbeiten. So verarbeitet das System von Lokad routinemäßig Gigabytes bis Terabytes an Kundendaten (Bestellungen, Klicks etc.) innerhalb weniger Stunden über Nacht, um Entscheidungen für den nächsten Tag zu generieren 8 3. Um dies zu erreichen, vermeiden sie es, alles in den RAM zu laden; stattdessen nutzen sie speicherabbildgemappte Dateien und spaltenbasierte Speicherung auf Festplatten, wodurch Datensätze, die größer sind als der Arbeitsspeicher einer Maschine, transparent durch das Auslagern auf schnelle SSDs gehandhabt werden können 3 9. Sie weisen ausdrücklich darauf hin, dass Envision (ihre Engine) auch Datensätze unterstützt, die größer sind als der Speicher des gesamten Clusters, indem es “clever auf NVMe-Laufwerke auslagert”, und dass embarrassingly parallel Operationen automatisch über Kerne und Maschinen verteilt werden 3. Das Endergebnis: Lokad kann auf extrem große SKU-Sortimente skalieren, ohne dass der Kunde absurd viel in RAM oder spezielle Geräte investieren muss. Tatsächlich betonen sie, dass nur wenig Hardware benötigt wird – sie vermeiden Situationen, in denen „das Klicken eines Run-Buttons Hunderte von Dollar“ an Cloud-Gebühren kostet 4. Dies ist ein subtiler, aber entscheidender Punkt: Er unterscheidet sie von einigen schweren Enterprise-Systemen, die zwar technisch in der Lage sind, Big Data zu verarbeiten, dies aber zu hohen Kosten tun. Der Ansatz von Lokad ähnelt einer optimierten Big-Data-Pipeline, ähnlich wie Apache Spark oder Google BigQuery, jedoch speziell für supply chain Berechnungen entwickelt. Dieser Fokus auf Effizienz hält die Lösung skalierbar kosteneffektiv – ein großer Vorteil für eTailers mit Millionen von Datensätzen.
Die Behandlung von Preisgestaltung und Sortiment erfolgt bei Lokad nicht über separate Module, sondern über dieselbe Optimierungslogik. Da die Plattform im Wesentlichen code-gesteuert ist, lassen sich die Interaktionen modellieren. So kann man beispielsweise ein Skript schreiben, das lautet: „Für jedes Produkt wird die probabilistische Nachfrage bei verschiedenen Preispunkten berücksichtigt, unter Einbeziehung der Lagerverfügbarkeit und der Nachbestellfrist, und anschließend wird der Preis gewählt, der die erwartete Marge abzüglich der Lagerhaltungskosten maximiert – bei gleichzeitiger Vermeidung häufiger Lagerengpässe.“ Dies ist eine vereinfachte Beschreibung, die jedoch verdeutlicht, dass Preisgestaltung und Bestandsführung gemeinsam entschieden werden können. Ist ein Produkt überbestückt, könnte der Code einen Rabatt festlegen, um den Verkauf anzukurbeln; bei Knappheit könnte er den Preis erhöhen, um den Bestand den zahlungskräftigsten Kunden zuzuteilen. Nur wenige andere Anbieter erlauben ein derart intensives Zusammenspiel. Die Lösung von Lokad generiert im Grunde eigene Entscheidungsvorgaben, die maßgeschneidert auf die Daten des Händlers abgestimmt sind.
Kannibalisations- und Substitutionseffekte werden natürlich gehandhabt, wenn die richtigen Daten bereitgestellt werden. So kann beispielsweise ein Input integriert werden wie „wenn Artikel A nicht verfügbar ist, wie viel seiner Nachfrage auf Artikel B übergeht“ – solche Zusammenhänge lassen sich aus historischen Daten (durch Analyse vergangener Lagerengpässe oder Sortimentsänderungen) erlernen und in die Optimierung einfließen. Da Envision eine vollwertige Programmiersprache ist, können diese komplexen Nachfragedynamiken codiert werden. Die Literatur von Lokad zeigt, dass sie dies aktiv tun: Das System „deckte Korrelationen zwischen Produkten, Kanälen und Zeiträumen auf“ und berechnete die Entscheidungen entsprechend, anstatt anzunehmen, dass jedes SKU unabhängig ist 10. Es stützt sich nicht auf vereinfachte Zeitreihenextrapolationen, sondern berechnet vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage, die Promotions, Lagerengpässe, saisonale Schwankungen usw. berücksichtigen 11. Indem diese Faktoren (einschließlich des Nachfrageverlusts aufgrund von Lagerengpässen) erfasst werden, vermeidet Lokad das klassische Garbage-in-Problem bei Prognosen auf verzerrten Verkaufsdaten.
Ein weiteres Gebiet, in dem Lokad brilliert, ist Wettbewerbsanalyse und externe Datenintegration. Die Plattform kann sämtliche relevante Daten aufnehmen – z. B. Wettbewerberpreise, Web-Traffic, sogar Marketingkampagnen-Kalender – als zusätzliche Eingangssignale. Sie erwähnen ausdrücklich die Fähigkeit, „externe Signale wie Wettbewerberpreise“ und Marketingkalender zu integrieren, und dank des programmatischen Designs 12 einfach mit neuen Algorithmen oder Eingaben zu experimentieren. Praktisch gesehen, wenn ein eCommerce-Unternehmen beispielsweise gescrapte Daten zu Wettbewerberpreisen hat oder weiß, dass der Lagerbestand eines Marktplatzpartners ein Indikator ist, kann es diese in Lokads Modell einfließen lassen, um Entscheidungen zu verfeinern. Dies ist weitaus flexibler als die meisten Standardlösungen, die möglicherweise nur interne Daten verarbeiten. Es spricht für einen „Glass Box“-Ansatz: Anstatt die Logik zu verbergen, ermöglicht Lokad es, sie anzupassen. Allerdings erfordert Lokads Ansatz, dass ein Supply Chain Scientist die Konfiguration vornimmt – es handelt sich nicht um eine Point-and-Click-Oberfläche für Anfänger. Dies könnte für manche als Nachteil angesehen werden; jedoch ist der Gewinn eine Lösung, die exakt zum Unternehmen passt und wirklich Entscheidungen gemäß den einzigartigen Regeln des Unternehmens automatisieren kann.
Automatisierung und Autonomie: Lokad ist wohl der Anbieter, der dem „vollständig robotisierten“ supply chain Planner in dieser Gruppe am nächsten kommt. Die Philosophie ist, dass, sobald die Skripte (Logik) eingerichtet und validiert sind, das System täglich (oder intratäglich) laufen kann und empfohlene Entscheidungen ohne menschliches Eingreifen trifft. Viele Lokad-Nutzer vertrauen effektiv darauf, dass es Bestellvorschläge und Preisempfehlungen generiert, die Planer dann kurz überprüfen oder sogar automatisch umsetzen. Da das System selbstadaptiv ist (es trainiert die Prognosen täglich mit den neuesten Daten nach und optimiert entsprechend), erfordert es kein manuelles Parametertuning. Tatsächlich kritisiert Lokad nachdrücklich die Branchengewohnheit des endlosen Feintunings – sie heben hervor, dass ihr System „nicht auf simplen Zeitreihenmethoden basiert“ und ohne ständiges manuelles „Tuning“ der Nutzer 10 funktioniert. Die Schwerstarbeit bei der Anpassung an Saisonalität, Ereignisse und unregelmäßige Nachfrage wird von den Algorithmen übernommen und nicht dadurch, dass Planer die Prognosen anpassen. Ein zentraler Aspekt ist die Umsetzbarkeit: Lokad liefert Entscheidungen (oder umsetzbare Empfehlungen) anstelle von rein diagnostischen Ergebnissen. Zum Beispiel, anstatt lediglich darauf hinzuweisen, dass ein bestimmtes Produkt voraussichtlich ausverkauft sein könnte (wie es einige „Control Tower“-Dashboards tun), empfiehlt es direkt eine Bestellmenge oder eine Preisänderung, um dem entgegenzuwirken. Es zielt darauf ab, „korrigierende Maßnahmen zu empfehlen, anstatt nur eine Warnung anzuzeigen“, was entscheidend ist, wenn man einen unbeaufsichtigten Betrieb wünscht 13. In einer schnelllebigen eCommerce-Umgebung reicht es nicht, wenn ein System nur auf ein Problem hinweist – man möchte, dass es einem sagt, was zu tun ist oder es sogar selbst erledigt. Lokad ist dafür ausgelegt, Letzteres zu leisten.
Angesichts dieses Lobes, wo sollte man bei Lokad skeptisch sein? Die Hauptwarnung ist, dass Lokads Ansatz hochgradig maßgeschneidert und technisch ist. Es handelt sich nicht um ein Plug-and-Play-SaaS, das man einschaltet und sofort eine schöne Benutzeroberfläche mit allen Antworten sieht. Es erfordert ein gewisses Maß an Datenreife und Vertrauen in quantitative Methoden seitens des Nutzerunternehmens. Außerdem besteht eine implizite Abhängigkeit vom Lokad-Team („Supply Chain Scientists“), besonders während der initialen Einrichtung – effektiv fungieren sie als Ihr erweitertes Team zur Implementierung der Lösung. Dies ist ein anderes Modell als die Installation einer klar definierten Software. Wenn ein Kunde nicht bereit ist, sich auf diesen kollaborativen, ingenieurintensiven Prozess einzulassen, könnte er Schwierigkeiten haben. Aber genau dieses Modell ermöglicht auch die Tiefe der Optimierung. Es ist ein klassischer Kompromiss: Flexibilität und Leistungsfähigkeit versus Benutzerfreundlichkeit. Lokad optimiert eindeutig in Richtung Leistung und Flexibilität.
Aus Marktplatzperspektive scheint Lokads Wertangebot besonders auf die Bedürfnisse des eCommerce zugeschnitten zu sein. eCommerce-Unternehmen jonglieren mit vielen Herausforderungen – Ausverkäufen, Überbeständen, volatilen Nachfragespitzen durch Aktionen oder Influencer-Hits usw. – und greifen oft zu einer Zusammenstellung von Werkzeugen (BI-Dashboards, Ad-hoc-Python-Skripten usw.), um die Lücken zu schließen, die ihr ERP oder WMS hinterlässt. Lokad positioniert sich im Grunde als die spezialisierte Schicht, die all diese Signale aufnimmt und einen nahezu optimalen Plan ausgibt. Sie stellen sich ausdrücklich gegen die simplen Werkzeuge, die von Marktplätzen oder ERPs bereitgestellt werden, und bemerken, dass diese „nur einen Bruchteil“ dessen abdecken, womit eCommerce-Unternehmen es zu tun haben 14 15. Zum Beispiel könnte ein Amazon-Marktplatz eine Nachfrageprognose für die nächste Woche liefern – aber er wird nicht Ihre supply chain Kosten oder Ihren Multi-Warehouse-Bestand integrieren. Lokads Technologie ist darauf ausgelegt, jeden relevanten Indikator bis auf SKU-Ebene zu verarbeiten, ohne zu versagen und ohne dass Nutzer manuell mit Tabellenkalkulationen jonglieren müssen 16. Dies ist ein starkes Wertangebot, sofern es wie beworben geliefert wird.
Zusammenfassend Lokad: Es belegt den Spitzenplatz in unserer Liste aufgrund seiner ganzheitlichen Optimierungsfähigkeit und fortschrittlichen Technologie. Es erfüllt das Kriterium der gemeinsamen Optimierung direkt – Lagerbestand, Preisgestaltung und mehr können über seine programmatische Plattform gemeinsam optimiert werden. Es nutzt wahrscheinlichkeitsbasierte Prognosen und ökonomische Treiber (sie haben Quantilprognosen durchgeführt, bevor es in Mode kam, wie ihr Erfolg beim M5-Wettbewerb 6 zeigt) und scheut sich nicht vor komplexen Effekten wie Substitution oder kanalübergreifenden Korrelationen. Seine Architektur ist skalierbar und kostenbewusst, wobei die Falle der reinen In-Memory-Berechnung mit Brute-Force vermieden wird 3 4. Die Automatisierung ist sehr hoch, mit minimalem manuellem Feintuning und einem Fokus darauf, Entscheidungen zu liefern und nicht nur Einblicke 13. Die Skepsis, die man gegenüber Lokad haben könnte, bezieht sich weniger darauf, ob die Technologie funktioniert – die Beweise deuten darauf hin, dass sie es tut – sondern vielmehr darauf, ob eine Organisation bereit ist, eine derart datenwissenschaftsintensive Lösung einzuführen. Außerdem stellt sich die Frage nach der Erfolgsbilanz in größeren Maßstäben; Lokad ist kleiner als einige Wettbewerber, hat jedoch namhafte Kunden (z. B. industrielle Aftermarket-Distributoren, Fashion-eTailers usw., laut ihren Fallstudien). Angesichts all dessen erzielt Lokad in unserer Studie eine Spitzenbewertung als wirklich hochmoderner eCommerce-Optimierungsanbieter.
2. RELEX Solutions – KI-gestützte Retail-Optimierung (mit Vorbehalten)
RELEX Solutions ist ein in Finnland gegründeter Anbieter, der im Bereich Retail-Planung rasch aufgestiegen ist und oft im gleichen Atemzug wie etablierte Giganten in den Bereichen Prognose und Nachschub genannt wird. RELEX bietet eine einheitliche Plattform, die Nachfrageprognose, Lagerbestandsnachschub, Zuteilung, Sortimentsplanung, Personaleinsatzplanung und kürzlich auch Preis- sowie Aktionsoptimierung abdeckt. Ihre Kernstärke lag bisher im Lebensmittel- und Einzelhandel (einschließlich stationärem Handel), sie richten ihr Marketing jedoch auch aktiv an eCommerce-Akteure, wobei sie ihre Fähigkeit betonen, sowohl online als auch offline zu planen. Für reine eCommerce-Nutzer liegt der Wert von RELEX in seiner End-to-End-Planung – die Gewährleistung des richtigen Lagerbestands am richtigen Ort, zum richtigen Preis und mit den passenden Aktionen mithilfe fortschrittlicher Algorithmen zur Reaktion auf Nachfrageänderungen.
RELEX bewirbt den Einsatz von KI und Machine Learning stark. Tatsächlich ist ihr CEO Mikko Kärkkäinen ein entschiedener Befürworter von „pragmatischer KI“ im Einzelhandel. Laut Kärkkäinen „verarbeiten KI-gesteuerte Bestandsmanagementsysteme Hunderte von nachfragebeeinflussenden Faktoren“ zur Steigerung der Prognosegenauigkeit 17. Er hebt sogar hervor, dass Wetterdaten nicht nur einen Faktor darstellen, sondern „Hunderte verschiedener Faktoren“ (Temperatur, Luftfeuchtigkeit usw.), die ihre Machine-Learning-Modelle berücksichtigen 18. Dies veranschaulicht den Ansatz von RELEX: Ein breites Netz für prädiktive Signale (Wetter, Aktionen, Feiertage, Social-Media-Trends usw.) aufzustellen und ML zu nutzen, um diese mit den Verkaufszahlen zu korrelieren. Der Vorteil ist, dass das System komplexe Muster erkennen kann (z. B. wie eine plötzliche Hitzewelle in Kombination mit einem verlängerten Wochenende die Nachfrage nach bestimmten Getränken beeinflusst). Die skeptische Sichtweise lautet jedoch, dass das Hervorheben von „Hunderten von Faktoren“ mehr Marketing als eine sinnvolle Verbesserung sein könnte. In der Prognose führt ab einem gewissen Punkt das Hinzufügen weiterer Eingaben zu abnehmenden Erträgen oder kann die Genauigkeit sogar verschlechtern, wenn das Modell sich an Rauschen anpasst. Außerdem verwandelt es das Modell in eine Black Box – es ist nahezu unmöglich für einen Menschen, ein Modell zu verstehen, das tatsächlich Hunderte von Variablen verwendet. RELEX versucht, diesen Black-Box-Bedenken entgegenzuwirken, indem es einen „Glass Box“-Ansatz (Transparenz in der KI) propagiert. Sie haben darüber gesprochen, Einblicke in die Prognosen zu gewähren und nicht nur ein Ergebnis, sodass Planer die Schlüsselfaktoren erkennen können. Realistisch betrachtet wird jedoch ein neuronales Netzwerk oder ein Gradient-Boosting-Modell mit Hunderten von Merkmalen nicht vollständig interpretierbar sein. Planer müssen dem System vertrauen. Dies ist ein allgemeiner Kompromiss bei KI/ML: RELEX ist der Meinung, „eine Menge Daten in das Problem zu werfen und die Algorithmen die Lösung finden zu lassen.“
Bringt das Ergebnisse? RELEXs Kunden berichten häufig von verbesserten Prognosen und weniger Ausverkäufen, insbesondere in aktionsorientierten und saisonalen Situationen, in denen herkömmliche Methoden Schwierigkeiten hatten. Zum Beispiel integriert RELEX Wettervorhersagen und hat für bestimmte wetterempfindliche Produkte bei ungewöhnlichem Wetter bis zu 75 % Reduktion des Prognosefehlers behauptet 19. Solche spezifischen Behauptungen nehmen wir jedoch mit Vorsicht – sie könnten ausgewählt sein. Dennoch fügt der Ansatz von RELEX wahrscheinlich einen Mehrwert in der kurzfristigen Prognose („demand sensing“) hinzu, indem Prognosen anhand der neuesten Informationen angepasst werden. Im Wesentlichen stimmen ihre ML-Modelle die Basisprognose kontinuierlich mit neuen Datensignalen fein ab. Dies entspricht dem, was manche als Demand Sensing bezeichnen (unter Verwendung nahezu in Echtzeit vorliegender Daten zur Aktualisierung von Kurzfristenprognosen). In seinen Materialien integriert RELEX Demand Sensing in seine umfassendere ML-Prognose, anstatt es als separates Modul zu behandeln. Sie befürworten ein „kontinuierliches, automatisiertes Re-Forecasting“, während sich die Situationen ändern.
Was die gemeinsame Optimierung betrifft, wie gut deckt RELEX neben dem Lagerbestand auch Preisgestaltung und Sortimentsplanung ab? Historisch gesehen war RELEX am stärksten im Bereich Nachschub und Zuteilung (um sicherzustellen, dass Filialen oder DCs nicht leer laufen). Auch die Sortimentsplanung (Entscheidung darüber, welche Produkte in welche Geschäfte oder welche SKUs aufgenommen werden) gehörte zu ihrem Portfolio, ebenso wie die Planogramm-Optimierung (Flächenplanung). Die Preisoptimierung war bisher eine Lücke – doch im Jahr 2022 führte RELEX eine KI-gesteuerte Preisoptimierung ein 20 21. Sie positionieren diese Funktion als nahtlos in ihre Aktionsplanung integriert. Zum Beispiel teilen sich ihr Aktionsplanungs-Tool und das Preisoptimierungstool dieselben Daten und dieselbe Benutzeroberfläche, sodass ein Einzelhändler eine Aktion planen kann und das System den optimalen Rabatt, den Zeitpunkt usw. empfiehlt, während die Auswirkungen auf den Lagerbestand automatisch berücksichtigt werden. Dies bewegt sich sicherlich in Richtung gemeinsamer Optimierung. Allerdings ist unklar, ob RELEX den Preis und den Lagerbestand wirklich gemeinsam optimiert oder ob dies noch sequenziell erfolgt (zuerst den Preis festlegen, dann passt sich der Lagerfluss an). In einer idealen gemeinsamen Optimierung würden Lagerbestandsbeschränkungen bei der Preisgestaltung berücksichtigt werden (z. B. sollte ein Produkt nicht aggressiv beworben werden, wenn die supply chain eingeschränkt ist). Die integrierte Plattform von RELEX ermöglicht wahrscheinlich ein solches funktionsübergreifendes Denken – beispielsweise würde ihr System bemerken: „Wir haben nicht genug Bestand im DC, um diese Aktion in allen Geschäften zu unterstützen“ und könnte dies kennzeichnen oder anpassen. Sie erwähnen, dass Preisgestaltung und Aktionen an die supply chain angepasst werden, um sicherzustellen, dass die Pläne ausführbar sind 22. Somit ist RELEX sich der Notwendigkeit bewusst, Silos aufzubrechen.
Eine Insider-Perspektive: Der Reiz von RELEX liegt darin, dass es alles (Nachfrage, Angebot, Betrieb) für den Nutzer auf einer einzigen Plattform zusammenführt. So können beispielsweise Warenplaner bereichsübergreifende Prognosen und Einschränkungen sehen 22. Das bedeutet, dass ein Planer den Einfluss einer Preisentscheidung auf die supply chain und umgekehrt verstehen kann. Diese Transparenz ist eine große Verbesserung gegenüber isolierten Werkzeugen. Aber Transparenz ist nicht dasselbe wie eine vollalgorithmische Optimierung. Wir vermuten, dass, obwohl RELEX ein sehr stimmiges Benutzererlebnis und Datenmodell bietet, ein Teil der Entscheidungsfindung dennoch schrittweise abläuft. Die Preisoptimierung könnte einen idealen Preis vorgeben, woraufhin das Bestandsmodul seine Planung daran ausrichtet. Die enge Integration stellt sicher, dass es nicht zu Konflikten kommt, aber es löst nicht notwendigerweise ein einzelnes Optimierungsproblem, das den Gewinn unter gleichzeitiger Berücksichtigung der Lagerkosten maximiert.
Aus der Sicht der Technologiearchitektur ist RELEX ziemlich fortschrittlich. In den frühen Tagen entwickelten sie ihre eigene In-Memory-Datenbank-Engine (eine spaltenbasierte DB, optimiert für Zeitreihen und hierarchische Daten), die es ihnen ermöglichte, Prognosen für Tausende von Geschäften x SKUs schnell zu berechnen. Viele Fallstudien berichten, dass RELEX Excel-Tabellen und Altsysteme ersetzte und sofort in der Lage war, eine wesentlich höhere Datengranularität zu verarbeiten (zum Beispiel von wöchentlicher auf tägliche Planung oder geschäftsspezifische Planung anstelle von Einheitslösungen). Für eCommerce bedeutet dies, dass RELEX aller Wahrscheinlichkeit nach SKU-level Prognosen für einen globalen Online-Shop problemlos handhaben kann. Sie verfügen über Cloud-Deployments und können horizontal skalieren. Wir haben keine spezifischen Kosteneinwände gegen RELEXs Technologie gefunden; wenn überhaupt, rühmen sie sich ihrer effizienten Berechnungen (ihre akademischen Gründer haben die Algorithmen stark optimiert). Ein Konzept, das sie haben, ist die In-Memory-“Live-Datenbank”, die, falls falsch konfiguriert, viel RAM erfordern könnte – aber das ist spekulativ. Allgemein war die Skalierbarkeit von RELEX auf dem Markt kein rotes Tuch; sie bedienen riesige Lebensmittelketten mit zehntausenden von SKUs und vielen Filialen, was einem vergleichbaren oder sogar größeren Datenvolumen entspricht als es viele eTailers haben.
Automatisierung und die Rolle der Planer: RELEX spricht oft von „autonomer Planung“, aber auch von „unterstützten Entscheidungen.“ Sie positionieren ihr Tool nicht als Blackbox, die den Planer ersetzt. Tatsächlich betonen sie die Benutzerfreundlichkeit – z. B. ihre UI, konfigurierbare Dashboards und Exception Management. Das System wird automatisch Purchase Orders oder Transfer Recommendations generieren, aber in der Regel überprüft und genehmigt ein Planer (insbesondere in frühen Einführungsphasen). RELEX hat ein Konzept der „forecast exceptions“, bei dem, wenn die AI-Prognose aufgrund einer Anomalie zu stark abweicht, ein Alarm ausgelöst wird. Sie verfügen auch über eine Simulationsfunktion, bei der Planer sehen können, warum das System etwas vorschlägt (zumindest in groben Zügen, wie „weil das Wetter heiß war, prognostizieren wir einen +50% Anstieg“). Mikko Kärkkäinen hat erklärt: „Best-in-class solutions leverage pragmatic AI and computational power to optimize tasks… autonomously without human intervention“ 23 und beschreibt zudem „autonomous retail planning that is self-learning and self-tuning breaks down silos“ 5. Zumindest in der Vision strebt RELEX also ein weitgehend selbstfahrendes System an. Wir bleiben jedoch leicht skeptisch gegenüber vollständiger Autonomie: Große Einzelhändler, die RELEX einsetzen, haben weiterhin Planungsteams. Diese Teams managen vermutlich nun Ausnahmen, was eine Form partieller Autonomie darstellt.
Einer der Widersprüche, auf die man achten sollte bei RELEX (und ähnlichen Anbietern) ist das Versprechen sowohl extremer Flexibilität als auch extremer Automatisierung. Sie behaupten, das System sei sehr flexibel (z. B. könne man konfigurieren, wie die Preisregeln funktionieren oder Prognosemodelle anpassen), und gleichzeitig behaupten sie, es sei selbstabstimmend. Es besteht ein Spannungsfeld: Wenn ein Nutzer vieles manuell überschreiben kann, könnte das System in der Praxis von diesen manuellen Einstellungen abhängen. Wenn man der AI wirklich vertraut, sollte man immer seltener manuell eingreifen müssen. RELEX’ Bezugnahme auf „self-tuning“ impliziert Letzteres – dass das System im Laufe der Zeit weniger manuelle Parameteranpassungen benötigt 5. Es wurde auch erwähnt, dass RELEXs Ansatz die Planer eher zu Aufsichtspersonen macht. So berichtete ein Artikel, dass RELEXs System die Planer von manuellen Aufgaben entlastete, um sich auf strategische Maßnahmen zu konzentrieren 24. Dennoch erwähnte eine Quelle von SelectHub, dass einige Nutzer Teile von RELEX als „clunky“ empfanden und Probleme wie das Prognostizieren bestimmter Einschränkungen (Freight Limits) hatten, die Workarounds erforderten 25. Dies zeigt, dass es nicht alles zauberhaft ist; Nutzer stoßen immer noch an Grenzen, bei denen sie eingreifen müssen oder wo das Tool nicht reibungslos läuft.
Bekannte Probleme oder Bedenken: Es gibt keine öffentlich dokumentierten „failure“ Cases für RELEX, wie es sie bei einigen anderen gibt (keine Litigation-Schlagzeilen). Das Unternehmen hat grundsätzlich positive Resonanz. Allerdings erwähnt anonymized insider chatter manchmal, dass die Implementierung von RELEX in sehr großen, komplexen Umgebungen Probleme zutage fördern kann. Beispielsweise kann die Data Integration herausfordernd sein (garbage in, garbage out – wenn die Daten des Kunden ein Durcheinander sind, könnte RELEX schlechte Pläne erstellen, und der Fehler wird entweder dem Tool oder den Daten angelastet). Zudem bedeutet RELEXs aggressives Wachstum (sie haben viele Kunden schnell an Bord geholt), dass einige Kunden nicht die gleiche intensive Unterstützung erhalten wie etwa Lokad. Dies ist keine Kritik an der Software an sich, sondern an den realen Ergebnissen: Wie viele RELEX-Projekte erfüllen die versprochenen KPIs? Anbieter zitieren gerne Best-Case-Verbesserungen („X% stock reduction at Y customer!“), erwähnen aber selten Fälle, in denen die Zahlen nicht zustande kamen. Wir vermuten, dass RELEX – wie alle Anbieter – einige Projekte hatte, die unter den Erwartungen blieben, möglicherweise aufgrund von schlechtem Change Management oder weil der Händler dem System nicht genügend vertraute, um darauf zu reagieren. Auf einem Partner Summit gab sogar Blue Yonder zu, dass ineffektives Change Management und Data Issues die meisten Projektfehlschläge verursachen 26 – das Gleiche gilt vermutlich für RELEX-Implementierungen.
Ein weiterer erwähnenswerter Aspekt: RELEX neigt dazu, eine Menge external data zu integrieren, darunter Dinge wie Google Trends, mobile Location Data für Footfall Predictions usw. Für einen eCommerce-Anbieter sind einige davon (wie footfall) irrelevant, während andere (weather, trends) von Bedeutung sind. Man sollte sich fragen: Brauche ich wirklich all diese Data Feeds? Für manche E-Businesses könnten einfache Modelle auf Basis der Sales History nahezu ebenso gut sein. RELEX wird sicherlich die Idee verkaufen, dass mehr Daten zu besseren Forecasts führen. Die M5 competition results (an denen RELEX, soweit wir wissen, nicht öffentlich teilgenommen hat) zeigten, dass ausgefeilte Modelle tatsächlich besser abschnitten als einfachere, wenn auch oft nur um geringe Margen. Die besten Methoden waren häufig Ensembles aus vielen Modellen, ähnlich wie RELEX intern vorgehen könnte. Interessanterweise hat ein pure machine learning approach didn’t categorically crush traditional methods in diesen Wettbewerben nicht kategorisch die traditionellen Methoden dominiert – eine Kombination sorgfältig abgestimmter statistischer Modelle tendierte zum Sieg. Gleicht man RELEXs Behauptungen mit Benchmarks wie M5 ab, sieht man, dass probabilistic forecasting tatsächlich wertvoll ist (wie sie es tun), aber man erkennt auch, dass es keine einzige Geheimzutat unter den Top-Ansätzen gibt – es kommt auf sorgfältiges Modellieren an. Da RELEX seine Genauigkeit auf solchen Standard-Datasets nicht veröffentlicht, bleiben wir vorsichtig. Der skeptic’s advice an alle, die RELEX in Erwägung ziehen, lautet: Fordern Sie spezifische Beweise für eine Verbesserung und definieren Sie eine klare Ausgangsbasis. Zum Beispiel, wenn RELEX sagt „we improved forecast accuracy by 30%“, klären Sie, „30% relativ zu welchem Metric und welcher Baseline?“ Häufig messen Anbieter den Zuwachs anhand eines Szenarios, das ihr Tool in ein gutes Licht rückt (z. B. im Vergleich zu naiven Forecasts oder zu einem schlechten Jahr). Der Rat dieser Studie: Fordern Sie Klarheit über die Baseline bei jeder Leistungsbehauptung.
Zusammenfassend rangiert RELEX Solutions als ein Top-Anbieter, weil es die Schlüsselaspekte (demand, inventory, pricing) integriert angeht und moderne AI/ML-Techniken umfassend einsetzt. Zu seinen Stärken zählen sehr detaillierte Forecasts, die eine Vielzahl von Faktoren berücksichtigen, starke Promotion- und saisonale Planungsfähigkeiten sowie eine einheitliche Platform, die allen Stakeholdern eine einzige Quelle der Wahrheit bietet. Es erfüllt die Anforderungen in Bezug auf Scalability (bewährt im Großhandel), Cannibalization Handling (über fortschrittliche Forecast Models, die Cross-Product Effects berücksichtigen 27) und marketplace/omni-channel (das System kann gleichzeitig für Online- und Offline-Bereiche planen und vermutlich Wettbewerberdaten integrieren, sofern bereitgestellt). RELEX drängt zudem auf automation, mit Behauptungen zu self-tuning Models und autonomen Entscheidungen, wobei in der Praxis dennoch eine gewisse Nutzerüberwachung erforderlich bleibt. Die wesentlichen Vorbehalte sind die Komplexität und Intransparenz, die mit dem KI-lastigen Ansatz einhergehen – die Nutzer müssen der Black Box bis zu einem gewissen Grad vertrauen – und die Notwendigkeit, den Hype von der Realität in der Vermarktung zu trennen. Wir bewerten RELEX hoch, jedoch mit einem Vorbehalt: Es ist ein mächtiges Tool, das aber eine sorgfältige Implementierung und eine datengesteuerte Kultur erfordert, um es voll auszuschöpfen. Wir empfehlen potenziellen Nutzern außerdem, auf „AI washing“ in der Branche zu achten; RELEXs Kommunikation gehört zu den glaubwürdigeren (da sie tatsächlich echte Tech unter der Haube haben), aber selbst Mikko’s Aussagen über „hundreds of factors“ 17 sollten eher als Begeisterung für KI denn als Garantie für drastisch bessere Ergebnisse im Vergleich zu einem Konkurrenten betrachtet werden. Im eCommerce-Kontext kann RELEX die Aufgabe sicherlich erfüllen – stellen Sie nur sicher, dass Sie seine Ergebnisse rigoros messen und darauf achten, ob all diese schicken Features in Ihrem Fall tatsächlich genutzt werden oder lediglich in der Software ungenutzt bleiben.
3. Blue Yonder – Legacy Juggernaut im Wandel (Claims vs. Reality)
Blue Yonder (früher bekannt als JDA Software) ist ein Gigant in der Supply Chain Software mit jahrzehntelanger Geschichte in den Planungsystemen für Einzelhandel und Fertigung. Es verfügt über ein umfassendes Portfolio, das forecasting, replenishment, warehouse management, transportation, workforce, and pricing abdeckt (nach der Übernahme des Preisspezialisten Revionics im Jahr 2020). Für eCommerce-Akteure bietet Blue Yonder Lösungen, die ursprünglich für große Einzelhändler und CPG-Unternehmen entwickelt wurden – man kann es als das Enterprise-Schwergewicht in diesem Bereich betrachten. Allerdings bringt dieses Erbe sowohl Stärken (robuste Funktionalität, Skalierbarkeit, Branchenerfahrung) als auch erhebliche Schwächen (teilweise veraltete Technologie, Integrationsprobleme durch mehrere Übernahmen und eine Bilanz, die einige öffentlichkeitswirksame Ausfälle enthält) mit sich.
In Bezug auf joint optimization ist die Geschichte von Blue Yonder etwas durchwachsen. Sie haben tatsächlich Komponenten für alle Bereiche: z. B. ihr Luminate Demand Edge für Forecasting, Luminate Allocation/Replenishment für Inventory und Revionics für Pricing. Auf dem Papier könnte man alle drei nutzen und eine koordinierte Strategie erreichen – beispielsweise speist das Forecasting sowohl den Inventory-Plan als auch die Price Optimization Models, und die Price Optimization kann die Demand Elasticity berücksichtigen (was im Wesentlichen die Vorhersage der Nachfrage zu unterschiedlichen Preisniveaus bedeutet). Blue Yonder vermarktet durchaus die Idee eines end-to-end, “from planning to execution” Systems, das unter ihrer Luminate Platform vereinheitlicht ist. In der Praxis haben sich jedoch viele dieser Module separat entwickelt und wurden erst kürzlich zusammengeführt. Die Price Optimization Engine von Revionics beispielsweise hat ihr eigenes Erbe und wurde nach der Übernahme integriert. Die Herausforderung von Blue Yonder besteht darin, dies wie eine kohärente Lösung erscheinen zu lassen. Das Unternehmen erkannte, dass es historisch ein fragmentiertes Portfolio hatte; infolgedessen kündigte es 2023 eine bedeutende architektonische Transformation an: den Umstieg auf ein “single data model and application platform” on the Snowflake cloud 28. Dies ist ein großer Schritt – im Wesentlichen bedeutet es, ihre Produkte so neu zu konzipieren, dass alle aus einem großen Cloud Data Repository (Snowflake) lesen/schreiben, sodass Datensilos verschwinden. Der CEO verkündete eine Vision eines “supply chain operating system for the world”, bei dem alle BY-Applikationen Daten fließend teilen 28.
Wir betrachten diese Vision als sowohl vielversprechend als auch problematisch. Vielversprechend, weil – falls erreicht – viele Integrationsprobleme gelöst würden (zum Beispiel gäbe es keine Batch-Interfaces mehr zwischen Demand Planning und Pricing, da beide buchstäblich dieselben Daten in Snowflake nutzen würden). Problematisch, weil sie enorm ambitioniert und riskant ist. Selbst die Partnerberatungsfirma von Blue Yonder merkte an, „While visionary, we believe that eliminating integrations completely may be overly optimistic for most clients.“ 29. Kunden haben Daten an vielen Orten; nicht alles wird ordentlich in Snowflake liegen, sodass für nicht-Blue Yonder-Systeme weiterhin kundenspezifische Integrationen erforderlich sind 29. Kurz gesagt, Blue Yonders Strategie ist ein work in progress – eine Antwort darauf, als „legacy“ wahrgenommen zu werden. Sie erklärten ausdrücklich, dass sie keine „cliff events“ erzwingen werden (also keine alte Technology über Nacht abschalten), sondern die Legacy-Module schrittweise in Microservices umwandeln, sodass Kunden in ihrem eigenen Tempo migrieren können 30 31. Das bedeutet, dass ein Blue Yonder-Kunde derzeit möglicherweise noch die old JDA demand planning on prem, with an integration to Revionics in cloud verwendet. Die vollständig einheitliche Platform könnte noch einige Jahre bis zur allgemeinen Verfügbarkeit entfernt sein. In der Zwischenzeit ist die joint optimization bei Blue Yonder manueller: Man könnte ihre Tools im Tandem verwenden, doch liegt es oft am Nutzer, die Koordination sicherzustellen (z. B. dafür zu sorgen, dass die Aktionen des Pricing-Teams in den Inventory Plan einfließen).
Blue Yonder erfüllt auf dem Papier viele technology boxes: Sie integrieren nun Machine Learning in das Forecasting (unter Nutzung von Tech der Firma Blue Yonder GmbH, die sie 2018 übernommen haben und die sich auf AI for retail spezialisiert hatte). Sie behaupten, in verschiedenen Anwendungen „explainable AI, machine learning, and even generative AI“ zu verwenden 32. Sie verfügen sicherlich über fortschrittliche Algorithmen für Dinge wie Replenishment Optimization, Allocation etc., die über Jahrzehnte entwickelt wurden. Aber man muss skeptisch sein, denn Blue Yonder hat auch viel technical debt. Viele ihrer Kernalgorithmen wurden in den 90er oder frühen 2000er Jahren von i2 Technologies oder JDA entwickelt. Sie wurden zwar weiterentwickelt, aber bis zur jüngsten Cloud-Neuentwicklung lief vieles noch auf alten Architekturen (einige Lösungen benötigten Oracle-Datenbanken usw.). Wenn Blue Yonder also „cognitive, ML-driven planning“ vermarktet, sollte man sich fragen: Handelt es sich wirklich um neue Tech oder lediglich um neues Branding? Beispielsweise könnte ihre Demand Planning nun ML nutzen, um Forecast Uplifts für Feiertage zu schätzen, was gut ist – aber nutzt die zugrunde liegende Architektur tatsächlich die heutige Cloud Compute Power, oder ist sie eingeschränkt, weil sie in ein Legacy-System integriert wurde?
Ein konkretes historisches Problem: Blue Yonder (JDA) übernahm 2010 i2 Technologies. i2 war bekannt für optimierungsintensive Lösungen, aber auch für failed implementations. Berüchtigt ist, dass nach dem Kauf von i2 durch JDA Dillard’s (ein großes Kaufhaus) einen Rechtsstreit über $246M gewann, in dem behauptet wurde, die Software von i2 habe die versprochenen Leistungen nicht erbracht 33 34. Dies war ein gewaltiger Rückschlag – im Grunde scheiterte die Software und das Projekt derart, dass dem Kunden Schadensersatz in Höhe des 30-fachen des für die Software gezahlten Betrags zugesprochen wurde. Diese Saga, wenngleich vor 15 Jahren, zeigt, dass selbst hoch renommierte Anbieter gravierende Fehltritte haben können, wenn Technologie zu viel verspricht oder schlecht implementiert wird. Blue Yonder musste diese Kosten tragen und zog Lehren daraus (hoffentlich). Das unterstreicht, warum wir skeptisch bleiben: Große Anbieter mögen „world-class products“ anpreisen, doch es gibt Belege dafür, dass sie nicht wie beworben funktionieren. Jeder Anbieter hat Misserfolge; Blue Yonder hatte zumindest einen, der vor Gericht öffentlich gemacht wurde.
Blue Yonder muss zugute gehalten werden, dass sie offener geworden sind, wenn es darum geht, Probleme anzugehen. Auf ihrem Partner Summit 2023 diskutierten sie offen über „red projects“ (problembeladene Implementierungen) und stellten fest, dass die Hauptursachen nicht in den Algorithmen selbst liegen, sondern in „ineffective change management and issues with data migration/integration“ 26. Sie wiesen darauf hin, dass es entscheidend sei, die Daten richtig zu erfassen und den Kunden bei der Prozessanpassung zu unterstützen. Diese Selbstreflexion ist positiv – sie zeigt, dass Blue Yonder nicht blind dafür ist, warum Projekte scheitern. Dies passt auch zu unserem übergeordneten Analysethema: Oft liegt es nicht daran, dass die Mathematik falsch ist, sondern dass die Integration in der realen Welt schwierig ist. Dass Blue Yonder die Herausforderungen der Data Integration benannt hat, spricht Bände: Es spiegelt die Komplexität ihres Portfolios wider. Denn wären ihre Module wirklich nahtlos integriert, so wäre die Datenmigration kein so großes Problem. Dass es tatsächlich problematisch ist, impliziert, dass Kunden möglicherweise umfangreiche Datenabgleiche vornehmen mussten, um das Gesamtportfolio zu nutzen. Die einheitliche Snowflake-Datenebene zielt darauf ab, dies zu lösen, aber wie gesagt, es ist noch früh.
Schauen wir uns die aktuellen capabilities von Blue Yonder für ein eCommerce-Szenario an:
- Nachfrageprognose: Blue Yonder Luminate Demand (insbesondere mit Demand Edge) verwendet maschinelles Lernen, um viele Faktoren (Wetter, Ereignisse, Preisgestaltung) einzubeziehen. Sie haben sich auch in Richtung probabilistischer Prognosen bewegt; zumindest unterstützen sie die Verwendung von Konfidenzintervallen oder Quantilen in der Planung. Ein Beispiel aus ihrem Blog: Sie setzen KI nicht nur ein, um Faktoren auf eine Basisprognose zu schichten, sondern um die Prognose täglich von Grund auf mit den neuesten Daten neu zu erstellen, wobei automatisch etwa Kalenderanpassungen berücksichtigt werden und sich das Modell selbst korrigiert, sobald neue Ist-Werte vorliegen 35 36. Sie behaupten, dass damit der Bedarf entfällt, dass Planer manuelle Anpassungen oder Profile für Saisonalitäten pflegen – das Modell lernt diese und passt sich an 36. Dies entspricht genau der modernen Prognosepraxis. Der Ansatz von Blue Yonder ist theoretisch fundiert: kontinuierliches Lernen, das Erkennen von Unsicherheiten (sie sprechen über das Risiko von Über- oder Unterprognosen sowie die Kostenabwägungen 37) und der Einsatz von ML, um komplexe Zusammenhänge zu erkennen (wie unterschiedliche Wetterlagen oder Promotions die Nachfrage antreiben, ohne dass ein Mensch diese Beziehungen explizit codiert).
- Inventar & Nachschub: Dies ist schon lange eine Stärke von JDA/Blue Yonder. Sie bieten eine mehrstufige Inventaroptimierung (MEIO) an, was bedeutet, dass sie die Lagerbestände in Distributionszentren und Versandzentren für den eCommerce optimieren können, wobei Vorlaufzeiten, Nachfrageschwankungen usw. berücksichtigt werden, um die angestrebten Serviceniveaus zu erreichen. Die Tools von Blue Yonder können empfohlene Bestellmengen, Sicherheitsbestände und Ähnliches erzeugen. Historisch gesehen basierten diese Algorithmen stärker auf Regeln oder Heuristiken bzw. verwendeten lineare Programmierung für spezifische Probleme. Wahrscheinlich werden sie mittlerweile durch ML-basierte Vorhersagen ergänzt, aber die Kernoptimierung ist vermutlich eine Mischung aus Operations Research und Simulation. BY kann sicherlich groß angelegte SKU-Planungen bewältigen; viele Fortune-500-Einzelhändler nutzten JDA für die Auffüllung ihrer Geschäfte, was vergleichbar ist mit einem großen e-comm-Lager, das Kunden beliefert.
- Sortimentsplanung: Blue Yonder verfügt über Category-Management-Tools, die dabei helfen, Sortimente zu entscheiden (welcher Produktmix in welchen Geschäften angeboten wird). Für einen reinen eCommerce-Anbieter könnte Sortimentsplanung bedeuten, festzulegen, welche neuen Produkte gelistet oder herausgenommen werden. Die Tools von BY können anhand von Attributen und Leistungsdaten Sortimentsänderungen bewerten. Allerdings handelt es sich dabei typischerweise um einen periodischen strategischen Prozess und nicht um einen kontinuierlichen.
- Preisoptimierung: Durch die Übernahme von Revionics erwarb Blue Yonder eine robuste Preisoptimierungs-Engine, die im Einzelhandel (insbesondere bei Lebensmittel- und Allgemeinwarenketten) weit verbreitet ist, um Basispreise, Werberabatte und Abschläge festzulegen. Revionics nutzt KI, um die Preiselastizität zu modellieren und sogar die Auswirkungen von Konkurrenzpreisen zu erfassen, und empfiehlt dann Preisänderungen, die Ziele wie Margen- oder Umsatzwachstum erreichen – unter Berücksichtigung von Preisregeln (z. B. Preise, die mit .99 enden etc.). Als Teil von Blue Yonder ist Revionics nun als Luminate Pricing bekannt. Theoretisch schließt diese Engine, kombiniert mit den Nachfrageprognosen von Blue Yonder, den Kreis – man kann simulieren, wie sich eine Preisänderung auf Nachfrage und Inventar auswirkt, und einen optimalen Preis wählen. Blue Yonder vermarktet dies als „autonomes Pricing, angetrieben von KI“, das so oft wie nötig ausgeführt werden kann (wenn gewünscht, sogar intraday für eCommerce).
Eine große Frage: Wie gut funktionieren diese Bausteine heute tatsächlich zusammen? Blue Yonder behauptet, dass sie zusammenarbeiten. Beispielsweise könnte man sagen, dass ihre Preislösung Vorhersagen aus der Nachfrage-Lösung übernimmt und Preise generiert, die dann von der Inventarlösung zur Bestellplanung genutzt werden. Aber wenn diese Integrationen nicht in Echtzeit erfolgen oder individuelle IT-Anpassungen erfordern, ist der Kreis möglicherweise nicht so eng, wie man es sich erhofft. Realistischerweise könnte ein eCommerce-Nutzer von Blue Yonder im Jahr 2023 das Preistool getrennt vom Versorgungstool einsetzen, vielleicht mit wöchentlichen Batch-Updates der Prognoseelastizität. Das ist gemeinsame Planung, aber nicht der heilige Gral der sofortigen gemeinsamen Optimierung.
Bezüglich der AI/ML-Behauptungen leidet Blue Yonder manchmal unter Buzzword-Bingo im Marketing. Sie verwenden Begriffe wie „cognitive“, „machine learning-driven“ usw. Wir sollten überprüfen, ob Substanz dahintersteckt. Es gibt einige Hinweise auf Substanz: Beispielsweise hatte Blue Yonder (ursprünglich die deutsche Tochtergesellschaft) Algorithmen entwickelt, über die publiziert wurde (ihr Team gewann 2014 einen frühen Wettbewerb zur Einzelhandelsprognose mit neuronalen Netzen). Zudem ist das Patentportfolio von Blue Yonder groß (über 400 Patente), was auf umfangreiche F&E hinweist 38. Allerdings steht die Anzahl der Patente nicht für die Qualität des Produkts – es zeigt lediglich, dass sie viele Techniken ausprobiert haben. Die skeptische Perspektive ist, Blue Yonder nach konkreten Ergebnissen zu fragen: z. B. ob sie am M5-Wettbewerb oder einem neutralen Benchmark teilgenommen haben – öffentlich nicht. Gibt es Fallstudien mit konkreten Vorher-Nachher-Zahlen? Solche gibt es, doch oft wirken Anbieter-Fallstudien rosig und es fehlt an klaren Ausgangswerten. Blue Yonder gibt Aussagen wie „X Einzelhändler verzeichnete eine Y%-ige Gewinnsteigerung durch unsere Preisgestaltung“ – aber ohne Kontext ist das reines Marketing. Man sollte auch die Kosten und Komplexität von Blue Yonder berücksichtigen. Dies sind große Unternehmenssysteme. Die Implementierung kann viele Monate oder Jahre dauern und umfasst nicht nur die Softwareeinrichtung, sondern auch die Neugestaltung von Geschäftsprozessen. Blue Yonder benötigt typischerweise entweder eigene professionelle Dienstleistungen oder eine Partnerfirma zur Implementierung. Die Gesamtkosten des Besitzes können sehr hoch sein (Lizenz + Services + IT). Für einen reinen eCommerce-Anbieter, insbesondere einen mittelgroßen, könnte Blue Yonder überdimensioniert oder zu langsam umsetzbar sein im Vergleich zu agileren SaaS-Lösungen. Sogar große Unternehmen zögern manchmal: Ein markantes Branchenereignis war, dass Lidl (der große globale Einzelhändler) 2018 ein 500-Mio.-€-SAP-Projekt abbrach, nachdem es die Anforderungen nicht erfüllte 39. Das betraf zwar SAP und nicht Blue Yonder, verdeutlicht aber, dass riesige Projekte scheitern und enorme Budgets verschlingen können. Die Projekte von Blue Yonder sind ähnlich komplex; tatsächlich bemerkte ihr Partner JBF Consulting, dass der Konkurrent Manhattan Associates einen anderen Ansatz wählte (mit einer notwendigen Reimplementierung für ihre neue Plattform), während BY eine sanftere Migration anstrebt 40. Die Tatsache, dass Manhattan den Weg der „Reimplementierung, um auf neue Technologie zu wechseln“ wählte, deutet darauf hin, dass diese Übergänge nicht trivial sind. Blue Yonder versucht, Albtraum-Upgrades zu vermeiden, indem es sich langsam weiterentwickelt – was aber auch bedeutet, dass Kunden derzeit möglicherweise mit nicht ganz moderner Technik arbeiten und auf die neuen Lösungen warten. Aus Sicht der Automatisierung ist Blue Yonder heute wahrscheinlich weniger automatisiert als es Lokad oder RELEX anstreben. Viele BY-Kunden nutzen die Tools, um Empfehlungen zu generieren, die dann von Planern genehmigt oder angepasst werden. Blue Yonder propagiert zwar das Konzept einer „autonomen supply chain“ (insbesondere seit der Übernahme durch Panasonic im Jahr 2021 wird darüber gesprochen, IoT-Daten mit automatisierten Entscheidungen zu verknüpfen) 41. Doch es ist sicher zu sagen, dass ein großer Teil ihrer Kundenbasis sich noch in einem hybriden Modus befindet: Sie vertrauen dem System bei einigen Entscheidungen, überschreiben andere jedoch manuell. Beispielsweise schlägt das System oft Bestellungen vor, die dann von einem Planer auf Ausnahmen überprüft werden (ähnlich wie bei RELEX). Oder das Preissystem empfiehlt Preisänderungen, die von einem Merchandising-Manager geprüft und eventuell abgelehnt werden, wenn sie nicht zur Markenstrategie passen. Die Software kann viel leisten, aber Unternehmen haben etablierte Prozesse, die sich nicht über Nacht ändern.
Wettbewerbsanalyse und Marktplätze: Die Preisgestaltungslösung von Blue Yonder (Revionics) bezieht auch Wettbewerbs-Preisdaten ein – sie bietet eine Funktion für Wettbewerbsreaktion und kann Preise der Konkurrenten einlesen, um die eigenen anzupassen 42. Für den eCommerce bedeutet das, dass Revionics, sofern ein Feed mit Konkurrenzpreisen vorhanden ist, diese in seine Optimierung einbeziehen kann (zum Beispiel, indem nicht mehr als X% über dem Preis eines Konkurrenten kalkuliert wird, um das Preisimage zu wahren, oder indem der niedrigste Preis, wo nötig, angepasst wird). Das ist ein Plus bei der gemeinsamen Preisoptimierung. Auf Marktplätzen verfügt Blue Yonder jedoch nicht über ein spezielles Marktplatz-Management-Modul, wie es manche e-comm-spezifischen Anbieter (zum Beispiel Channel-Advisor-Tools für Amazon) tun. Daher könnte man Blue Yonder für die Kernplanung einsetzen, benötigt aber dennoch ein separates Tool, um marktplatzspezifische Taktiken (Werbung, Buy-Box etc.) zu steuern. Dies liegt außerhalb des Angebots von Blue Yonder und soll keinesfalls als Kritik verstanden werden, sondern lediglich als Hinweis, dass eCommerce Facetten aufweist, die diese traditionellen Anbieter nicht abdecken (um fair zu sein: Lokad oder RELEX decken beispielsweise auch keine Werbeauktionen ab).
Angesichts des Umfangs und der Geschichte von Blue Yonder sollte man auch die inneren Widersprüche in ihrer Kommunikation kritisch hinterfragen. So könnte Blue Yonder auf seiner Commerce-Plattform mit „Echtzeit-Personalisierung und -Preisgestaltung“ werben, während seine Planungslösungen historisch gesehen in Batch-Zyklen liefen (wie etwa Nachtplanung, wöchentliche Neuanpassungen usw.). Sie bewegen sich in Richtung einer verstärkten Nutzung von Echtzeitdaten (ihre Partnerschaft mit Snowflake zielt teilweise auf einen nahezu Echtzeitaustausch von Daten ab). Aber wenn ein Anbieter von „Echtzeit-Dynamischer Preisgestaltung und Inventaroptimierung“ spricht, sollte man sich fragen: Bedeutet das, dass das System kontinuierlich neu berechnet wird, oder lediglich, dass es schnell reagieren kann, wenn es angestoßen wird? Und benötigt man wirklich Echtzeit für Sortimentsentscheidungen? Höchstwahrscheinlich nicht – dies ist eher von strategischer Natur. Daher wird ein kritisches Ohr es bemerken, wenn die Marketingsprache inkohärent ist. Blue Yonders breites Marketing verfällt manchmal in die Falle, alles zu versprechen (von langfristiger Strategie bis hin zu sofortiger Umsetzung). Es ist klug, genau zu definieren, welche Funktionen wirklich in Echtzeit arbeiten (z. B. könnte ihr Transport-Routing in Minuten auf eine Bestellung reagieren) und welche inhärent batchweise erfolgen (wie die saisonale Sortimentsplanung).
Snowflake-Kostenbedenken: Wir sollten einen subtilen, aber wichtigen Punkt hervorheben: Der Aufbau von Blue Yonder auf Snowflake könnte das Kostenmodell für Kunden verändern. Anstelle traditioneller Lizenzen könnten Kunden letztlich für die Cloud-Nutzung (Snowflake-Credits) basierend auf dem Datenvolumen und der Abfragefrequenz bezahlen. Falls die Anwendungen von Blue Yonder auf Snowflake intensive Rechenleistung erfordern, könnte die Snowflake-Rechnung des Kunden in die Höhe schießen. Dies entspricht dem alten Abrechnungsmodell von IBM-Mainframes nach MIPS – je mehr man nutzt, desto mehr zahlt man, was dazu führen kann, dass das System nicht voll ausgeschöpft wird. Vermutlich finden Blue Yonder und Snowflake eine abgestimmte Preisgestaltung, doch der Nutzer sollte vor einem „bill shock“ gewarnt sein, falls Planungsszenarien sehr häufig auf großen Datenmengen laufen. Dies ist eine sehr reale Überlegung, da Supply Chain Planning rechnerisch intensiv sein kann (insbesondere dann, wenn Szenariosimulationen oder probabilistische Berechnungen durchgeführt werden). Ein ineffizienter Prozess auf Snowflake könnte eine Menge Credits verbrauchen. Blue Yonder hat daran vermutlich gedacht (denn es muss kommerziell funktionieren), jedoch ist dies etwas, worauf man achten sollte. Ein mit dem Geschäftsmehrwert nicht abgestimmtes Kostenmodell (wie die Abrechnung nach verarbeiteten Daten anstatt nach dem Ergebnis) erinnert an die Fallstricke vergangener Zeiten.
Snowflake cost concern:
Zusammenfassend wird Blue Yonder gerade unter den reinen Newcomer-Lösungen eingestuft, wenn es darum geht, die Vision der „Next-Gen“ zu erfüllen. Es verfügt unzweifelhaft über eine reiche Funktionalität und viele erfolgreiche Einsätze, aber aus einer skeptischen, technischen Perspektive sehen wir ein Unternehmen im Umbruch. Sie versuchen zu modernisieren und machen dabei vielversprechende Aussagen zu KI, Integration und Automatisierung. Doch bis diese Transformation vollständig realisiert ist, sollten Kunden die Lücken zwischen den Modulen und den tatsächlichen Aufwand, um die versprochenen Ergebnisse zu erzielen, bedenken. Das Toolset von Blue Yonder kann definitv eCommerce-Operationen unterstützen (viele große Einzelhändler mit Omni-Channel-Geschäft nutzen BY auch für ihren e-com Bereich), und seine Breite ist beispiellos (kein anderer Anbieter hat einen so weiten Umfang, einschließlich Bereichen wie Logistik). Wenn ein eCommerce-Unternehmen jedoch nur Nachfrage- und Versorgungsoptimierung benötigt, könnte Blue Yonder zu schwergewichtig sein, sofern nicht explizit diese unternehmensweite Robustheit gebraucht wird oder es bereits in anderen Bereichen eingesetzt wird. Unsere skeptische Untersuchung hält Blue Yorders Behauptungen, state-of-the-art zu sein, für etwas zweifelhaft, bis sie bewiesen sind – die Technik hat einen guten Stammbaum, aber es liegt an ihnen zu zeigen, dass jahrzehntealte Software wirklich zu „AI-first“ und einheitlich geworden ist. Derzeit raten wir, Blue Yonder als eine starke, aber umständliche Option zu betrachten, die man wählt, wenn man eine sehr umfangreiche Lösung benötigt und die Ressourcen zur Implementierung vorhanden sind, und vielleicht nicht als erste Wahl, wenn Agilität und schnelle Amortisation im Vordergrund stehen.
4. ToolsGroup – Pionier der Inventaroptimierung, der sich auf den gesamten Einzelhandel ausweitet
ToolsGroup ist ein Veteran im Bereich der Supply Chain Planung, bekannt vor allem für seine Expertise in Nachfrageprognosen und Inventar- (Lagerbestands-)optimierung. Seine Flaggschiff-Lösung, historisch bekannt als SO99+ (Service Optimizer 99+), wurde weit verbreitet für serviceorientierte Inventarplanungen und mehrstufige Optimierungen eingesetzt. Einfach ausgedrückt, war ToolsGroup hervorragend darin, Unternehmen dabei zu unterstützen, zu ermitteln, „welcher minimale Lagerbestand an jedem Standort benötigt wird, um ein bestimmtes Serviceniveau zu erreichen?“ unter unsicheren Bedingungen – ein kritisches Problem sowohl für den Vertrieb als auch für den eCommerce. ToolsGroup gehörte zu den ersten, die probabilistische Prognosen kommerziell implementierten, und befürwortete seit langem, von deterministischen Prognosen abzurücken und stattdessen die vollständige Nachfrageverteilung zu nutzen 43 2. Dieser Ansatz entspricht sehr dem, was wir heute als state-of-the-art betrachten (und den auch andere Anbieter später übernommen haben).
Im eCommerce-Kontext bedeutet die Stärke von ToolsGroup, dass es hohe SKU-Zahlen bei unregelmäßiger Nachfrage bewältigen und dennoch optimale Lagerzielvorgaben erstellen kann. Viele eTailer haben „Long-Tail“-Artikel, die selten verkauft werden – die probabilistischen Modelle von ToolsGroup sind naturgemäß dafür geeignet, diese zu planen (indem sie die sporadische Natur der Nachfrage erfassen, statt sie falsch zu mitteln). Außerdem bewältigen sie Neue Produkteinführungen, Saisonalitäten und Promotions über ihre Prognosemodelle, die maschinelles Lernen einbeziehen. Zum Beispiel können sie Analogien nutzen (die Historie eines ähnlichen Artikels heranziehen) oder attributbasierte Modellierung, um einen neuen SKU zu prognostizieren. Obwohl sich ToolsGroup historisch auf Inventar und Nachfrage konzentrierte, erkannte man in den letzten Jahren, dass Preisgestaltung, Promotions und Sortimentsplanung ergänzende Bereiche sind, die bislang nicht abgedeckt wurden. Um dem entgegenzuwirken, erwarb ToolsGroup in 2018/2019 ein Unternehmen namens JustEnough (JustEnough war später Teil von Mi9 Retail und wurde dann an ToolsGroup verkauft). Die Software von JustEnough deckte Merchandise-Finanzplanung, Sortimentsplanung, Allokation und Markdown-Optimierung ab – im Wesentlichen Funktionen des Einzelhandelsmerchandisings einschließlich Preisabschlägen. Mit dieser Akquisition erweiterte ToolsGroup seinen Wirkungsbereich von reiner Supply Chain Planung zu dem, was man als Retail Planning bezeichnen könnte. Heute vermarkten sie eine integrierte Suite, die alles von der strategischen Planung bis zur Umsetzung leisten kann – kombiniert mit den Fähigkeiten von SO99+ und JustEnough.
Allerdings ist die Integration dieser Produkte ein zentraler Punkt des Zweifels. Das Zusammenführen zweier unterschiedlicher Softwareplattformen ist alles andere als trivial. ToolsGroup hat daran gearbeitet, Datenmodelle zu integrieren (sie erwähnen, dass sie „das gleiche Datenmodell für taktische und operative Planung“ nutzen, um eine einzige Wahrheit sicherzustellen 44). Sie haben sogar etwas unter dem Namen „Real-Time Retail“ auf den Markt gebracht, das das Planungssystem von JustEnough mit einem Inventory Hub verbindet, um nahezu Echtzeit-Datenfeeds zu erhalten 45 46. Die Idee ist, dass sobald Verkäufe getätigt werden (oder Lagerbestände sich bewegen), diese Ereignisse sofort in das Planungssystem einfließen und es die Zuweisung oder Auffüllung spontan neu planen kann. Dies deutet darauf hin, dass ToolsGroup versucht, eine dynamischere, kontinuierliche Planung zu ermöglichen, anstatt auf feste periodische Zyklen zu setzen – ein Ziel, das auch bei anderen modernen Anbietern verfolgt wird.
Aber lassen Sie uns das genauer betrachten: ToolsGroup, das seine Lösung als „Real-Time Retail, die einzige Lösung, die im Moment auf das Einkaufsverhalten reagiert“ 45 bezeichnet, stellt damit einen starken Anspruch auf. Das impliziert im Grunde, dass sie den Plan sofort anpassen können, sobald sich etwas ändert. Vielleicht kann das System automatisch einen Lagertransfer auslösen oder eine Bestellung beschleunigen, wenn die Verkäufe heute unerwartet stark ansteigen. Falls dem so ist, wäre das mächtig – es verschwimmt damit die Grenzen zwischen Planung und Ausführung. Dennoch besagt die skeptische Sichtweise, dass „Echtzeit“ wahrscheinlich nur auf bestimmte Funktionen begrenzt ist (wie die schnelle Neuallokation von Lagerbeständen) und nicht auf andere (wie die vollständige Neugestaltung eines Sortiments, die man nicht in Echtzeit durchführen würde). Es ist außerdem zu beachten, dass mittlerweile jeder Anbieter im Marketing von „Echtzeit“ spricht (oft im Sinne eines Refreshs alle paar Minuten oder stündlich, was in Ordnung ist). Die CEO von ToolsGroup wies selbst darauf hin, dass Einzelhändler sich schnell umorientieren müssen, um Margenverluste zu verhindern, wenn sich die Nachfrage ändert 47 – was zutrifft. Das System rechnet angeblich automatisch neu und empfiehlt Bestellungen oder Transfers, sobald neue Informationen eingehen 48.
Angenommen, ToolsGroup hat JustEnough effektiv integriert, so könnte ein Anwender ihres Systems beispielsweise ein Assortment pro Filiale oder Kanal mithilfe des JustEnough-Moduls planen, dieses dann in die Lagervorgaben in SO99+ einfließen lassen und auch Markdown Pricing für End-of-Life-Produkte mittels ihrer Optimierung planen. Das deckt Aspekte der gemeinsamen Optimierung ab – insbesondere, wenn die Nachfrageprognosen und Inventarparameter den geplanten Markdown-Zeitplan berücksichtigen. Es handelt sich dabei vermutlich immer noch um einen sequentiellen Prozess (zuerst die Markdown-Entscheidung, dann das Inventarergebnis), es sei denn, sie haben ein kombiniertes Optimierungsmodell entwickelt (was angesichts des Umfangs unwahrscheinlich ist). Aber in Bezug auf den Datenfluss handelt es sich um eine einheitliche Lösung.
Wo ToolsGroup eindeutig den neuesten Stand der Technik erreicht, ist bei der probabilistischen Prognose und Service-Level-Optimierung. Sie haben jahrelang darauf bestanden, dass Einzelzahlenprognosen unzureichend sind und man mit Wahrscheinlichkeiten planen muss. Zum Beispiel liefern sie nicht nur „expected demand = 100“, sondern auch eine Kurve, die zeigt, dass die Wahrscheinlichkeit, dass die Nachfrage >120 beträgt, bei 10% liegt, etc. Anschließend nutzt ihre Optimierung diese Informationen, um Lagerbestände so zu bestimmen, dass beispielsweise in 95 % der Fälle die Nachfrage gedeckt werden kann 49 50. Dieser Ansatz geht von Natur aus mit Unsicherheit um und berücksichtigt sogar bis zu einem gewissen Grad Kannibalisierung (insbesondere, wenn man ihr Modell für korrelierte Artikel verwendet). Ein interessanter Aspekt: ToolsGroup hat oft argumentiert, dass der Einsatz probabilistischer Prognosen die Lebensdauer von Legacy-ERP-Planungssystemen (wie SAP APO) verlängern kann, indem man diesen bessere Informationen zuführt 1 51. Dies unterstreicht, dass sich der Unterschied von ToolsGroup hauptsächlich in der Mathematik der Prognose und des Inventars zeigt, statt in einer All-in-One-Planungs-Benutzeroberfläche.
Wie sieht es nun mit der Automatisierung und Benutzerfreundlichkeit aus? Laut einigen Anwendern war ToolsGroup traditionell eher eine „Backend-Engine“ mit einer etwas umständlichen Benutzeroberfläche. Seitdem haben sie die Oberfläche verbessert (neue Web-UI etc.). Aber noch wichtiger: Sie betonen die Automatisierung in der Planung. Ihre Materialien behaupten beispielsweise „eingebaute Automatisierung reduziert die Planungsarbeit um bis zu 90 %“ 52. Sie führen auch häufig an, dass Kunden eine 40–90 %ige Reduktion der Arbeitsbelastung der Planer und 20–30 % weniger Lagerbestand erreichen, nachdem sie ToolsGroup eingesetzt haben 53 54. Das sind beachtliche Zahlen. Die Behauptung zur Reduktion des Lagerbestands ist plausibel, wenn ein Unternehmen zuvor sehr ineffizient war oder aufgrund mangelnden Vertrauens in die Prognosen zu hohe Puffer hielt. Die Reduktion der Arbeitsbelastung impliziert, dass das System deutlich mehr automatisch übernimmt. Das entspricht unseren Erwartungen: Ein probabilistisches System sollte den „Feuerwehreinsatz“ reduzieren, denn wenn man für Unsicherheit plant, treten weniger Überraschungen auf, sodass Planer nicht so häufig in letzter Minute eingreifen oder den Lagerbestand manuell umverteilen müssen. Allerdings würde ein Skeptiker anmerken, dass eine 90 %-ige Reduktion der Arbeitsbelastung wahrscheinlich das obere Extrem darstellt (vielleicht ein Fall, in dem ein Unternehmen von 10 Planern nach der Implementierung auf 1 reduziert wurde – möglich, aber nicht typisch). Und 20–30 % weniger Lagerbestand könnte das Ergebnis davon sein, dass das Unternehmen ursprünglich viel zu viele Vorräte „nur für den Fall der Fälle“ vorhielt. In der supply chain sieht man oft Reduktionen von vielleicht 10–15 %, wenn zuvor alles moderat in Ordnung war. Daher vermuten wir, dass die von ToolsGroup angepriesenen Bereiche 53 Best-Case-Szenarien darstellen. Es ist aufschlussreich, dass sie diese als Spannen angeben – das impliziert, dass die Ergebnisse je nach Kunde stark variieren können.
Ein Vorteil von ToolsGroup ist ihre Stabilität und ihr spezifischer Fokus. Sie betreiben supply chain optimization seit 30 Jahren (gegründet 1993). Sie sind nicht so groß wie Blue Yonder oder so trendy wie RELEX, aber sie verfügen über einen treuen Kundenstamm und tiefgehendes Fachwissen in diesem Bereich. Für ein eCommerce-Unternehmen, das vor allem an der Rentabilität des Lagerbestands interessiert ist – also daran, weder zu viele Fehlbestände noch Überbestände zu haben – ist die Lösung von ToolsGroup sehr ausgereift. Ihre multi-echelon Optimierung könnte insbesondere für Online-Händler mit mehreren Fulfillment-Zentren oder für solche, die auch in 3PL-Lagern Bestände führen, von Vorteil sein. Sie wird die Lagerbestände dorthin verschieben, wo sie am dringendsten benötigt werden, während die zentralen Puffer schlank gehalten werden.
Der schwächere Punkt von ToolsGroup war jedoch die Preisoptimierung. Die Übernahme von JustEnough verschaffte ihnen zwar eine Optimierung der Markdowns (Festlegung von Rabattplänen für den Abverkauf), aber sie verfügen noch nicht über eine echte dynamische Preisoptimierung wie sie beispielsweise Revionics/Blue Yonder oder einige spezialisierte Preisanbieter bieten. Die Markdown-Optimierung bezieht sich auf Preise am Ende des Produktlebenszyklus oder auf Aktionspreise. Eine übliche, tägliche Preisoptimierung (zur Maximierung der Marge oder für die wettbewerbliche Positionierung) gehört nicht zu den ausgeprägten Stärken von ToolsGroup. Möglicherweise besitzen sie grundlegende Fähigkeiten oder arbeiten mit Partnern zusammen. Das bedeutet, wenn eine gemeinsame Optimierung von Preis und Lagerbestand Priorität hat, könnte ToolsGroup nicht so stark sein wie Blue Yonder oder RELEX, die über dedizierte Preis-Engines verfügen. ToolsGroup kann den Lagerbestand zwar unter Annahme eines vorgegebenen Preises optimieren, aber es wird nicht den idealen Preis ermitteln, um den Gewinn zu maximieren (abgesehen von Szenarien zur End-of-Life-Bereinigung). Dies ist ein wichtiger Unterschied: Ihre „Optimierung“ ist in erster Linie angebotsorientiert (Lagerbestände, Auffüllung) und weniger nachfragesteuernd (Preisgestaltung, Promotion) – trotz der Ergänzung einiger nachfragesteuernder Tools durch Übernahmen.
Hinsichtlich des Technologie-Stacks bietet ToolsGroup nun eine Cloud-SaaS-Option an und positioniert einige ihrer Angebote sogar unter coolen Namen wie „Inventory Hub“ und „Fulfill.io“. Dies zeigt, dass sie versuchen, sich zu modernisieren und möglicherweise einen breiteren Markt anzusprechen, einschließlich mittelständischer eCommerce-Unternehmen. Die zugrunde liegende Engine verwendet weiterhin fortgeschrittene statistische Methoden und vermutlich C++ oder Ähnliches für die Berechnungen. Uns ist noch nichts von ToolsGroup zu Ohren gekommen, was auf Performance-Probleme hindeutet – es gibt Referenzen von Kunden mit Millionen von SKU-Standort-Kombinationen. Wenn überhaupt, könnte ToolsGroups Achillesferse darin bestehen, dass es als ein „Tool für Optimierer“ wahrgenommen wird – leistungsstark, aber mit Konfigurationsbedarf durch Experten. Sie haben versucht, dies mit mehr gebrauchsfertigen ML-Lösungen zu vereinfachen. So integrieren sie beispielsweise demand sensing (die Nutzung kurzfristiger Trends zur Anpassung von Prognosen) und behaupten, maschinelles Lernen einzusetzen, um zu identifizieren, welche Faktoren die Nachfrage am stärksten beeinflussen 55. Außerdem haben sie in ihrem Blog den Mythos entkräftet, dass probabilistische Prognosen nicht von Menschen angepasst werden können – sie erklären, dass zwar subjektive Einschätzungen einbezogen werden können, die Mathematik jedoch historische Verzerrungen berücksichtigt 56. Dies spiegelt einen ausgewogenen Ansatz wider: Sie entfernen den Menschen nicht vollständig, sondern unterstützen ihn mit besseren Informationen.
Kannibalisierungseffekte: Das probabilistische Modell von ToolsGroup kann, wenn es entsprechend konfiguriert wird, Kannibalisierung erfassen (zum Beispiel, wenn man eine Substitutionsbeziehung eingibt, können sie Szenarien modellieren, in denen bei Fehlen eines Artikels ein Teil der Nachfrage auf einen anderen übergeht). Allerdings erfordert dies wahrscheinlich einen gewissen Aufwand, um entsprechende Beziehungen einzurichten oder ihr ML zu nutzen, um Artikel zu clustern. Es ist nicht klar, wie automatisiert dieser Prozess ist. Aber ToolsGroup betonte in einem Blog von 2017 den Umgang mit „long tail, intermittent demand, and more channels“ und erklärte im Grunde, dass diese Bedingungen traditionelle Tools überfordern und probabilistische Methoden erfordern 57. Sie erwähnten explizit „more channels to market, with aggregated demand coming from multiple streams“ als ein Szenario, in dem Einzelzahlenprognosen versagen – was andeutet, dass ihre Lösung im Multi-Channel-Betrieb besser funktioniert 57. So könnte beispielsweise ein e-Tailer, der seine Produkte sowohl auf der eigenen Website als auch über Amazon verkauft, ToolsGroup zur Planung einer kombinierten Nachfrage nutzen. Das Tool würde eine Gesamtprognose erstellen und eventuell erlauben, den Lagerbestand optimal nach Kanal zuzuweisen (obwohl die Kanalzuweisung oft einfacher ist, wenn alle Artikel von denselben Fulfillment-Zentren versendet werden, aber bei separaten Lagerpools spielt es eine Rolle).
Ein Aspekt, den man bei ToolsGroup (wie bei jedem Anbieter integrierter Lösungen nach Übernahmen) im Auge behalten sollte, ist die Konsistenz der Benutzererfahrung. Sind die Module für Prognosen, Lagerbestände und Assortment jetzt alle in einer einzigen Benutzeroberfläche integriert oder fühlt es sich an, als müsste man zwischen Systemen springen? Sie haben daran gearbeitet, die Oberfläche zu vereinheitlichen, aber Nutzerfeedback wäre hierfür entscheidend. Vermutlich ist es nicht so einheitlich wie die hauseigene Single-Plattform von RELEX.
Hinsichtlich der Erfolgsbilanz kann ToolsGroup auf viele erfolgreiche Fallstudien verweisen, die häufig die Reduktion von Lagerbeständen und Verbesserungen bei den Servicelevels hervorheben. Es gab kein bekanntes öffentliches Debakel wie bei SAP oder JDA. Da sie kleiner sind, erhält jedes Projekt womöglich mehr Aufmerksamkeit. Allerdings kennen sie sie weniger gut im Einzelhandel bzw. E-Commerce, da sie traditionell eher an Fertigungs- und Vertriebsunternehmen verkauft haben. Ihr Einstieg in den Einzelhandel über JustEnough hat dazu geführt, dass einige ältere JustEnough-Kunden nun ToolsGroup verwenden. JustEnough selbst erhielt gemischte Bewertungen (es war in der Planung solide, jedoch möglicherweise hinsichtlich der Skalierbarkeit eingeschränkt – unklar). Daher musste ToolsGroup diese Module stärken. Als Skeptiker würden wir empfehlen, zu prüfen, wie integriert die Analysen wirklich sind. Beispielsweise: Kann das System automatisch erkennen, dass eine im JustEnough-Modul geplante Promotion die Nachfrageprognose in SO99+ anpassen sollte? Wahrscheinlich ja, da sie für Promotion-Aufschläge integriert wurden. Sie erwähnen „demand sensing insights help fine-tune the statistical forecast“ 58, was andeutet, dass sie Faktoren wie Promotions oder aktuelle Trends berücksichtigen, um die Basisprognosen anzupassen.
Zusammengefasst ist ToolsGroup in seiner ursprünglichen Nische (Prognose & Lagerbestand) sehr stark – man könnte sagen, best-of-breed in der probabilistischen Lagerbestandsoptimierung – und erweitert sein Angebot, um auch Preisgestaltung und Assortment abzudecken, obwohl diese neueren Fähigkeiten möglicherweise noch nicht mit spezialisierten Wettbewerbern konkurrieren können. ToolsGroup erfüllt viele unserer Kriterien des neuesten Stands der Technik:
- Probabilistische Prognosen? Ja, das haben sie propagiert 49 43.
- Wirtschaftliche Optimierung? Implizit ja im Bereich Lagerbestand (sie optimieren in Bezug auf Service vs. Kosten-Abwägungen), wenn auch nicht so explizit hinsichtlich des Gewinns wie es Lokad tut. Es geht mehr darum, „das Serviceniveau mit minimalem Lagerbestand zu erreichen“, was eine Form der Kostenoptimierung darstellt.
- Skalierbarkeit? Generell ja, ohne Warnsignale. Und ihr Ansatz ist effizient (nicht brute-force).
- Kannibalisierung? Möglicherweise, durch fortgeschrittene Modellierung, aber nicht ihr Hauptverkaufsargument.
- Markt-/Wettbewerbsfähigkeit? Nicht von Natur aus – das würde extern oder durch Eingaben geregelt werden. ToolsGroup wird nicht für Sie die Preise der Konkurrenz durchforsten oder Ähnliches.
- Automatisierung? Ja, in hohem Maße. Nach der Einrichtung können viele Planungsaufgaben automatisiert werden, wobei ihr System Bestellvorschläge erstellt, die die Planer lediglich genehmigen. Sie werben mit enormen Reduktionen der Arbeitsbelastung und weniger menschlichen Vorurteilen.
- Skepsis gegenüber Anbieteransprüchen: Das Marketing von ToolsGroup ist im Vergleich zu anderen tatsächlich etwas zurückhaltender – abgesehen von den Verbesserungstatistiken, die wir bereits mit Vorsicht betrachtet haben. Sie konzentrieren sich darauf, was die Technologie leistet (ihre Blogs zur probabilistischen Planung sind fundiert und nicht bloß leeres Gerede). Dennoch springen sie jetzt auf den AI-Buzzword-Zug auf und nennen vieles „AI-powered“. Wir merken jedoch an, dass sie sowohl in der traditionellen OR (Operations Research) als auch im ML verwurzelt sind – eine gesunde Mischung.
Ein externer Datenpunkt: Analystenberichte (wie von Gartner) platzieren ToolsGroup häufig in der Führungsposition im Bereich Supply Chain Planning, bemängeln aber, dass ToolsGroups Fähigkeiten eher tiefgehend als breit sind und die Benutzeroberfläche historisch weniger modern war. Dies wird mittlerweile teilweise ausgeglichen (neue UI, Integration).
Für einen reinen eCommerce-Anbieter hängt die Entscheidung, ToolsGroup einzusetzen, wahrscheinlich davon ab, ob die Lagerbestandsoptimierung das wichtigste Problem darstellt und ob eine bewährte, in sich geschlossene Lösung benötigt wird. Falls ja, könnte ToolsGroup hervorragend passen und schnelle Erfolge bei der Bestandsreduktion und Serviceverbesserung liefern. Wenn das eCommerce-Geschäft jedoch auch auf eine intensive Preisoptimierung oder hochmoderne Omnichannel-Mardown-Strategien setzt, ist ToolsGroup dort möglicherweise nicht so funktionsreich wie Blue Yonder, RELEX oder ein spezialisiertes Preistool. Es könnte erforderlich sein, es mit einer anderen Preislösung zu kombinieren, was dann Integrationsherausforderungen mit sich bringt. (Interessanterweise könnte ToolsGroup dem nicht grundsätzlich entgegenstehen – historisch existierten sie manchmal nebeneinander, indem sie sich auf den Lagerbestand konzentrierten, während ein anderes System die Preisgestaltung übernahm.)
Abschließend lässt sich sagen, dass ToolsGroup als technisch solider, vom Spezialisten zum Komplettanbieter gewordener Anbieter einzuordnen ist. Wir schätzen ihre ingenieurmäßige Strenge in der Prognose und ihren pragmatischen Umgang mit Unsicherheiten (sie haben das Problem, dass „die Prognose immer falsch ist“, schon lange entkräftet, indem sie mit Wahrscheinlichkeiten planen). Wir bleiben jedoch vorsichtig hinsichtlich der jüngsten Expansion: Ob ihre neu integrierten Retail-Module auf dem gleichen Niveau wie ihr Kernbereich arbeiten. Der innere Widerspruch, den wir beobachten, ist ihre Behauptung, nun vollständig integriert zu sein – wenn Risse sichtbar würden (wie Daten, die manuell zwischen den Modulen exportiert/importiert werden müssen), würde das das Konzept untergraben. Aber nach den vorliegenden Informationen scheint ToolsGroup nach JustEnough eine einheitlichere Erfahrung zu liefern. Sie fügen sich sogar in den Trend der Nutzung von Echtzeitdaten in der Planung ein, was lobenswert ist.
Schließlich, wie wir es bei anderen gemacht haben: Überprüfung der Anbieteransprüche bei ToolsGroup. Wenn sie beispielsweise sagen: “90+% Produktverfügbarkeit, 20-30% weniger Inventar, 40-90% reduzierte Arbeitsbelastung” 53 54 – sollte man mit gesunder Skepsis betrachten, dass diese Ergebnisse erreichbar, aber nicht garantiert sind. Diese Zahlen stammen vermutlich von verschiedenen Kunden, von denen jeweils einer einen dieser Spitzenwerte erreicht hat, und nicht von einem einzigen Kunden, der alle gleichzeitig erreicht. Niemand sollte erwarten, dass sein Inventar um 30% sinkt, während der Service auf >90% steigt und gleichzeitig die Anzahl der Planer um 90% reduziert wird. In der Realität sind meist Kompromisse und schrittweise Verbesserungen nötig. Die Methodik von ToolsGroup kann zwar zu signifikanten Verbesserungen führen, aber wir empfehlen, realistische Ziele zu setzen und den Fortschritt kontinuierlich zu messen. Die gute Nachricht ist, dass ToolsGroups Fokus auf messbare Ergebnisse (Service %, Inventar $$) einen wahrheitssuchenden Ansatz unterstützt – anhand dieser Kennzahlen ist sehr klar erkennbar, ob es funktioniert oder nicht.
Den Hype durchdringen: Erkenntnisse & Empfehlungen
Bei diesen Anbietern haben sich einige gemeinsame Themen von Hype vs. Realität herauskristallisiert, die ein eCommerce-Entscheidungsträger im Auge behalten sollte:
- Vorsicht vor Buzzwords: Begriffe wie “AI-driven, cognitive, demand sensing, real-time, autonomous” werden leichtfertig verwendet. Stellen Sie sicher, dass diese durch konkrete Fähigkeiten untermauert werden. So klingt zum Beispiel “demand sensing” oft großartig – man nutzt die Verkaufszahlen von gestern oder das Social-Media-Feedback, um die heutige Prognose anzupassen – in der Praxis führt dies jedoch meist nur zu geringen Anpassungen und entspricht im Grunde nur kurzfristiger Prognose. Branchenexperten haben demand sensing möglicherweise als “mootware” bezeichnet – etwas, das existiert, aber keinen wesentlichen Mehrwert liefert, der über das hinausgeht, was gute Prognosen bereits leisten 59. Lassen Sie sich nicht ohne Beweise von „vaporware“-Konzepten überzeugen. Fragen Sie den Anbieter: Was genau macht Ihre KI, was mein aktueller Prozess nicht kann, und können Sie das beweisen? Wenn sie behaupten, „wir berücksichtigen 300 Faktoren“, hinterfragen Sie, ob diese Faktoren wirklich den Unterschied machen oder nur eine hübsche Präsentation ergeben.
- Ausgangsbasis und Benchmarks: Legen Sie stets eine klare Ausgangsbasis fest (z. B. die Lagerumschlagshäufigkeit des letzten Jahres, die Erfüllungsrate, die Bruttomarge) und prüfen Sie, ob der Anbieter zustimmt, Verbesserungen daran zu messen. Viele Anbieter nennen prozentuale Verbesserungen, die riesig klingen, aber ohne Kontext bedeutungslos sind. Achten Sie auch auf die Teilnahme an externen Benchmarks (wie Prognosewettbewerben oder öffentlichen Fallstudien mit harten Zahlen). Der M5 Wettbewerb war ein solcher Maßstab, der in der Prognose den Unterschied zwischen Gut und Schlecht aufzeigte – insbesondere, da keiner der großen traditionellen Anbieter dort Ergebnisse veröffentlichte, während ein kleinerer Akteur (Lokad) dies tat und herausragte 60. Das zeigt, wer Vertrauen in seine Technologie hat.
- Integrationskomplexität: Wenn ein Anbieter durch Übernahmen gewachsen ist (Blue Yonder, ToolsGroup), seien Sie vorsichtig mit Versprechungen wie „jetzt ist alles eine Plattform“. Oft dauert es Jahre, bis wirklich integriert wird. In dieser Zeit nutzen Sie womöglich effektiv separate Systeme mit einigen Schnittstellen. Es können versteckte Kosten in der Implementierung entstehen, um alles miteinander zu verbinden. Zudem könnten zwei übernommene Komponenten nicht dieselbe Definition bestimmter Daten teilen (z. B. verwendet die eine wöchentliche Intervalle, die andere tägliche oder unterschiedliche Produkthierarchie-Definitionen). Das kann zu Kompromissen oder Fehlanpassungen führen. Es ist ratsam, Referenzkunden nach ihren Erfahrungen bei der Integration der Module zu befragen.
- Kostenstruktur: Bewerten Sie nicht nur die Kosten für Softwarelizenzen/Abonnements, sondern auch Laufzeitkosten (falls zutreffend) und die notwendige Infrastruktur. Wie erwähnt, könnte eine Lösung, die auf etwas wie Snowflake basiert, Ihnen diese Cloud-Ausführungskosten weiterreichen. Oder eine sehr speicherintensive Lösung könnte Sie zu hochklassigen Cloud-Instanzen zwingen. Ein Anbieter könnte eine höhere Abonnementgebühr angeben, die alle Rechenleistungen beinhaltet; ein anderer wäre vielleicht günstiger, aber Sie müssten eine hohe AWS/Azure-Rechnung für die erforderliche Rechenleistung bezahlen. Vergleichen Sie unbedingt die Gesamtkosten des Besitzes. Wir haben erwähnt, wie Snowflakes Modell die Fallstricke von IBM-Mainframes widerspiegeln könnte – achten Sie auf nutzungsbasierte Gebühren und fordern Sie von den Anbietern, die dieses Modell verwenden, Transparenz.
- Jeder Anbieter hat Misserfolge: Es ist wichtig zu bedenken, kein Anbieter wird seine gescheiterten Projekte hervorheben, doch sie alle gibt es. Die Implementierung ist genauso wichtig wie das Werkzeug. Wir haben gesehen, dass selbst Top-Anbieter wie SAP oder i2 (jetzt unter Blue Yonder) multimillionenschwere Fehlschläge erlitten haben 39 33. Oft liegen die Gründe in schlechten Daten, nicht übereinstimmenden Erwartungen oder darin, dass das Unternehmen die Systemvorgaben nicht umsetzt. Fragen Sie die Anbieter, wie sie mit Projekten umgehen, die ihre Ziele nicht erreichen. Haben sie (anonymisierte) Beispiele für gewonnene Erkenntnisse? Blue Yonder zeigte Demut, als sie die häufigsten Fehlerursachen anerkannte 26. Ein Anbieter, der behauptet, „wir haben eine 100% Erfolgsquote“, agiert unrealistisch. Bestehen Sie auf Gesprächen darüber, was schiefgehen könnte und wie es gemildert wird.
- Widersprüche zwischen Echtzeit und analytischer Tiefe: Wie erwähnt, können einige Analysen (etwa das netzwerkweite Sortiments-Planning) nicht wirklich in Echtzeit erfolgen – sie erfordern umfangreiche Datenverarbeitung und geschäftliche Überlegungen. Wenn ein Anbieter sowohl „Echtzeit-Reaktionsfähigkeit“ als auch „ganzheitliche Optimierung“ verspricht, müssen Sie herausfinden, welche Teile seiner Lösung welchem Versprechen entsprechen. So kann beispielsweise ToolsGroup Lagerbestände in Echtzeit aktualisieren, während die Kernoptimierung möglicherweise täglich erfolgt. RELEX kann Daten nahezu in Echtzeit aufnehmen, jedoch könnte die Planung bestimmter Aspekte (wie KI-basierte Preisoptimierung) weiterhin als Batch-Prozess über Nacht laufen. Verstehen Sie den Takt jeder Komponente der Lösung im Verhältnis zu den Bedürfnissen Ihres Unternehmens. Echtzeit ist entscheidend für operative Prozesse (wie das Aktualisieren von „available-to-promise“ Inventar oder dynamische Preisgestaltung in Echtzeit), doch für strategische Entscheidungen zählen Tiefe und Genauigkeit mehr als reine Geschwindigkeit.
- Manuelle Übersteuerung vs. Autonomie: Alle Anbieter behaupten ein gewisses Maß an Autonomie, geben aber gleichzeitig an, dass sie menschlichen Input zulassen – es handelt sich um ein Spektrum. Die zentrale Frage lautet: Läuft das System von Haus aus unbeaufsichtigt, wobei nur Ausnahmefälle markiert werden, oder erfordert es standardmäßig eine Überprüfung durch den Nutzer für jede Entscheidung? Für echte Effizienzgewinne ist das erstgenannte wünschenswert. Ein Warnsignal ist, wenn der Anbieter herausstellt, wie viele Bedienhebel und Konfigurationsoptionen dem Nutzer zur Verfügung stehen – das kann darauf hindeuten, dass das Tool viel Betreuung benötigt, um gute Ergebnisse zu erzielen (was dem Versprechen der Automatisierung widerspricht). Idealerweise sollte das Tool diese Parameter selbst anpassen (wie Blue Yonder, das durch den Einsatz von ML die Notwendigkeit manuell gesetzter Saisonprofile eliminiert 36). Vertrauen Sie, aber überprüfen Sie: Achten Sie in Demos oder Testphasen darauf, wie viel manuelles Nachjustieren erforderlich ist, damit die Demo-Ergebnisse überzeugen.
- Details zu AI/ML: Gehen Sie den KI-Behauptungen des Anbieters auf den Grund. Fragen Sie: Wird maschinelles Lernen für Prognosen eingesetzt? Welche Algorithmen werden verwendet (falls sie dies benennen können)? Nutzen sie Open-Source-Bibliotheken (wenn alles proprietär ist, könnte das ein Zeichen dafür sein, dass sie mit den neuesten Techniken nicht Schritt halten; alle führenden KI-Lösungen integrieren Open-Source wie TensorFlow/PyTorch oder zumindest bekannte Algorithmen)? Wenn ein Anbieter mit einer „proprietären KI-Engine“ um sich wirbt, diese aber nicht einfach erklären kann, sollten Sie skeptisch sein. Umgekehrt zeigt es Engagement, wenn sie konkret sagen: „Wir verwenden Gradient Boosting für Basisprognosen und ein Reinforcement-Learning-Modell für die Preisgestaltung“, denn das demonstriert eine konkrete Investition in Technologie. Überprüfen Sie auch, ob ihr Team in akademischen oder branchenspezifischen Foren über ihre Methoden publiziert oder teilgenommen hat – ein Zeichen für Seriosität.
Schließlich unterstreichen wir einen wahrheitssuchenden Ansatz: Bestehen Sie auf Daten und Testergebnissen statt auf glänzenden Versprechungen. Wenn möglich, führen Sie eine Pilotphase oder einen Proof-of-Concept durch, bei dem jeder Anbieter einen Teil Ihrer Daten zur Prognose oder Optimierung erhält, und bewerten Sie die Ergebnisse quantitativ. Zum Beispiel: Übermitteln Sie zwei Jahre historische Daten und lassen Sie den Anbieter das dritte Jahr prognostizieren (für das Sie tatsächliche Werte haben) – so sehen Sie, wer am nächsten dran ist oder wer die schwierigen Nachfrage-Muster erkennt. Alternativ lassen Sie sie ein Szenario optimieren und simulieren anschließend die Kosten-/Service-Ergebnisse anhand Ihrer tatsächlichen Nachfrage, um die Resultate zu validieren. Nur wenige Anbieter bieten von sich aus einen direkten Vergleich an, doch die guten tun dies oft, weil sie zu ihrer Wissenschaft stehen. Lokad etwa engagiert sich häufig über Pilotprojekte. Blue Yonder und RELEX führen manchmal „Discovery“-Phasen durch, die Pilotprojekten ähneln. Stellen Sie nur sicher, dass Sie für diese klare Erfolgskriterien definieren.
Letztlich mangelt es dem eCommerce-Optimierungssoftware-Markt nicht an selbsternannten „KI-Wundern“, doch durch tiefgreifende Skepsis und das Fordern von ingenieurmäßigen Belegen lassen sich die überzogenen Versprechungen ausfiltern. Diese Studie ergab, dass Lokad bei technischer Innovation und Schwerpunktsetzung führend ist, RELEX mit einer einheitlichen Retail-Funktionalität (wenn auch mit etwas Hype, den es zu beobachten gilt), Blue Yonder mit Breite und Erfahrung (trotz einer herausfordernden technologischen Umstrukturierung) und ToolsGroup mit spezialisierten Optimierungsstärken (wobei die Integration weiter wächst). Jeder Anbieter kann signifikante Vorteile bieten – doch keiner ist ein universelles Plug-and-Play-Wundermittel. Die Wahrheit ist, dass erfolgreiche Optimierung sowohl vom richtigen Werkzeug als auch von der passenden Implementierungsstrategie abhängt. Mit den oben dargestellten Erkenntnissen und vorsichtigen Hinweisen kann sich ein eCommerce-Unternehmen mit klarem Blick an diese Anbieter wenden und eine Entscheidung treffen, die auf Fakten und fundiertem Denken basiert – und nicht nur auf Marketingverheißungen.
Fußnoten
-
Probabilistische Prognosen können das Leben von SAP APO verlängern | ToolsGroup ↩︎ ↩︎
-
Probabilistische Prognosen können das Leben von SAP APO verlängern | ToolsGroup ↩︎ ↩︎
-
Envision VM (Teil 1), Umgebung und allgemeine Architektur ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Envision VM (Teil 1), Umgebung und allgemeine Architektur ↩︎ ↩︎ ↩︎ ↩︎
-
KI-Planungslösungen können Einzelhandelsprobleme im Jahr 2023 lösen, sagt RELEX Solutions – International Supermarket News ↩︎ ↩︎ ↩︎
-
Envision VM (Teil 1), Umgebung und allgemeine Architektur ↩︎
-
Envision VM (Teil 1), Umgebung und allgemeine Architektur ↩︎
-
KI-Planungslösungen können Einzelhandelsprobleme im Jahr 2023 lösen, sagt RELEX Solutions – International Supermarket News ↩︎ ↩︎
-
KI-Planungslösungen können Einzelhandelsprobleme im Jahr 2023 lösen, sagt RELEX Solutions – International Supermarket News ↩︎
-
Verbesserung der Genauigkeit von Nachfragemodellen durch Einbeziehung von Wettereinflüssen ↩︎
-
RELEX Solutions präsentiert KI-gestützte Preisoptimierungsfähigkeiten für … ↩︎
-
RELEX Solutions: Marktführende Supply Chain & Retail Planung ↩︎ ↩︎
-
KI-Planungslösungen können Einzelhandelsprobleme im Jahr 2023 lösen, sagt RELEX Solutions – International Supermarket News ↩︎
-
RELEX Reviews 2025: Preisgestaltung, Funktionen & Mehr - SelectHub ↩︎
-
Blue Yonder revolutioniert das Supply Chain Management - JBF Consulting | Supply Chain Technology Consulting Firm ↩︎ ↩︎ ↩︎
-
Pet Supermarket optimiert Prognosen und Nachschub mit RELEX - Retail Optimiser ↩︎
-
Blue Yonder revolutioniert das Supply Chain Management - JBF Consulting | Supply Chain Technology Consulting Firm ↩︎ ↩︎
-
Blue Yonder revolutioniert das Supply Chain Management - JBF Consulting | Supply Chain Technology Consulting Firm ↩︎ ↩︎
-
Blue Yonder revolutioniert das Supply Chain Management - JBF Consulting | Supply Chain Technology Consulting Firm ↩︎
-
Blue Yonder stellt das Supply Chain Management neu vor - JBF Consulting | Supply Chain Technology Beratungsfirma ↩︎
-
Jury: JDA schuldet Dillards $246M im i2-Technologien-Fall - Phoenix Business Journal ↩︎ ↩︎
-
Jury: JDA schuldet Dillards $246M im i2-Technologien-Fall - Phoenix Business Journal ↩︎
-
Ein intelligenter Weg, um die Bedarfsprognose zu verbessern ↩︎
-
Ein intelligenter Weg, um die Bedarfsprognose zu verbessern ↩︎ ↩︎ ↩︎
-
Ein intelligenter Weg, um die Bedarfsprognose zu verbessern ↩︎
-
Vier Wege, wie Blue Yonder auch nach über 35 Jahren Erfolg weiter innoviert ↩︎
-
Aldi Nord kämpft mit seiner neuen SAP-Welt - Retail Optimiser ↩︎ ↩︎
-
Blue Yonder stellt das Supply Chain Management neu vor - JBF Consulting | Supply Chain Technology Beratungsfirma ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen können die Lebensdauer von SAP APO verlängern | ToolsGroup ↩︎ ↩︎
-
ToolsGroup in 2024 - Bewertungen, Features, Preise, Vergleich - PAT … ↩︎
-
ToolsGroup® kündigt JustEnough® Real-Time Retail an, die einzige Retail-Planungs- und Ausführungslösung, die in Echtzeit auf das Einkaufsverhalten reagiert | ToolsGroup ↩︎ ↩︎
-
ToolsGroup® kündigt JustEnough® Real-Time Retail an, die einzige Retail-Planungs- und Ausführungslösung, die in Echtzeit auf das Einkaufsverhalten reagiert | ToolsGroup ↩︎
-
ToolsGroup® kündigt JustEnough® Real-Time Retail an, die einzige Retail-Planungs- und Ausführungslösung, die in Echtzeit auf das Einkaufsverhalten reagiert | ToolsGroup ↩︎
-
ToolsGroup® kündigt JustEnough® Real-Time Retail an, die einzige Retail-Planungs- und Ausführungslösung, die in Echtzeit auf das Einkaufsverhalten reagiert | ToolsGroup ↩︎
-
Was ist Wahrscheinlichkeitsbasierte Prognose? - ToolsGroup ↩︎ ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen – eine Einführung – ToolsGroup ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen können die Lebensdauer von SAP APO verlängern | ToolsGroup ↩︎
-
ToolsGroup kündigt bedeutende Verbesserungen seiner branchenführenden … an ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen supply chain | ToolsGroup ↩︎ ↩︎ ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen supply chain | ToolsGroup ↩︎ ↩︎
-
ToolsGroup präsentiert bedeutende Verbesserungen der dynamischen Planung … ↩︎
-
Probabilistic Planning and Forecasting entmystifiziert | ToolsGroup ↩︎
-
Wahrscheinlichkeitsbasierte Prognosen können die Lebensdauer von SAP APO verlängern | ToolsGroup ↩︎ ↩︎
-
Software für Bedarfsplanung & Bedarfsprognose - ToolsGroup ↩︎
-
Ungewissheit in supply chain, Lektionen aus dem M5-Wettbewerb ↩︎