Unternehmens-Inventaroptimierungssoftware, Februar 2025

Von Léon Levinas-Ménard
Zuletzt geändert: 2. Februar 2025

Zielsetzung: Diese Studie bewertet führende Anbieter von Software zur Optimierung des Unternehmensinventars mit einem strengen, evidenzbasierten Ansatz. Wir bestrafen vages Marketing, unbegründete „KI“-Buzzwords und das Fehlen echter stochastischer Fähigkeiten. Zu den wichtigsten Kriterien gehören: (1) der nachweisliche Support für sowohl probabilistische Nachfrageprognosen als auch probabilistische Lieferzeitprognosen (Anbieter, die die Unsicherheit der Lieferzeiten außer Acht lassen, gelten als nicht ernsthaft); (2) die Glaubwürdigkeit fortschrittlicher Funktionen (Kannibalisierung, „demand sensing“, AI/ML etc. müssen durch echte technische Details untermauert sein, andernfalls als unglaubwürdig eingestuft); (3) der Automatisierungsgrad (tatsächlich unbeaufsichtigte Optimierung vs. notwendige manuelle Anpassungen); und (4) die Fähigkeit, komplexe Zwänge zu handhaben (Verfallsdaten, Serien-/Chargenverfolgung, Retouren, Losgrößen, Preisstaffelungen, Produktkannibalisierung, unregelmäßige „quasi-seasonsale“ Muster, Lagerkapazitätskosten etc.).

Bewertete Anbieter

Nachfolgend finden Sie eine objektive Rangliste der führenden Anbieter von Inventaroptimierungslösungen, von den glaubwürdigsten bis zu den weniger glaubwürdigen, basierend auf den oben genannten Kriterien. Jede Anbieterbewertung hebt Stärken hervor, zeigt Schwächen auf und nennt Belege für irreführende Aussagen.

1. LokadProbabilistischer Pionier mit voller Transparenz

Überblick: Lokad zeichnet sich durch einen echten probabilistischen Ansatz im supply chain aus. Es modelliert explizit sowohl die Nachfragevariabilität als auch die Lieferzeitvariabilität, wobei Lieferzeiten als prognostizierbare Zufallsvariablen behandelt werden (nicht als feste Vorgaben) 1. Das System von Lokad bietet eine „Algebra der Zufallsvariablen“ – im Grunde genommen erstklassige Unterstützung für Wahrscheinlichkeitsverteilungen – und ermöglicht komplexe stochastische Berechnungen, die bei jedem Schritt die Unsicherheit berücksichtigen 2 3. Diese mathematische Strenge unterscheidet Lokad von Wettbewerbern, die Unsicherheit oft nur ad-hoc simulieren (oder das Lieferzeit-Risiko gänzlich ignorieren).

Probabilistische Nachfrage & Lieferzeiten: Lokad erfüllt eindeutig das Kriterium der doppelten Prognose. Die Dokumentation betont, dass „Lieferzeiten so prognostiziert werden können und sollten wie die Nachfrage“ 1. Die Plattform kann probabilistische Modelle für Lieferzeiten erstellen (z.B. unter Verwendung log-logistischer Verteilungen) und diese mit Nachfrageprognosen kombinieren 1 – ein Eckpfeiler für genaue Nachbestellberechnungen. Indem beide Aspekte der Unsicherheit berücksichtigt werden, vermeidet Lokad den häufigen Fehler anderer Werkzeuge, die Lieferzeiten als statisch ansehen oder die allein auf Sicherheitsbestände setzen.

Fortgeschrittene Funktionen (Kannibalisierung, etc.): Lokad liefert konkrete technische Details zu fortgeschrittenen Zwängen. Es führt eine stochastische Optimierung ein, die den erwarteten Gewinn maximiert und gleichzeitig kundenspezifische Zwänge berücksichtigt, einschließlich produktübergreifender Effekte wie Kannibalisierung und Substitution 4. Zum Beispiel kann Lokad modellieren, wie Produkte sich gegenseitig in der Nachfrage kannibalisieren oder als Substitute fungieren, und diese Beziehungen in die Optimierungslogik einfließen lassen. Dies ist keine vage Behauptung – es wird durch einen „programmatischen“ Ansatz (Lokads Envision-Skripting) untermauert, bei dem Supply Chain Scientists solche Beziehungen explizit codieren. Ebenso können schwierige Phänomene wie sporadische Retouren oder Ausschussraten probabilistisch prognostiziert und in Entscheidungen einbezogen werden 3. Die öffentlichen Materialien von Lokad gehen auf diese technischen Details ein (z.B. Prognosen für Retouren im E-Commerce oder Ertragsvariabilität in der Produktion 5 6) und liefern Beweise für die Leistungsfähigkeit. Es wird nicht auf leere Schlagwörter gesetzt; stattdessen diskutiert Lokad Methoden (Monte-Carlo-Simulationen, probabilistisches Programmieren etc.) und veröffentlicht sogar Vorträge darüber, wie diese implementiert werden 7. Behauptungen zu AI/ML sind minimal – der Fokus liegt auf messbaren, modellgetriebenen Verbesserungen.

Automatisierung: Volle Automatisierung ist ein zentrales Designziel von Lokad. Die Plattform ist für einen unbeaufsichtigten Betrieb konzipiert: sie „automatisiert wiederkehrende Aufgaben aggressiv“ in der Optimierung des supply chain 8. Lokads Ansatz besteht darin, dass seine Engine optimale Entscheidungen (Bestellaufträge, Lagerzuweisungen, Produktionspläne) generiert, ohne dass ständige menschliche Mikrosteuerung erforderlich ist. Viele seiner Kunden betreiben das System weitgehend im unbeaufsichtigten Modus und greifen nur bei Ausnahmen ein. Lokad stellt sogar eine proprietäre Programmiersprache (Envision) bereit, um die Entscheidungslogik anzupassen und sicherzustellen, dass alle routinemäßigen Szenarien von der Software abgehandelt werden. Das Unternehmen betont offen, dass automatisierte numerische Rezepte im großen Maßstab tägliche Entscheidungen steuern und so den Bedarf an manuellen SOPs reduzieren 8. Diese klare Erklärung, wie Entscheidungen automatisiert werden (über einen optimierten Skript- und Solver-Pipeline), ist weit überzeugender als die generischen „AI-Automation“-Versprechen der Konkurrenz.

Umgang mit Zwängen: Lokad unterstützt nicht-triviale Zwänge robust. Da es eine flexible Modellierungssprache verwendet, kann es Verfallsdaten berücksichtigen (z.B. durch Prognosen der Haltbarkeitsverteilungen und das Erzwingen eines „Sell-Downs“ vor Ablauf), Serien-/Chargenverfolgung (mittels Bestandsalter oder chargenspezifischer Lagerbestandsvariablen), Retouren und Aufbereitungen (durch Modellierung der Rücksendequoten und Lieferzeiten für Retouren 6), Losgrößen/MOQs (in die Optimierung einbezogen durch Bewertung diskreter Losgrößen), Lieferantenpreisnachlässe oder Aktionen (durch Optimierung des Zeitpunkts/der Menge von Bestellungen zur Maximierung des Rabatts im Vergleich zu den Lagerhaltungskosten 9), Kannibalisierungs- und Substitutionseffekte (explizit als in der stochastischen Engine behandelt erwähnt), quasi-seasonsale Muster (seine Prognosen können ungewöhnliche saisonale Muster mittels probabilistischer Modelle erfassen) und Lager- oder Kapazitätszwänge (durch Einbeziehung von Kapazitätskosten/-strafen in das Optimierungsziel). Die Dokumentation von Lokad hebt sogar hervor, dass es „alle wirtschaftlichen Treiber“ widerspiegelt, die mit Entscheidungen verbunden sind 10 und berücksichtigt „einzigartige Zwänge“ je Kunde – ein Detaillierungsgrad, der in den Beschreibungen der meisten Anbieter fehlt. Kurz gesagt, Lokad demonstriert mit technischer Klarheit, dass es komplexe reale Szenarien bewältigt, anstatt oberflächliche Behauptungen aufzustellen.

Urteil: Lokad belegt den Spitzenplatz aufgrund seines ** kompromisslosen wissenschaftlichen Ansatzes** und seiner Transparenz. Es ist einer der wenigen Anbieter, der tatsächlich probabilistische Prognosen (für Nachfrage und supply) und echte stochastische Optimierung 4 umsetzt. Irreführendes Marketing ist im Wesentlichen nicht vorhanden – anstelle von Hype liefert Lokad Beweise (Whitepapers, technische Dokumentationen) dafür, wie es Ergebnisse erzielt. Diese wahrheitsbasierte Ethik, kombiniert mit starker Automatisierung und Umgang mit Zwängen, macht Lokad zu einem herausragenden Kandidaten für Unternehmen, die eine ernsthafte, zukunftsweisende Inventaroptimierung suchen. Der einzige Vorbehalt ist, dass Lokads Ansatz ein quantitatives Denken erfordert – er ist absichtlich komplex unter der Haube – aber der Gewinn ist eine Lösung, die in der Realität verankert ist und nicht auf Schlagwörter setzt.

2. SlimstockPragmatischer Traditionalist (ehrlich, aber weniger fortschrittlich)

Überblick: Slimstock (mit seinem Produkt Slim4) repräsentiert einen üblichen, klassischen Ansatz zur Inventaroptimierung. Einzigartig ist, dass Slimstock erfrischend frei von KI-Hype ist. Das Unternehmen konzentriert sich auf bewährte Methoden wie Sicherheitsbestandsberechnungen, Economic Order Quantity (EOQ) und andere standardmäßige supply chain Techniken 11. Die Philosophie von Slimstock besteht darin, „einfache, prägnante praktische Lösungen zu liefern, anstatt vage ‚KI‘-Behauptungen aufzustellen“ 12. Diese Ehrlichkeit und der Fokus auf die Grundlagen haben Slimstock unter Praktikern einen hohen Ruf in Bezug auf Benutzerfreundlichkeit und Zuverlässigkeit eingebracht.

Probabilistische Fähigkeiten: Hier scheitert Slimstock nach modernen Maßstäben. Slim4 wirbt nicht explizit mit probabilistischen Prognosen für die Nachfrage, noch mit irgendeiner Form der stochastischen Modellierung der Lieferzeiten. Seine Funktionalität beruht auf traditionellen deterministischen Prognosen (oft mittels Zeitreihenmethoden), kombiniert mit Puffern (Sicherheitsbestände) zur Bewältigung von Schwankungen. Obwohl Slimstock die Lieferzeiten in seinen Berechnungen berücksichtigt (Lieferzeiten sind ein Parameter zur Ermittlung von Nachbestellpunkten und Sicherheitsbeständen), behandelt es diese als gegebene Größen und nicht als zu prognostizierende Zufallsvariablen. Es gibt keine Hinweise darauf, dass Slim4 vollständige Wahrscheinlichkeitsverteilungen für Nachfrage oder Lieferzeit erzeugt. Das bedeutet, Slimstock, obwohl es in einem klassischen Sinn robust ist, „ignoriert die Unsicherheit“ in der detaillierten Weise, wie probabilistische Methoden sie erfassen 3. Gemäß unseren Kriterien ist das Versäumnis, die Lieferzeitunsicherheit explizit zu modellieren, eine ernsthafte Einschränkung – ein Minuspunkt für die technische Tiefe von Slimstock. Slimstock mildert dies jedoch dadurch ab, dass es zumindest offenlegt, einfache Methoden zu verwenden; es tut nicht so, als ob es über fortgeschrittene stochastische Technologie verfüge. Für viele Unternehmen liefert der konservative Ansatz von Slim4 akzeptable Ergebnisse, jedoch könnte er im Vergleich zu wirklich probabilistischer Optimierung Potenzial ungenutzt lassen.

Behauptungen zu fortgeschrittenen Funktionen: Slimstock übertreibt in der Regel nicht die Fähigkeiten, die es nicht besitzt. Man wird nicht hören, dass Slim4 damit prahlt, über „KI-gesteuerte Nachfrageerkennung“ oder „machine learning forecasts“ zu verfügen. Tatsächlich wird dieser BS-arme Ansatz als positiv hervorgehoben: „Es ist erfrischend zu sehen, dass ein Anbieter sich auf Praktikabilitäten konzentriert… statt auf vage KI-Behauptungen.“ 13. Nichtsdestotrotz ist das Funktionsspektrum von Slimstock relativ eng gefasst. Komplexe Interaktionen wie Produktkannibalisierung oder Substitutionseffekte stehen nicht im Mittelpunkt (diese müssten manuell angepasst oder durch ergänzende Analysen behandelt werden). Ebenso ist der Umgang mit Themen wie Aktionen, kausalen Faktoren oder neuartigen ML-Techniken minimal. Slimstock glänzt in dem, was es tut (statistische Prognosen, Multi-Echelon-Nachbestellungen mit Sicherheitsbeständen), wagt sich aber nicht in die Spitzentechnologie vor – und zu seinem Verdienst tut es nicht so, als ob es dies täte. Jegliche Behauptungen (z.B. „optimierte Lagerbestände“ oder „erhöhter Service bei geringerem Bestand“) werden durch eine unkomplizierte Funktionalität gestützt und nicht durch schwammiges KI-Geschwafel. Wir fanden keine Warnzeichen wie „demand sensing“ in den Materialien von Slimstock, was auf einen lobenswerten Fokus auf Substanz statt Stil hindeutet.

Automatisierung: Slim4 ist für die Benutzerfreundlichkeit von Planern konzipiert, was eine Mischung aus Automatisierung und manueller Kontrolle impliziert. Das Tool erzeugt automatisch Prognosen, Nachbestellpunkte und Lagerziele für Tausende von SKUs über mehrere Ebenen hinweg. Die Nutzer setzen häufig Service-Level-Ziele und überlassen Slim4 die Berechnung der notwendigen Lagerpuffer. In der Praxis ermöglicht Slimstock einen halbautomatisierten Prozess: Routinenberechnungen werden vom System übernommen, während Planer typischerweise Ausnahmen prüfen oder Parameter anpassen. Slimstock wirbt nicht mit einem „vollständig autonomen supply chain“ in seinem Marketing – stattdessen positioniert es sich als Entscheidungsunterstützungstool für Planer. Das Fehlen eines klaren Anspruchs auf „Black-Box-Automatisierung“ bedeutet, dass man Slimstock nicht dafür tadeln kann, manuelle Arbeit zu verbergen; sie erwarten, dass die Nutzer im Prozess eingebunden bleiben. Allerdings könnte Slimstocks Ansatz im Vergleich zu Anbietern, die eine vollständig unbeaufsichtigte Optimierung anstreben, mehr fortlaufende Nutzereingriffe erfordern (z.B. Aktualisierung von Prognosen für neue Trends, manuelle Verwaltung von Artikeln kurz vor Ablauf etc.). Es ist ein pragmatisches Maß an Automatisierung, das für viele mittelständische Unternehmen geeignet ist, wenn auch nicht das theoretische Ideal der „no touch“-Optimierung.

Umgang mit Zwängen: Im Einklang mit seinem klassischen Ansatz handhabt Slimstock übliche supply chain Zwänge, jedoch nicht alle komplexen. Verfallsdaten: Slim4 kann eine grundlegende Haltbarkeitskontrolle durchführen (Warnungen für Artikel, die dem Verfallsdatum nahekommen, FIFO-Lagerrotation), jedoch wird es vermutlich keine ausgefeilte Optimierung für verderbliche Waren leisten. Losgrößen / Mindestbestellmengen (MOQs): Ja, Slim4 unterstützt diese Standardzwänge in den Nachbestellberechnungen. Multi-Echelon: Der Kern von Slimstock ist die Multi-Echelon-Inventaroptimierung, sodass es den Lagerbestand über verschiedene Standorte hinweg ausgleicht, wenn auch unter Verwendung traditioneller Service-Level-Zuordnungsverfahren anstelle einer voll stochastischen Netzwerkoptimierung. Kannibalisierung & Substitution: größtenteils nicht automatisiert unterstützt – Nutzer müssen Prognosen für Produktübergänge oder Überschneidungen manuell anpassen, da die Modelle von Slim4 nicht automatisch erkennen, dass Produkt B der Nachfrage von Produkt A abzweigt. Retouren, Serienverfolgung: Diese liegen außerhalb des Anwendungsbereichs der Prognosen von Slim4 und würden im ERP-/Lagerbereich behandelt werden. „Quasi-Saisonalität“ (unregelmäßige, ereignisgesteuerte Nachfragespitzen) werden möglicherweise nicht erfasst, sofern der Nutzer diese nicht manuell in die Prognosen einbaut (z.B. über saisonale Profile oder Anpassungen). Lagerkapazitätskosten: Slimstock geht typischerweise von unbegrenzter Kapazität aus oder verwendet einfache Zwänge; es führt keine komplexe nichtlineare Optimierung für Lagerraum durch – auch hier wären wieder manuelle Anpassungen erforderlich (z.B. wenn Planer die Ziele senken, wenn der Platz knapp wird). Zusammenfassend deckt Slimstock die „alltäglichen, aber kritischen Praktiken“ 14 ab – es ist sehr effektiv für das klassische Bestandsmanagement (korrekte Nachbestellpunkte, Sicherheitsbestände, ABC-Segmentierung etc.) und tut dies mit Integrität. Dennoch ist es nicht das Werkzeug, um jedes esoterische Szenario abzubilden. Unternehmen mit sehr komplexen Zwängen oder Unsicherheitsmustern könnten über das hinauswachsen, was Slim4 bieten kann.

Urteil: Slimstock erhält aufgrund seiner erfrischenden Ehrlichkeit und soliden Grundlagenkenntnisse eine hohe Bewertung. Es bietet eine zuverlässige Lösung, ohne auf modischen Jargon oder übertriebene KI-Versprechen zurückzugreifen. In Umgebungen, in denen klassische Inventarformeln ausreichen, liefert Slim4 Ergebnisse und wird für seinen benutzerfreundlichen, pragmatischen Stil geschätzt. Jedoch kann Slimstock nach unseren strengen Kriterien nicht als bahnbrechend angesehen werden. Das Fehlen expliziter probabilistischer Prognosen (insbesondere das Fehlen der Modellierung von Lieferzeitverteilungen) stellt eine bemerkenswerte Lücke dar – was es für Organisationen, die eine rigorose Unsicherheitsquantifizierung erfordern, als „nicht ernsthaft“ erscheinen lässt. Dies mildern wir jedoch ab: Slimstock nimmt das Inventarmanagement ernsthaft in Angriff, allerdings in einem traditionellen Paradigma. Insgesamt ist Slimstock eine ausgezeichnete Wahl für Unternehmen, die Praktikabilität über Schlagwörter schätzen, sofern sie seine Einschränkungen in der fortgeschrittenen Analytik verstehen.

3. RELEX SolutionsEinzelhandelsfokussiert, Schnelle Analysen – Hohe Ansprüche unter Prüfung

Übersicht: RELEX Solutions ist insbesondere im Einzelhandelssektor schnell aufgestiegen, indem es eine „KI-getriebene“ Plattform für Nachfrageprognosen und Bestandsoptimierung anpreist 15. RELEX’ Markenzeichen ist ein In-Memory-„Live Plan“ System, das den Nutzern schnelle, detaillierte Einblicke in ihre Bestände und Prognosen über Filialen und Distributionszentren ermöglicht. Diese Architektur (oft verglichen mit einem OLAP-Würfel oder „digitalen Zwilling“) ermöglicht beeindruckende Echtzeit-Dashboards und schnelle Was-wäre-wenn-Analysen. RELEX spezialisiert sich auf den Einzelhandel und Frischwaren, mit Funktionen zur Handhabung von Lebensmitteln, verderblichen Waren und Promotionen. Oberflächlich erscheint RELEX sehr fähig: Es spricht davon, die Nachschubsteuerung zu automatisieren, Zuteilungen zu optimieren und behauptet sogar, eine Verfügbarkeit von über 99% im Bestand aufrechterhalten zu können. Bei genauerer Betrachtung zeigt sich jedoch eine Mischung aus Stärken und Schwächen: starke Echtzeitanalysen und einige einzigartige Funktionen, aber potenzielle Defizite in der tiefgehenden Optimierung und Prognosewissenschaft.

Probabilistische Nachfrage & Lieferzeiten: Führt RELEX tatsächlich probabilistische Prognosen durch? Das Unternehmen bewirbt stark seine „KI-getriebene Prognose“, jedoch mangelt es an Details. RELEX veröffentlicht keine Belege dafür, dass es vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage erzeugt, wie es Lokad tut. Der Fokus scheint auf verbesserten Punktprognosen zu liegen (mittels maschinellen Lernens auf aktuellen Daten – was manche als „demand sensing“ bezeichnen) und darauf, diese in die Bestandsberechnungen einfließen zu lassen. Kritisch sei angemerkt, dass wir keinen Hinweis auf eine probabilistische Prognose der Lieferzeiten in den RELEX-Materialien gefunden haben. Lieferzeiten sind zwar Bestandteil der RELEX-Planung (man gibt Lieferzeiten ein, und das System weiß, dass längere Lieferzeiten höhere Sicherheitsbestände erfordern), aber die Behandlung der Lieferzeit als Zufallsvariable mit einer Verteilung – dafür gibt es keinerlei Anzeichen bei RELEX. Gemäß unseren Kriterien ist dieses Versäumnis gravierend. Ein Anbieter, der die Unsicherheit der Lieferzeiten nicht explizit adressiert, ist im Nachteil. Das Planungsmodul von RELEX verwendet wahrscheinlich eine deterministische Lieferzeit plus eventuell einen Puffer für Variabilität, was nicht einer echten stochastischen Optimierung entspricht. Tatsächlich scheint RELEX’ Ansatz bezüglich der Unsicherheit traditionell zu sein: Es werden vermutlich interne Sicherheitsbestandsformeln genutzt. Eine unabhängige Analyse bemerkte, dass die Prognosetechnologie von RELEX „anscheinend Modelle vor 2000“ verwendet. 16 – was darauf hindeutet, dass man sich auf bewährte Methoden (wie exponentielle Glättung) stützt, statt auf einen Durchbruch in der probabilistischen Prognose. Während die Nachfrageprognosen von RELEX also feiner (z. B. täglich, nach Filiale/SKU) und häufig aktualisiert werden mögen, finden wir keinerlei Hinweise auf eine echte probabilistische Prognose im akademischen Sinne. Das stellt RELEX gegenüber Anbietern zurück, die vollständige Nachfrage-/Lieferzeitverteilungen modellieren.

Ansprüche auf fortschrittliche Funktionen (KI, Kannibalisierung, etc.): RELEXs Marketing verwendet großzügig Begriffe wie „KI-getrieben“, „maschinelles Lernen“ und sogar „digitaler Zwilling“. So wirbt es beispielsweise mit „KI-getriebener Nachfrageprognose und mehrstufiger Bestandsoptimierung“ 15 und mit „autonomem Bestandsausgleich“ 17. Allerdings fehlen technische Details. RELEX erklärt selten, welche Algorithmen oder KI-Techniken eingesetzt werden – ein Warnsignal unter unserer Prüfung. Die Behauptungen des Unternehmens, fortschrittliche Herausforderungen im Einzelhandel bewältigen zu können, verdienen daher eine genauere Betrachtung:

  • Kannibalisierung & Substitution: Theoretisch sind diese im Einzelhandel entscheidend (z. B. wenn neue Produkte alte ersetzen oder ein Artikel den Umsatz eines anderen stiehlt, wenn beide in unmittelbarer Nähe platziert werden). RELEXs Architektur könnte das Modellieren dieser Effekte tatsächlich erschweren. Beobachter merken an, dass RELEXs In-Memory/OLAP Design im Widerspruch zu netzwerkweiter Optimierung und Einzelhandelsnachfragemustern wie Substitutionen und Kannibalisierungen steht 18. Da das System für schnelle Abfragen konzipiert ist, fehlt möglicherweise die ausgeklügelte Optimierungsschicht, die nötig wäre, um den Nachfrageverlust eines Produkts als Gewinn für ein anderes zu simulieren. Wir fanden keine explizite Aussage seitens RELEX, dass Kannibalisierung über generische KI-Behauptungen hinaus gelöst wird. Angesichts der Komplexität vermuten wir, dass RELEX keine explizite, bewährte Fähigkeit besitzt, Kannibalisierungseffekte zu modellieren (zumindest nicht weit über manuelle Anpassungen eines Planers hinaus). Daher werden derartige breit gestreute Behauptungen, dass die KI solche Interaktionen handhabt, als unbelegt betrachtet – wir behandeln sie als falsch, bis das Gegenteil bewiesen ist.

  • „Demand Sensing“: RELEX bietet ein Modul für kurzfristiges Demand Sensing (das aktuelle POS-Daten, Wetter etc. einliest). „Demand Sensing“ als Schlagwort ist ein bekanntes rotes Warnsignal – oft überbewertet und wissenschaftlich wenig untermauert 19. RELEX hat keine peer-reviewten Belege veröffentlicht, dass sein Demand Sensing bessere Ergebnisse liefert als traditionelle Prognosen. Wir bleiben skeptisch gegenüber jedem Anbieter, der diesen Begriff ohne klare Daten einsetzt. Sofern RELEX nicht nachweisen kann, wie ihr ML-Modell den Prognosefehler quantitativ verbessert, indem Nachfrageanstiege oder -verschiebungen schneller erfasst werden, betrachten wir die Aussagen zum „demand sensing“ als reinen Marketing-Hype.

  • KI/ML: RELEX positioniert sich als moderne, KI-gestützte Lösung, doch was steckt dahinter? Die Unbestimmtheit der Aussagen ist besorgniserregend. Es ist bekannt, dass RELEX maschinelles Lernen für Prognosen und Planoptimierung einsetzt – bisher wirken die Beispiele jedoch eher grundlegend (z. B. die Nutzung von ML-Regression zur Vorhersage täglicher Verkäufe, was zwar in Ordnung, aber nicht revolutionär ist). Es gibt keinen Hinweis auf „stochastische Optimierung“ oder eine Algebra von Zufallsvariablen in RELEXs Ansatz. Ohne dies ist die Bezeichnung „KI-getrieben“ etwas irreführend. Zudem erscheinen die angepriesenen Ergebnisse von über 99% Verfügbarkeit übertrieben – Branchenumfragen zur Regalverfügbarkeit im Einzelhandel widerlegen derartigen hohen Zahlen 20. Dies deutet auf eine Diskrepanz zwischen Marketing und Realität hin.

Positiv hervorzuheben ist, dass RELEX greifbare Fähigkeiten besitzt, die wertvoll sind:

  • Es kann LKW-Ladungen und Bestellbündelung optimieren (z. B. Füllraten für Container) im Rahmen der Nachschubplanung 17 21.
  • Es beinhaltet eine Funktion zum „intelligenten Vorkauf“ 9, um Lieferantennachlässe auszunutzen – was impliziert, dass es Szenarien berechnen kann, bei denen aktueller Bestandszukauf versus späterer Zukauf abgewogen wird, um Kosteneinsparungen zu maximieren. Das adressiert in gewissem Maße Einschränkungen durch Preisstaffelungen.
  • RELEX konzentriert sich stark auf Frischwaren und die Reduzierung von Verderb. Es behauptet ausdrücklich, „Ablaufdaten für vorhandene Bestände zu berücksichtigen, um Waren mit nahendem Ablauf zu identifizieren und notwendige Ausschlüsse und Preissenkungen durchzuführen.“ 22. Zudem unterstützt RELEX die Verfolgung des Bestands nach Charge/Los, um das Verfallsdatum zu managen, sowie Produkttransformationen für Frischwaren (z. B. das Reifen von Fleischstücken) 23. Dies sind konkrete Funktionen, keine bloßen Schlagworte, die zeigen, dass RELEX in das Management verderblicher Waren investiert hat – ein Bereich, den manche andere vernachlässigen. Auch wenn RELEX nicht mit ausgeklügelter stochastischer Mathematik aufwartet, adressiert es doch reale Probleme im Einzelhandel (wie Ablauf und Verderb) mittels Heuristiken und Geschäftsregeln. Dafür schreiben wir RELEX seine praktischen Fähigkeiten zu.

Architektur & Performance: RELEXs In-Memory-Architektur (oft unter Nutzung von cloudbasierten spaltenorientierten Datenbanken) verleiht ihm Geschwindigkeit, allerdings zu einem Preis. Sie „liefert beeindruckende Echtzeit-Berichte, garantiert aber hohe Hardwarekosten24. Zudem haben derartige Architekturen oft Schwierigkeiten, wenn die Problemkomplexität zunimmt. So ist es beispielsweise schwierig, auf globale Optimierung zu skalieren (bei der alle Standorte und Produkte gleichzeitig optimiert werden), wenn das System im Wesentlichen einem großen OLAP-Würfel entspricht. RELEX könnte sich auf relativ einfache Algorithmen verlassen, um schnell Entscheidungen zu treffen (z. B. gierige Heuristiken für den Bestandsausgleich zwischen Filialen). Das ist hinsichtlich der Reaktionsfähigkeit in Ordnung, jedoch findet so nicht unbedingt die optimale Lösung statt, wie sie ein langsamerer, stochastischer Ansatz ermöglichen könnte. Darüber hinaus sind Echtzeit-Updates weniger relevant, wenn die Unsicherheit nicht richtig modelliert wird – man reagiert zwar sofort auf eine Nachfrageschwankung, doch wenn die Unsicherheit von vornherein nie quantifiziert wurde, jagt man letztlich nur dem neuesten Datenpunkt hinterher (eine potenzielle Falle des „Forecast Chasing“).

Automatisierung: RELEX betont die Automatisierung in den Abläufen. Es wirbt mit „der Automatisierung und Straffung komplexer Bestandsoptimierungsprozesse“ 25 und stellt Funktionen wie „automatisieren Sie Ihren Bestandsausgleich“ 17 sowie die Möglichkeit, „in Echtzeit zu reagieren“ auf Nachfrageschwankungen mittels automatischer Bestellungen vor 26. In der Praxis kann RELEX tatsächlich automatisch Nachschubaufträge für Filialen, Filial-übergreifende Transfers und Ersatzaufträge für ablaufende Bestände mit minimalem menschlichen Eingriff generieren. Viele RELEX-Nutzer setzen auf eine tägliche automatische Nachschubsteuerung, wobei Planer nur in Ausnahmefällen manuell eingreifen. Allerdings erklärt RELEX seine Automatisierungslogik nicht im Detail. So stellt sich beispielsweise die Frage, wie genau entschieden wird, „Erzwingungen“ für ablaufende Produkte auszulösen. Gibt es ein Optimierungsmodell, das Preissenkungskosten versus Verschwendung abwägt, oder lediglich einen Regel-Schwellenwert (z. B. Verkauf, wenn weniger als 2 Tage bis zum Ablauf verbleiben)? Solche Details sind nicht öffentlich. Obwohl wir der Meinung sind, dass RELEX routine Aufgaben automatisieren kann, bewerten wir den Mangel an Transparenz als negativ. Es handelt sich dabei vermutlich um weitgehend regelbasierte Automatisierung, die zwar funktioniert, jedoch nicht so elegant ist wie eine optimierte Richtlinie. Im Vergleich zu älteren Unternehmenssystemen, die eine umfangreiche manuelle Planung erforderten, ist RELEX dennoch ein Fortschritt in der Automatisierung. Seien Sie sich jedoch bewusst, dass das „autonome“ Label möglicherweise übertrieben ist – eine gewisse Feinabstimmung durch Planer (z. B. das Festlegen von Parametern für diese Regeln) ist notwendig, um die Automatisierung effektiv zu halten.

Umgang mit Einschränkungen: RELEX schneidet bei mehreren komplexen Einschränkungen, insbesondere für einzelhandelspezifische Anforderungen, gut ab:

  • Ablauf und Verderblichkeit: Wie erwähnt, verfügt RELEX hier über starke Funktionen (Chargenverfolgung, Projektionen zum Verderb und automatische Planung von Preissenkungen für Waren mit nahendem Ablauf) 22. Dies zeigt, dass RELEX Produkte mit kurzer Haltbarkeit automatisiert verwalten kann – entscheidend für Lebensmittelhändler.
  • Bündelung / LKW-Ladungen: RELEX optimiert die LKW-Auslastung und beachtet Mindestbestellmengen sowie Rundungen 17 21. Es wird explizit darauf hingewiesen, dass leere Frachten durch optimale LKW-Beladung vermieden werden – ein Hinweis auf die Beachtung von Transportkosteneinschränkungen.
  • Preisstaffelungen / Promotionen: Die Vorkauf-Funktion 9 deutet darauf hin, dass RELEX empfiehlt, vor einer Preiserhöhung oder zur Erzielung eines Mengenrabatts zu kaufen, wobei dies gegen Lagerhaltungskosten abgewogen wird. Dies ist eine anspruchsvolle Einschränkung, die viele Systeme ignorieren.
  • Kannibalisierung/Substitution: Schwachpunkt – wie bereits diskutiert, wird dies vermutlich nicht explizit von RELEXs Engine gelöst.
  • Retouren: Im Einzelhandel (insbesondere im E-Commerce) können Retouren erheblich sein (z. B. im Modehandel). RELEX verfügt über ein „predictives Inventory“ Modul, das die Berücksichtigung von Verderblichkeit erwähnt und vermutlich auch Retouren berücksichtigen könnte 27, jedoch sind die Details unklar. Es ist anzunehmen, dass die Bearbeitung von Retouren im ERP erfolgt und nicht von der Nachfrageplanung von RELEX prognostiziert wird.
  • Quasi-Saisonalität: RELEX kann saisonale Nachfragen prognostizieren (es verarbeitet beispielsweise wöchentliche saisonale Profile für jedes Produkt/jede Filiale). Bei unregelmäßigen Nachfragemustern könnte sein ML-Modell gewisse Muster erkennen, jedoch können wir dies ohne explizite Dokumentation nicht bestätigen. Wahrscheinlich behandelt es Promotionen als Sonderereignisse (mit separaten Anstiegsprognosen) – was im Einzelhandel ziemlich standard ist.
  • Lagerkapazität: RELEX ist in der Lage, die Regalfläche in Filialen bis zu einem gewissen Grad zu modellieren (z. B. nicht über die verfügbare Fläche hinaus zu bestellen) als Teil der Planogram-Integration. Für die Kapazität von Distributionszentren ist dies unklar – möglicherweise erfolgt dies über einen alarmbasierten Ansatz.
  • Mehrstufig: RELEX betreibt eine mehrstufige Planung (Filiale-DC-Lieferant). Allerdings könnte das Echtzeit-Design mit einer wirklich optimalen mehrstufigen Bestandsoptimierung in Konflikt stehen 18. Das System optimiert möglicherweise jede Stufe mit Heuristiken, anstatt ein ganzheitliches stochastisches Modell über alle Stufen hinweg zu verwenden. Das ist eine Nuance: Ja, es betreibt mehrstufige Planung (praktisch nutzen viele Kunden es als Ersatz für herkömmliche mehrstufige Werkzeuge), aber erfolgt die Optimierung wirklich optimal? Wahrscheinlich nicht in mathematisch rigoroser Weise – eher als sequentielle Optimierung (Prognose in der Filiale → Versorgung durch das DC → DC-Versorgung durch den Lieferanten mit Puffern in jeder Phase).

Fazit: RELEX zählt zu den führenden Anbietern, insbesondere für Einzelhändler und Frischwarenunternehmen. Seine Stärken liegen in praxisnahen Funktionen (Management verderblicher Waren, schnelle Analysen, supply chain visibility, Promotion-Handling) und einer modernen Benutzeroberfläche, die es klar von älteren Planungssystemen abhebt. Unter unserer kritischen Betrachtung verliert RELEX jedoch Punkte wegen unbewiesener KI-Behauptungen und mangelnder probabilistischer Tiefe. Der starke Einsatz von Schlagworten ohne begleitende Methodologie (keine veröffentlichten Algorithmen oder Leistungsstudien) veranlasst uns, das „KI“-Label mit Skepsis zu betrachten 28. Zudem könnte RELEX – indem es die Prognose von Lieferzeiten ignoriert und sich auf ältere Prognosemodelle verlässt – das theoretische Optimum verfehlen – es bietet eine gute praxisnahe Lösung, jedoch nicht die wissenschaftlich fortschrittlichste. Unternehmen, die RELEX evaluieren, sollten auf Details pochen, wie mit Unsicherheiten und komplexen Interaktionen umgegangen wird; andernfalls ist davon auszugehen, dass ein Großteil der Intelligenz aus Geschäftsregeln und Benutzereinstellungen und nicht aus magischer KI stammt. Zusammenfassend ist RELEX ein glaubwürdiger Anbieter mit einigen echten Innovationen in der Benutzerfreundlichkeit, bleibt jedoch teilweise eine „Black Box“ und möglicherweise überbewertet im Marketing. Wir bewerten es hoch, aber unterhalb der wirklich probabilistischen, detailorientierten Ansätze.

4. ToolsGroupAltehrwürdiger „probabilistischer“ Anbieter – Inkonsistente Behauptungen

Übersicht: ToolsGroup ist seit Jahrzehnten im Bereich der Bestandsoptimierung tätig (gegründet 1993) mit seiner Flaggschiff-Software SO99+ (Service Optimizer 99+). ToolsGroup positioniert sich stark über „probabilistische Prognosen“ und serviceorientierte Bestandsplanung. Tatsächlich gilt ToolsGroup als Vorreiter in der Anwendung von Nachfrageverteilungen zur Steuerung von Beständen bereits in den frühen 2000er Jahren. Zudem werben sie mit Fähigkeiten in der Nachfrageplanung, im „demand sensing“, in der mehrstufigen Optimierung und sogar in der Preisgestaltung (mit Add-ons wie Price.io). Allerdings werfen die jüngsten Botschaften von ToolsGroup ernsthafte Fragen auf. Das Unternehmen verwendet großzügig Schlagworte wie KI/ML und rühmt sich der Automatisierung, jedoch sind ihre öffentlichen Materialien oft widersprüchlich oder es mangelt an technischer Substanz. Wir beobachten eine Mischung aus solider Funktionalität (die grundlegende Mathematik von SO99+ für die Bestandsoptimierung ist fundiert, basierend auf klassischem Operations Research) und Marketing-Hype, der nicht standhält (z. B. die Diskussion probabilistischer Prognosen bei gleichzeitiger Angabe von MAPE-Fehlern, was konzeptionell falsch ist 29).

Wahrscheinlichkeitsbasierte Nachfrage & Lieferzeiten: Auf den ersten Blick behauptet ToolsGroup, sich ausschließlich mit probabilistischer Prognose zu befassen. Zum Beispiel heben ihre Broschüren hervor, dass ToolsGroup einen “Wahrscheinlichkeitsprognose” zusammen mit Versorgungsparametern (Lieferzeit etc.) einsetzt, um Lagerbestände zu optimieren 30. Tatsächlich kann SO99+ eine “Stock-to-Service-Kurve” erzeugen – im Wesentlichen, indem es die Verteilung der Nachfrage über die Lieferzeit und das erzielte Servicelevel für ein gegebenes Lagervolumen darstellt 30. Dies zeigt, dass ToolsGroup die Nachfrageunsicherheit bis zu einem gewissen Grad modelliert. Allerdings gibt es einen Haken: Der Ansatz von ToolsGroup zur probabilistischen Prognose wirkt halbherzig und veraltet. Bemerkenswerterweise begann man seit 2018 in der Marketingkommunikation von “probabilistischen Prognosen” zu sprechen, während gleichzeitig über MAPE (Mean Absolute Percent Error)-Verbesserungen berichtet wurde 29. Dies ist inkonsistent – MAPE ist eine Kennzahl für die Genauigkeit von Punktprognosen und “gilt nicht für probabilistische Prognosen.” 29 Ein solch offensichtliches Durcheinander legt nahe, dass die probabilistische Initiative von ToolsGroup mehr Buzz als Substanz besitzt. Es ist, als hätten sie probabilistische Ausgaben hinzugefügt, diese jedoch weiterhin mit veralteten Kennzahlen bewertet, was der Glaubwürdigkeit des gesamten Unterfangens abträglich ist.

Wenn es um die Prognose von Lieferzeiten geht: Die Materialien von ToolsGroup erwähnen keine Prognose der Lieferzeiten als Zufallsvariablen. Lieferzeiten werden als Eingabeparameter behandelt (möglicherweise mit Annahmen zur Variabilität) statt als etwas, das die Software auf Basis der historischen Leistung der Lieferanten prognostiziert. Ihr Datenblatt zeigt, dass die Lieferzeit einer der “supply parameters” ist, die in das Modell eingespeist werden 30. Wenn ein Benutzer also eine erwartete Lieferzeit und eventuell eine Standardabweichung angibt, wird SO99+ diese in die Berechnung des Sicherheitsbestands einfließen lassen – aber ToolsGroup scheint keine dynamische Wahrscheinlichkeitsverteilung der Lieferzeiten eigenständig zu erzeugen. Dies ist ein entscheidender Unterschied. Ein wirklich probabilistisches System würde beispielsweise erkennen, wenn die Lieferzeiten eines bestimmten Lieferanten eine 20%ige Chance haben, sich zu verdoppeln (etwa aufgrund von Zollverzögerungen), und dies in die optimalen Lagerbestände einfließen lassen. Wir sehen keinerlei Hinweise darauf, dass ToolsGroup ein derartiges Analyselevel erreicht. Daher, nach unserem strengen Maßstab, besteht ToolsGroup den vollständigen probabilistischen Test nicht – es behandelt Lieferzeiten lediglich als statische Eingaben und nicht als prognostizierte Unsicherheiten. Dieser Mangel an expliziter Modellierung der Lieferzeiten lässt das “probabilistische” Label von ToolsGroup etwas oberflächlich erscheinen. Wir betrachten dies als ein ernstes Manko: Ein Anbieter, der sich als probabilistisch positioniert, aber eine wesentliche Unsicherheitsquelle ignoriert, kommt nicht ganz seinem Anspruch nach.

Erweiterte Funktionsansprüche: ToolsGroup löst in diesem Bereich leider mehrere rote Flaggen aus:

  • Das Unternehmen hat weitreichende Behauptungen über “KI” in seiner Software aufgestellt, die zweifelhaft sind 31. Es gibt nur wenige öffentliche Informationen darüber, welche KI-Techniken (falls überhaupt) ToolsGroup tatsächlich einsetzt. Ihre etablierten Algorithmen stammen aus der Zeit vor dem KI-Boom und sind stärker in Statistik/OR verwurzelt. Es scheint, als sei das Label “KI” eher ein nachträglicher Marketing-Trend. So übernahm ToolsGroup beispielsweise ein KI-Startup (vielleicht, um sein Image aufzubessern), doch ihr Kernprodukt wird dadurch nicht plötzlich zu einer Deep-Learning-basierten Lösung. Ohne konkrete technische Erklärungen (die ToolsGroup öffentlich nicht bereitgestellt hat) betrachten wir ihre KI-Behauptungen als nicht untermauert.
  • Demand Sensing: ToolsGroup bietet ein Modul für “demand sensing” an (eine kurzfristige Anpassung der Prognose unter Zuhilfenahme von Downstream-Daten). Allerdings zeigt eine unabhängige Analyse, dass “Behauptungen zum ‘demand sensing’ (von ToolsGroup) durch wissenschaftliche Literatur nicht gestützt werden.” 19 Mit anderen Worten, ToolsGroup behauptet, Nachfrageverschiebungen mittels KI erfassen zu können, jedoch gibt es keine Beweise dafür, dass dieser Ansatz über das hinausgeht, was konventionelle Statistiken oder ein menschlicher Planer leisten würden. Da “demand sensing” ein bekannter Buzzword ist, der oft sehr vage verwendet wird, stufen wir diese Behauptung stark herab. Sollte ToolsGroup nicht beispielsweise eine von Fachkollegen begutachtete Fallstudie vorweisen, die zeigt, dass ihr Demand-Sensing-Algorithmus zu besseren Lagerverfügbarkeiten führt, betrachten wir dies als Vaporware. Dies entspricht auch Expertenbewertungen, die solche Funktionen als “Vaporware” einstufen, sofern keine Beweise vorgelegt werden 32.
  • Kannibalisierung, Promotionen, ML: ToolsGroup wirbt nicht maßgeblich mit einer fortgeschrittenen Modellierung von Kannibalisierung oder bereichsübergreifenden Effekten – vermutlich, weil es dort nicht besonders stark ist. Wenn man nachbohrt, könnte man hören: “Unser Machine Learning kann komplexe Muster erkennen”, aber Details fehlen erneut. Wir fanden keine Dokumentation, dass ToolsGroup beispielsweise eine Substitutionsmatrix oder ein Attach-Rate-Modell implementiert, um Produktnachfragen zu verknüpfen. Daher ist jede Andeutung, dass ToolsGroup interproduktübergreifend optimiert, ohne Beweis nicht glaubhaft. Ebenso wird der Einsatz von “selbstadaptiven Modellen” und Machine Learning erwähnt, aber die angedeuteten Methoden (z. B. eine Art Mustererkennung) klingen ziemlich standardmäßig und möglicherweise veraltet. Tatsächlich deuten öffentliche Materialien darauf hin, dass ToolsGroup noch Prognosemodelle aus der Zeit vor 2000 verwendet 33 (wie Crostons Methode für intermittierende Nachfrage, eventuell ARIMA für andere Fälle). An sich ist daran nichts auszusetzen, aber es steht im Widerspruch zur glänzenden KI-Erzählung.

Zusammenfassend ist das Verhalten von ToolsGroup, moderne Buzzwords mit altmodischen Techniken zu vermischen, besorgniserregend. Es deutet auf eine von Marketing getriebene Erneuerung hin, die nicht durch echte Forschung und Entwicklung gestützt wird. So spricht die Website von ToolsGroup von “Automatisierung zur Überwindung von Herausforderungen” 34 und ähnlichen Floskeln, beschreibt bei näherer Betrachtung aber im Wesentlichen das, was ihre Software schon immer getan hat (Multi-Echelon-Bestandsoptimierung), nun umgetauft als KI.

Automatisierung: ToolsGroup positioniert seine Lösung seit jeher als hochgradig automatisiert und „ausnahmebasiert“. Es wird häufig hervorgehoben, dass SO99+ sehr automatisiert ist und nach der Konfiguration nur minimale Benutzereingaben erfordert. Ein IDC-Zitat in ihrer Broschüre weist darauf hin, dass “trotz seiner Leistungsfähigkeit… ToolsGroup MEIO hochautomatisiert ist und mit äußerst niedrigen Betriebskosten einhergeht.” 35. Tatsächlich laufen viele Implementierungen von ToolsGroup automatisch und erstellen täglich oder wöchentlich Auffüllvorschläge, die anschließend von Planern überprüft werden. Dennoch kritisieren wir den Mangel an Klarheit darüber, wie Entscheidungen autonom getroffen werden. ToolsGroup beschreibt keinen „autonomen Entscheidungsmechanismus“ außer in der Aussage, dass sich die Modelle anpassen und Empfehlungen erzeugen. Zentrale Herausforderungen der Automatisierung – wie das dynamische Anpassen von Bestellrichtlinien bei Trendwechseln oder das Vermeiden des Hinterherjagens von Variabilität – werden nicht detailliert erläutert. Wir vermuten, dass sich die Automatisierung von ToolsGroup weitgehend auf Prognosen und die Berechnung von Lagerbeständen beschränkt (das System aktualisiert Prognosen und berechnet Mindest-/Maximalwerte oder Bestellvorschläge ohne manuellen Eingriff). Das ist zwar wertvoll, aber üblich für diese Art von Software. Ohne weitergehende technische Details können wir ToolsGroup hier keinen zusätzlichen Punkt geben. Sie erfüllen die grundlegenden Automatisierungsanforderungen, die man von einer Bestandsoptimierungssoftware erwartet (und das schon seit Jahren), aber jede Andeutung, dass es sich um eine vollautomatische supply chain handelt, ist Übertreibung. Bemerkenswerterweise erfordert ToolsGroup umfangreiche Konfigurationen (Service-Level-Ziele für jedes Produkt, Segmentierungsregeln usw.), die oft manuell von Planern oder Beratern festgelegt werden. Sind diese fehlerhaft, können die automatisierten Prozesse unzureichende Ergebnisse liefern. ToolsGroup hat keine KI dargelegt, die automatisch optimale Service Levels auswählt oder Richtlinien eigenständig anpasst – Aufgaben, die weiterhin in den Händen der Menschen liegen. Daher sagen wir, dass ToolsGroup gute automatisierte Berechnungen liefert, aber keine echte End-to-End-Autonomie in der Planung im modernen Sinne.

Handhabung von Einschränkungen: Das SO99+ von ToolsGroup war historisch gesehen stark in der grundlegenden Bestandsmathematik, jedoch schwächer bei Randbedingungen:

  • Multi-echelon: Ja, es wurde für die multi-echelon Bestandsoptimierung entwickelt. Es kann Lagerpuffer in einem Netzwerk angesichts von Unsicherheiten optimieren (hauptsächlich mittels eines “target service level”-Ansatzes). Das ist ein Plus – es kann Netzwerke von Distributionszentren und Filialen ziemlich gut handhaben, um sicherzustellen, dass der richtige Bestand an der richtigen Stelle vorhanden ist, um die Serviceziele zu erreichen.
  • Variabilität der Lieferzeiten: Diese wird im Sicherheitsbestand berücksichtigt (wenn Sie einen Parameter für die Lieferzeitvarianz angeben, fließt dieser in die Bestandsberechnung ein). Allerdings, wie bereits erwähnt, prognostiziert es die Lieferzeiten nicht und plant auch keine Szenarien dazu.
  • Losgrößen, Mindestbestellmengen: ToolsGroup kann diese standardmäßigen Versorgungs-Einschränkungen handhaben. Sie können Losgrößenmultiplikatoren und Mindestbestellmengen eingeben, und es werden Bestellungen unter Einhaltung dieser Vorgaben empfohlen.
  • Verfallsdaten: ToolsGroup ist nicht für die Optimierung verderblicher Bestände bekannt. Es verfügt höchstwahrscheinlich nicht über eine spezielle Logik zur Berücksichtigung der Haltbarkeit (und wir fanden keinen entsprechenden Hinweis). Ein Benutzer müsste ablaufende Artikel manuell oder als separate SKU anhand des Verfallsdatums behandeln, was umständlich ist. Dies stellt eine Einschränkung für Branchen wie Lebensmittel oder Chemie dar. Im Gegensatz zu RELEX, das explizit den Verderb thematisiert, scheint sich ToolsGroup auf “nicht ablaufende” Bestände zu konzentrieren.
  • Serien-/Losverfolgung: Dies fällt nicht in den Planungsbereich – das ist eher Ausführungs-/ERP-relevant. ToolsGroup optimiert nicht auf Serienebene.
  • Kannibalisierung & Substitution: Die Philosophie von ToolsGroup basiert überwiegend auf univariater Prognose (die Nachfrage jeder SKU wird einzeln prognostiziert, eventuell unter Zuhilfenahme von Regressionsansätzen). Es wird nicht von vornherein modelliert, dass „wenn Produkt A nicht verfügbar ist, ein Teil der Nachfrage zu Produkt B wechselt“ oder Ähnliches. Ein anspruchsvoller Benutzer könnte die Prognosen extern anpassen, um dies zu berücksichtigen, aber das Tool selbst bietet keine explizite Funktion dafür. Daher ist jede Andeutung, dass ToolsGroup in interagierenden Produkten optimiert, ohne Nachweis nicht glaubhaft.
  • Rücksendungen: ToolsGroup bearbeitet in erster Linie neue Nachfrage und Angebot. Es prognostiziert von Haus aus keine Rücksendungen im Einzelhandel oder Wiederaufarbeitungsquoten. Nutzer müssen, falls erforderlich, durchschnittliche Rücksendungen in die Nettodurchfrage einrechnen.
  • Quasi-Saisonalität: Wenn die Muster unregelmäßig sind, könnten die älteren Modelle von ToolsGroup Schwierigkeiten haben. Ohne moderne ML erfasst das System möglicherweise keine komplexen Nachfragetreiber. Zwar wird ML erwähnt, aber wie vermutet, könnte es simplistisch sein. Ungewöhnliche Muster könnten daher übersehen werden, was entweder zu Fehlbeständen oder Überschüssen führen kann, wenn Planer nicht manuell eingreifen.
  • Lagerkapazität: Dies ist nicht der Schwerpunkt. ToolsGroup optimiert Bestände hinsichtlich des Verhältnisses von Service und Kosten, setzt jedoch voraus, dass genügend Platz zur Lagerung des empfohlenen Bestands vorhanden ist. Es löst keine rucksackartigen Probleme bei begrenztem Platz oder Budget, es sei denn, Szenarien werden manuell simuliert.

Insgesamt deckt ToolsGroup die grundlegenden und häufigsten Bestandsbeschränkungen gut ab (Multi-echelon, Mindestbestellmengen, Nachfrageunsicherheit bis zu einem gewissen Grad). Bei neueren oder spezialisierteren Herausforderungen bleibt es jedoch zurück. Besonders auffällig ist, dass ToolsGroup eine moderne Perspektive der “finanziellen Optimierung” vermisst – das heißt, es maximiert nicht direkt den Gewinn oder minimiert die Gesamtkosten unter Einhaltung von Einschränkungen; stattdessen arbeitet es typischerweise mit Service-Level-Zielen. Dieser Ansatz kann suboptimal sein, wenn beispielsweise zwei Produkte sehr unterschiedliche Gewinnmargen haben – ein probabilistischer Optimierer würde den Bestand so allokieren, dass der erwartete Gewinn maximiert wird, während ToolsGroup diese Produkte gleich behandeln könnte, wenn sie dasselbe Serviceziel teilen. Diese Nuance ist ein Grund, warum die Technologie von ToolsGroup, obwohl in ihrer Zeit solide, nun ihren Alterszustand zeigt.

Fazit: ToolsGroup befindet sich in einer interessanten Position. Es ist ein etabliertes Unternehmen mit einem stabilen, leistungsfähigen Produkt und gehörte zu den ersten, die über rein deterministische Planung hinausgingen. Allerdings erhält ToolsGroup in einem wahrheitsbasierten Vergleich eine gemischte Bewertung. Wir loben, dass es das Reden der probabilistischen Bestandsoptimierung führt – dieses Konzept ist absolut korrekt –, doch wir müssen “aufdecken”, dass ToolsGroup nicht vollständig nach dem eigenen Wort handelt. Das inkonsistente Marketing (PF + MAPE 29) und das Fehlen von Belegen für eine echte stochastische Optimierung (zum Beispiel keine veröffentlichte “Algebra der Zufallsvariablen” im technischen Stack) bedeuten, dass die probabilistischen Behauptungen von ToolsGroup auf wackeligen Füßen stehen. In der Praxis wird vermutlich wenig mehr getan, als Sicherheitsbestände mithilfe von Wahrscheinlichkeitsverteilungen zu berechnen – nützlich, aber nicht revolutionär. Wir bestrafen ToolsGroup streng dafür, dass es sich auf Buzzwords wie KI und demand sensing ohne Substanz verlässt. Diese bekannten falschen Behauptungen 36 schaden der Glaubwürdigkeit. Dennoch haben viele Unternehmen mit der Software von ToolsGroup gute Ergebnisse bei der Reduzierung von Lagerbeständen und der Verbesserung des Service erzielt – es ist kein Hexenöl, sondern schlichtweg nicht so fortschrittlich, wie es vermarktet wird. Wir stufen ToolsGroup unter die wirklich innovativen Anbieter, aber oberhalb der eklatantesten Fehltrittler ein, denn im Kern verfügt es über einen mathematisch soliden (wenn auch altmodischen) Mechanismus und eine breite Funktionalität (Prognose + Bestandsoptimierung + Auffüllung in einem). Potenzielle Nutzer sollten verlangen, dass ToolsGroup seine sogenannten KI/probabilistischen Fähigkeiten an realen Daten demonstriert; andernfalls sollten diese lediglich als schicke Etiketten für ein im Wesentlichen gut abgestimmtes, aber konventionelles Lageroptimierungspaket angesehen werden.

5. GAINS SystemsErfahrene Lösung, branchenspezifische Expertise getrübt durch Hype

Überblick: GAINSystems ist ein älterer Anbieter (gegründet 1971!), der eine umfassende supply chain Planungssuite bereitstellt, mit einer Spezialisierung auf Bestandsoptimierung und supply chain Analytics. Ihre Software (GAINS) ist historisch bekannt für die starke Unterstützung von Ersatzteilen und MRO (Maintenance, Repair & Operations) Beständen – Bereiche mit intermittierender Nachfrage, in denen sich GAINS einen Namen gemacht hat. GAINS Systems bietet Module für Nachfrageprognosen, Bestandsoptimierung (einschließlich Multi-echelon), S&OP usw., die im Umfang ToolsGroup ähneln. In den letzten Jahren hat GAINS versucht, sein Image zu modernisieren, indem es von “Optimierung-als-ein-Service” spricht und Machine Learning integriert. Allerdings leidet GAINS – ähnlich wie ToolsGroup – unter Marketing-Inflation: Es wirbt nun mit “AI/ML” und “demand sensing” ohne überzeugende Belege, und seine Kerntechniken scheinen weiterhin die klassischen, vor-2000 Prognosemodelle zu sein, die es schon immer verwendet hat 37.

Probabilistic Demand & Lead Times: GAINS hebt probabilistische Prognosen nicht öffentlich hervor. Vermutlich verwendet es traditionelle statistische Modelle (Croston bei intermittierender Nachfrage, möglicherweise Bootstrapping für Nachfrage in Lieferzeiten). Wir sahen keinerlei explizite Erwähnung zur Prognose von Unsicherheiten bei Lieferzeiten – ein deutliches Zeichen, dass GAINS möglicherweise auch in diesem Bereich Defizite aufweist. GAINS’ Fokus liegt oft darauf, eine Ziel-Fill-Rate oder Servicelevel bei minimalen Kosten zu erreichen, was stochastische Überlegungen impliziert (so wie man es bei der Festlegung von Sicherheitsbeständen tun würde). Aber die Implementierungsdetails sind dürftig. GAINS betont Ergebnisse („Service verbessern, Lagerbestände reduzieren“) statt genau darzulegen, wie diese berechnet werden. Das Fehlen einer klaren probabilistischen Sprache lässt vermuten, dass GAINS überwiegend auf deterministische oder semi-analytische Methoden zurückgreift: Beispielsweise könnte es die Varianz der Nachfrage und der Lieferzeiten annehmen und diese in Formeln einsetzen, anstatt komplette Verteilungen auszugeben. Nach unseren Kriterien zeichnet sich GAINS nicht als führend in probabilistischen Prognosen aus. Wir klassifizieren es als ein weiteres Werkzeug, das wahrscheinlich klassische Sicherheitsbestandsberechnungen und vielleicht ein wenig Simulation verwendet, aber die Lieferzeiten nicht als prognostizierbare Zufallsvariablen behandelt. Folglich wird GAINS als „nicht ernsthaft“ in probabilistischer Strenge bewertet – diese Fähigkeit wird nicht beworben, und wir bezweifeln, dass sie vorhanden ist.

Advanced Feature Claims: GAINS hat damit begonnen, Schlagwörter ins Spiel zu bringen, während es sich für die 2020er neu positioniert. Ihre Kommunikation beinhaltet Behauptungen von „überlegener Genauigkeit“ durch proprietäre Algorithmen und erwähnt sogar machine learning für Matching und Clustering 38. Lassen Sie uns das genauer betrachten:

  • „Überlegene Genauigkeit“ der Prognosen: GAINS prahlt Berichten zufolge damit, dass seine Prognosen genauer seien als die der Wettbewerber. Eine Analyse bezeichnet dies jedoch als „zweifelhaft“ und weist darauf hin, dass GAINS’ proprietärer Algorithmus in bedeutenden Prognosewettbewerben nicht an der Spitze zu finden ist 39. Tatsächlich war eine Behauptung, dass GAINS’ Algorithmus „Procast“ andere übertrifft, aber er fehlt in den Spitzenrängen von Wettbewerben wie dem M5-Prognosewettbewerb 39. Dies wirft ernsthafte Zweifel auf – hätte GAINS weltklasse Prognosetechnologie, müsste sie in objektiven Benchmarks glänzen, was nicht der Fall ist. Daher lehnen wir GAINS’ Behauptung der Genauigkeit als unbewiesen ab. Tatsächlich schneiden Open-Source-Methoden (wie jene aus Dr. Rob Hyndmans R-Paketen) wahrscheinlich besser ab 40.
  • Demand Sensing & ML: GAINS vermarktet „demand sensing“ und verwendet Begriffe wie ML-Clustering. Eine unabhängige Rezension bringt es unverblümt auf den Punkt: „Techniken wie ‚demand sensing‘ sind reine Modebegriffe, die von der wissenschaftlichen Literatur nicht gestützt werden. [Und] die vorgestellten ML-Elemente, wie Matching und Clustering, gehören Techniken aus der Zeit vor 2000 an.“ 32. Dies deutet darauf hin, dass GAINS recht standardisierte statistische Verfahren als neuartige KI in Szene setzt. Beispielsweise ist das Clustern ähnlicher Artikel zur Prognose oder Klassifizierung eine jahrzehntelange Praxis und kein hochmodernes machine learning. Dass dies hervorgehoben wird, suggeriert, dass GAINS’ „ML“ rudimentär ist – sicherlich nicht vergleichbar mit Deep Learning oder fortschrittlicher probabilistischer Programmierung. Wir bestrafen GAINS daher für die Verwendung von Schlagwörtern: Sie erfüllen in der Vermarktung die Kriterien (KI, ML etc.), bieten aber keine detaillierten Erklärungen oder Durchbrüche zur Untermauerung. Dieses Verhalten passt zu dem breiteren Muster in der Branche, bei dem modische Begriffe ohne Substanz verwendet werden.
  • Optimization as a Service: GAINS hat darüber gesprochen, sich in Richtung eines Cloud-Service-Modells zu bewegen, was impliziert, dass man ihnen Daten zuführen und Optimierungsergebnisse erhalten kann. Auch wenn dies eine moderne Bereitstellungsstrategie ist, heißt das nicht zwangsläufig, dass die Optimierung selbst fortschrittlich ist. Wir vermuten, dass GAINS’ zugrunde liegende Lösungsverfahren weitgehend gleich bleiben; lediglich das Bereitstellungsmodell (Cloud/SaaS) ändert sich. Daran ist nichts auszusetzen, aber es unterscheidet sich nicht in der Leistungsfähigkeit (viele Anbieter bieten mittlerweile Cloud-Lösungen an).

Positiv zu vermerken ist, dass GAINS Systems für tiefe Fachexpertise in bestimmten Branchen bekannt ist:

  • Sie verstehen Ersatzteilplanung im Detail (z. B. Modellierung von langsam drehenden Teilen, Service-Level-Verträgen, Reparaturzyklus-Erträgen). Ihre Software kann vermutlich Szenarien wie die Prognose von Rückläufern reparierbarer Einheiten oder das Einrechnen von Ausschussraten bewältigen, was allgemeine Bestandswerkzeuge möglicherweise nicht leisten. Dies ist etwas spekulativ, aber angesichts ihrer langen Präsenz in diesem Bereich wahrscheinlich.
  • GAINS genießt den Ruf, einen starken Kundensupport zu bieten und eng mit Planern zusammenzuarbeiten – was oft bedeutet, dass die Lösung durch Beratungsdienstleistungen ergänzt wird, statt vollautomatisch Wunder zu wirken.

Automation: GAINS fördert die Idee, das Lagermanagement zu automatisieren (auf ihrer Website heißt es sogar „Automate your inventory management system with GAINS” 41). Das Tool kann sicherlich die Erstellung von Prognosen und Inventarrichtlinien automatisieren. GAINS unterstützt kontinuierliche Planung: Empfehlungen werden aktualisiert, sobald neue Daten vorliegen. Allerdings fehlt uns die Detailgenauigkeit darüber, wie autonom es wirklich ist. Wir vermuten – wie bei anderen – dass es das Zahlenschieben automatisiert, jedoch von Planern verlangt, die endgültigen Entscheidungen zu genehmigen. GAINS hat eine Initiative eingeführt (die „P3“-Methodik usw.), die möglicherweise eine dauerhaftere Optimierung einbringt. Ohne explizite Beweise bleiben wir neutral: GAINS bietet vermutlich ein typisches Maß an Automatisierung für ein Enterprise-Tool – gut, aber nicht signifikant besser als die Konkurrenz. Es sei auch angemerkt, dass GAINS ein kleineres Unternehmen ist und kleinere Anbieter ihre Lösungen oft passgenau an die Kundenbedürfnisse anpassen (was die praktische Automatisierung verbessern kann, da sie die Systemregeln für Sie individualisieren). Aus ingenieurtechnischer Sicht hat GAINS jedoch keine einzigartige Automatisierungslogik veröffentlicht, die besonders hervorgehoben werden könnte.

Constraint Handling: GAINS deckt viele traditionelle Einschränkungen sowie einige spezialisierte ab:

  • Multi-echelon: Ja, GAINS führt eine mehrstufige Bestandsoptimierung durch (ihre Geschichte im Bereich Luft- und Raumfahrt/Verteidigungs-Ersatzteile weist auf eine mehrschichtige Lagerpositionierung hin).
  • Lead time variation: werden vermutlich in die Servicelevel-Berechnungen einbezogen.
  • Batch sizes/MOQs: werden unterstützt, wie es jedes ernsthafte Tool tut.
  • Intermittent demand: eine der historischen Stärken von GAINS. Vermutlich verwendet GAINS die Croston-Methode oder Ähnliches für langsam drehende Artikel (häufig bei Service-Teilen anzutreffen), was notwendig ist, um eine Unterbestückung intermittierender SKUs zu vermeiden.
  • Returns/Repairs: Wahrscheinlich ja für MRO – GAINS würde in seinen Berechnungen für Ersatzteile Reparaturdurchlaufzeiten und Erträge (wie den Prozentsatz, der verschrottet statt repariert wird) berücksichtigen. Dies ist etwas, das nicht alle Anbieter handhaben, sodass GAINS hier einen Vorteil haben könnte.
  • Expiration: Kein typischer Fokus von GAINS (ihre Branchen waren eher industriell als verderblich), daher wahrscheinlich minimale Unterstützung für Haltbarkeitsfristen.
  • Cannibalization: Nicht offensichtlich gehandhabt; wie bei anderen behandelt GAINS Artikel vermutlich unabhängig in der Prognose.
  • Storage constraints: Unklar; GAINS hat nicht damit geworben, beispielsweise Lagerraumbeschränkungen mittels Optimierung zu lösen.
  • Cost optimization: GAINS betont in einigen Mitteilungen den Gewinn und die Kosten, aber die konkrete Methode ist unbekannt. Möglicherweise verfügt es – wie Lokad – über die Fähigkeit, Artikelmargen oder Lagerhaltungskosten in die Optimierungsziele einzubeziehen (was vorteilhaft wäre). Oder es erfolgt weiterhin über Servicelevel, ähnlich wie bei ToolsGroup.

Verdict: GAINSystems ist ein angesehener Veteran mit tiefem Verständnis für Bestandsherausforderungen, insbesondere in Nischenbereichen (Ersatzteile, Industrie). Dennoch kann GAINS in diesem wahrheitssuchenden Ranking keine überdurchschnittliche Position erreichen. Die Gründe sind klar: Seine Prognosemodelle sind veraltet und die jüngsten Marketingversuche (demand sensing, ML clustering) wirken wie Versuche, modisch zu erscheinen, ohne echte Innovation 32. GAINS ist im Grunde eine solide Lösung aus den 1990er/2000er Jahren, die versucht, relevant zu bleiben. Wir geben ihm Anerkennung für sein Fachwissen und die praktischen Ergebnisse – Kunden berichten von Bestandsreduktionen und Serviceverbesserungen – ziehen jedoch Punkte wegen Mangel an Transparenz und überzogenen Behauptungen ab. In einer Zeit, in der führende Anbieter technische Inhalte teilen oder Forschung veröffentlichen, ist GAINS relativ undurchsichtig; das Wenige, was wir herauslesen konnten (z. B. das Prahlen mit proprietären Algorithmen), war nicht überzeugend. Für Unternehmen mit sehr spezifischen Bedürfnissen (wie Ersatzteilplanung) mag GAINS aufgrund seiner maßgeschneiderten Funktionen immer noch die beste Wahl sein. Aber für diejenigen, die nach der fortschrittlichsten, wissenschaftlich fundierten Optimierung suchen, würde GAINS wahrscheinlich enttäuschen, sofern nicht ein gravierender Technologie-Refresh erfolgt. In unserem Ranking liegt GAINS über Anbietern, die reiner Hype ohne Substanz sind, aber unter denen, die Ehrlichkeit mit Innovation verbinden. Es erhält eine bescheidene Anerkennung als fähige Lösung, verpackt in veralteter Technologie und einigen ungerechtfertigten Schlagwörtern.

6. SAP (IBP for Inventory / Former SmartOps)Complex Collection of Tools, Integration Over Innovation

Overview: SAP, der Gigant im Bereich Unternehmenssoftware, ist in diesem Markt selbstverständlich präsent aufgrund seines umfangreichen Supply-Chain-Anwendungsportfolios. Im Laufe der Jahre hat SAP mehrere spezialisierte Technologien zur Bestandsoptimierung erworben – SmartOps (erworben 2013), SAF AG (2009, Nachfrageprognose) und sogar ein Analyseunternehmen KXEN (2013) für prädiktives Modellieren 42. Diese sollten SAPs interne Planungssysteme wie APO (Advanced Planner & Optimizer) und später SAP IBP (Integrated Business Planning) ergänzen. Heute bietet SAP Bestandsoptimierungsfunktionen hauptsächlich über SAP IBP for Inventory (ein IBP-Modul, das vermutlich SmartOps’ mehrstufige Algorithmen integriert) und möglicherweise über Add-ons in S/4HANA an. Die Geschichte von SAP ist jedoch eine von Fragmentierung und Komplexität. Wie in einer Rezension festgestellt wurde: „Unter dem SAP-Dach verbirgt sich eine willkürliche Sammlung von Produkten“ aufgrund all dieser Akquisitionen 43. Das Ergebnis ist, dass sich SAPs Bestandsoptimierung wie ein nachträglich angebrachtes Add-on anfühlt – nicht als nahtlos integrierter, hochmoderner Optimierer, sondern vielmehr als eine Ansammlung von Funktionen, die erhebliche Integration und Expertenservices erfordern, um einen Mehrwert zu erzielen.

Probabilistic Demand & Lead Times: SAPs Erbschaftslösungen (wie APO) waren größtenteils deterministisch (mit Punktprognosen, Sicherheitsbeständen basierend auf einfachen statistischen Modellen). SmartOps, das von SAP erworbene Tool, war bekannt für probabilistisches, mehrstufiges Modellieren – es berechnete Bestandsverteilungen und empfohlene Lagerbestände, um Ziel-Servicelevels unter Unsicherheit zu erreichen. Theoretisch besitzt SAP IBP for Inventory also eine probabilistische Engine (dank SmartOps). SmartOps berücksichtigte sowohl Nachfrageschwankungen als auch gewisse Angebotsvariabilitäten. Aber SAP selbst betont in seinem Marketing nicht die „probabilistische Prognose“; sie ist nicht Teil von SAPs Botschaft an den Markt. Folglich nutzen viele SAP-Kunden das fortschrittliche Bestandsoptimierungsmodul möglicherweise nicht in vollem Umfang. Lieferzeitprognosen sind nicht etwas, das SAP bewirbt. Sofern ein Kunde nicht explizit den SmartOps-Baustein nutzt, der variable Lieferzeiten zulassen könnte, geht SAPs Standardplanung von festen Lieferzeiten aus (eventuell mit einem Sicherheitszeitpuffer). Nach unseren Kriterien kann SAP kein Engagement für probabilistische Prognosen vorweisen. Die Fähigkeit mag tief in der Software existieren, aber wenn sie nicht klar ersichtlich oder hervorgehoben wird, betrachten wir dies als Lücke. Zudem könnte die Vermischung mehrerer erworbener Technologien zu Inkonsistenzen führen – beispielsweise könnten Nachfrageprognosen von einer Engine (deterministisch) und die Bestandsoptimierung von einer anderen (stochastisch) stammen, ohne dass beide vollständig aufeinander abgestimmt sind. Tatsächlich wurde kritisiert: „Unternehmenssoftware ist durch M&A nicht miteinander mischbar“, was darauf hindeutet, dass SAPs erworbene Komponenten nicht nahtlos kombiniert wurden 44.

Advanced Features & Claims: SAP übertreibt in der Regel nicht mit KI im Supply Chain Management (zumindest nicht so offensichtlich wie andere), aber in letzter Zeit verwendet auch SAP in der IBP-Vermarktung einige ML/AI-Begriffe. Dennoch gilt SAP allgemein als funktionsreich, aber nicht algorithmisch fortschrittlich. Die SmartOps-Komponente verschaffte SAP einen respektablen mehrstufigen Optimierer. Es ist jedoch zweifelhaft, ob SAP diese Technologie auf dem neuesten Stand gehalten oder ihr gegenüber neueren Modellen überlegen ist 45. Tatsächlich entsteht der Eindruck, dass SmartOps (und ähnliche Lösungen) standardmäßige OR-Techniken einsetzten und dass ML-Methoden nach 2000 „nicht besser abschneiden als Modelle vor 2000“ in diesem Kontext 45 – was andeutet, dass SAP keine besseren Prognosen liefert als beispielsweise ARIMA oder Croston, trotz des Einsatzes von ML-Technologien wie KXEN. SAPs Marketing legt den Schwerpunkt auf Integration (End-to-End-Plattform, „one version of truth“ im ERP usw.) statt zu behaupten, dass es die Wettbewerber in der Prognose übertrifft. Diese Ehrlichkeit ist ein zweischneidiges Schwert: Sie lügen nicht offen über KI-Magie, aber sie führen auch nicht in Sachen Innovation.

SAPs Stärke könnte darin liegen, komplexe Einschränkungen im breiteren Kontext der Lieferkette zu handhaben, da sie alle Daten und transaktionellen Details besitzen:

  • Sie können Kapazitäts- und Produktionsbeschränkungen in IBP berücksichtigen, wenn die Module verbunden werden (Bestandsplanung kann mit der Produktionsplanung verknüpft werden).
  • Sie könnten Daten zur Lieferantenleistung aus dem ERP nutzen, um manuell Sicherheitszeiten oder Sicherheitsbestände für Schwankungen in den Lieferzeiten anzupassen (wenn auch nicht automatisch „prognostiziert“).
  • SAPs Lösungen können Ablaufdaten im Ausführungssystem verwalten (SAP EWM oder ERP übernimmt den Umgang mit Chargenabläufen, und APO bot eine Haltbarkeitsplanung, um sicherzustellen, dass das Angebot den Bedarf innerhalb der Ablaufdaten deckt). Allerdings ist die Optimierung des Bestands unter Berücksichtigung von Ablaufdaten (wie z. B. zu entscheiden, wie viel Überbestand nötig ist, um Verluste durch Verderb auszugleichen) keine hervorgehobene Funktion – SAP gibt überwiegend Warnungen für ablaufende Chargen aus. SAP erwähnt den Einsatz von AI/ML in der Nachfrageprognose (SAP Analytics Cloud bietet Prognosen, IBP verfügt über einige ML-Prognosefunktionen), aber es wurde nichts Revolutionäres festgestellt. Zudem ist SAPs großes Verkaufsargument oft, dass es sich um eine integrierte Plattform handelt und nicht um die Brillanz eines einzelnen Algorithmus. Der Nachteil ist, dass jedes einzelne Teil durchschnittlich sein könnte, das Ganze aber dennoch komplex ist.

Bemerkenswerterweise erfordert SAPs Bestandsoptimierung umfassenden Implementierungsaufwand„die allerbesten Integratoren – plus ein paar Jahre – werden benötigt, um Erfolg zu haben“ 46. Dies deutet darauf hin, dass es selbst bei fortschrittlichen Funktionen von SAP schwierig ist, diese effektiv zu nutzen. Viele SAP IBP-Projekte haben Schwierigkeiten, die Optimierung vollständig zu automatisieren; sie greifen häufig aufgrund von Daten- oder Integrationsproblemen auf einfachere Planungsmodi zurück.

Automatisierung: SAPs Paradigma basiert nicht auf einer Black-Box-Automatisierung; es geht um Planungsprozesse. In einer SAP-Umgebung wäre die Bestandsoptimierung ein Schritt in einem größeren S&OP- oder Versorgungsplanungszyklus. SAP IBP kann bestimmte Berechnungen automatisieren (zum Beispiel jede Nacht einen Optimierer ausführen), aber typischerweise sind menschliche Planer in SAP stark involviert – das System konfigurieren, es mit Szenarien versorgen und die Ergebnisse prüfen. SAP behauptet nicht wirklich, „autonome Planung“ zu bieten; stattdessen stellt es Prognose- und Optimierungswerkzeuge bereit, die von kompetenten Nutzern und Beratern orchestriert werden müssen. Daher wirkt SAP im Vergleich zu anderen weniger automatisiert – oder zumindest wird jede Automatisierung von den Implementierern speziell entwickelt. Wir benachteiligen SAP hier, da ihr Ansatz kein freihändiges Arbeiten ermöglicht. Viele Unternehmen, die SAP nutzen, landen trotz des Besitzes von Optimierungsmodulen in einer halbmanuellen Planung, weil es ein eigenes Projekt ist, das Vertrauen in die Black Box von SAP aufzubauen. Die „Black Box“ ist vorhanden, aber ohne umfangreiche Beratung nicht trivial auf jedes Unternehmen zugeschnitten.

Umgang mit Einschränkungen: Ein Bereich, den SAP gut abdeckt, ist die Vielzahl an Einschränkungen, dank seines umfassenden Angebots:

  • Multi-echelon: Ja (über SmartOps im IBP Inventory).
  • Chargengrößen/Mindestbestellmengen: Ja, SAP-Planungstools können diese in ihren Optimierern berücksichtigen.
  • Kapazitätsbeschränkungen: Wenn man den SAP Supply Optimizer (Teil von IBP oder APO CTM) verwendet, können Produktions- und Lagerkapazitätsbeschränkungen einbezogen werden – aber das gehört eher zur Versorgungstarifplanung als zur eigentlichen Bestandsoptimierung.
  • Ablaufdatum: Die Handhabung auf Ausführungsebene ist ausgezeichnet (SAP kann Chargenabläufe verfolgen, FEFO-Zuteilung). Auf Planungsebene hatte APO einige Funktionen, um sicherzustellen, dass Bestände nicht über das Haltbarkeitsdatum hinausgehen (zum Beispiel, fast ablaufende Bestände nicht an weit entfernte Standorte zu senden). Es ist nicht klar, ob IBP diese weiterführt.
  • Kannibalisierung/Ersetzung: SAP IBP verfügt über ein Modul für die Markteinführung neuer Produkte, das ein Modell mit ähnlichen Profilen verwenden kann (also nicht sehr fortgeschritten, aber mit der Fähigkeit, Vorhersagen für Nachfolger- und Vorgängerprodukte zu verknüpfen). In dieser Hinsicht liegt es jedoch vermutlich hinter spezialisierten Einzelhandelslösungen zurück.
  • Retouren: SAP kann Retourenvorhersagen in der Bedarfsplanung einbeziehen, sofern dies modelliert wird (insbesondere im Einzelhandel könnte man die Nettodachfrage abzüglich der Retouren prognostizieren). Auch hier ist eine entsprechende Konfiguration erforderlich.
  • Komplexität der Lagerkosten: Der SAP-Optimierer könnte Lagerhaltungskosten berücksichtigen und dadurch indirekt den Bestand begrenzen, wenn die Lagerkosten stark ansteigen (was Lagergrenzen darstellt). Allerdings müsste dies sorgfältig eingerichtet werden; es ist nicht sofort einsatzbereit.

Im Wesentlichen kann SAPs Bestandslösung vieles handhaben, erfordert jedoch Aufwand. Es ist wie ein Werkzeugkasten, der – wenn er fachmännisch konfiguriert ist – viele fortschrittliche Verhaltensweisen nachahmen kann, aber SAP selbst bietet keine fortschrittliche Lösung per Knopfdruck an.

Fazit: SAP wird in unserer Studie niedriger eingestuft, weil es das Problem des „Alleskönners, aber Meister von keinem“ exemplarisch darstellt. Es besitzt zwar einzelne Fähigkeiten (teilweise probabilistische Optimierung, geerbt aus Übernahmen), aber kein klares, kohärentes, hochmodernes Angebot speziell in der Bestandsoptimierung. Die Komplexität und das „wilde Sammelsurium“ an Werkzeugen unter dem SAP-Dach machen es schwierig, ohne erheblichen Zeit- und Kostenaufwand echten Mehrwert zu erzielen 43. Wir bestrafen SAP daher in hohem Maße für diese Komplexität und dafür, dass Integration die Innovation überschattet hat – die übernommenen Technologien stagnierte weitgehend, sobald sie unter SAP waren (wobei sogar ihre Vorzüge oft verloren gingen oder ungenutzt blieben). SAPs Aussagen sind in der Regel moderat (sie lügen nicht offen über KI; wenn überhaupt, streut ihr Marketing mittlerweile KI-Schlagwörter, weil das jeder tut, aber es ist nicht übertrieben). Das Hauptproblem ist, dass SAPs Bestandsoptimierung kein Marketing-Blabla ist – sie ist einfach verborgen und unhandlich.

Für Unternehmen, die bereits tief in SAP-Ökosysteme eingebunden sind, mag der Einsatz der integrierten SAP-Tools ansprechend sein (Datenintegration ist einfacher, ein Ansprechpartner für Probleme, etc.). Aber aus rein leistungsbezogener Sicht würden nur wenige behaupten, dass SAP IBP spezialisierte Anbieter übertrifft. In einer wahrheitsliebenden Betrachtung sehen wir SAP als zuverlässig, aber nicht bahnbrechend, umfassend, aber übermäßig komplex. Es wird in der unteren Hälfte eingestuft, weil die Leichtigkeit, mit SAP eine optimierte supply chain zu erreichen, gering ist – nicht wegen mangelnder Funktionen, sondern aufgrund der Schwierigkeit, diese zusammenzuführen, und wegen des zweifelhaften Ertrags im Verhältnis zum Aufwand. Kurz gesagt: SAP kann die Funktionskästchen abhaken, aber wir bezweifeln, dass es in der Praxis optimale Bestände ohne massive Investitionen liefert. Das positioniert es deutlich unter den führenden Spezialisten in unserer Rangliste.

7. o9 SolutionsGroße Ambitionen, großer Hype, unbewiesene Tiefe

Überblick: o9 Solutions ist ein neuerer Anbieter (gegründet 2009), der schnell als eine „Next-Generation“ Planungsplattform für Aufsehen gesorgt hat. Häufig wird es als das „digitale Gehirn“ oder der „Enterprise Knowledge Graph (EKG)“ für supply chain beschrieben, wobei o9 mit einer modernen, cloud-nativen Plattform mit eleganter Benutzeroberfläche, graphbasiertem Datenmodell und zahlreichen KI/Analytics-Versprechen wirbt. Sie positionieren sich als die „Big-Tech“-Lösung für supply chain – mit viel Rechenleistung, großem Speicher und einem einheitlichen Datenmodell, das alles von der Bedarfsprognose über die Versorgungsplanung bis hin zum Revenue Management unterstützt. Im Hinblick auf die Bestandsoptimierung behauptet o9, diese im Rahmen seiner End-to-End-Planung zu realisieren. Allerdings ist o9s Ruf in technischen Kreisen von starkem Hype und weniger von Klarheit in den tatsächlichen Methoden geprägt. Sie begeistern Interessenten mit einer hohen „Tech-Masse“ (viele Funktionen, beeindruckende Demos), aber bei genauerem Hinsehen bleiben ihre wirklichen Alleinstellungsmerkmale diffus. Wie eine Analyse feststellte, „die Tech-Masse von o9 sprengt alle Grenzen … Das In-Memory-Design garantiert hohe Hardwarekosten. Viele Prognoseaussagen über die Graphdatenbank (als EKG bezeichnet) sind zweifelhaft und werden durch wissenschaftliche Literatur nicht gestützt. Jede Menge KI-Hype, aber Elemente, die auf Github gefunden wurden, deuten auf unspektakuläre Techniken hin.“ 47. Dies fasst unsere Erkenntnisse zusammen: o9 befindet sich sehr im „KI Blabla“-Lager, bis das Gegenteil bewiesen ist.

Probabilistische Nachfrage & Lieferzeiten: Es gibt keine Beweise dafür, dass o9 von Haus aus probabilistische Prognosen für Nachfrage oder Lieferzeiten erstellt. Ihre Erwähnung eines Enterprise Knowledge Graph impliziert das Verknüpfen verschiedener Daten (was helfen könnte, Ursachen der Variabilität von Lieferzeiten zu identifizieren usw.), aber in o9s veröffentlichten Fallstudien und Materialien werden statistische Verteilungen oder stochastische Optimierung nicht explizit erwähnt. Stattdessen konzentrieren sie sich mehr auf Szenarioplanung und Echtzeit-Neuplanung. Wir schließen daraus, dass o9 wahrscheinlich typische Prognosetechniken (zeitreihenbasierte ML oder sogar Standardbibliotheken) verwendet, um Einzelzahlenprognosen zu erzeugen, möglicherweise mit gewissen Spannen. Ohne dass sie es explizit angeben, nehmen wir an, dass Lieferzeiten als Eingaben betrachtet werden (vielleicht mit einigen Pufferregeln), aber nicht als Zufallsvariablen prognostiziert werden. Demnach fällt o9 nach unseren Kriterien beim probabilistischen Test durch. Tatsächlich könnte ihr Schwerpunkt auf Big Data-Integration sie deterministischer machen als die meisten – sie beabsichtigen, viele Signale zu integrieren (wobei man annehmen muss, dass man alles vorhersagen kann, wenn man genügend Daten hat), was konzeptionell dem Zulassen von Unsicherheit widerspricht. Bis o9 etwas zu probabilistischen Modellen veröffentlicht, stufen wir ihren Ansatz als deterministisch mit schicker Datenintegration ein. Das macht sie unsachlich in der Modellierung von Unsicherheit, da sie stattdessen auf reaktive Planung setzen.

Ansprüche an fortgeschrittene Funktionen: Das Marketing von o9 strotzt vor fortschrittlich klingenden Behauptungen:

  • Knowledge Graph (EKG): Sie behaupten, dass ihre Graphdatenbank Beziehungen in der supply chain modellieren kann, was angeblich die Prognose verbessert (zum Beispiel, indem sie erfasst, wie eine Verkaufsaktion die Nachfrage verwandter Artikel beeinflussen könnte). Obwohl ein graphbasiertes Datenmodell flexibel ist, gibt es keinen wissenschaftlichen Beweis dafür, dass dies zu genaueren Prognosen oder besseren Bestandsentscheidungen führt. Es hilft vor allem, Datenquellen zu integrieren. Die Behauptung, dass dies eine Innovation der „KI-Prognose“ sei, ist zweifelhaft 48. Ohne einen spezifischen Algorithmus zu sehen, der den Graphen beispielsweise für probabilistische Prognosen nutzt, betrachten wir dies lediglich als eine moderne Architektur und nicht als eine überlegene Analysemethode.
  • AI/ML: o9 bedient sich aller Schlagworte – Knowledge Graphs, Big Data, AI/ML, sogar vermutlich Begriffen wie Reinforcement Learning, jedoch ohne genaue Details. Externe Analysen fallen scharf aus: „Viele Prognoseaussagen… sind zweifelhaft… Jede Menge KI-Hype, aber Elemente, die auf Github gefunden wurden, deuten auf unspektakuläre Techniken hin.“ 48. Tatsächlich werden einige der öffentlich geteilten Tools von o9 (wie tsfresh zur Zeitreihen-Feature-Extraktion oder vikos usw.) erwähnt – das sind Standard-Python-Bibliotheken oder grundlegende Prognoseansätze (ARIMA usw.) 49. Dies legt nahe, dass o9s Entwicklungsteam hinter den Kulissen durchaus normale Prognosemodelle verwendet, trotz der nach außen gestellten Behauptungen. Wir legen o9 hier bloß: Etwas als KI-getriebene Plattform zu bezeichnen, macht es nicht automatisch so, und erste Einblicke deuten darauf hin, dass ihr „KI“ oft nur lineare Regression oder ARIMA im Hintergrund ist 49. Falls dem so ist, dann ist das sehr viel Rauch und Spiegeltricks.
  • Echtzeit-Szenarioplanung: o9 ist gut darin, Szenarien on-the-fly zu ermöglichen (dank In-Memory-Berechnungen). Aber Szenarioplanung ist nicht Optimierung. Man kann schnell simulieren, was passiert, wenn sich die Lieferzeit erhöht oder die Nachfrage sprunghaft ansteigt – was für Planer nützlich ist, um Probleme zu visualisieren –, aber es liefert nicht automatisch die beste Lösung; der Nutzer muss immer noch interpretieren und anpassen. So mag o9 behaupten, dass es hilft, Störungen zu bewältigen, doch es stützt sich dabei möglicherweise stärker auf menschliche Entscheidungen als beispielsweise eine stochastische Optimierung.

Ein weiterer Hinweis: „Trivialitäten qualifizieren sich nicht als ‚KI‘, weil sie interaktiv sind.“ 50 – dies bezieht sich wahrscheinlich darauf, dass o9 interaktive Dashboards oder einfache regelbasierte Antworten als „KI“ bezeichnet. Dafür gehen wir streng vor. Wenn o9 etwas wie „unser System markiert automatisch Ausnahmen und schlägt Bestellungen vor – KI-gesteuert!“ vermarktet, es in Wirklichkeit aber nur eine einfache Wenn-dann-Regel oder ein statistisches Kontrollzentrum ist, dann werden grundlegende Funktionen fälschlicherweise als KI deklariert.

Automatisierung: o9 positioniert sich als Ermöglicher des „Digital Operating Model“ – was auf einen hohen Automatisierungsgrad hindeutet. Es kann zweifellos bestimmte Planungstätigkeiten automatisieren (wie etwa das automatische Erstellen von Prognosen oder das automatische Erkennen von Ausnahmen). Allerdings befürchten wir angesichts des Mangels an Details, dass ein Großteil des Nutzens von o9 immer noch aus Entscheidungen durch den Menschen über seine ansprechende Benutzeroberfläche stammt. In der Branche spricht man von „autonomer Planung“ im Zusammenhang mit Tools wie o9, doch es gibt keine konkreten Belege dafür, dass ein Unternehmen o9 im vollautomatischen Betrieb einsetzt. Die intensive Einbindung von Analysten großer Kunden in o9 weist darauf hin, dass es sich um ein Entscheidungsunterstützungssystem und nicht um einen vollautomatischen Optimierer handelt. Wir bestrafen die Kluft zwischen Anspruch und Realität. Sofern o9 nicht demonstriert, wie sein „Graph AI“ die Bestände autonom optimiert (was sie nicht öffentlich getan haben), behandeln wir seine Automatisierungsansprüche als überhöht.

Umgang mit Einschränkungen: Als flexible Plattform kann o9 theoretisch viele Einschränkungen handhaben:

  • Es verfügt über das Datenmodell, um Ablaufdaten, Chargenattribute, etc. zu integrieren. So könnte es Bestände lückenweise nachverfolgen und gegebenenfalls Logiken einbauen, um ein Ablaufen zu vermeiden. Ob es jedoch einen gebrauchsfertigen Algorithmus für verderbliche Bestände gibt, ist unbekannt – wahrscheinlich nicht; ein Nutzer müsste eine Regel programmieren oder manuell die Rotation sicherstellen.
  • Multi-echelon: o9 betreibt mehrstufige Planung; es kann ein Netzwerk modellieren und Multi-echelon-Bestandsoptimierungen durchführen (sie haben wahrscheinlich etwas Ähnliches wie SmartOps oder zumindest Sicherheitsbestandsberechnungen für jede Ebene).
  • Kapazitätsbeschränkungen: Da o9 den gesamten S&OP abdeckt, kann es Produktions- und Lagerbeschränkungen in seine Planungsdurchläufe einbeziehen.
  • Kannibalisierung & Substitution: Hier könnte ihr Knowledge Graph prinzipiell Beziehungen modellieren (zum Beispiel Produkte als Substitute verknüpfen). Aber nutzen sie diese Information tatsächlich zur Optimierung? Das wurde nicht gezeigt. Möglicherweise könnten sie ein Was-wäre-wenn-Szenario simulieren: „Wenn Produkt A ausverkauft ist, steigen die Verkaufszahlen von Produkt B“ – was aber die Modellierung der Verbraucherentscheidung erfordern würde, was nicht trivial ist, und es gibt keinen Hinweis darauf, dass o9 dieses Modell implementiert hat. Daher wird dies, abgesehen von manuellen Annahmen der Planer, vermutlich nicht berücksichtigt.
  • Quasi-Saisonalität: Wenn o9s ML anständig ist, könnte es ungewöhnliche saisonale Muster erkennen, sofern ausreichend Daten zur Verfügung stehen. Aber auch hier gibt es keine spezifische Funktion über die allgemeine ML-Prognose hinaus.
  • Finanzielle Optimierung: o9 spricht über Revenue Management und IBP, sodass es – sofern entsprechend konfiguriert – in der Lage sein könnte, den Gewinn zu optimieren und nicht nur das Servicelevel zu verbessern. Allerdings ist das Vertrauen in ihren Optimierer unsicher.

Ein besorgniserregender Aspekt: o9s In-Memory-Ansatz (ähnlich wie RELEX) könnte das Lösen bestimmter, durch Einschränkungen belasteter Optimierungen extrem ressourcenintensiv machen. Sie bewerben ihre Skalierbarkeit, aber wenn wirklich jede SKU-Location und jede Einschränkung modelliert wird, könnte der Rechenaufwand explodieren und enorme Hardware erfordern. Praktisch gesehen würden sie das Problem vermutlich vereinfachen oder auf Heuristiken zurückgreifen.

Fazit: o9 Solutions wird in der unteren Kategorie eingestuft aufgrund seiner starken Abhängigkeit von unbewiesenen Behauptungen und Schlagworten, trotz seines glänzenden Auftritts. Wir räumen ein, dass o9 über eine moderne Benutzeroberfläche und einen einheitlichen Datenansatz verfügt, den Kunden ansprechend finden – was vermutlich die Zusammenarbeit und Sichtbarkeit verbessert. Aber wenn es um die Kernwissenschaft der Bestandsoptimierung geht, finden wir keine konkreten Innovationen von o9, die den Hype rechtfertigen. Sein Marketing ist von Warnsignalen durchsetzt – alle angesagten Begriffe tauchen mit wenig technischer Grundlage auf 48. Das veranlasst uns, den Substanzgehalt hinter seiner beträchtlichen Bewertung in Frage zu stellen. Wir bestrafen o9 in hohem Maße für diese Lücke. Ohne einen klaren Nachweis dafür, wie seine KI die Nachfrage besser vorhersagt oder wie sein Graph optimale Bestandsentscheidungen liefert, müssen wir seine Versprechen als „zweifelhaft“ bestenfalls 48 einstufen.

Einfach ausgedrückt könnte o9 eine gute Planungsplattform sein (die verschiedene Funktionen integriert), aber als Bestandsoptimierungs-Engine im Speziellen scheint sie nichts anzubieten, was ältere Werkzeuge nicht schon könnten – abgesehen von einer ansprechenderen Benutzeroberfläche. Es hat sicherlich nicht bewiesen, dass es Unsicherheiten oder komplexe Einschränkungen besser handhabt; wenn überhaupt, ignoriert es möglicherweise Unsicherheiten zugunsten eines Big-Data-Determinismus, den wir als fehlerhaften Ansatz betrachten. Daher gehört o9 in einer wahrheitsbasierten Rangliste fast zu den unteren ernstzunehmenden Anbietern. Es ist im Grunde ein Fall von „großes Gerede, durchschnittlicher Einsatz“. Unternehmen, die o9 in Betracht ziehen, sollten dem Marketing-Pitch misstrauen und darauf bestehen, die tatsächlichen Algorithmen und Ergebnisse zu sehen. Bis o9s KI-Behauptungen mit expliziten technischen Beweisen untermauert sind, stufen wir sie in diesem Bereich als falsch/unbegründet ein.

8. Blue Yonder (ehemals JDA)Flickwerk aus Altsystemen, das als “KI” vermarktet wird

Übersicht: Blue Yonder (BJDA) ist einer der ältesten und größten supply chain Softwareanbieter. Früher als JDA bekannt (das in den 2000er Jahren Manugistics und i2 Technologies übernommen hatte), haben sie sich zu Blue Yonder umbenannt und wurden von Panasonic übernommen. Blue Yonders Fähigkeiten in der Bestandsoptimierung stammen aus einem Produktstamm – zum Beispiel i2’s supply chain optimizer und JDA’s Bestandsmodule. Im Laufe der Zeit haben sie versucht, sich über ihre Luminate Plattform zu modernisieren, indem sie KI/ML-Konzepte integrierten. Dennoch leidet Blue Yonder unter dem, was wir „M&A-Spaghetti“ nennen: es ist „das Ergebnis einer langen Reihe von M&A-Operationen“, was zu „einer zusammengewürfelten Sammlung von Produkten, von denen die meisten veraltet sind“ führt 51. Im Wesentlichen ist Blue Yonders Angebot eine Ansammlung von Altsoftware, die zusammengeklebt wurde. Sie präsentieren sich nun als KI-getrieben (mit Begriffen wie cognitive planning, Luminate AI), doch unser tiefergehender Einblick zeigt, dass diese Behauptungen meist vage und substanzlos sind 28.

Probabilistische Nachfrage & Durchlaufzeiten: Blue Yonder bot historisch gesehen Werkzeuge für Nachfrageprognosen und Bestandsplanung an, jedoch hauptsächlich unter Verwendung deterministischer oder heuristischer Methoden. Zum Beispiel erzeugte die veraltete JDA-Nachfrageplanung Punktprognosen, und die Bestandsoptimierung berechnete Sicherheitsbestände für einen Zielservice. In neueren Materialien erwähnt Blue Yonder probabilistic forecasting und dynamic safety stock als Konzepte in ihrem Ansatz 52. In Blogs haben sie den Wert probabilistischer Methoden eingeräumt, was darauf hindeutet, dass sie den Fachjargon kennen. Aber haben sie das implementiert? Es gibt wenig Hinweise darauf, dass Blue Yonders Kernlösungen vollständige Wahrscheinlichkeitsverteilungen ausgeben oder Entscheidungen stochastisch optimieren. Da sie Dinge wie tsfresh und ARIMA in Open Source zitieren 49, klingt es so, als würden sie hauptsächlich klassische Zeitreihenprognosen durchführen und keine hochmoderne probabilistische Programmierung. Wir sahen keinen Hinweis auf lead time forecasting – vermutlich geht Blue Yonder von festen Durchlaufzeiten aus, eventuell mit einem Puffer. Somit erfüllt Blue Yonder unsere probabilistischen Kriterien nicht: keine explizite Modellierung der doppelten Unsicherheit von Nachfrage und Durchlaufzeit. Wahrscheinlich halten sie an traditionellen Serviceniveau-Modellen fest, was bedeutet, dass auch sie nicht „ernsthaft“ an einer umfassenden Unsicherheit arbeiten, obwohl sie das Wort probabilistisch in einigen Thought-Leadership-Beiträgen verstreuen.

Ansprüche auf fortgeschrittene Funktionen: Blue Yonder war großzügig mit KI/ML-Behauptungen. Ihr Marketing verwendet Formulierungen wie „autonome Planung“, „cognitive supply chain“ etc. Dennoch weist eine Analyse darauf hin: „BY stellt KI prominent heraus, allerdings sind die Behauptungen vage und nahezu substanzlos.“ 28. Wir bestätigen dies:

  • Blue Yonder hat einige KI-Startups übernommen und wirbt mit Partnerschaften mit Universitäten, doch konkret sehen wir nur einige Open-Source-Projekte. Diese Projekte (tsfresh, PyDSE, VikOS) deuten auf sehr standardisierte Prognosemethoden hin (Feature-Extraktion, ARMA/ARIMA, Regression) 49. Nichts spricht für einen neuartigen KI-Algorithmus, der exklusiv für Blue Yonder wäre. Das bedeutet, dass Blue Yonders „cutting-edge KI“ wahrscheinlich nur umbenannte traditionelle Analytik ist. Wir behandeln jede generische KI-Behauptung von ihnen kategorisch als unbewiesen.
  • Zum Beispiel könnte Blue Yonder sagen „wir verwenden ML, um unsere probabilistischen Modelle zu ergänzen“ 53 – aber ohne Details könnte das alles bedeuten, von einem einfachen Machine-Learning-Modell zur Anpassung von Prognosen bis hin zu einem neuronalen Netzwerk, das tatsächlich nicht besser als einfachere Modelle abschnitt. Ohne Beweise behandeln wir das als inhaltsleeren Hype.
  • Blue Yonder behauptet, End-to-End-Lösungen zu besitzen, darunter Preisoptimierung, Sortiment etc. Es stimmt, dass sie viele Module haben. Allerdings bedeutet die schiere Anzahl der Module nicht, dass jedes davon das Beste in seiner Klasse ist. Die Bestandsplanung von Blue Yonder könnte immer noch die alte i2-Serviceniveau-Optimierung verwenden – etwas, worauf man im Jahr 2025 kaum stolz sein kann.

Ein besonders problematischer Anspruch aus der Vergangenheit: Blue Yonders Literatur zu „cognitive inventory“ hat im Grunde das Konzept des probabilistischen Bestandsmanagements mit schick klingenden Begriffen wieder aufgegriffen 54 52, wiederum ohne technische Untermauerung. Wir kennzeichnen dies als Red-Flag-Marketing. Es klingt einleuchtend, liefert aber keinerlei algorithmische „Substanz“.

Automatisierung: Die Lösungen von Blue Yonder benötigten historisch gesehen erhebliche menschliche Aufsicht – etwa, dass Planer die JDA-Software nutzten, um Empfehlungen zu erhalten und diese dann anzupassen. Mit Luminate spricht Blue Yonder von „autonomer Planung“, aber nach unserem Kenntnisstand bleibt das weitgehend eine Vision. Sie haben möglicherweise einen „AI assistant“ oder eine automatisierte Ausnahmebehandlung eingeführt, aber es gibt keine öffentlich detaillierten Angaben dazu. Angesichts von Blue Yonders Kundschaft (viele große Einzelhändler, Hersteller) wird die Software vermutlich noch traditionell genutzt: Prognosen und Bestellungen werden generiert, und dann überprüfen oder setzen die Planer diese über Workflows um. Wir fanden keine eindeutigen Hinweise darauf, dass Blue Yonder eine vollständig unbeaufsichtigte Optimierung ermöglicht. Zudem ist ihre Architektur ein Mix aus Bestandteilen, was eine nahtlose Automatisierung erschwert. Wir kritisieren Blue Yonder daher für die unklare Darstellung in diesem Bereich. Solange sie nicht ein Beispiel eines Kunden vorweisen können, bei dem das System monatelang eigenständig läuft, betrachten wir ihre Automatisierungsansprüche als minimal.

Umgang mit Einschränkungen: Dank jahrzehntelanger Erfahrung deckt Blue Yonder viele Einschränkungen bis zu einem gewissen Grad ab:

  • Mehrstufig: Ja, JDA verfügte über eine mehrstufige Bestandsoptimierung (wahrscheinlich ein ähnlicher Ansatz wie bei ToolsGroup/SmartOps).
  • Losgrößen/Mindestbestellmengen: werden in ihren Planungsparametern unterstützt.
  • Promotionen: JDA/Blue Yonder verfügte über Module zur Prognose von Promotionen, wenn auch manchmal separat.
  • Kannibalisierung: Sie besitzen ein Nachfragemodellierungs-Tool, das Kannibalisierung im Einzelhandel einbeziehen kann (JDA hatte etwas für die Kategoriemanagement-Prognose). Allerdings handelt es sich dabei um ein spezialisiertes Modul, das nicht zwangsläufig in die Bestandsoptimierung integriert ist.
  • Ablaufdatum: Blue Yonders primäre Branchen waren der Einzelhandel (einschließlich Lebensmittel) und die Fertigung. Sie hatten einige Lösungen für das Management frischer Artikel in der Kategoriemanagement-Software. Ihre Kernplanung betonte jedoch verderbliche Waren nicht so wie RELEX, weshalb vermutlich nur ein begrenztes Bewusstsein für Haltbarkeiten vorhanden ist.
  • Retouren: Kein Schwerpunkt. Möglicherweise werden sie in der Einzelhandelsplanung durch Verrechnung von Prognosen behandelt, jedoch gibt es keine besondere Funktion dafür.
  • Lagerkapazitätsbeschränkungen: Bei Nutzung ihrer Lagerverwaltungs- oder Produktionsplanung, ja; aber die Bestandsoptimierung selbst geht vermutlich von uneingeschränktem Lagerplatz aus (wie bei anderen wird der Lagerbestand implizit durch Kostenminimierung handhabbar gehalten).
  • Quasi-Saisonalität: Blue Yonders Prognosen können saisonale Muster verarbeiten, aber ungewöhnliche Verläufe erfordern entweder menschliche Feinabstimmung oder fortgeschrittene Modelle, von denen wir bezweifeln, dass sie über das Übliche hinausgehen.
  • Finanzielle Optimierung: Blue Yonder verfügt über Module zur Gewinnoptimierung (Preisoptimierung etc.), aber ihre Bestandsoptimierung richtet sich typischerweise darauf aus, Serviceniveaus bei minimalen Kosten zu erfüllen, statt direkt den Gewinn zu maximieren.

Zusammenfassend ist Blue Yonders Kompetenzabdeckung breit, aber stellenweise oberflächlich. Es versucht, alles zu sein, was zu Kompromissen führt. Wichtig ist, dass Blue Yonder so viele Produktkomponenten vereint, dass Kunden es oft als komplex in der Implementierung und Wartung erleben.

Urteil: Blue Yonder rangiert in unserer Studie nahe dem unteren Ende, vor allem wegen seiner Abhängigkeit von veralteter Technologie, die durch Schlagworte kaschiert wird, und den inhärenten Ineffizienzen einer Flickenteppich-Plattform. Bemerkenswert ist, dass Blue Yonders Open-Source-Beiträge auf Methoden basieren, die Jahrzehnte alt (ARIMA, Regression) 49 sind, selbst wenn sich das Unternehmen als KI-Vorreiter vermarktet. Diese Dissonanz untergräbt das Vertrauen. Wir bestrafen Blue Yonder schwerwiegend für diesen Mangel an Transparenz und den übermäßigen Einsatz von vagen KI-Behauptungen 28. Die Marke mag Gewicht haben (als „Leader“ in einigen Analystenberichten durch ihre Breite und Marktanteile), aber wenn es streng um Wahrheit und technische Qualität geht, kann Blue Yonder nicht überzeugen.

Dennoch ist Blue Yonder nicht völlig ohne Wert. Es verfügt über einen enormen funktionalen Fußabdruck und integriertes Domänenwissen – sodass es viele praktische Szenarien bewältigen kann, sofern es richtig konfiguriert wird. Aber das sind grundlegende Voraussetzungen; was wir suchen, ist echte Optimierungsstärke. In dieser Hinsicht liegt Blue Yonder weit hinter Anbietern wie Lokad oder gar der kompromisslosen Zuverlässigkeit von Slimstock zurück. Sofern ein Kunde nicht bereits in Blue Yonders Ökosystem eingebunden ist oder einen One-Stop-Shop über erstklassige Analytik stellt, würden wir von Blue Yonders Bestandsoptimierung abraten, wenn faktische, messbare Optimierungsqualität Priorität hat. In unserer Rangliste wird Blue Yonder nur dadurch aus dem letzten Platz gerettet, dass es tatsächlich ein funktionierendes Produkt (wenn auch veraltet) und eine große Nutzerbasis besitzt – das heißt, es deckt zumindest die Grundlagen, während die Behauptungen einiger kleinerer Anbieter womöglich noch hohler sind.

9. Infor (Rhythm / Predictix)Verblasster Wettbewerber mit fragwürdiger KI

Übersicht: Infor versuchte, in diesem Bereich durch Übernahmen wie Predictix (2016 übernommen), einen Spezialisten für Einzelhandelsprognosen, Fuß zu fassen. Die Kernstärke von Infor lag im ERP, doch sie versuchten, mit der Technologie von Predictix eine Cloud-basierte Suite für die Einzelhandelsplanung (Infor Rhythm, Demand Management etc.) aufzubauen. Allerdings liefen die Dinge nicht reibungslos. Predictix hatte eine komplexe Geschichte (rechtliche Probleme mit Partnern wie LogicBlox) 55, und nachdem sie zu Infor stießen, scheint der Schwung versiegt zu sein. Infors Fokus verlagerte sich auf das Kerner-ERP und größere Initiativen, und „der Forecasting-Aspekt blieb ein zweitklassiger Bereich, der in den letzten Jahren zurückgestellt wurde“ 56. Kurz gesagt, Infors Präsenz in der Bestandsoptimierung/Nachfrageplanung ist zurückgegangen. Sie haben zwar weiterhin Produkte in diesem Bereich, sind aber keine Marktführer, und die Innovationspipeline wirkt dürftig.

Probabilistische & fortgeschrittene Funktionen: Predictix war dafür bekannt, moderne ML-Ansätze zu propagieren (sie gehörten zu den Ersten, die über Big Data in der Einzelhandelsprognose sprachen). Doch Experten bemerken: „Predictix versuchte, einige ML-Techniken nach 2000 einzuführen… jedoch ist fraglich, ob diese Methoden Modelle vor 2000 übertreffen.“ 45. Das impliziert, dass selbst die Flaggschiff-Technologie, die Infor erwarb, nachweislich nicht besser war als klassische Ansätze. Infor hat vermutlich einige Fähigkeiten zur Nachfrageerfassung oder maschinellen Lernprognosen von Predictix geerbt, aber mit dem Zerfall dieses Teams ist unklar, wie viel davon genutzt wird. Infor spricht heutzutage selten über KI in supply chain, und wenn doch, dann nur oberflächlich. Wir hörten, dass „KI-Behauptungen auch fragwürdig sind.“ 45 in Bezug auf ihre Prognoseverfahren. Das spiegelt wider, was wir auch anderswo beobachten: Infor hat keine Beweise dafür geliefert, dass seine Tools (Rhythm, Nachfrageplanung etc.) besonders präzise oder fortschrittlich sind. Sie wurden schlicht als Features in den Infor-Stack integriert. Zudem gibt es keinerlei Hinweise auf probabilistische Prognosen oder eine Modellierung der Durchlaufzeiten – vermutlich existiert so etwas überhaupt nicht. Nach unserem Maßstab liegt Infors Lösung hinter der Kurve und geht das Thema Unsicherheit mit neuen Techniken nicht ernsthaft an.

Automatisierung & Einschränkungen: Die Angebote von Infor im Bereich der Bestands- und Nachfrageplanung werden nicht breit diskutiert, was auf eine begrenzte Anwendung hindeutet. Es ist wahrscheinlich, dass sie grundlegende Einschränkungen (wie Mehrstufigkeit etc.) berücksichtigen, jedoch ohne Besonderheiten, die andere nicht bieten. Angesichts ihrer Zurückstellung kann man davon ausgehen, dass auch nicht viel unternommen wurde, um diese vollständig zu automatisieren. Wahrscheinlich handelt es sich um ein konventionelles Planungssystem, bei dem Nutzer Prognosen und empfohlene Lagerbestände generieren und diese über eine Integration in Infors ERP-Systeme umsetzen. Nichts sticht heraus, außer vielleicht einigen auf den Einzelhandel zugeschnittenen Features, die von Predictix stammen (wie beispielsweise Größen-/Farbprofilprognosen für die Mode, o. Ä. – aber auch hier deutlich nicht besser als die der Wettbewerber).

Urteil: Wir stufen Infor nahe dem unteren Bereich ein, da es weder ein starkes aktuelles Produkt noch glaubwürdige Alleinstellungsmerkmale besitzt. Ihr Vorstoß über Predictix scheint an Schwung verloren zu haben, und jegliche KI/ML-Rhetorik aus dieser Übernahme ist inzwischen veraltet oder unbewiesen 45. Im Wesentlichen spielt Infors Bestandsoptimierung heute keine wesentliche Rolle im Markt. Unternehmen nehmen Infor selten in die engere Auswahl für fortgeschrittene Planung, es sei denn, sie sind bereits schwere Infor ERP-Nutzer. Da es nichts Bemerkenswertes im Hinblick auf probabilistische oder automatisierte Optimierung zu zeigen gibt, bekommt Infor eine harsche Bewertung: überwiegend irrelevant in Diskussionen über Spitzentechnologien, und die früher geäußerten KI-Behauptungen waren unbegründet.

10. John Galt SolutionsPrognosen für den Mittelstand mit großspurigen Behauptungen

Übersicht: John Galt Solutions (benannt nach der berühmten Figur aus Atlas Shrugged) bietet seit den 1990er Jahren Prognose- und Planungstools an. Ihr Flaggschiff ist Atlas Planning (zutreffend benannt), das mittelständische Unternehmen in den Bereichen Nachfrageplanung, Bestandsführung und S&OP ansprechen soll. Zudem bieten sie ein einfacheres Tool namens ForecastX an (ein Excel-Add-In für grundlegende Prognosen). Die Stärke von John Galt liegt in der Benutzerfreundlichkeit und schnellen Implementierung. Allerdings haben sie einige kühne Behauptungen über ihre proprietären Algorithmen aufgestellt (wie etwa „Procast“), die für Stirnrunzeln sorgen. Das Unternehmen verfügt nicht über das Gewicht großer Player, und ihr technischer Ansatz erscheint trotz marketingtechnischer Andeutungen auf ein einzigartiges IP recht traditionell. Probabilistische & fortgeschrittene Funktionen: Die Lösungen von John Galt heben keine probabilistische Prognose hervor. Sie konzentrieren sich darauf, Prognosen und Bestandsziele unter Verwendung gängiger Methoden (Regression, Zeitreihen, möglicherweise einige Heuristiken) zu generieren. Atlas Planning vermittelt den Eindruck von „Consulting-Software“ 57 – was bedeutet, dass oft viel Beratung notwendig ist, um es für jeden Kunden anzupassen, statt dass es von vornherein eine fest verbaute fortschrittliche Engine bietet. Die Prognosetechnologie scheint veraltet 58, was impliziert, dass sie keine neuartigen prädiktiven Modelle eingeführt haben, die über das allgemein Bekannte hinausgehen. Sie sprechen von „Procast“ – ihrem proprietären Prognosealgorithmus – und behaupten, dass dieser genauer sei als die der Wettbewerber. Diese Behauptung ist jedoch höchst zweifelhaft: Wäre Procast wirklich überlegen, so würde es in Prognosewettbewerben (wie den M Competitions) auftauchen, ist aber bei den Spitzenrankings nicht vertreten 39. Das legt nahe, dass Procast wahrscheinlich nur eine Neuverpackung standardisierter Methoden oder eine geringfügige Anpassung darstellt und kein bahnbrechender Fortschritt ist. Tatsächlich sind Experten der Meinung, dass Open-Source-Tools (wie Hyndman’s R libraries) wahrscheinlich besser abschneiden als John Galt’s Technologie 59. John Galt wirbt nicht stark mit KI oder ML, was zu ihrem Vorteil ist (sie übertreiben nicht mit Schlagworten, die sie nicht haben). Dennoch machen sie vage Behauptungen „genauer“, ohne Belege vorzubringen, was wir nicht akzeptieren können. Zudem erwähnen sie nichts darüber, wie sie Komplexitäten wie Kannibalisierung oder die Optimierung unter Unsicherheit handhaben; ihre Kommunikation fokussiert sich eher auf die Benutzererfahrung (ansprechende Dashboards etc.) und die kollaborative Planung. Das weist auf einen Mangel an fortgeschrittener Optimierung hin.

Automation: Atlas Planning richtet sich an Planer und Führungskräfte, um zu simulieren und zusammenzuarbeiten. Es ist nicht für Automatisierung bekannt; stattdessen handelt es sich um ein Toolkit, in dem Nutzer Prognosen erstellen und anschließend Szenarien durchspielen können. Es ist wahrscheinlich weit davon entfernt, eine vollautomatisierte Bestandsoptimierung bereitzustellen – der Nutzer wird erwartet, auf Basis der Softwareausgaben Entscheidungen zu treffen. Daher sehen wir John Galt nicht als Vorreiter unbeaufsichtigter Automatisierung. Dies schränkt seine Bewertung ein, denn in modernen Begriffen ist es eher ein halbmanuelles Tool.

Constraints: Die typischen Kunden von John Galt haben oft einfachere Bedürfnisse, sodass Atlas Planning grundlegende Einschränkungen (mehrstufige Distribution, Vorlaufzeiten, Sicherheitsbestand etc.) bewältigen kann. Es ist jedoch nicht besonders für Dinge wie Multi-Echelon-Optimierung bekannt (obwohl es dafür vermutlich gewisse Fähigkeiten besitzt) und schon gar nicht für Konzepte wie verderbliche Waren oder komplexe supply chain-Beschränkungen. Es handelt sich um eine Lösung aus dem Mittelfeld – breit gefächert in den Funktionen, aber ohne signifikative Tiefe in einem einzelnen Bereich.

Verdict: John Galt Solutions landet auf dem letzten Platz in unserer Rangliste der wichtigsten Anbieter. Obwohl es ehrliche und nutzbare Software für Prognosen und Planung bereitstellt, zeigt es keinen technischen Vorsprung oder einen ernsthaften Umgang mit Unsicherheit. Der großspurige Anspruch bezüglich ihrer Geheimzutat (Procast) erscheint nicht belegt und sogar durch Auslassung widerlegt 39. Mangels Beweisen bewerten wir derartige proprietäre Behauptungen als bogus marketing. Das Unternehmen betreibt nicht so viel AI-Hype wie andere (vielleicht, weil es ein anderes Marktsegment anspricht), aber es glänzt auch nicht. Es scheint zufrieden damit zu sein, „consultingware“ anzubieten – Lösungen, die so gut sind wie die Berater, die sie konfigurieren. Das mag für manche Kunden in Ordnung sein, doch in einem wahrheitssuchenden Vergleich bedeutet das keine klare Innovation. John Galts Ansatz zur Bestandsoptimierung beinhaltet vermutlich, Prognosemodelle und Bestandsrichtlinien manuell einzurichten, statt auf automatisierter, probabilistischer Berechnung zu beruhen. Daher schneidet es bei fast all unseren Kriterien schlecht ab: keine probabilistische Modellierung der Vorlaufzeiten, kein nennenswerter, funktionierender AI/ML-Einsatz, keine Belege für fortgeschrittene Constraint-Optimierung und nur eingeschränkte Automatisierung.

Die Quintessenz zu John Galt: Es bedient ein Marktsegment mit einfacheren, benutzerorientierten Tools. Aber alle Behauptungen, dass es genauer oder „intelligenter“ als größere Lösungen sei, sind nicht durch Beweise belegt und sollten mit Skepsis betrachtet werden. Unternehmen mit ernsthaften Bestandsproblemen (hohe Unsicherheit, komplexe Netzwerke) würden die Technologie von John Galt mit ziemlicher Wahrscheinlichkeit als unterdimensioniert empfinden.


Conclusion & Key Takeaways

Diese kritische Marktstudie zeigt eine supply chain-Softwarelandschaft, die von hochtrabenden Versprechen geprägt, aber in nachweislich neuartigen, praxistauglichen Fähigkeiten dürftig ist. Anbieter wie Lokad und Slimstock heben sich als Ausnahmen hervor, indem sie entweder wirklich fortschrittliche Methoden vorantreiben (Lokads probabilistischer Engine 60) oder sich an ehrliche Grundlagen halten (Slimstocks kompromissloser Ansatz 12). Viele andere Akteure – selbst bekannte wie ToolsGroup, Blue Yonder und o9 – stecken in Schlagwörtern fest, ohne diese mit Substanz zu untermauern:

  • Probabilistic Forecasting: Erschreckend wenige Anbieter setzen dies wirklich ein. Lokad fällt dadurch auf, dass es sowohl die Nachfrage- als auch die Vorlaufzeitunsicherheit explizit modelliert 1. Die meisten anderen behandeln die Nachfragevariabilität bestenfalls rudimentär und ignorieren die Vorlaufzeitunsicherheit, was wir als kritischen Mangel ansehen. Eine Lösung, die bei Vorlaufzeiten „Unsicherheit ignoriert“, ist grundsätzlich begrenzt 3. Nutzer sollten Anbieter in die Pflicht nehmen: Prognostizieren Sie Vorlaufzeiten probabilistisch? Falls nicht, sind suboptimale Lagerziele zu erwarten.

  • Irreführende Buzzwords: Der Begriff „demand sensing“ ist ein Dauerstürmer – verwendet von ToolsGroup, GAINS etc. – und beruht auf wenig wissenschaftlicher Basis 19 32. Ebenso weit verbreitet sind generische „AI/ML“-Behauptungen. Blue Yonder und o9 illustrieren dies, indem sie modische Terminologie präsentieren, aber Algorithmen liefern, die nicht besser als eine einfache Regression sind 28 61. Die Warnsignale sind eindeutig: Kann ein Anbieter nicht konkret beschreiben, was seine KI leistet (z. B. „verwendet Gradient Boosting auf der Versandhistorie, um die SKU-Store-Nachfrage vorherzusagen“) und bietet stattdessen nur Allgemeinplätze, so sollte man vom Schlimmsten ausgehen – nämlich dass der Behauptung „kaum oder gar keine Substanz“ zugrunde liegt 28. In dieser Studie haben wir all diese Fälle schwer gewichtet. Bemerkenswerterweise haben LLMs (ChatGPT-ähnliche Modelle) keine nachgewiesene Rolle bei der Berechnung optimaler Bestandsrichtlinien (ihnen fehlt die Fähigkeit zur numerischen Optimierung), sodass jeder Hinweis darauf, dass ein LLM Ihren Bestand optimiert, reine Fiktion ist. Glücklicherweise behauptet keiner der Top-Anbieter dies – wenngleich manche Chatbots für Benutzeranfragen integrieren, die aber nicht dem Kern der Optimierung entsprechen.

  • Stochastic Optimization: Der Stresstest für eine „Optimierungs“-Engine besteht darin, ob sie unter Unsicherheit ein definiertes Ziel wirklich löst (Erwartungsgewinn maximieren, Kosten minimieren bei Einhaltung von Servicelevels etc.). Die meisten Anbieter hier, außer Lokad (und vielleicht dem SmartOps-Baustein innerhalb von SAP), führen keine echte stochastische Optimierung durch. Sie verlassen sich auf Heuristiken: Einen Service-Zielwert festlegen, Sicherheitsbestand berechnen. Das ist keine Optimierung – das ist satisficing. ToolsGroup arbeitet beispielsweise immer noch weitgehend auf Basis von Servicelevels, und ihr Gerede von einer „Algebra der Zufallsvariablen“ ist mehr Marketing als Realität. Diese Inkonsistenz haben wir bei ToolsGroup besonders hervorgehoben 29. Nutzer, die optimale Entscheidungen anstreben, sollten vorsichtig sein: Viele Tools optimieren nicht wirklich ein finanzielles Ziel; sie setzen lediglich Service-Ziele durch. Das ist ein wesentlicher Unterschied. Wenn ein Anbieter keine Zielfunktion und deren Lösung (z. B. „Wir maximieren die erwartete Füllrate abzüglich Lagerhaltungskosten mittels Monte-Carlo-Simulation“) vorweisen kann, dann macht er wahrscheinlich keine echte Optimierung.

  • Automation: Das Versprechen einer „selbstfahrenden supply chain“ ist verführerisch. In der Praxis haben es nur wenige erreicht. Unsere Bewertung ergab, dass die meisten Anbieter erheblichen menschlichen Eingriff erfordern und ihre Automatisierung regelbasiert oder auf einfache Berechnungen beschränkt ist. Lokad strebt Automatisierung an, indem es vollständiges Scripting der Entscheidungslogik ermöglicht (wobei es explizit sich wiederholende manuelle Aufgaben entfernt) 8. RELEX automatisiert viele Aufgaben im Einzelhandel, verwendet aber hinter den Kulissen wahrscheinlich einfache Regeln. ToolsGroup und GAINS automatisieren die mathematischen Berechnungen, benötigen jedoch weiterhin Planer zur Parametersteuerung. Vollautomatisierung – bei der sich das System selbstständig an neue Bedingungen anpasst – ist selten. Daher, wenn ein Anbieter „autonom“ oder „automatisch“ behauptet, fordern Sie eine Erklärung: Was genau wird automatisiert? Wie werden Ausnahmen gehandhabt? Gibt es eine Rückkopplungsschleife? Sind die Antworten unklar, verdient die Automatisierungsbehauptung Skepsis. Wir stellten fest, dass die Anbieter, die am wenigsten erklärten (o9, Blue Yonder), trotz großer Versprechen vermutlich am wenigsten automatisieren 61 28.

  • Complex Constraints: Es ist offensichtlich, dass eine Einheitslösung nicht für alle passt. Einige Anbieter bedienen spezifische Komplexitäten (RELEX für Frischwarenverfall 22, GAINS für reparaturfähige Teile). Andere decken überwiegend generische Einschränkungen ab und greifen bei Sonderfällen auf Notlösungen zurück. Es liegt in der Verantwortung des Käufers, seine einzigartigen Anforderungen (Verderb, hohe Retouren etc.) offenzulegen und den Anbieter zu fragen, wie er diese handhabt. Wenn die Antwort lediglich lautet „wir haben Kunden in Ihrer Branche“ – jedoch ohne Details – ist das ein Warnsignal. In unserer Studie diskutiert nur Lokad offen, wie es Themen wie Kannibalisierung und kundenspezifische Einschränkungen über sein Modellierungs-Framework unterstützt 4. Die meisten anderen entweder ignorieren diese Problematiken oder erwähnen sie nur beiläufig ohne konkrete Methodik.

Abschließend trennt diese Marktstudie das Wesentliche vom Lärm. Die bestplatzierten Anbieter haben ihren Rang dadurch verdient, dass sie ihre Versprechen mit der Realität in Einklang bringen und sich auf solide Technik konzentrieren:

  • Lokad – für seinen rigorosen probabilistischen Ansatz und die Bereitschaft, im Detail zu erläutern, wie es funktioniert 60.
  • Slimstock – weil es zuverlässige Ergebnisse liefert, ohne sich hinter Schlagwörtern zu verstecken 62 (obwohl es auf fortgeschrittene Analysen verzichtet, ist es darüber ehrlich).
  • RELEX – für praxisnahe Innovationen im Einzelhandel (Frischwaren etc.), während wir hinsichtlich seines unbewiesenen AI-Hypes vorsichtig bleiben 18.

Mittelmäßig platzierte Anbieter wie ToolsGroup und GAINS besitzen zwar funktionale Tiefe, wurden jedoch aufgrund von „marketing malpractice“ – irreführender Terminologie und dem Versäumnis, sich technisch weiterzuentwickeln 36 32 – herabgestuft.

Abschließend landeten mehrere bekannte Lösungen (o9, Blue Yonder, SAP, Infor, John Galt) in unserer Rangliste tiefer, als ihre Marktdominanz vermuten ließe. Der Grund ist einfach: Unternehmensreputation und Absatzvolumen entsprechen nicht technischer Exzellenz. Tatsächlich tragen diese großen Suites häufig Altlasten oder einen diffuseren Fokus, was eine wahrheitssuchende Bewertung behindert. Wir haben keine Anerkennung für glänzende Broschüren oder Gartner Magic Quadrant-Positionen vergeben, da diese oft den Umsatz und die Breite widerspiegeln – nicht die tatsächliche Optimierungskraft.

Advice to practitioners: Durchbrechen Sie den Marketingfluff. Bestehen Sie auf Demos oder Fallstudien, die tatsächliche Fehlerverteilungen, Servicelevel-Ergebnisse oder Kosteneinsparungen unter Unsicherheit aufzeigen. Bitten Sie die Anbieter, Ihre Daten im Rahmen eines Piloten zu verarbeiten, und prüfen Sie, ob deren Ergebnisse die Unsicherheit wirklich widerspiegeln (z. B. durch eine Bandbreite an Szenarien) oder lediglich eine einzige Zahl liefern. Überprüfen Sie, ob sich deren Empfehlungen ändern, wenn sich die Bedingungen anpassen (was auf Anpassungsfähigkeit hinweist), oder ob es sich im Grunde um starre Regeln handelt. Viele Anbieter werden ins Straucheln geraten, wenn Sie auf diese Punkte angesprochen werden. Diejenigen, die glänzen, werden diejenigen sein, die ihre Lösungen auf soliden analytischen Grundlagen statt auf Marketing-Sandschlamm aufgebaut haben.

Letzten Endes erfordert effektive Bestandsoptimierung die Kombination aus guter Wissenschaft und praktischer Umsetzung. Wie diese Studie zeigt, zeichnen sich nur sehr wenige Anbieter in beiden Bereichen aus. Diejenigen, die dies tun, heben sich deutlich ab – und diejenigen, die es nicht tun, legen wir anhand von Zitaten und Fakten offen. Wir fordern Entscheidungsträger dringend auf, diese Informationen zu nutzen, um den Marketinglärm zu durchdringen und Entscheidungen zu treffen, die auf Wahrheit und Beweisen beruhen, nicht auf Hype.

Footnotes


  1. Vorlaufzeitprognose - Vorlesung 5.3 ↩︎ ↩︎ ↩︎ ↩︎

  2. Probabilistische Prognose (Supply Chain) ↩︎

  3. FAQ: Bestandsoptimierung ↩︎ ↩︎ ↩︎ ↩︎

  4. FAQ: Bestandsoptimierung ↩︎ ↩︎ ↩︎

  5. Probabilistische Prognose (Supply Chain) ↩︎

  6. Probabilistische Prognose (Supply Chain) ↩︎ ↩︎

  7. Probabilistische Prognose (Supply Chain) ↩︎

  8. FAQ: Support Services ↩︎ ↩︎ ↩︎

  9. Software zur Bestandsplanung | RELEX Solutions ↩︎ ↩︎ ↩︎

  10. FAQ: Bestandsoptimierung ↩︎

  11. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  12. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎

  13. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  14. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  15. Software zur Bestandsplanung | RELEX Solutions ↩︎ ↩︎

  16. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  17. Software zur Bestandsplanung | RELEX Solutions ↩︎ ↩︎ ↩︎ ↩︎

  18. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎ ↩︎

  19. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎ ↩︎

  20. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  21. Software zur Bestandsplanung | RELEX Solutions ↩︎ ↩︎

  22. Frische Bestandssoftware | RELEX Solutions ↩︎ ↩︎ ↩︎

  23. Frische Prognosen & Nachschub: Verderb in den Griff bekommen - RELEX Solutions ↩︎

  24. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  25. Software zur Bestandsplanung | RELEX Solutions ↩︎

  26. Software zur Bestandsplanung | RELEX Solutions ↩︎

  27. Predictive Inventory | RELEX Solutions ↩︎

  28. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  29. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  30. Datenblattº ToolsGroup Service Optimizer ↩︎ ↩︎ ↩︎

  31. Marktanalyse, Supply Chain Optimization Anbieter ↩︎

  32. Marktanalyse, Supply Chain Optimization Anbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  33. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  34. Bedarfsplanung & Prognosesoftware - ToolsGroup ↩︎

  35. Datenblattº ToolsGroup Service-Optimierer ↩︎

  36. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  37. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  38. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  39. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  40. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  41. Inventaroptimierungssoftware | GAINS - GAINSystems ↩︎

  42. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  43. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  44. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  45. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  46. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  47. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  48. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎

  49. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  50. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  51. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  52. Bestandsmanagementoptimierung: ein Muss für 2021 & darüber hinaus ↩︎ ↩︎

  53. 5 Schritte zur Inventaroptimierung: Es ist Zeit, die Planung in das … ↩︎

  54. 5 Schritte zur Inventaroptimierung: Es ist Zeit, die Planung in das … ↩︎

  55. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  56. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  57. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  58. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  59. Marktanalyse, supply chain Optimierungsanbieter ↩︎

  60. FAQ: Inventaroptimierung ↩︎ ↩︎

  61. Marktanalyse, supply chain Optimierungsanbieter ↩︎ ↩︎

  62. Marktanalyse, supply chain Optimierungsanbieter ↩︎