Ersatzteiloptimierungssoftware, Februar 2025
Anbieter-Rangliste & Zusammenfassung
-
Lokad – Technologisch kühn, probabilistisch und wirtschaftsorientiert: Lokad zeichnet sich durch eine wirklich probabilistische Prognose von Nachfrage und Durchlaufzeiten aus, kombiniert mit einem einzigartigen Fokus auf wirtschaftliche Optimierung. Seine Cloud-Plattform modelliert von Haus aus vollständige Nachfragedistributionen (nicht nur Einzelpunktprognosen) und legt den Schwerpunkt auf die Maximierung des finanziellen Ertrags aus dem Lagerbestand gegenüber der Erreichung beliebiger Service-Level-Ziele 1. Die Lösung von Lokad ist hochautomatisiert und skalierbar und wurde entwickelt, um umfangreiche Long-Tail-Ersatzteillisten mit minimaler manueller Anpassung zu bewältigen. Der tiefgreifende technische Ansatz (kundenspezifische domänenspezifische Sprache, fortgeschrittene stochastische Modellierung) macht es zu einem Vorreiter in der Innovation, erfordert jedoch die Bereitschaft, eine codegesteuerte Methodik zu übernehmen. Es verzichtet auf überholte Hilfsmittel wie statische Sicherheitsbestände und vereinfachte „ABC“-Serviceklassen 2 und setzt stattdessen auf durchgängige probabilistische Modelle und kostenbasierte Optimierung.
-
ToolsGroup (Service Optimizer 99+) – Bewährte probabilistische Engine mit Multi-Echelon-Stärke: ToolsGroup blickt auf eine lange Erfolgsgeschichte in der Ersatzteilplanung zurück und wird für seine probabilistische Prognose-Basis anerkannt 3. Das System modelliert automatisch Nachfrageschwankungen (entscheidend für langsam drehende Teile 4) und verwendet „Monte-Carlo“-artige Simulationen sowie AI/ML, um die Lagerbestände zu optimieren. Es kann dynamisch Zehntausende oder Hunderttausende von SKUs ausbalancieren, um Serviceziele mit der geringstmöglichen Lagerinvestition zu erreichen 5. ToolsGroup bietet eine robuste Multi-Echelon-Optimierung und hält seine Technologie durch Updates (z. B. die Integration neuer AI-Engines) frisch, während es eine einheitliche Plattform beibehält. Es legt großen Wert auf Automatisierung – Planer verwalten Ausnahmen, während die Software den Rest optimiert. Wirtschaftliche Optimierung: ToolsGroup lässt Benutzer in der Regel Servicelevels anvisieren, tut dies jedoch auf kosteneffiziente Weise (Bestands-zu-Service-Kurven, um den Optimum zu finden). Seine kürzliche IDC-Rangnummer #1 im Bereich Ersatzteil/MRO-Planung 6 unterstreicht seine starken aktuellen Fähigkeiten. Vorsicht: Das Marketing von ToolsGroup wirbt jetzt mit Schlagwörtern wie „quantum learning AI“, weshalb ein skeptischer Blick erforderlich ist, um echte Verbesserungen von Rebranding zu unterscheiden. Insgesamt ist die Kernmathematik (probabilistische Modelle für Volatilität und optimale Sicherheitsbestände) solide und erprobt 5.
-
PTC Servigistics – Umfassender und anspruchsvoller (wenn auch komplexer) Marktführer: Servigistics (jetzt unter PTC) ist ein Schwergewicht, das speziell für das Management von Service-Ersatzteilen entwickelt wurde. Es bietet die breiteste und tiefste Funktionalität in diesem Bereich 7. Unter der Haube integriert Servigistics jahrzehntelanges geistiges Eigentum aus mehreren Akquisitionen – es hat die fortschrittlichen Algorithmen von Xelus und MCA Solutions in eine einheitliche Plattform überführt 8. Das Ergebnis ist eine sehr anspruchsvolle Optimierungs-Engine, die Prognosen für sporadische, geringvolumige Nachfrage und Multi-Echelon-Inventaroptimierung (MEO) umfasst 9. Es nutzt probabilistische Modelle (z. B. auf Poisson-Verteilungen basierende Nachfrageverteilungen, die in der Luft- und Raumfahrt/Verteidigung üblich sind) und kann IoT-gesteuerte prädiktive Eingaben über PTCs ThingWorx integrieren, um Ersatzteilprognosen mit der Telemetrie von Anlagen in Einklang zu bringen 10. Servigistics erlaubt granulare wirtschaftliche Abwägungen: Planer können auf die höchste Verfügbarkeit bei den niedrigsten Gesamtkosten optimieren, anstatt lediglich pauschale Füllraten zu erreichen 9. Die Lösung hat sich in großem Maßstab bewährt (über 200 Kunden wie Boeing, Deere, US Air Force 11) und bewältigt extrem große Kataloge sowie komplexe Multi-Echelon-Netzwerke. Trotz der umfangreichen Funktionalitäten liegt ihr Schwerpunkt stark auf Automatisierung und Ausnahmeverwaltung. Hinweise: Als ausgereiftes Produkt kann die Implementierung komplex sein, und seine vielfältigen Funktionen erfordern Fachkenntnisse, um sie vollständig auszuschöpfen. PTC behauptet, dass die erworbenen Technologien erfolgreich in einer einzigen Architektur integriert wurden 12, aber das Alter und die Komplexität des Systems bedeuten, dass sorgfältige Prüfung notwendig ist, um sicherzustellen, dass alle Module wirklich nahtlos zusammenarbeiten. Dennoch bleibt Servigistics auf rein technischer Basis eine erstklassige Wahl für fortgeschrittene Service-Ersatzteiloptimierung, vorausgesetzt, man meistert seine Komplexität.
-
GAINSystems (GAINS) – Kostenfokussierter Optimierer mit End-to-End-Umfang: GAINS ist ein langjähriger Anbieter, der kontinuierliche Kosten- und Gewinnoptimierung für supply chains 13 betont. Seine Plattform deckt Nachfrageprognosen, Lagerbestandsoptimierung, Reparatur/rotable Planung und sogar die Abstimmung von präventiver Wartung ab 14 – ein breites Spektrum, das sich gut für globale Service-Ersatzteil-Operationen eignet. Technisch nutzt GAINS ausgeklügelte Analysen und probabilistische Modellierung, um die Variabilität in der Nachfrage und bei Durchlaufzeiten umzuhüllen 15. Es kann Lagerhaltungsrichtlinien optimieren, um Serviceziele zu erreichen oder Kosten zu minimieren, je nach geschäftlichen Prioritäten. GAINS vermarktet explizit AI/ML-gesteuerte Automatisierung, die darauf abzielt, Entscheidungen in großem Maßstab zu automatisieren und den Lagerbestand kontinuierlich neu auszubalancieren, wenn sich die Bedingungen ändern 16 17. Es unterstützt Multi-Echelon-Netzwerke und ist dafür bekannt, die Planung von reparierbaren Teilen (rotables) zu handhaben – ein Bereich, den viele generische Tools vernachlässigen 18. In der Praxis hilft GAINS Kunden oft dabei, ein optimales wirtschaftliches Gleichgewicht zu finden (z. B. durch Quantifizierung der Ausfallzeitenkosten im Vergleich zu Lagerhaltungskosten) und die Lagerbestände entsprechend anzupassen. Es mag nicht so laut „probabilistische Prognosen“ verkünden wie einige Wettbewerber, aber sein ergebnisorientierter Ansatz zeigt, dass es fortgeschrittene stochastische Optimierung unter der Haube einsetzt. Skeptische Betrachtung: GAINS’ Behauptungen zur „AI-gesteuerten kontinuierlichen Optimierung“ 13 sollten auf echte Belege hin überprüft werden – es stützt sich wahrscheinlich auf eine Mischung aus bewährten Algorithmen und etwas maschinellem Lernen zur Feinabstimmung. Trotzdem platzieren Branchenbewertungen GAINS dank seines Fokus auf ROI und Automatisierung unter den führenden Anbietern in der Ersatzteilplanung.
-
Baxter Planning – TCO-fokussiert und servicezentriert, mit solider, wenn auch traditioneller Modellierung: Baxter Planning (kürzlich umbenannt rund um sein Produkt „Prophet by Baxter“) ist auf die Planung von After-Sales-Ersatzteilen spezialisiert und verwendet einen Total Cost of Ownership (TCO)-Ansatz, der bei serviceorientierten Unternehmen Anklang findet 19. Seine Prognose-Engine unterstützt eine breite Palette statistischer Methoden, die für intermittierende Nachfrage geeignet sind 20 – von Croston-basierten Techniken bis hin zu möglicherweise Bootstrapping – und kann sogar Installationsbasis-Ausfallraten einbeziehen, um die Nachfrage vorherzusagen, was eine wertvolle Fähigkeit für Service-Ersatzteile darstellt 21. Die Optimierung bei Baxter konzentriert sich tendenziell darauf, Service Level Agreements zu minimalen Kosten einzuhalten, wobei häufig der Lagerbestand an vorrückenden Lagerplätzen (Felddepots) optimiert wird, wo die Betriebszeit kritisch ist 22. Kunden schätzen, dass Baxters Ansatz Bestandsentscheidungen mit Geschäftsergebnissen (wie SLA-Einhaltung und Kostenziele) in Einklang bringt, anstatt einfach einer festen Formel zu folgen 19. Das System kann globale Großunternehmen bewältigen (die meisten Baxter-Kunden sind Unternehmen mit über 1 Mrd. Dollar 23), obwohl viele relativ „flache supply networks“ haben, und Multi-Echelon-Optimierung steht bei Baxter nicht im Vordergrund, sofern sie nicht benötigt wird 24. Baxter bietet zudem Planning-as-a-Service-Optionen an, was darauf hinweist, dass viel Automatisierung möglich ist (das Baxter-Team kann die Planung auf ihrer Plattform für Sie durchführen). Technische Tiefe: Obwohl robust, ist Baxters Technologie etwas traditioneller – sie könnte sich auf klassische Prognosemodelle und Heuristiken für die Lagerhaltung stützen. Allerdings hat sie ihre Fähigkeiten erweitert (z. B. den Erwerb einer AI-Geschäftseinheit von Entercoms, um die prädiktive Analytik im Jahr 2021 zu stärken). Skeptisch sollte man überprüfen, wie weit Baxters „prädiktive“ Ansprüche über die Standardprognosen hinausgehen. Dennoch platziert seine Betonung von Kostenoptimierung und realen Servicemetriken es eindeutig unter den relevanten, glaubwürdigen Anbietern.
-
Syncron – Service-Ersatzteilspezialist mit breitem Portfolio, aber weniger radikal in der Optimierung: Syncron ist ein bekannter Anbieter, der sich ausschließlich auf Aftermarket (Service)-Ersatzteile für Hersteller konzentriert. Seine Cloud-Plattform umfasst Module für die Bestandsoptimierung (Syncron Inventory™), Preisoptimierung, Händlerbestandsmanagement und sogar IoT-gesteuerte prädiktive Wartung (Syncron Uptime™) 25 26. Prognose: Syncron behauptet, „probabilistische AI-Modelle“ zu verwenden, um die Nachfrage über Millionen von Teil-Standort-Kombinationen vorherzusagen 27. In der Praxis segmentiert es wahrscheinlich Artikel (nach Nachfragemustern, Wert usw.) und wendet für jedes Segment geeignete intermittierende Nachfrage-Modelle oder maschinelles Lernen an. Allerdings legte Syncron historisch gesehen mehr Gewicht auf Preis- und Uptime-Lösungen als darauf, bei der Prognosewissenschaft neue Maßstäbe zu setzen 26. Eine unabhängige Analyse stellte fest, dass Syncrons Strategie mit Preisoptimierung führt, wobei Prognosen/Bestandsführung manchmal eine sekundäre Priorität darstellen 28 – was darauf hindeutet, dass seine Bestandsalgorithmen, obwohl kompetent, möglicherweise nicht so führend sind wie die einiger Konkurrenten. Syncrons Optimierungsansatz dreht sich oft darum, hohe Servicelevels (Füllraten) angesichts von Budget- oder Lagerbestandsbeschränkungen zu erreichen. Es kann sicherlich große Datenmengen und Multi-Echelon-Netzwerke bewältigen (viele Automobil- und Industrie-OEMs nutzen es weltweit). Automatisierung ist ein zentrales Verkaufsargument – Syncron wirbt damit, den manuellen Aufwand zu minimieren, indem Planer zu Ausnahmeverwaltung angeregt und Routineentscheidungen automatisiert werden 29. Integration von Akquisitionen: Syncron hat ein Garantie-/Feldservice-Unternehmen (Mize) übernommen und bietet ein IoT-Uptime-Produkt an, aber Berichten zufolge laufen seine Preis- und Bestandsmodule immer noch auf separaten Datenbanken 30, was auf einige Integrationslücken hindeutet. Warnsignale: Syncrons Marketing verwendet Schlagwörter wie „AI-powered“ und „purpose-built for OEMs“ großzügig, weshalb ein Käufer den tatsächlichen Gehalt überprüfen sollte. Produziert es wirklich probabilistische Prognosen oder lediglich statistisch basierte Sicherheitsbestandswerte? Optimiert es wirtschaftliche Ergebnisse oder verwendet es einfach regelbasierte Service-Level-Klassen (z. B. kritisch vs. nicht kritisch)? Diese Punkte sollten bei einer Bewertung von Syncron näher untersucht werden. Zusammenfassend ist Syncron ein starker, branchenspezifischer Akteur mit einer modernen Cloud-Lösung, der aus rein technischer Sicht jedoch möglicherweise nicht so wegweisend in der probabilistischen Optimierung ist wie die führenden Anbieter.
-
Blue Yonder (JDA) – Umfassende supply chain Suite mit ausreichenden Ersatzteil-Fähigkeiten: Blue Yonder’s Planungsplattform (ehemals JDA) ist eine durchgängige supply chain Lösung, die auch im Bereich der Ersatzteile angewendet werden kann, obwohl sie nicht ausschließlich dafür konzipiert wurde 31. Sie unterstützt Nachfrageprognosen (einschließlich ML-basierter Algorithmen in ihrer Luminate-Plattform) und Multi-Echelon-Bestandsoptimierung. Blue Yonder kann sicherlich langsam drehende Artikel modellieren – zum Beispiel durch die Verwendung probabilistischer Durchlaufzeit-Nachfrage und Multi-Echelon-Simulatoren, die sich aus seiner Tradition in der Einzelhandels-/Fertigungsplanung ableiten lassen. Im Vergleich zu spezialisierten Ersatzteil-Tools könnte Blue Yonder jedoch mehr Konfiguration erfordern, um etwa sehr spärliche Nachfrage oder die Integration von Ausfallraten von Anlagen zu bewältigen. In der Regel formuliert es Ziele in Bezug auf Servicelevels und Lagerumschlagsraten und bietet möglicherweise nicht von Haus aus die feinen Ersatzteilfunktionen (wie integrierte rotables Verfolgung oder IoT-Integration), die andere Systeme bieten. Dennoch könnten große Unternehmen, die bereits in Blue Yonder für die supply chain Planung investiert haben, es auch für Ersatzteile in Betracht ziehen, um ein weiteres System zu vermeiden. Entscheidend ist, zu überprüfen, ob Blue Yonder’s jüngste AI/ML-Verbesserungen (die „Luminate“-Module) die Prognosen für intermittierende Nachfrage spürbar verbessern oder lediglich eine zusätzliche Analyseschicht hinzufügen. Kurz gesagt, Blue Yonder ist eine kompetente, wenn auch nicht spezialisierte Option zur Ersatzteiloptimierung – technisch solide, skalierbar und nun AI-unterstützt, aber nicht so punktgenau auf die Besonderheiten der Ersatzteilplanung fokussiert wie die oben genannten dedizierten Anbieter.
-
SAP & Oracle (ERP-basierte Lösungen) – Integrierte Riesen, die historisch bei Ersatzteilen hinter den Erwartungen zurückblieben: Sowohl SAP als auch Oracle bieten Lösungen für die Planung von Service-Ersatzteilen an (SAP’s SPP-Modul und Oracle’s Spares Management als Teil ihrer supply chain Suite 32). Theoretisch nutzen diese die Daten des großen ERP und bieten fortschrittliche Funktionen. In der Praxis jedoch waren sie mit Herausforderungen behaftet. SAP: SAP Service Parts Planning (SPP), ein Teil der APO/SCM-Suite, versuchte eine probabilistische Multi-Echelon-Optimierung ähnlich der Logik von Servigistics umzusetzen. Doch mehrere hochkarätige Implementierungen (z. B. Caterpillar, US Navy) hatten Schwierigkeiten oder scheiterten – SAP SPP erwies sich als äußerst komplex in der Implementierung und konnte oft nicht ohne umfangreiche Anpassungen oder Drittanbieter-Zusatzmodule in Betrieb gehen 33 34. Selbst wenn es funktionierte, sahen Unternehmen wie Ford „geringen Nutzen“ und erwogen, SPP nach jahrelangen Bemühungen aufzugeben 35. Eine wesentliche Kritik war, dass SAPs Ansatz weiterhin auf starren Strukturen beruhte und die Realität von Ersatzteilen nicht gut abbildete, sofern er nicht durch spezialisierte Tools ergänzt wurde 36. Oracle: Oracle’s Service Parts Planning ist ähnlich als Add-on zu Oracles ERP konzipiert. Es bietet grundlegende Prognosen, Retourenmanagement und Lagerbestandsführung für Ersatzteile 37. Oracles Lösung wird hauptsächlich von Unternehmen mit einfacheren service supply chains oder solchen, die im retail Ersatzteilverkauf tätig sind, genutzt, anstatt in komplexen Luft- und Raumfahrt-/Verteidigungsszenarien 38. Weder SAP noch Oracle sind für echte probabilistische Prognosen bekannt; sie verwenden typischerweise traditionelle Zeitreihenmethoden (z. B. Einzelpunktprognosen mit Sicherheitsbestandsformeln, basierend auf Normal- oder Poisson-Annahmen). Sie betonen auch häufig die Erreichung von Servicelevels (Füllraten-Zielen) durch klassische Min/Max-Planungsansätze. Fazit: Für mittelgroße bis große Unternehmen, die ernsthaft an der Optimierung globaler Ersatzteile interessiert sind, haben sich die ERP-Lösungen als „Alleskönner, aber Meister in nichts“ erwiesen. Sie können in Ihren bestehenden Stack integriert werden, aber ihre technologische Tiefe hinkt hinterher. Viele Firmen haben tatsächlich ein Best-of-Breed-Tool über SAP/Oracle geschichtet, um die benötigte Optimierung zu erreichen 39. Somit, obwohl SAP und Oracle durch ihre Marktpräsenz „relevant“ sind, rangieren sie am niedrigsten, wenn es darum geht, hochmoderne, wahrheitsbasierte Ergebnisse in der Ersatzteiloptimierung zu liefern.
(Andere Nischenanbieter wie Smart Software (SmartForecasts/IP&O) und Infor (EAM/Service Management) existieren, aber sie bedienen engere Segmente oder bieten eine begrenztere Innovation. Sie stützen sich oft auf bekannte statistische Methoden (Croston’s, bootstrap) und sind für globale Unternehmen nicht so prominent, weshalb sie in dieser Top-Liste weggelassen werden.)
Tiefgreifende technische Bewertung jedes Anbieters
In diesem Abschnitt beleuchten wir die Lösung jedes Anbieters mit kritischem Blick und untersuchen, wie sie die zentralen technischen Herausforderungen der Ersatzteiloptimierung angehen:
- Probabilistische Prognose (Unsicherheit bei Nachfrage und Lieferzeit)
- Ansatz zur Bestandsoptimierung (wirtschaftlich vs. Service-Level, ein- vs. mehrstufig)
- Automatisierung & Skalierbarkeit (Long-Tail-Management, Ausnahmebehandlung, erforderliche menschliche Eingaben)
- Technologische Tiefe (echte KI/ML-Techniken, Algorithmen und Engineering)
- Umgang mit spärlicher & unregelmäßiger Nachfrage (besondere Methoden für intermittierende Nachfrageszenarien vs. veraltete Heuristiken)
- Integration & Architektur (falls mehrere Technologien erworben wurden, wie einheitlich ist die Lösung)
- Warnsignale (Hinweise auf Schlagwörter oder veraltete Vorgehensweisen).
Lokad
-
Probabilistische Prognose: Lokad ist einer der wenigen Anbieter, der authentische probabilistische Prognosen für Ersatzteile liefert. Anstatt nur eine einzige Nachfrageprognose zu erstellen, berücksichtigt Lokads System „alle möglichen Zukünfte und ihre jeweiligen Wahrscheinlichkeiten.“ Es erstellt vollständige Wahrscheinlichkeitsverteilungen für die Nachfrage über eine Lieferzeit, indem es Unsicherheiten (Nachfrage, Lieferzeit, Rücksendungen usw.) kombiniert 40 41. Zum Beispiel berechnet es eine probabilistische Lead-Demand (Nachfrage während der Wiederauffüllungs-Lieferzeit) als Faltung der Nachfrage- und Lieferzeitverteilungen 40. Dies ist für intermittierende Nachfrage weit robuster als ein einfacher Durchschnitt plus Sicherheitsbestand. Der Schlüssel ist, dass Lokads Prognosen von Natur aus das Risiko von Nullnachfrage gegenüber Ausschlägen quantifizieren, was die Optimierung befähigt, diese Wahrscheinlichkeiten explizit abzuwägen.
-
Ansatz zur Bestandsoptimierung: Lokad verfolgt einen rein wirtschaftlichen Optimierungsansatz. Anstatt zu fragen „welchen Servicelevel wünschen Sie?“, fragt Lokad: „Was sind die Kosten im Verhältnis zum Nutzen, wenn jede Einheit auf Lager gehalten wird?“ Sein Rahmenwerk optimiert dollars an Rendite pro ausgegebenem Dollar für das Inventar 1. Praktisch definiert ein Nutzer die wirtschaftlichen Treiber – z. B. Lagerkosten pro Teil, Fehlmengenkosten oder Ausfallkosten, Bestellkosten usw. – und Lokads Algorithmen finden die Lagerhaltungsstrategie, die den erwarteten Gewinn maximiert oder die Gesamtkosten minimiert. Diese stochastische Optimierung verwendet direkt die probabilistischen Prognosen als Eingabe. Bemerkenswerterweise vermeidet Lokad klassische Service-Level-Ziele und betrachtet sie als veraltet 2. Die Begründung: Servicelevel-Prozentsätze unterscheiden nicht zwischen den Artikeln, die wirklich zählen, oder den Kosten ihrer Erreichung. Stattdessen konzentriert sich Lokad darauf, den insgesamt gelieferten Service Wert der Lagerinvestition zu maximieren. In Szenarien kann Lokad Tausende von Was-wäre-wenn-Ergebnissen (zufällige Nachfrageziehungen) simulieren, um zu bewerten, wie sich eine gegebene Lagerhaltungsentscheidung finanziell auswirkt, und dann iterativ verbessern. Dies ist im Wesentlichen eine maßgeschneiderte Monte-Carlo-Optimierung, abgestimmt auf „bang-for-buck“-Lagerentscheidungen.
-
Automatisierung & Skalierbarkeit: Lokads Lösung ist für Automatisierung in großem Maßstab konzipiert. Sie wird als Cloud-Plattform bereitgestellt, auf der Daten (aus ERP etc.) einfließen und die gesamte Pipeline von Prognose → Optimierung → Wiederauffüllungsentscheidung über Skripte (Lokads Envision-Coding-Umgebung) ausgeführt wird. Das bedeutet, dass sobald die Logik eingerichtet ist, Zehntausende oder Hunderttausende von SKUs ohne manuelles Eingreifen verarbeitet werden können – wodurch kontinuierlich Wiederauffüllungsaufträge, Lagerbestands-Empfehlungen usw. generiert werden. Die Plattform bewältigt groß angelegte Berechnungen (unter Nutzung von Cloud-Clustern), sodass selbst komplexe Simulationen von über 100.000 SKU-Standort-Kombinationen über Nacht oder schneller durchführbar sind. Da der Ansatz programmatisch ist, können Unternehmen sehr detaillierte Regeln oder Zielsetzungen kodieren, ohne dass Planer jeden einzelnen Artikel anpassen müssen. Menschliche Eingaben erfolgen hauptsächlich auf Design-/Überwachungsebene (z. B. Anpassung von Kostenparametern oder Geschäftsbedingungen), nicht bei der Prognose jedes Teils. Dieses Automatisierungsniveau ist entscheidend für ein tiefgehendes Long-Tail-Management, bei dem kein menschliches Team in der Lage wäre, tausende sporadische Teile manuell zu prognostizieren und zu planen. Lokad weist ausdrücklich darauf hin, dass, wenn die Entscheidungsfindung subjektive menschliche Eingriffe beinhaltet, effektive Simulation und Optimierung unpraktikabel werden 42 – daher empfehlen sie ein vollständig automatisiertes Entscheidungssystem, bei dem sich die Menschen darauf konzentrieren, die richtigen Modelle und wirtschaftlichen Parameter festzulegen.
-
Technologische Tiefe: Technologisch ist Lokad sehr fortschrittlich und verfolgt einen „Engineering-first“-Ansatz. Es hat seine eigene fachspezifische Sprache (DSL) für die Supply Chain namens Envision entwickelt, die das Schreiben feinabgestimmter Skripte ermöglicht, die Daten, maschinelle Lernprognosen und Optimierungslogik kombinieren. Dies ist kein bloßes Marketing – es ist im Wesentlichen eine leichtgewichtige Programmierumgebung für die Supply Chain, die es ermöglicht, komplexe kundenspezifische Algorithmen (z. B. eine spezialisierte Methode zur Prognose intermittierender Nachfrage oder eine angepasste Optimierung von Nachbestellpunkten unter Unsicherheit) prägnant zu implementieren. Lokads Einsatz von stochastischer Optimierung und einer „Algebra der Zufallsvariablen“ 40 43 zeigt echte mathematische Tiefe. Für ML/KI überschwappt Lokad nicht mit generischer KI; stattdessen kann maschinelles Lernen dort angewendet werden, wo es relevant ist (zum Beispiel um Wahrscheinlichkeitsverteilungen abzuleiten oder Muster über SKUs hinweg zu erkennen), jedoch immer im Dienst des größeren probabilistischen Rahmens. Die Plattform unterstützt außerdem differenzierbare Programmierungstechniken und fortgeschrittene Modellensembles gemäß ihrer Literatur, was auf eine moderne KI-Nutzung im Hintergrund hinweist. Anders als bei Black-Box-„KI“ ähnelt Lokads Ansatz mehr einer angewandten Data Science Engineering – transparent und auf die Daten jedes Kunden via Code zugeschnitten.
-
Umgang mit spärlicher & unregelmäßiger Nachfrage: Dies ist Lokads Steckenpferd. Der Gründer des Unternehmens hat traditionelle Methoden (wie Croston’s oder einfache exponentielle Glättung) als unzureichend für intermittierende Nachfrage kritisiert, da sie die Varianz oft als nachträglichen Gedankengang behandeln. Lokads probabilistische Prognosen bewältigen auf natürliche Weise Perioden ohne Nachfrage und Ausreißer-Spitzen, indem sie diese in der Nachfrageverteilung abbilden (z. B. eine hohe Wahrscheinlichkeit für Null, geringe Wahrscheinlichkeiten für 1, 2, 3 Einheiten usw. in einer Periode). Daher ist kein ad-hoc „Ausreißer-Ausschluss“ erforderlich – ein Nachfrageanstieg wird weder verworfen noch blind übernommen, sondern dient als eine Beobachtung, die die Wahrscheinlichkeit zukünftiger Spitzen informiert. Ebenso verlässt sich Lokad nicht auf eine „Nachfrageklassifizierung“ (schnell/langsam, klumpig), um eine Methode auszuwählen; seine Algorithmen passen sich der einzigartigen Historie jeder SKU an. Das Obsoleszenzrisiko für Artikel mit sehr langsamen Umsätzen wird ebenfalls berücksichtigt (sie weisen ausdrücklich darauf hin, dass eine ausschließliche Fokussierung auf den Servicevorteil zu Abschreibungen führen kann 44). Kurz gesagt, adressiert Lokad unregelmäßige Nachfrage mit einem einheitlichen stochastischen Modell, anstatt Flickwerk zusammenzunähen.
-
Integration & Architektur: Lokad ist eine relativ junge, hausintern entwickelte Lösung, sodass keine Altlastakquisition hinzugefügt wurde – die Plattform ist einheitlich. Die Datenintegration erfolgt in der Regel über Dateiladungen oder APIs aus dem ERP/WMS des Kunden. Da Lokad einen maßgeschneiderten Modellierungsansatz verwendet, beinhaltet die anfängliche Einrichtung oft die Zusammenarbeit eines Lokad Data Scientist mit dem Unternehmen, um deren Geschäftslogik in Envision zu codieren. Dies ist ein anderes Paradigma als bei Standardsoftware: Es kommt dem Aufbau einer maßgeschneiderten analytischen Anwendung auf Lokads Plattform näher. Der Vorteil ist eine sehr passgenaue Lösung sowie die Fähigkeit, das Modell (durch Bearbeiten von Skripten) an sich ändernde Geschäftsanforderungen anzupassen, ohne auf Release-Zyklen des Anbieters warten zu müssen.
-
Warnsignale / Skepsis: Lokads klare Haltung gegen Konzepte wie Sicherheitsbestand und Servicelevel kann aufhorchen lassen – man sollte überprüfen, ob dieser neue Ansatz in der Praxis tatsächlich überlegene Ergebnisse liefert. Die Behauptung, dass Servicelevels „veraltet“ sind 2, ist provokativ; im Wesentlichen ersetzt Lokad sie durch Kostenkennzahlen, was sinnvoll ist, wenn Kosten gut quantifizierbar sind. Unternehmen müssen sicherstellen, dass sie diese Kostenangaben (Fehlmengenkosten etc.) bereitstellen oder gemeinsam ermitteln können, andernfalls ist eine wirtschaftliche Optimierung nur so gut wie die zugrunde gelegten Kosten. Ein weiterer Aspekt ist, dass Lokads Lösung Programmierung erfordert – was für Supply-Chain-Software unüblich ist. Wenn ein Kunde nicht bereit ist, entweder die DSL zu erlernen oder sich auf Lokads Dienstleistungen zu verlassen, könnte dies ein Hindernis darstellen. Lokad mildert dies jedoch, indem ihre Supply Chain Scientists den Großteil der Modellierung übernehmen 45 und somit effektiv eine konfigurierte Lösung bereitstellen. Abschließend bewirbt Lokad keine generischen „wir senken den Bestand um X%“-Zahlen – ein positives Zeichen, da es sich auf Technologie statt auf gewagte Marketingstatistiken konzentriert. Ein Skeptiker würde dennoch Referenzkunden und möglicherweise einen Piloten sehen wollen, um zu bestätigen, dass der probabilistische Ansatz eine greifbare Verbesserung gegenüber dem Status quo des Unternehmens bietet.
ToolsGroup (Service Optimizer 99+)
-
Probabilistische Prognose: ToolsGroup war ein Vorreiter beim Einsatz probabilistischer Modelle in der Supply-Chain-Planung. Es betont, dass „probabilistische Prognosen der einzige zuverlässige Ansatz sind, um für unvorhersehbare, langsam drehende, langschwänzige SKUs zu planen“ 4. Konkret prognostiziert die Software von ToolsGroup nicht eine einzelne Zahl für die Nachfrage des nächsten Monats; stattdessen berechnet sie die gesamte Verteilung (oft mittels Monte-Carlo-Simulation oder analytischer Wahrscheinlichkeitsmodelle). Zum Beispiel, wenn die durchschnittliche Nachfrage eines Teils 2 pro Jahr beträgt, könnte ToolsGroup die jährliche Nachfrage wie folgt darstellen: 70% Wahrscheinlichkeit für 0, 20% Wahrscheinlichkeit für 1, 10% Wahrscheinlichkeit für 2+ etc., basierend auf der Historie und den Mustern. Diese Verteilung fließt direkt in die Bestandsberechnungen ein. Das Nachfrage-Modell von ToolsGroup kann sporadische Nachfragerhythmen einbeziehen (unter Verwendung der Croston-Methode oder fortgeschrittener Varianten) und Variabilität bei Lieferzeiten, Anbieterzuverlässigkeit usw. Sie haben schon lange spezialisierte Ansätze für intermittierende Nachfrage integriert (ein Whitepaper weist auf ihre Algorithmen für „Niedrigvolumen-, sporadische Nachfrageprognosen“ hin 9). In den letzten Jahren hat ToolsGroup maschinelles Lernen zur Verbesserung der Prognosen eingebunden – z. B. mittels ML, um Artikel mit ähnlichen Mustern zu clustern oder kausale Faktoren zu erkennen – aber der Kern bleibt in der Wahrscheinlichkeitstheorie verankert, anstatt rein auf ML-Black-Boxes zu setzen 46.
-
Ansatz zur Bestandsoptimierung: Das Markenzeichen von ToolsGroups Ansatz ist die Optimierung des Kompromisses „Servicelevel vs. Bestand“. Das System kann Bestand-zu-Service-Kurven für jede SKU-Standort-Kombination erzeugen, die zeigt, welchen Servicelevel (Fill Rate) man bei verschiedenen Lagerbeständen erreichen würde 47. Durch die Bewertung dieser Kurven findet es das optimale Gleichgewicht: oft den Punkt, an dem zusätzlicher Bestand nur noch abnehmende Erträge im Service bringt. Effektiv wählt es artikelspezifische Serviceziele aus, die den gesamten Service der Investition maximieren. Dies ist eine Art wirtschaftlicher Optimierung, wenn auch im Rahmen von Servicelevel-Begriffen formuliert. ToolsGroup erlaubt den Nutzern in der Regel, einen gewünschten aggregierten Servicelevel oder eine Mischung von Servicelevels festzulegen, wonach die Software den Bestand entsprechend über tausende Teile verteilt, um dieses Ziel mit minimalem Bestand zu erreichen. Außerdem unterstützt ToolsGroup Multi-Echelon-Optimierung (MEIO): Sie kann nicht nur entscheiden, wie viel Bestand vorhanden sein sollte, sondern auch wo er in einem Netzwerk (zentral vs. regional vs. dezentral) gehalten wird, um Rückstände und Logistikkosten zu minimieren. Ihre MEIO-Fähigkeit ist sehr angesehen und wurde in der Luftfahrt, Automobilindustrie, Elektronik und anderen Ersatzteilsystemen eingesetzt. Zudem berücksichtigt sie Mehrquellenversorgung (z. B. wenn ein Teil entweder aus dem Bestand geliefert oder von einem Lieferanten beschleunigt bezogen werden kann, wählt das Modell die wirtschaftlichste Methode, um die Verfügbarkeit sicherzustellen 48). Während die Darstellung von ToolsGroup auf Servicelevels setzt, berücksichtigt die zugrunde liegende Optimierung sicherlich auch Kosten – z. B. Lagerhaltungskosten, Strafkosten bei Fehlmengen (manchmal implizit über Zielservice) – um eine Lösung zu finden, die das Betriebskapital freisetzt und dennoch Zuverlässigkeit gewährleistet 5.
-
Automatisierung & Skalierbarkeit: Ein zentrales Verkaufsargument von ToolsGroup ist ihre Philosophie des „selbstfahrenden Planens“. Sie zielt darauf ab, den manuellen Aufwand erheblich zu reduzieren, indem die Feinabstimmung der Prognosen, das Setzen von Parametern und sogar die Erstellung von Bestellungen automatisiert werden. Die Software überwacht jede SKU und löst nur Ausnahmesituationen aus, wenn etwas signifikant abweicht (wie ein gefährdeter Servicelevel trotz optimiertem Bestand oder eine Nachfragetrendänderung, die das Modell nicht voraussehen konnte). Dies ist entscheidend für Ersatzteile mit zehntausenden Artikeln – kein Planer kann alle im Blick behalten. Nutzer im realen Einsatz berichten häufig, dass das Tool die Berechnung von Nachbestellpunkten, Empfehlungseinkäufen und die Umverteilung zwischen Standorten automatisiert, wodurch Planer nur noch Vorschläge für einen kleinen Teil des Sortiments überprüfen müssen (wie sehr teure Teile oder kritische Ausfälle). Hinsichtlich der Skalierbarkeit hat ToolsGroup Referenzen mit sehr großen Datenmengen (z. B. Konsumgüterunternehmen mit Millionen von SKU-Standort-Kombinationen für langsam/schnell drehende Artikel oder globale OEMs mit über 100.000 Teilen). Ihre Algorithmen sind effizient, aber anfangs konnten einige aufwändige Monte-Carlo-Simulationen rechenintensiv sein – hier hat ihre F&E über Jahre hinweg die Leistung optimiert. Jetzt ermöglichen Cloud-Deployments und moderne Verarbeitung, dass diese Simulationen im großen Maßstab über Nacht durchgeführt werden. Der Nutzer kann dem System vertrauen, dass es den Long-Tail abarbeitet und Ergebnisse liefert, ohne dass man ständig die Prognosemodelle von Hand anpassen muss – ein großer Unterschied zu älteren MRP- oder DIY-Ansätzen. Es sei angemerkt, dass ToolsGroup häufig damit prahlt, dass Planer 95+% Servicelevels mit 20-30% weniger Bestand erreichen können, indem sie seine Automatisierung nutzen (Angaben, die als beispielhaft zu verstehen, nicht garantiert 49).
-
Technologische Tiefe: ToolsGroups Technologie verbindet klassische Operations Research mit neuerer KI. Die Kern-Engine (SO99+) hat ihre Wurzeln in quantitativen Methoden; zum Beispiel hat sie historisch wahrscheinlichkeitsbasierte Verteilungen (wie Poisson, Gamma) kombiniert mit Faltung für die Lieferzeitbedarfsprognose genutzt und Optimierungs-Löser für multi-echelon Lagerplatzierung eingesetzt. Sie führten auch Konzepte wie „Demand Creep and Fade“ ein, um Prognosetrends automatisch anzupassen, und „Power Node“-Algorithmen, um Servicelevels durch ein supply network zu propagieren. Kürzlich hat ToolsGroup KI-fokussierte Unternehmen (z. B. Evo, das „responsive AI“ mit etwas anbietet, das sie „quantum learning“ nannten 50) übernommen. Es ist etwas vage, aber vermutlich bedeutet es den Einsatz neuer Machine-Learning-Module, um Prognosen zu verfeinern oder Parameter kontinuierlich zu optimieren. Sie erwarben zudem ein Retail-Demand-Planning-Tool (Mi9/JustEnough) 51 und ein E-Commerce-Fulfillment-Optimierungstool (Onera) 52. Diese Schritte deuten auf einen Vorstoß in angrenzende Domänen hin. Ein Skeptiker sollte sich fragen: Sind diese integriert oder nur Ergänzungen? Bisher hat ToolsGroup das JustEnough-Frontend für Retail-Nutzer integriert und zugleich die KI-Engine für Prognosen genutzt – was vorwiegend für schnell drehende Güter relevant ist. Für Ersatzteile bleibt SO99+ die zentrale analytische Engine. Die Kommunikation des Unternehmens rund um KI ist manchmal buzzword-lastig („KI-unterstützte Fähigkeiten… stellen sicher, dass Serviceziele mit dem niedrigsten Lagerbestand erreicht werden“ 5), aber darunter liegen konkrete ML-Funktionen, wie Algorithmen zur Erkennung von Saisonalität in der Ersatzteillnachfrage (ja, einige Teile weisen saisonalen Gebrauch auf) oder zur Identifizierung, welche Teile „intermittierende Spitzen“ aufgrund von Feldproblemen erfahren könnten. Insgesamt demonstriert ToolsGroup solide Engineeringkompetenz: eine stabile Plattform, die schrittweise mit modernen Techniken verbessert wurde, und eine relativ benutzerfreundliche UI, die Planer vor übermäßiger Komplexität schützt.
-
Bewältigung von sporadischer & unregelmäßiger Nachfrage: ToolsGroup vermarktet hier ausdrücklich seine Stärke. Sie führen häufig an, dass herkömmliche Prognoseverfahren bei intermittierender Nachfrage scheitern, und dass ihr Ansatz des wahrscheinlichkeitsbasierten Modellierens + intelligenter Analytik genau für dieses Szenario entwickelt wurde 4. Für ein Teil mit unregelmäßiger Nachfrage wird ToolsGroup vermutlich eine Kombination aus der Schätzung intermittierender Nachfrage (z. B. Crostons Methode zur Schätzung des durchschnittlichen Intervalls und der Größe) sowie der Unsicherheitsmodellierung zur Erstellung einer Verteilung einsetzen. Wichtig ist, dass nicht einfach ein Mittelwert berechnet und in eine Normalverteilung übernommen wird – es wird erkannt, dass die Verteilung nicht normal ist (oft stark schief mit vielen Nullen). Das bedeutet, dass der berechnete Sicherheitsbestand (oder Bestellpunkt) nicht auf einer einfachen Formel basiert, sondern auf dem gewünschten Perzentil dieser Verteilung. In der Praxis kann die Monte-Carlo-Simulation von ToolsGroup beispielsweise 1000 mögliche Nachfrageausgänge für die Lieferzeit simulieren und ermitteln, wie viel Bestand benötigt wird, damit etwa 950 von diesen 1000 Szenarien aus dem Lager bedient werden können (95% Service). Dies ist eine weitaus realistischere Methode zur Handhabung sporadischer Nachfrage als ein willkürliches „add 2*STD as safety stock“, welches einer normalverteilten Nachfrage zugrunde liegt. Zudem integrieren sie „predictive analytics“, um Veränderungen zu erkennen – etwa wenn ein Teil plötzlich einen Anstieg im Gebrauch verzeichnet, kann das System einen Trend- oder Pegelwechsel feststellen und sich schneller anpassen als bei einer festen periodischen Überprüfung. ToolsGroups Thought-Leadership-Beiträge erwähnen sogar, dass auf brute-force „outlier cleansing“ verzichtet wird; stattdessen werden alle Nachfragedaten verwendet, um Wahrscheinlichkeiten zu bestimmen, sofern nichts eindeutig ein Einmalereignis ist (und selbst dann könnte eine gewisse Wahrscheinlichkeit für ein Wiederauftreten beibehalten werden). Zusammengefasst wird unregelmäßige Nachfrage von ToolsGroup explizit modelliert und kontinuierlich an reale Datenmuster angepasst.
-
Integration & Architektur: Die Hauptlösung von ToolsGroup wurde über Jahrzehnte intern entwickelt, sodass die Kernintegration eng ist. Die Übernahmen (JustEnough, Onera, Evo) sind relativ neu und zielgerichtet: Die Evo AI wurde vermutlich in ihre Planungs-Engine integriert (sie erwähnen „dank der integrierten EvoAI-Engine führt JustEnough KI-gesteuerte Planung“ 53 – was andeutet, dass Evos Technologie in die Prognosefähigkeiten eingearbeitet wurde). Der Onera-Baustein ist mehr separat (Echtzeit-Lagerverfügbarkeitsprüfung für den Einzelhandel) und weniger relevant für Ersatzteile. Insgesamt bleibt die Architektur von ToolsGroup für Ersatzteilplanung einheitlich – Nachfrageprognose, Bestandsoptimierung und Nachschub verwenden dasselbe Datenmodell. Sie bieten sowohl Cloud- als auch On-Premise-Lösungen an, wobei die meisten neuen Implementierungen Cloud SaaS sind. Die Datenintegration mit ERPs erfolgt über Standardkonnektoren oder Flat-File-Loads (wie bei jedem Planungstool). Da ToolsGroup zahlreiche Module (Bedarfsplanung, S&OP, Inventar usw.) umfasst, besteht ein mögliches Problem darin, sicherzustellen, dass jeder Kunde die neueste Version verwendet und die UI einheitlich ist. Es gab historisch Anmerkungen, dass die Benutzeroberfläche in Teilen der Anwendung veraltet wirken könnte, aber ToolsGroup aktualisiert diese. Hinweis zur Integrationsübernahme: Wenn ein Anbieter mehrere Unternehmen übernimmt, können sich Funktionen überschneiden oder die UX divergieren. Zum Beispiel könnte das „JustEnough“-Frontend ein anderes Erscheinungsbild haben als die klassische ToolsGroup-UI. Kunden sollten nachfragen, wie die Roadmap diese Vereinheitlichung adressiert und ob Funktionalitäten (insbesondere für Ersatzteile) in zwei unterschiedlichen, früher separaten Modulen vorhanden sind. Die gute Nachricht ist, dass die Ersatzteillösung von ToolsGroup nicht stark von den neuen Übernahmen abhängt, sodass das Fragmentierungsrisiko für diesen Anwendungsfall gering ist.
-
Warnsignale / Anbieter-Versprechen: ToolsGroup, wie viele andere, präsentiert Fallstudien, in denen signifikante Bestandsreduktionen oder Serviceverbesserungen behauptet werden. So reduzierte beispielsweise Cray (Hersteller von Supercomputern) den Teilebestand um 28% und sparte dabei 13 Mio. $ 49, oder Cisco wies darauf hin, dass Servigistics-Nutzer (einschließlich vermutlich Cisco als Referenz) eine Bestandsreduktion von 10–35% erreichten 54. Diese Angaben sind beeindruckend, sollten aber teilweise auf Prozessverbesserungen rund um die Software zurückgeführt werden und nicht allein der Software zugeschrieben werden. ToolsGroup ist in seinen Materialien technisch eher direkt, dennoch schwingt etwas Marketing mit – beispielsweise Begriffe wie „quantum learning“ (im Zusammenhang mit der Evo-Übernahme), die sehr gehypt klingen. Ein potenzieller Kunde sollte ins Detail gehen: nachfragen, welche KI-Modelle eingesetzt werden (neuronale Netze? Gradient Boosting? Was wird prognostiziert?) und wie das System mit neuen Teilen ohne Historie umgeht oder ob es auf manuelle Parametereinstellungen angewiesen ist (idealerweise minimal). Ein weiterer, kleiner Warnhinweis: ToolsGroup spricht weiterhin von der „Optimierung von Sicherheitsbeständen“ 47 – das Konzept des Sicherheitsbestands an sich ist nicht schlecht, aber missverstanden könnte es so wirken, als würden sie noch auf alte Formeln setzen. Tatsächlich optimieren sie über Sicherheitsbestände, sodass es sich nicht um eine statische Polsterung handelt; ein unbedachter Nutzer könnte das Tool falsch einsetzen, indem er zusätzlich statische Sicherheitsbestände einstellt, was zu einer doppelten Absicherung führt. Die Gewährleistung der korrekten Nutzung der vollautomatischen Optimierung (und nicht deren Umgehung durch manuelle Sicherheitsbestandsvorgaben) ist entscheidend.
PTC Servigistics
-
Wahrscheinlichkeitsbasierte Prognose: Servigistics kann auf eine lange Tradition fortschrittlicher Prognosen für Service-Teile zurückblicken. Seine Ursprünge (Xelus, MCA Solutions) waren in probabilistischen Modellen wie Poisson und zusammengesetztem Poisson (für die Nachfrage) sowie in ausgeklügelten Simulationen verankert. Servigistics kann Nachfrage-Wahrscheinlichkeitsverteilungen für Teile mit geringem Volumen erzeugen – etwa, indem modelliert wird, dass ein bestimmtes Teil eine 5%-Chance auf eine Nachfrage von 1, 0,5% auf 2 Nachfragen und 94,5% auf keine Nachfrage in einem Monat hat, basierend auf historischen Daten und bekannten Einflussfaktoren. Die von PTC zitierte „advanced data science“ 55 bezieht sich vermutlich auf diese über Jahrzehnte entwickelten Algorithmen zur Prognose sporadischer Nutzung. Zudem umfasst es prädiktive Prognosen mittels IoT-Daten: Mit der ThingWorx-Integration können Sensormesswerte oder prädiktive Wartungswarnungen (z. B. Maschinenstunden, Vibrationswarnungen) in die Teileprognose einbezogen werden 10. Dies stellt eine Form der kausalen Prognose dar – anstatt lediglich Zeitreihen zu verwenden, werden Ausfälle aufgrund von Betriebsbedingungen vorhergesagt. Servigistics unterstützt außerdem Prognosen von Retouren und Reparaturen, was für Ersatzteilsnetze essenziell ist (z. B. die Vorhersage, wie viele defekte Teile zurückgesendet und repariert werden, wodurch das Angebot entsteht). Zusammengefasst betreibt Servigistics wirklich wahrscheinlichkeitbasierte Prognosen und tut dies schon lange (man könnte sagen, es praktizierte „KI“ in der Prognose, bevor es cool war – auch wenn es damals als Operations Research oder stochastische Modelle bezeichnet wurde). PTC bezeichnet es mittlerweile als „KI-gestützte“ Prognose, doch Branchenkenner wissen, dass es sich um eine Kombination statistischer Prognosemethoden (Crostons Methode, Bayessche Inferenz usw.) und Optimierungsalgorithmen handelt und nicht um eine mysteriöse KI-Magie. Fazit: Die Prognose von Servigistics gilt allgemein als sehr solide für intermittierende Nachfrage.
-
Ansatz zur Bestandsoptimierung: Servigistics ist bekannt für multi-echelon Bestandsoptimierung (MEIO) im Bereich Service-Teile. Es war eines der ersten Systeme, das die Theorie der multi-echelon Ersatzteiloptimierung (basierend auf Sherbrooke’s METRIC-Modell und anschließender Forschung) in ein kommerzielles Tool integrierte. MEIO bedeutet, dass das gesamte supply network (Zentrallager, regionale Depots, Außendienststandorte etc.) betrachtet und Bestandsniveaus an jedem Standort optimiert werden, wobei die Netzwerkeffekte berücksichtigt werden (z. B. kann ein zentral erhöhter Lagerbestand regionale Schwankungen abfedern, während lokaler Bestand eine schnellere Reaktion ermöglicht – das Tool findet das optimale Gleichgewicht). Servigistics optimiert entweder, um die Kosten für ein bestimmtes Servicelevel zu minimieren oder die Verfügbarkeit bei einem vorgegebenen Budget zu maximieren – und unterstützt damit eine echte wirtschaftliche Optimierung. In der Praxis setzen viele Nutzer Servicelevel-Ziele pro Segment (zum Beispiel 95% für kritische und 85% für nicht-kritische Teile) und lassen dann die Software den kostengünstigsten Weg zur Zielerreichung finden. Andere geben Strafkosten für Lieferverzögerungen ein, damit die Gesamtkosten minimiert werden. Da es so konfigurierbar ist, kann es sowohl Servicelevel-Ziele als auch kostenbasierte Optimierung umsetzen. Ein Unterscheidungsmerkmal: Servigistics handhabt multi-indenture Teile (Komponenten in Komponenten) – beispielsweise wird der Bestand von Baugruppen und des übergeordneten Teils zusammen optimiert, was in der Luft- und Raumfahrt bzw. Verteidigung wichtig ist. Es unterstützt zudem multi-source Fulfillment-Logik 48 (z. B. wenn an einem Standort etwas ausgeht, wird eine laterale Umschichtung von einem anderen in Betracht gezogen). Dies sind fortschrittliche Funktionen, die in generischen Bestands-Tools oft fehlen. PTC hat außerdem ein Pricing-Optimierungs-Modul integriert, das dieselbe Datenbank nutzt 56, was bedeutet, dass Preis- und Lagerentscheidungen zumindest auf gemeinsamen Daten basieren (ob die Optimierung wirklich integriert ist, bleibt unklar – aber man könnte sich vorstellen, dass es die Bewertung ermöglicht, wie Preisänderungen Nachfrage und damit den Bestand beeinflussen). Was die Optimierungsalgorithmen betrifft, verwendet Servigistics vermutlich eine Mischung aus analytischen Methoden (wie Vari-METRIC, einem effizienten Algorithmus für multi-echelon Lagerbestände bei Poisson-Nachfrage) und möglicherweise lineare Programmierung oder heuristische Verfahren für bestimmte Probleme. Diese Algorithmen wurden kontinuierlich mit Rückmeldungen der umfangreichen Kundenbasis verfeinert 57 und gelten als Stand der Technik in der Ersatzteilplanung.
-
Automatisierung & Skalierbarkeit: Da Servigistics einige der größten und anspruchsvollsten Organisationen bedient (z. B. das Militär mit Hunderttausenden von Teilen, hohen Verfügbarkeitsanforderungen und begrenzten Planern), ist Automatisierung entscheidend. Die Software ist so konzipiert, dass, sobald Richtlinien festgelegt sind, automatisch Prognosen neu berechnet, optimale Bestandsniveaus ermittelt und Umpositionierungs- oder Beschaffungsaktionen im gesamten network vorgeschlagen werden. Planer erhalten dann Ausnahmewarnungen – beispielsweise, wenn ein bestimmtes Teil voraussichtlich unter die Zielverfügbarkeit fällt oder wenn ein neuer Ausfalltrend festgestellt wird, der einen erhöhten Bestand erfordert. Die UI bietet Werkzeuge zur Simulation („Was wäre, wenn wir hier das Servicelevel erhöhen, wie wirkt sich das auf die Kosten aus?“), die Planer nutzen können, während die rechenintensive Verarbeitung im Hintergrund automatisch erfolgt. In Bezug auf die Skalierung hat sich Servigistics als fähig erwiesen, sehr große Datensätze zu verarbeiten. Es muss jedoch sichergestellt werden, dass die Hardware oder Cloud-Infrastruktur angemessen dimensioniert ist – in älteren On-Premise-Implementierungen konnten umfangreiche Durchläufe viele Stunden in Anspruch nehmen. PTC bietet mittlerweile wahrscheinlich Cloud-Bereitstellungen an (einschließlich FedRAMP-konformen SaaS für den Regierungssektor) 58, was darauf hindeutet, dass der Stack für eine bessere Durchsatzrate modernisiert wurde. Ein weiterer Aspekt der Automatisierung ist die Integration von IoT: Wenn Maschinensignale einen Teileausfall vorhersagen, kann Servigistics automatisch die Prognose anpassen oder ein Nachfragesignal erzeugen (das ist das Versprechen ihrer connected service parts optimization 10). Somit entwickelt sich das System hin zu einer Echtzeit-adaptiven Planung statt einer statischen, periodischen Planung. All dies zielt darauf ab, den manuellen Eingriff von Planern zu reduzieren, indem das System antizipiert und die Planer überwachen.
-
Technologische Tiefe: Servigistics ist wohl das funktionsreichste System im Nischenbereich der Service-Teile, was auf Jahrzehnte der F&E und mehrere Technologiefusionen zurückzuführen ist. Der Vorteil liegt in einem tiefen Repertoire an Techniken: So enthält Servigistics beispielsweise Algorithmen von MCA Solutions, das sich auf szenariobasierte Optimierung für die Luft- und Raumfahrt spezialisiert hatte, und von Xelus, einem Pionier in der Prognose von Service-Teilen. PTC behauptet, es habe „erfolgreich das Beste aus Xelus und MCA-Funktionalität in die robuste Architektur von Servigistics integriert“ 12. Unter PTC erhielt Servigistics zudem Zugang zu IoT und fortschrittlicher Analytik aus dem PTC-Portfolio (ThingWorx für IoT, möglicherweise auch etwas KI aus der PTC-Forschung). PTC hebt hervor, dass Servigistics bereits 2006 Konzepte des Machine Learnings/KI einführte 59 – vermutlich im Hinblick auf Mustererkennung in der Bedarfserfassung oder Anomalieerkennung im Verbrauch. Heute wird es als „AI-powered Service Supply Chain“ 60 vermarktet. Was bedeutet das konkret? Wahrscheinlich den Einsatz von ML, um die Prognosegenauigkeit durch Lernen aus großen Datensätzen zu verbessern (vielleicht auch über Kunden hinweg, auch wenn Datenaustausch sensibel ist), den Einsatz von KI, um optimale Parameter zu identifizieren oder herauszufinden, welche Faktoren (Maschinenalter, Standort, Wetter etc.) den Teileverbrauch antreiben, und möglicherweise Reinforcement Learning, um Bestandsstrategien feinabzustimmen. Obwohl Details nicht öffentlich sind, kann man davon ausgehen, dass die technologische Tiefe erheblich ist, betrachtet man die konstant hohe Bewertung von Servigistics durch Analysten. Allerdings hat die Komplexität auch ihre Kehrseite: Die Lösung kann so viel leisten, dass sie überdimensioniert wirkt, wenn die Anforderungen eines Unternehmens einfacher sind. PTC hat vermutlich die UI und den Technologiestack modernisiert (Servigistics begann als Client-Server-Anwendung und ging dann in den Web-Bereich über). Nun ist es Teil des umfassenderen Technologiestacks von PTC für Service-Lifecycle-Management, was bedeutet, dass Daten mit Field-Service-Systemen und AR-(Augmented Reality)-Schnittstellen geteilt werden können. Diese Integration verschiedener Technologien ist ein Plus, wenn man eine End-to-End-Lösung wünscht, könnte aber als unnötiger Ballast empfunden werden, wenn lediglich der Bestand von Interesse ist.
-
Bewältigung von spärlicher & unregelmäßiger Nachfrage: Servigistics wurde genau für dieses Szenario entwickelt (denken Sie an Luft- und Raumfahrt: Ein Flugzeugteil könnte jahrelang ohne Ausfall bleiben und dann plötzlich in einer Serie ausfallen). Die Lösung bietet spezialisierte Methoden für „low volume, sporadic demand forecasting“ 9. Wahrscheinlich beinhaltet dies: Croston’s-Methode, Bayesian Bootstrapping, Dosis-Wirkungs-Modelle mit Kovariaten (bei Einsatz von IoT). Ebenfalls enthält sie ein Konzept der Teilesegmentierung – nicht nur ABC nach Nutzung, sondern differenzierter. So kann sie beispielsweise Teile nach Nachfragemustern klassifizieren und jeweils unterschiedliche Prognoseansätze anwenden (z. B. ein „unregelmäßiges, aber geringes Volumen“-Teil versus „unregelmäßig, aber im Trend“ versus „wirklich klumpig zufällig“). Durch die Segmentierung wird sichergestellt, dass ein rein intermittierendes Nachfrage-Teil nicht mit einem Trend-Prognosemodell erzwungen wird. Stattdessen könnte ein einfaches Poisson- oder null-inflationiertes Poisson-Modell verwendet werden. Servigistics befasst sich zudem mit „intermittierender Nachfrage mit Obsoleszenz“ – es verfolgt die Lebenszyklen von Teilen und kann Prognosen herunterstufen, wenn Geräte altern, was generische Tools möglicherweise übersehen. Wichtig ist, dass sich Servigistics nicht allein darauf verlässt, einen hohen Sicherheitsbestand zur Abdeckung unregelmäßiger Nachfrage vorzugeben; vielmehr berechnet es den erforderlichen Sicherheitsbestand tatsächlich aus dem probabilistischen Modell, um das angestrebte Servicelevel zu erreichen. Das heißt, bei extrem unregelmäßigen Artikeln könnte ein sehr hoher Bestand empfohlen werden (wenn die Kosten eines Bestandsausfalls hoch sind) oder umgekehrt ein niedrigerer Service akzeptiert werden, falls die Kosten prohibitiv sind – diese Entscheidungen können entweder durch Eingaben des Anwenders oder durch standardisierte Kostenvorgaben gesteuert werden. Da das System von Verteidigungskunden genutzt wurde, verfügt es vermutlich auch über robuste Ausreißererkennungs-Tools – z. B. können Planer, wenn ein Monat aufgrund eines einmaligen Projekts einen massiven Anstieg zeigt, diesen kennzeichnen, damit er die Prognose nicht überproportional beeinflusst. Idealerweise würden sie stattdessen ein bekanntes „außergewöhnliches Nachfragereignis“ eingeben und es im Prozess ausschließen. So oder so – Servigistics kann nahezu die schlimmsten Nachfrageszenarien (sehr spärliche Daten, hohe Unsicherheit) mithilfe all dieser Techniken bewältigen.
-
Integration & Architektur: Wie erwähnt, ist Servigistics eine Kombination mehrerer Technologien, die über die Zeit integriert wurden. Allen Berichten zufolge hat PTC diese nun zu einem einzigen Produkt zusammengeführt (es gibt nicht mehrere Benutzeroberflächen – es handelt sich um eine eine Servigistics-Anwendung). Die Tatsache, dass das Preismodul von Servigistics dieselbe Datenbank wie das Inventar verwendet 56, deutet auf ein einheitliches Plattformdesign hin, im Gegensatz zu Syncrons getrennter Lösung. PTC ist ein großes Unternehmen, sodass Servigistics von professionellem Engineering und Support profitiert. Ein potenzielles Problem ist der Upgrade-Pfad: Kunden mit älteren Versionen könnten aufgrund der evolutionären Entwicklungen und der Integration des Produkts Schwierigkeiten beim Upgrade haben. Außerdem, selbst wenn ein Kunde nur einen Teil der Funktionalität wünscht, müsste er möglicherweise das komplette System implementieren. Die Integration mit ERP- und anderen Systemen erfolgt typischerweise über Schnittstellenmodule – PTC verfügt wahrscheinlich über Standard-Connectoren zu SAP, Oracle etc., da viele Kunden diese ERP-Systeme verwenden. Da PTC zudem im PLM (Product Lifecycle Management) führend ist, sind interessante Integrationen möglich, wie etwa die Verknüpfung von Stücklistendaten aus dem PLM mit Servigistics zur Teileplanung neuer Produkte. Diese Integrationen können für einen ganzheitlichen Prozess (z. B. Planung der Einführung neuer Teile) von Vorteil sein, doch jeder Integrationspunkt ist ein eigenständiges Projekt, weshalb die Lösung nicht als „Plug-and-Play“ gilt. Apropos Plug-and-Play: Jeder Anspruch, ein derart ausgeklügeltes Werkzeug sei Plug-and-Play, sollte mit Skepsis betrachtet werden – es erfordert Datenbereinigung, Mapping und die Konfiguration von Geschäftsregeln, um wirklich gut zu funktionieren.
-
Rote Flaggen / Skepsis: Das Marketing von Servigistics ist im Allgemeinen glaubwürdig, doch man sollte bei Aussagen wie „we guarantee X% improvement“ vorsichtig sein. Obwohl ihre Fallstudien (z. B. KONE, ein Aufzugshersteller, der eine zweistellige Bestandsreduzierung verzeichnete 61) real sind, hängen diese Ergebnisse von der Ausgangsreife des Unternehmens ab. Wenn ein Unternehmen zuvor sehr ad hoc arbeitete, wird die Implementierung von Servigistics plus Prozessexzellenz zu großen Fortschritten führen. Besitzt man hingegen bereits einen soliden Planungsprozess, könnten die Verbesserungen geringer ausfallen. Ein weiterer Punkt zur Prüfung ist, wie gut die AI/ML-Schlagwörter zu tatsächlichen Ergebnissen führen. PTC wirbt in Servigistics mit „next-generation AI“ 60 – als Käufer sollte man nach konkreten Beispielen fragen: Wurden neuronale Netze für die Nachfrageprognose implementiert? Wird AI eingesetzt, um Lagerstrategien über herkömmliche OR-Methoden hinaus zu optimieren? Oder handelt es sich hauptsächlich um ein Marketing-Label für die bestehenden fortschrittlichen Statistiken? Angesichts der technischen Expertise von PTC gibt es vermutlich echte Verbesserungen (beispielsweise den Einsatz von ML, um Reparaturdurchlaufzeiten besser vorherzusagen oder zuvor manuell gewählte Parameter zu optimieren). Dennoch wäre es klug, dies durch Demos oder technische Diskussionen zu verifizieren. Integrationsakquisition: Obwohl PTC behauptet, die Integration sei gelungen, sollte stets überprüft werden, ob es noch separate Module gibt oder ob alle Teile der Software einheitlich wirken. Der Blum-Benchmark stellte fest, dass Servigistics „das breiteste Funktionsspektrum“ aufweist, was dazu beitrug, in jedem Analystenbericht eine Führungsposition zu erreichen 62 – manchmal kann Breite auf Kosten der Tiefe in bestimmten Bereichen gehen. In Servigistics sind jedoch die meisten Bereiche sehr tiefgehend. Schließlich sollte man den Ressourcenaufwand bedenken: Die Implementierung von Servigistics ist keine leichte Aufgabe – sie kann anfänglich erhebliche Beratungsleistungen (seitens PTC oder externer Dienstleister) erfordern, um konfiguriert und abgestimmt zu werden. Wenn ein Anbieter behauptet, sein Tool könne einfach aktiviert werden und sofort 30% Bestandsreduzierung erzielen, sollte man skeptisch bleiben – besonders bei etwas so Komplexem wie der Optimierung von Service-Teilen, denn der Erfolg ergibt sich aus der Kombination von Tool + Prozess + Datenpräzision.
GAINSystems (GAINS)
-
Probabilistische Prognose: GAINS verwendet in seinem Marketing womöglich nicht so häufig das Schlagwort „probabilistic forecasting“, aber es nutzt in der Tat die Variabilität in seinen Berechnungen 15. Das GAINS-System liefert intern vermutlich eine Bandbreite an Nachfrageszenarien und verwendet diese zur Optimierung des Inventars. Historisch umfasste die Methodik von GAINS statistische Prognosemodelle, die nicht nur einen Mittelwert, sondern auch die Varianz schätzen und dann den benötigten Bestand simulieren oder analytisch bestimmen. Auf ihrer Website heißt es ausdrücklich, dass sie Angebot und Prognosen so steuern, um „optimal service levels“ zu erreichen, indem sie die Variabilität in Nachfrageprognosen, Lieferzeiten, supply … 15. Dies impliziert, dass GAINS die Verteilungen von Nachfrage und supply berücksichtigt. Außerdem bieten sie Funktionalitäten für „repair and preventive maintenance planning“, was bedeutet, dass Prognosen nicht nur Zeitreihen auf Verkaufszahlen beruhen; sie prognostizieren auch den Ausfall von Teilen basierend auf Wartungsplänen und Zuverlässigkeitskurven (bei Kunden im Flottenmanagement, bei Versorgungsunternehmen etc.). Dies fügt ein weiteres probabilistisches Element hinzu, z. B. die Verteilung der Ausfallzeiten eines Bauteils. GAINS verwendet vermutlich eine Kombination aus Zeitreihenprognosen (Croston’s, exponentielle Glättung, wo anwendbar) und Zuverlässigkeitsmodellierung (Weibull-Verteilungen für Ausfallraten) abhängig von den verfügbaren Daten. Zudem war GAINS einer der ersten, der Szenariosimulation für S&OP einsetzte, sodass man sich vorstellen kann, dass auch bei der Teilebedarfsprognose szenariobasiertes Denken (wie Best-Case, Worst-Case usw., eine Form probabilistischer Überlegung) Anwendung findet. Zusammengefasst: Auch wenn GAINS dem Benutzer vielleicht kein schickes Histogramm für jede SKU ausgibt, geht es hinter den Kulissen nicht davon aus, dass die Zukunft feststeht – es plant für Variabilität mit bewährten statistischen Modellen.
-
Ansatz der Bestandsoptimierung: GAINS legt großen Wert auf die Kosten- und Gewinnoptimierung. Sie definieren ihren Mehrwert dahingehend, dass durch kontinuierliche Optimierung der Bestandsentscheidungen eine höhere Rentabilität erzielt wird 13. Praktisch kann GAINS so optimieren, dass die Gesamtkosten (einschließlich Lager-, Bestell- und Rückstandskosten) minimiert oder ein bestimmtes Gewinnmaß maximiert werden. Sie ermöglichen auch Zielvorgaben für das Servicelevel – ihre Website erwähnt, dass „gezielt die angestrebten Servicelevels erreicht werden“ 63 – allerdings mit der Nuance, dass dies auf optimale Weise geschieht. GAINS unterstützt zudem die mehrstufige Bestandsoptimierung, obwohl ihr Schwerpunkt oft auf Szenarien mit zentralen und Außendienststandorten sowie ggf. Reparaturschleifenbeständen liegt (sie erwähnen explizit die Optimierung von Rotables 64). Eine der Stärken von GAINS ist die Optimierung unter verschiedenen Einschränkungen: So können beispielsweise Kapazitätsbeschränkungen (Reparaturkapazitäten oder Finanzierungseinschränkungen) in die Optimierung einbezogen werden. Wenn Reparaturwerkstätten beispielsweise nur X Einheiten pro Woche bewältigen können, könnte GAINS zusätzliche Ersatzteile lagern, um diesen Engpass abzufedern – ein ganzheitlicher Ansatz. Außerdem wird die Wartungsplanung integriert – wenn ein Gerät beispielsweise in 6 Monaten zur Überholung vorgesehen ist, kann GAINS hierfür Teile einplanen, was eine Art deterministische Nachfrage in die stochastische Mischung einbringt. All diese Faktoren fließen in eine umfassende Optimierung ein, die „operations-aware“ ist und über rein artikelbezogene Inventarwerkzeuge hinausgeht. Ein weiterer Aspekt: GAINS bietet What-if-Analysen und Szenariooptimierung – sodass unterschiedliche Strategien (z. B. verstärkte Investitionen in das Inventar versus Beschleunigung) simuliert und deren Auswirkungen auf Kosten und Service betrachtet werden können, was einen ökonomischen Entscheidungsansatz widerspiegelt. Es lässt sich sagen, dass GAINS versucht, die end-to-end service supply chain performance zu optimieren und nicht einfach ein Servicelevel um jeden Preis zu erreichen.
-
Automatisierung & Skalierbarkeit: GAINS wird als Cloud-Plattform bereitgestellt (sie behaupten, dass Implementierungen in Monaten und nicht in Jahren erfolgen 65). Ein zentrales Designziel ist die Entscheidungsautomatisierung – die Planer zu den besten Entscheidungen zu führen oder diese sogar zu automatisieren. GAINS bietet Funktionen wie „Expert System“-Empfehlungen, die automatisch Aktionen wie „Bestand hier erhöhen“ oder „Bestand von Standort A zu B neu verteilen“ kennzeichnen. Planer können diese Empfehlungen genehmigen oder anpassen, aber die schwere Analyse übernimmt das System. GAINS wirbt zudem mit kontinuierlicher Planung: Anstatt statischer Parameter wird der Plan fortlaufend neu optimiert, sobald neue Daten eintreffen (daher „continuous optimization via machine learning, proven algorithms“ 13). In puncto Skalierung hat GAINS Kunden mit großen globalen Operationen (ein öffentliches Beispiel: BC Transit nutzte GAINS für die Planung von Bus-Teilen über Flotten hinweg). Ihre Architektur basiert nun auf der Cloud, was eine Erweiterung der Berechnungen ermöglicht. Von Leistungsproblemen mit GAINS hört man selten, was darauf hindeutet, dass es durchaus in der Lage ist, große Datensätze zu verarbeiten – wenn auch möglicherweise mit etwas Feineinstellung. Das System kann mit mehreren ERPs interagieren, Nachfrage, Inventar, Stücklisten etc. einziehen und darauf basierend empfohlene Bestellungen ausgeben. Ein besonderer Automatisierungsaspekt: GAINS kann auch Prognosen für Budgetierungs- und Finanzplanungszwecke erstellen, indem es die Inventarpläne mit der Finanzplanung abgleicht – was es Unternehmen ermöglicht, den Systemausgaben in der Gesamtplanung zu vertrauen. Insgesamt ist GAINS als ein überwiegend „hands-off“ Optimierer positioniert: Planer setzen Ziele und Vorgaben, und das System übernimmt den Rest, wobei es Warnhinweise ausgibt, wenn eine menschliche Entscheidung erforderlich ist (zum Beispiel, wenn ein neues, sehr teures Teil eingeführt wird und eine manuelle Überprüfung der Strategie nötig sein könnte).
-
Technologische Tiefe: GAINS existiert seit Jahrzehnten und sein Ansatz war schon immer sehr analytisch. Die Erwähnung von „advanced heuristics, AI/ML, and optimization“ 66 legt nahe, dass eine Mischung von Techniken verwendet wird. Beispielsweise könnten sie heuristische Algorithmen oder Metaheuristiken einsetzen, um komplexe Optimierungsprobleme zu lösen, die sich nicht durch einfache Formeln berechnen lassen (wie etwa die gleichzeitige Planung von Reparaturen und Inventar). Sie integrieren vermutlich Machine Learning, um die Prognosegenauigkeit zu verbessern (zum Beispiel durch das Erkennen von Nutzungsmustern, die mit externen Faktoren zusammenhängen, oder durch die Klassifikation von Teilen für am besten geeignete Modelle), und eventuell auch zur Anomalieerkennung in Daten. GAINS führte außerdem das Konzept des „Decision Engineering“ ein – ein Begriff aus einer ihrer Pressemitteilungen 67 –, der auf ein Rahmenwerk hinweist, das kontinuierlich lernt und Entscheidungen verbessert. Dies könnte Reinforcement Learning beinhalten (wobei das System lernt, welche Entscheidungen im Laufe der Zeit zu guten Ergebnissen führen, und sich dementsprechend anpasst). Ohne genaue Angaben des Anbieters kann man vermuten, dass die Technologie von GAINS zwar nicht so auffällig oder experimentell ist wie die von Lokad, aber dafür solide: Sie kombiniert bewährte OR-Algorithmen (für Inventar und mehrstufige Planung), statistische Prognosen und den Einsatz von ML dort, wo es hilft (etwa zur Feinabstimmung von Lieferzeitprognosen oder zum Auffinden nichtlinearer Zusammenhänge). GAINS legt zudem großen Wert auf die Integration von Planungsbereichen: Nachfrage, Inventar, supply und sogar Sales & Operations Planning (S&OP) sind in einer Plattform vereint 18. Das bedeutet, dass ihr Datenmodell von strategischen Plänen bis hin zur Ausführung auf Artikelbasis reicht. Dies ist technisch wertvoll, da die Planung von Ersatzteilen oft leidet, wenn sie isoliert erfolgt; GAINS zielt darauf ab, dies mit Produktion, Beschaffung etc. zu verknüpfen, um die Realisierbarkeit sicherzustellen. In puncto Benutzeroberfläche und Engineering verfügt GAINS über eine moderne Weboberfläche und Dashboards für KPIs (sie heben das Echtzeit-Tracking von Fill Rates, Umschlägen etc. hervor). Zudem betonen sie häufig ihren Customer Success, was darauf hindeutet, dass sie großen Wert auf die Feinabstimmung der Technologie für jeden Kunden legen (weniger als Blackbox, mehr als kollaborative Konfiguration – quasi ein Service, obwohl es ein Produkt ist). Ihre Tiefe in Bereichen wie der präventiven Wartungsplanung ist ein Alleinstellungsmerkmal: Nur wenige Inventar-Tools wagen es, Vorschläge für Wartungstermine zu unterbreiten; GAINS kann mit Zuverlässigkeitsmodellen integrieren, um den optimalen Zeitpunkt in Relation zur Teileverfügbarkeit zu ermitteln und so einen systemweiten Optimierungsansatz demonstrieren.
-
Bewältigung unregelmäßiger & sporadischer Nachfrage: GAINS geht definitiv mit unregelmäßiger Nachfrage durch mehrere Strategien um. Eine davon erfolgt durch statistische Modelle, die speziell für intermittierende Daten entwickelt wurden – wahrscheinlich Croston’s Methode oder neuere Varianten (z. B. Syntetos-Boylan Approximation usw.). Zusätzlich kann GAINS kausale Daten nutzen, um Prognosen zu verbessern – zum Beispiel durch die Verknüpfung des Teileverbrauchs mit dem Einsatz von Anlagen. Wenn der Verbrauch eines bestimmten Teils unregelmäßig ist, aber Daten darüber vorliegen, wie oft die Anlage genutzt wird oder zu welchen Umweltbedingungen, könnte GAINS’ ML Zusammenhänge erkennen und den Bedarf etwas besser vorhersagen als reine Zeitreihenanalysen. Selbst mit ML bleibt jedoch ein Großteil der Ersatzteilnachfrage im Wesentlichen zufällig. GAINS setzt deshalb auf die Optimierung des Sicherheitsbestands unter Unsicherheit. In der Regel wird ein geeigneter statistischer Sicherheitsbestand für jeden Artikel unter Berücksichtigung seiner Variabilität und des gewünschten Servicelevels bestimmt. Da GAINS kostenorientiert arbeitet, könnte es sogar die Serviceniveaus dynamisch nach Artikel basierend auf wirtschaftlichen Gesichtspunkten variieren (ähnlich wie bei Lokads Idee): Wenn ein Teil äußerst unregelmäßig und teuer ist, könnte GAINS beschließen, ein etwas niedrigeres Serviceniveau zu tolerieren, da die Kosten für einen hohen Service enorm sind (es sei denn, es ist missionskritisch mit hohen Ausfallkosten). Dieser Feinsinn ergäbe sich entweder aus benutzerdefinierten Prioritäten oder aus GAINS’ eigenen Algorithmen, die die gesamte Systemerfüllungsrate unter einem Kostenbudget maximieren. GAINS bietet zudem Funktionalitäten, um „plötzliche Nachfragespitzen“ zu bewältigen: Beispielsweise, wenn eine unerwartete Großbestellung oder ein Rückruf erfolgt, kann dies separat behandelt werden, um das normale Muster nicht zu verfälschen. Die Plattform beinhaltet Werkzeuge zur Erkennung und Bereinigung von Ausreißern in historischen Daten, was nützlich ist, wenn einmalige Ereignisse in den Aufzeichnungen vorkommen. Ein Skeptiker könnte anmerken, dass die Bereinigung von Ausreißern etwas manuell/traditionell ist (und Lokad kritisiert diesen Ansatz tatsächlich), aber GAINS bietet sie vermutlich als Option für Planer, die Kontrolle behalten möchten. Wird dies dem System überlassen, würde GAINS vermutlich robuste Prognosemethoden einsetzen, die den Einfluss von Ausreißern natürlich dämpfen. Zusammenfassend bewältigt GAINS unregelmäßige Nachfrage durch eine Mischung aus fortschrittlichen Prognosen, intelligenter Sicherheitsbestandsberechnung und der Nutzung zusätzlicher Informationen (wie geplante Wartungen oder technische Änderungen), um ansonsten „zufällige“ Ereignisse vorherzusehen.
-
Integration & Architektur: GAINS ist eine einheitliche Plattform (entwickelt von GAINS Systems), von der nicht bekannt ist, dass sie externe Produkte übernommen hat, sodass ihre Module organisch zusammenarbeiten. Sie wird als SaaS angeboten, was bedeutet, dass GAINS die Infrastruktur und Updates übernimmt. Die Integration in Quellsysteme (ERP, Anlagenmanagementsysteme) stellt einen wesentlichen Bestandteil jedes GAINS-Projekts dar – sie verfügen vermutlich über standardisierte APIs oder Batch-Upload-Prozesse. GAINS integriert sich häufig mit Anlagenmanagement- oder ERP-Systemen, um Anlagenlisten, Stücklisten, Ausfallraten etc. abzurufen. Da sie mehrere Planungsbereiche abdecken, kann GAINS die Anzahl disparater Werkzeuge, die ein Unternehmen verwendet, reduzieren (zum Beispiel könnte man GAINS für die Nachfrageprognose und Bestandsführung nutzen, anstatt für jeden Bereich getrennte Tools). Die Architektur unterstützt globale Operationen – Mehrwährungsfähigkeit, mehrere Maßeinheiten usw., was für Großunternehmen notwendig ist. Ein potenzieller Integrationsaspekt besteht darin, dass ein Unternehmen GAINS nur für Ersatzteile und etwas anderes für Produktionsmaterialien einsetzen möchte; in diesem Fall müssten die richtigen Datenabgrenzungen gesetzt werden. Insgesamt wird die Architektur in öffentlichen Bewertungen von GAINS-Kunden nicht als Schwachpunkt genannt, was darauf hindeutet, dass sie stabil und gut integriert ist.
-
Warnsignale / Skepsis: GAINS fällt im Marketing tendenziell weniger auf, sodass es weniger offensichtliche Schlagwort-Warnsignale gibt. Sie erwähnen mittlerweile häufig AI/ML, was fast obligatorisch ist. Man sollte sicherstellen, dass diese Aussagen durch nachweisbare Funktionen untermauert werden. Beispielsweise könnte man GAINS fragen: „Wie genau verbessert Ihre KI die Planung? Können Sie einen Fall aufzeigen, in dem ML die Prognosegenauigkeit oder Entscheidungsqualität verbessert hat?“ Angesichts ihrer langen Geschichte ist es wahrscheinlich, dass sie solche Beispiele vorweisen können, doch es ist ratsam, das zu überprüfen. Ein weiterer Punkt ist die Benutzererfahrung – einige ältere Bewertungen erwähnten, dass das UI von GAINS vor einigen Jahren nicht das modernste war. Obwohl es seither aktualisiert wurde, sollte sichergestellt werden, dass Planer es als benutzerfreundlich empfinden und dass es nicht zu kompliziert ist, Szenarien einzurichten oder Parameter anzupassen. Da GAINS vieles abdeckt (Bestandsführung, Prognose, S&OP usw.), besteht die Möglichkeit, dass Allrounder-Tools in einzelnen Bereichen Schwächen aufweisen. Dennoch wurde GAINS speziell im Bereich der Ersatzteilplanung (in Berichten von Gartner und IDC) als starker Akteur anerkannt 68, sodass es vermutlich durchweg gute Leistungen erbringt. Ein subtiler Warnhinweis: Die Kommunikation von GAINS über eine schnelle Einsatzbereitschaft („in wenigen Monaten live“ 65) sollte im Kontext betrachtet werden – dies setzt vermutlich einen klar fokussierten Anwendungsbereich und eine gute Datenqualität voraus. Eine vollständige Optimierung in einer komplexen Umgebung in nur wenigen Monaten zu erreichen, ist optimistisch; meist werden Projekte schrittweise umgesetzt (z. B. Pilotierung an einzelnen Standorten oder Produktlinien, gefolgt von einer Ausweitung). Das ist normal, aber man sollte bei zu rosigen Zeitplänen vorsichtig sein. Schließlich ist GAINS ein privates, kleineres Unternehmen im Vergleich zu beispielsweise PTC oder SAP – einige risikoscheue Unternehmen machen sich Sorgen um die Größe/Stabilität des Anbieters. GAINS gibt es seit etwa 40 Jahren, was für Stabilität spricht, jedoch erhielten sie in den letzten Jahren neue Investitionen und ein neues Management, vermutlich um zu skalieren. Es sollte sichergestellt werden, dass Support und F&E stark bleiben. In unserer Recherche sind keine gravierenden technischen Warnsignale aufgefallen – GAINS liefert inhaltlich das, was es verspricht, mit dem üblichen Vorbehalt, die Passgenauigkeit für spezifische Bedürfnisse zu überprüfen.
Baxter Planung (jetzt Teil von STG, Produkt “Prophet by Baxter”)
-
Probabilistische Prognose: Baxters Lösung umfasst eine Prognose-Engine mit vielen deterministischen und statistischen Methoden, die für intermittierende Nachfrage geeignet sind 20. Dies legt nahe, dass Baxters Ansatz eher klassisch ist: Wahrscheinlich verfügt er über eine Bibliothek von Prognosemodellen (Croston’s Methode für plötzliche Nachfrage, exponentielle Glättung für gleichmäßigere Nachfrage, eventuell Regression für nach der installierten Basis gesteuerte Nachfrage) und wählt – oder ermöglicht es dem Planer – pro Artikel die jeweils passende Methode. Standardmäßig wird womöglich keine vollständige Wahrscheinlichkeitsverteilung ausgegeben, sondern vielmehr eine durchschnittliche Prognose und eventuell ein Maß für die Variabilität (beispielsweise Prognosefehler oder ein empfohlener Sicherheitsbestand). Allerdings unterstützt Baxter auch eine „ausfallratenbasierte“ Prognose 21 für Teile, die an Anlagen gekoppelt sind – das heißt, wenn bekannt ist, dass ein Teil mit einer bestimmten MTBF (mean time between failures) ausfällt, kann Baxter den Bedarf aus der installierten Basis dieser Anlage berechnen. Dies ist inhärent probabilistisch (häufig unter Verwendung von Poisson-Prozessen für Ausfälle). Somit nutzt Baxter in diesem Bereich tatsächlich probabilistische Modelle. Es ist unklar, ob Baxters Tool die Nachfragehistorie und Informationen zur installierten Basis automatisch zu einer einzigen Verteilung kombiniert oder ob dies separate Ergebnisse sind, die die Planer abgleichen müssen. Angesichts ihrer Kundschaft (Telekommunikation, IT-Teile usw.) liefern sie vermutlich sowohl statistische als auch Zuverlässigkeitsprognosen zum Vergleich. Baxters Materialien betonen nicht explizit den Begriff „probabilistische Prognose“ als Feature, was darauf hindeutet, dass es nicht von Natur aus so probabilistisch ist wie etwa bei ToolsGroup oder Lokad. Stattdessen könnte auf ein festgelegtes Konfidenzniveau gesetzt werden (z. B. die Wahl eines hohen Perzentils für den Sicherheitsbestand), was indirekt ein probabilistisches Serviceniveau erzielt. In jedem Fall deckt Baxter die Grundlagen zur Prognose intermittierender Nachfrage ab, tendiert aber eher zu deterministischen Methoden plus Sicherheitsbestandspuffern als zu einer integrierten stochastischen Prognose.
-
Ansatz zur Bestandsoptimierung: Baxter Planning ist bekannt für seine TCO (Total Cost of Ownership) Optimierung-Philosophie 19. Das bedeutet, dass bei Bestandsentscheidungen alle relevanten Kosten (Lagerhaltung, Bestellung, Fehlmengen/Strafzahlungen, Veralterung usw.) berücksichtigt und das Gesamtkosten minimiert werden. In der Praxis ermöglicht Baxters Software den Nutzern, die Kosten von Fehlbeständen (zum Beispiel über SLA-Strafzahlungen oder Ausfallkosten) sowie die Lagerhaltungskosten einzugeben. Das System empfiehlt daraufhin Bestandsniveaus, die diese Ausgaben ausbalancieren. Dies entspricht per Definition einer „wirtschaftlichen Optimierung“. Viele von Baxters Kunden legen Wert darauf, Serviceverträge (SLAs) zu den niedrigsten Kosten einzuhalten, und Baxters Ansatz kommt an, weil er den Bestand an diese geschäftlichen Kennzahlen koppelt 19. Anstatt beispielsweise zu sagen „Erreiche 95 % Erfüllungsrate“ könnte Baxter es so einrichten, dass „die Kosten minimiert werden, jedoch mit einer Strafzahlung für jeden Fehlbestand basierend auf dem SLA.“ Die Optimierungs-Engine versucht daraufhin natürlicherweise, Fehlbestände zu vermeiden, bis der Zeitpunkt erreicht ist, an dem ein weiterer Fehlbestand teurer wäre als die Strafzahlung. Das Ergebnis mag ähnlich sein (vielleicht endet man bei ca. 95 % Erfüllungsrate), aber der Treiber ist die Kostenminimierung und nicht ein willkürlicher Prozentsatz. Baxter unterstützt die Planung über mehrere Ebenen, jedoch haben viele seiner Kunden, wie erwähnt, einfachere Netzwerke (ein- oder zweistufig) 24. Es kann die Bestände an den Einsatzorten optimieren, oft indem es jeden vorderen Lagerort unabhängig oder mit einfachem zentralen Pooling betrachtet. Hat ein Kunde ein komplexeres Netzwerk, kann Baxter dies dennoch handhaben, aber es besitzt möglicherweise nicht so fortgeschrittene mehrstufige Algorithmen wie Servigistics oder ToolsGroup (die dafür bekannt sind). Eine Stärke von Baxter ist das Management von Materialrückläufern und Depotreparaturen – da im Servicebereich Teile zurückkehren und repariert werden können, beinhaltet Baxters Lösung auch die Planung dieser Rücksendungen (es gehörte zu den ersten Tools, die dies zusammen mit MCA integrierten). Das bedeutet, zu bestimmen, wie viele Ersatzteile im Vergleich zum Reparaturrücklauf benötigt werden – ein Optimierungsproblem für sich. Baxters Optimierung verwendet wahrscheinlich einfache Heuristiken oder lokale Optimierung anstelle von groß angelegter LP oder Simulation, ist jedoch für den angestrebten Anwendungsbereich effektiv. Ein weiterer Hinweis: Baxter arbeitet häufig mit flachen Netzwerken (Point-of-Use Inventory) zusammen und legt daher den Fokus auf die Optimierung des Bestands auf lokaler Ebene. Es wird erwähnt, dass Kunden mehr auf die Kostenoptimierung der vorderen Lagerorte als auf eine umfassende Netzwerkoptimierung achten 22 – was implizieren könnte, dass Baxters Stärke darin liegt, jeden Standort unter Berücksichtigung der jeweiligen Nachfragezuweisung zu optimieren, anstatt komplexe, mehrstufige Modelle zu verwenden. In Umgebungen, in denen mehrstufige Planung weniger kritisch ist (weil es kein großes zentrales Lager oder viele Ebenen gibt), ist dies jedoch unproblematisch.
-
Automatisierung & Skalierbarkeit: Die Lösung von Baxter wird von großen Unternehmen genutzt, was darauf hindeutet, dass sie auch bei sehr hohen SKU-Anzahlen skaliert. Zwar wird nicht so häufig von hunderttausenden von SKUs berichtet wie bei Servigistics, aber vermutlich kann sie im Rahmen von 50k+ Teilen vernünftig arbeiten. Viele Baxter-Kunden nutzen zudem Baxters Managed Services – Planer von Baxter, die bei der Planung unterstützen oder diese vollständig übernehmen 69. Dies deutet darauf hin, dass die Software über Automatisierungsfähigkeiten verfügt (da ein kleines Baxter-Team den Bestand für einen Kunden mithilfe des Tools verwalten kann). Das System von Baxter kann automatisch Nachbestellaufträge erstellen, eine Umverteilung des Bestands empfehlen und die Planungsparameter periodisch aktualisieren. Wahrscheinlich stehen auch Dashboards für das Exception Management zur Verfügung. Aufgrund des Ansatzes mit vielen Prognoseverfahren könnte jedoch ein etwas größerer Eingriff seitens der Planer notwendig sein, um die richtige Methode festzulegen oder Prognosen bei Änderungen zu überprüfen. Es ist vielleicht nicht so „selbstfahrend“ wie ToolsGroup oder Lokad, aber auch keine manuelle Prognose. Baxters neuer Vorstoß in Richtung Predictive Analytics (durch die Übernahme einer Geschäftseinheit von Entercoms) impliziert, dass sie mehr automatische Anomalieerkennung und KI einsetzen, um den manuellen Aufwand zu reduzieren. Beispielsweise könnten Funktionen hinzugefügt werden, die automatisch eine Änderung im Nachfrageverhalten erkennen oder ein Teil, das sich dem Ende seiner Lebensdauer nähert, identifizieren und eine Strategieanpassung vorschlagen (ohne dass ein Planer aktiv werden muss). Ein Punkt zur Automatisierung: Baxter legt Wert darauf, den Bestand an SLAs und operative Abläufe anzupassen – was oft die Mitwirkung verschiedener Geschäftsbereiche (Service, Finanzen) erfordert. Baxters Tool ermöglicht es vermutlich, diese Richtlinien zu kodifizieren und anschließend deren Umsetzung zu automatisieren. Erfordert ein SLA beispielsweise eine 4-Stunden-Reaktionszeit in einer Region, wird Baxter sicherstellen, dass das Modell in dieser Region ausreichend Bestand hält; sind die Kosten hoch, könnten Kompromisse aufgezeigt werden, doch letztlich, wenn das SLA festgelegt ist, wird der Bestand so geregelt, dass es eingehalten wird. Somit ist die Automatisierung richtliniengetrieben. Zudem kann Baxters Integration in die Systeme der Kunden etwa das Auslesen von Serviceaufträgen oder RMA-Daten (Return Merchandise Authorization) umfassen, um den Teilebedarf zu prognostizieren – ein automatisierter Datenfluss, der die Planung ohne manuellen Eingriff der Planer informiert. Zusammenfassend kann Baxter einen Großteil des Planungsprozesses automatisieren, wobei Planer dennoch entscheidend für die Festlegung von Strategien und den Umgang mit ungewöhnlichen Ereignissen bleiben. Mit Planning-as-a-Service demonstriert Baxter im Wesentlichen, dass eine Person dank der Software viel bewältigen kann, was deren Effizienz unterstreicht.
-
Technologische Tiefe: Baxters Technologie könnte als pragmatisch statt als bahnbrechend beschrieben werden. Sie deckt alle grundlegenden Funktionen für die Ersatzteilplanung ab, hat aber historisch AI/ML nicht stark beworben. Das Produkt “Prophet by Baxter” hat sich weiterentwickelt und beinhaltet moderne Technologien wie Predictive Analytics. Die Übernahme eines Teils von Entercoms (ein service supply chain Analytics-Unternehmen) hat vermutlich einige Machine-Learning-Fähigkeiten oder fortschrittliche prädiktive Modelle eingebracht (Entercoms spezialisierte sich auf proaktives Ersatzteilmanagement unter Einsatz von IoT und Analytics). Somit verfügt Baxter vermutlich bereits über Funktionen wie vorausschauende Ausfallmodellierung (ähnlich wie Syncron und PTC) oder entwickelt diese, und setzt möglicherweise ML ein, um Parameter zu optimieren. Die Kern-Engine, die viele Prognoseverfahren verwendet, ist etwas altmodisch (es handelt sich um den traditionellen Ansatz, der auch von Tools wie Smart by SmartCorp genutzt wird und dem Planern eine Vielzahl an Modellen bietet). Einige mögen dies als weniger elegant im Vergleich zu einem einheitlichen probabilistischen Modell ansehen, aber es erlaubt Fachexperten, die Methode anzuwenden, der sie für jeden Teil vertrauen. Baxters Optimierung basiert auf TCO, was auf einige angepasste Algorithmen hindeutet, aber nicht unbedingt auf extrem komplexe – sie könnten eine Grenzanalyse verwenden, um die Bestandsniveaus zu bestimmen (im Grunde wird Bestand solange hinzugefügt, bis die Grenzkosten den Grenznutzen übersteigen). Das ist ein logischer, kostenorientierter Ansatz, der, auch wenn er kein ausgeklügelter Algorithmus ist, bei sorgfältiger Anwendung effektiv ist. Baxters UI und Analytics sind speziell auf den After-Sales-Service zugeschnitten – etwa wird die Erfüllungsrate, die Reparaturdurchlaufzeit oder die SLA-Einhaltung je Region verfolgt. Die Berichte bieten vermutlich Einblicke, wie sich Bestandsentscheidungen auf diese Kennzahlen auswirken, was in technischer Hinsicht wertvoll ist (da es Planung und Serviceergebnisse miteinander verknüpft). Bei der Integration muss Baxter mit verschiedenen ERPs und manchmal mehreren innerhalb eines Unternehmens Schnittstellen bilden. Wahrscheinlich verfügen sie über umfangreiche Erfahrungen im Aufbau robuster Schnittstellen und im Betrieb als eigenständiges Planungszentrum. Möglicherweise besitzen sie nicht das Maß an technischer Neuheit wie Lokads Coding-Plattform oder ToolsGroups AI-Labs, aber Baxter punktet mit tiefgehenden, branchenspezifischen Funktionen (wie dem Management der installierten Basis, What-if-Szenarien bei Vertragsänderungen usw.). Ein möglicher Schwachpunkt könnte sein, wenn ein Kunde vorgefertigte ML-Prognosen oder eine überaus intelligente Automatisierung erwartet – Baxter könnte dann eher ein Toolkit anbieten, das einen Experten zur Konfiguration erfordert. Dennoch tritt Baxter häufig mit eigenen Experten auf, um dies abzufedern.
-
Umgang mit sporadischer & unregelmäßiger Nachfrage: Baxters Unterstützung für viele Prognosemethoden impliziert, dass sie verschiedene intermittierende Muster bewältigen können, indem sie geeignete Modelle auswählen. Wahrscheinlich implementieren oder erlauben sie Croston’s Methode (die speziell für intermittierende Nachfrage gedacht ist) und Varianten davon. Sie könnten auch einfache gleitende Durchschnitte für extrem niedrigvolumige Artikel verwenden (manchmal ist das Beste, was man tun kann, den Durchschnitt der letzten paar Nicht-Null-Ereignisse zu berechnen). Baxters Fokus auf die Prognose des installierten Bestands unterscheidet sie bei unregelmäßiger Nachfrage: Wenn die Nachfragehistorie spärlich ist, man aber weiß, dass sich 1000 Einheiten einer Maschine im Feld befinden, von denen jede eine 5%-ige jährliche Wahrscheinlichkeit hat, dass dieses Teil benötigt wird, kann man eine Prognose von 50 pro Jahr erstellen, selbst wenn im letzten Jahr nur 2 verbraucht wurden. Dieser Ansatz kann die Nachfrage besser vorhersagen, als sich ausschließlich auf spärliche Historie zu verlassen – und Baxter liefert dies 21. Für stark schwankende Nachfragen empfiehlt Baxter wahrscheinlich eine Lagerhaltung basierend auf dem Servicelevel (z. B. einen Sicherheitsbestand, der einem 95%-Servicelevel entspricht). Sie beinhalten standardisierte Berechnungsfunktionen für Sicherheitsbestände. Während Lokad Sicherheitsbestände als veraltet ansehen könnte, denkt Baxters typischer Nutzer noch in diesen Begriffen, sodass die Software dies unterstützt. Der Schlüssel ist, dass Baxter den Sicherheitsbestand an Kostenabwägungen knüpft. Vielleicht kann das System eine Tabelle oder Grafik erzeugen: Servicelevel vs. Inventar vs. Kosten, um bei der Entscheidungsfindung zu helfen. Der Blum-Bericht stellte fest, dass Baxters Kunden die Optimierung der Lagerkosten insbesondere bei Vorhaltestandorten priorisieren 22 – was bedeutet, dass Baxter auch bei sporadischer Nachfrage gut optimiert, indem sie sich auf die Kosten an jedem Standort konzentrieren. Für extrem unregelmäßige, gering genutzte Artikel agiert Baxter wahrscheinlich konservativ (z. B. könnte vorgeschlagen werden, je nach Kosten 1 oder 0 zu lagern, nach der Regel „wenn die erwartete Nachfrage < 0.3 pro Jahr beträgt, vielleicht nicht lagern, es sei denn, es ist kritisch“). Diese Regeln können im System verankert werden. Baxters Werkzeug markiert vermutlich auch „Null-Nachfrage“-Artikel, die dennoch gelagert werden, und hilft dabei zu identifizieren, ob sie ausgemustert werden können (Maßnahme gegen Überbestände). Umgekehrt kann es verfolgen, ob ein Artikel über einen längeren Zeitraum keine Nachfrage hatte und dann doch einmal nachgefragt wurde – es kann entweder von einem Einzelfall ausgehen oder signalisieren, dass beobachtet werden sollte, ob sich ein neuer Trend abzeichnet. Ohne ausgefeilte ML-Methoden könnte vieles hiervon schwellenwertbasiert oder von der Überprüfung durch Planer abhängen, aber Baxters Planung-als-Service-Team hat vermutlich standardisierte Verfahren zur Handhabung solcher Grenzfälle. Kurz gesagt, Baxter geht mit unregelmäßiger Nachfrage durch eine Mischung aus klassischer intermittierender Prognose, Domänenwissen (Ausfallraten) und kostenbasierter Logik zur Bestandsfestlegung vor, was effektiv, wenn auch nicht bahnbrechend ist.
-
Integration & Architektur: Baxter Planning ist nun Teil einer größeren Unternehmensgruppe (es erhielt Private-Equity-Investitionen von Marlin Equity, und ich glaube, es gehört seit 2023 zu STG zusammen mit anderer Service-Software). Das Kernprodukt, Prophet, ist vermutlich einheitlich (kein Zusammenschluss aus Akquisitionen – mit Ausnahme des Entercoms-Teils, der wahrscheinlich als Modul für prädiktive Analytik integriert wurde). Baxter integriert sich typischerweise mit ERPs wie SAP, Oracle usw. für Stammdaten und Transaktionsdaten. Da viele ihrer Kunden SAP nutzen könnten, hat sich Baxter wahrscheinlich als spezialisiertes Add-On positioniert, das SAP ERP ergänzt (insbesondere nachdem SAP SPP Schwierigkeiten hatte und einige Unternehmen Baxter hinzuzogen, um die Aufgabe zu erledigen). Die Architektur ist client-server- oder webbasiert (heutzutage wahrscheinlich webbasiert) mit einer zentralen Datenbank. Wenn ein Anbieter mehrere Technologien erwirbt und diese nicht integriert, ist das ein Warnsignal – im Fall von Baxter fällt nur die Entercoms-Akquisition auf. Es war eine kleine Akquisition, die darauf abzielte, die prädiktiven Angebote zu erweitern, weshalb es vermutlich darum ging, etwas Machine-Learning-IP zu integrieren. Es sollte überprüft werden, ob Baxter es tatsächlich zusammengeführt hat oder ob es als separater Analytikdienst angeboten wird. Falls es separat ist, könnte das eine kleine Integrationslücke darstellen. Historisch waren Baxters Lösungen entweder on-premise oder gehostet verfügbar; heutzutage gibt es vermutlich auch eine Cloud-SaaS-Option. Sie verfügen möglicherweise nicht über die ultramoderne Microservices-Architektur, die neuere Start-ups anpreisen, aber Zuverlässigkeit und der passende Domänenfokus sind hier wichtiger. Eine potenzielle Integrationsherausforderung entsteht, wenn ein Unternehmen mehrere Service-Operationen oder Datenquellen hat – Baxters Team hilft oft bei der Konsolidierung. Im Hinblick auf das Benutzer-Management, da Baxter oft als Partner für seine Kunden agiert (einige Kunden lagern einen Teil der Planung an sie aus), unterstützt das System wahrscheinlich die Zusammenarbeit mehrerer Nutzer, die Nachverfolgung von Entscheidungen und Overrides (sodass sowohl Baxters Mitarbeiter als auch die des Kunden interagieren können). Das ist ein Plus für die Transparenz.
-
Warnsignale / Skepsis: Baxter Planning setzt nicht auf viel Hype – sie bleiben eher im Hintergrund im Vergleich zu dem prunkvolleren Marketing anderer. Ein Aspekt, der beachtet werden sollte, ist, dass, da Baxter als Service angeboten werden kann, ein Unternehmen möglicherweise von Baxters Experten abhängig wird, anstatt interne Kompetenzen aufzubauen. Das ist nicht zwingend schlecht (wenn Baxter hervorragende Arbeit leistet), aber es ist ein anderes Modell. Wenn ein Kunde erwartet, einfach Software zu kaufen und DIY zu betreiben, sollte er sicherstellen, dass er über die nötigen Fähigkeiten zur Konfiguration verfügt oder ausreichend geschult wird. Ein weiterer Punkt: Während Baxter TCO-Optimierung bewirbt, sollte man anhand von Anwendungsfällen die Fähigkeit überprüfen – z. B. sollte man sie auffordern zu zeigen, wie die Software entscheidet, ein Teil wegen hoher Kosten und geringem Nutzen nicht zu lagern. Man muss sicherstellen, dass sie tatsächlich optimiert und nicht bloß Servicelevels berechnet, es sei denn, man speist sie manuell mit Kosteneingaben (d.h. ob die Optimierung automatisch erfolgt oder der Planer Szenarien iterativ anpassen muss). Baxters vergleichsweise kleine Größe könnte hinsichtlich des globalen Supports Bedenken hervorrufen, aber sie sind in dieser Nische konstant und dank der Investitionsrunden vermutlich gut ausgestattet. Es sind keine eklatanten „falschen Behauptungen“ erkennbar; sie neigen dazu, realistisch zu sein. Falls überhaupt, ist ihr Funktionsumfang enger als der der großen Anbieter (sie konzentrieren sich auf das Kernthema der Ersatzteilplanung, ohne in Bereiche wie Produktionsplanung oder Field Service Management vorzustoßen), was aber beabsichtigt ist. Daher sollte sichergestellt werden, dass dieser enge Fokus alle Anforderungen erfüllt (meist deckt er Prognose und Bestandsplanung gut ab, aber wenn beispielsweise eine integrierte Preisoptimierung gewünscht ist, verfügt Baxter nicht über ein Preis-Tool wie Syncron oder Servigistics). Für Unternehmen, denen eine All-in-One-Nachrüstsuite fehlt, könnte dies ein Nachteil sein, aber viele integrieren Baxter einfach mit einem separaten Preistool.
Syncron
-
Probabilistische Prognose: Syncron vermarktet seine Bestandsprognose als „Probabilistische KI-Modelle“ für Ersatzteile 27. Dies impliziert, dass sie über einfache Prognosen hinausgehen und KI einsetzen, um Nachfrageschwankungen zu erfassen. Allerdings ist es wahrscheinlich, dass Syncrons Ansatz traditionelle intermittierende Nachfragemethoden mit maschinellen Lernverbesserungen kombiniert. Zum Beispiel könnte Syncron ein neuronales Netzwerk oder ein Gradient-Boosting-Modell verwenden, um die Wahrscheinlichkeit der Nachfrage in einem Zeitraum anhand von Mustern in vielen Teilen bzw. Kundenfällen vorherzusagen. Syncron bedient vorwiegend OEMs mit zahlreichen Teilen, sodass ihnen Daten zu vielen ähnlichen Artikeln vorliegen; eine KI könnte erkennen, dass Teile mit bestimmten Merkmalen (Nutzungsrate, Anlagenalter usw.) ähnliche intermittierende Muster aufweisen. Syncron könnte auch maschinelles Lernen verwenden, um Artikel automatisch in Nachfrageprofile zu klassifizieren (Clustering von SKUs nach intermittierenden Mustern). Sobald klassifiziert, könnte das jeweils am besten passende statistische Modell angewendet werden – das wäre ein „KI-unterstützter“ Prognoseansatz. Ohne detaillierte Einblicke müssen wir anhand von Hinweisen schließen: Syncrons Webseite erwähnt das „dynamische Klassifizieren von Artikeln“ und Szenarioprognosen 27, was auf einen Algorithmus hindeutet, der sich pro Artikel anpasst. Außerdem binden sie IoT-Daten über Syncron Uptime ein: Das bedeutet, wenn IoT auf einen wahrscheinlichen Ausfall hinweist, kann Syncron die Prognose-Wahrscheinlichkeit für dieses Teil anpassen. Das ist inhärent probabilistisch (wenn ein Sensor auslöst, besteht vielleicht eine 70%-Chance, dass dieses Teil bald benötigt wird). So nutzt Syncron in der Prognose tatsächlich Wahrscheinlichkeiten, wenn möglich. Auf einfachere Weise liefert Syncron vermutlich weiterhin einen Prognosemittelwert und einen vorgeschlagenen Sicherheitsbestand (wie viele andere Tools) für Planer. Es ist nicht klar, ob Syncron vollständige Verteilungen angibt oder Monte-Carlo-Simulationen einsetzt – ihre Botschaften an Kunden beziehen sich oft darauf, Servicelevels zu erreichen (z. B. „Um 95 % Service zu erzielen, lagern Sie 3 Einheiten“). Daher mag der interne Einsatz von Wahrscheinlichkeitsüberlegungen bei Syncron vorherrschen, während die Nutzererfahrung eher wie eine geführte Prognose wirkt, bei der die Variabilität berücksichtigt wird, anstatt dass rohe Wahrscheinlichkeitskurven offengelegt werden. Sie ermutigen definitiv zur Nutzung von Simulationen in der Planung – ihr Marketing erwähnt „strategische Simulationen und automatische Optimierung“ mit minimalem manuellem Aufwand 29.
-
Ansatz zur Bestandsoptimierung: Die Optimierung bei Syncron war historisch darauf ausgerichtet, Servicelevels zu minimalen Kosten zu erreichen, ähnlich wie bei anderen Anbietern. Viele Syncron-Kunden setzen differenzierte Servicelevel-Ziele (oft mittels einer Kritikalitätsmatrix oder PICS/VAU-Analyse – was für Part Importance und Volume Class steht) 70. Die Software von Syncron optimiert daraufhin die Lagerhaltungsrichtlinien, um diese Ziele zu erfüllen. Sie führten Konzepte wie „doppeltes Servicelevel“ ein – eines für das Zentrale und eines für den Außendienst – um einen globalen Service zu gewährleisten, ohne lokal zu überlagern. In jüngerer Zeit betont Syncron Gewinn- und Abfallreduktion („Make profit not waste“ ist ein Slogan 71). Dies deutet darauf hin, dass sie es als wirtschaftliche Optimierung sehen: Sicherstellen, dass Bestände nur dort vorhanden sind, wo sie Wert generieren. Allerdings setzt Syncron stark auf Segmentierung und Geschäftsregeln. Beispielsweise lassen sie Kunden oft Teile nach Wert und Kritikalität segmentieren (z. B. in A-, B-, C-Kategorien und X-, Y-, Z-Kritikalität) und wenden anschließend unterschiedliche Servicelevel-Ziele oder Bestellrichtlinien für jedes Segment an. Dies ist ein eher manueller Optimierungsansatz – er beruht mehr auf Expertenregeln als auf rein algorithmischer, globaler Optimierung. Dennoch kann Syncron innerhalb jedes Segments die Bestellpunkte bzw. Bestellmengen mit traditionellen Formeln oder Simulationen optimieren. Syncron Inventory verwaltet auch in gewissem Maße mehrstufige Systeme (insbesondere vom zentralen Lager zu regionalen Lagern und Händlernetzwerken). Sie haben ein Modul namens Syncron Retail für Händlerbestände, das wahrscheinlich mit zentralen Lagerplänen koordiniert wird 30. Außerdem berücksichtigen sie auch Entscheidungen wie Transfer vs. Beschaffung – beispielsweise empfehlen sie, überschüssige Bestände von einem Standort zu einem anderen zu verlagern, wenn möglich, was einen Optimierungsschritt darstellt. Ein auffälliger Schwerpunkt bei Syncron liegt auf der globalen Planung im Vergleich zur lokalen Planung. Sie werben damit, dass Unternehmen durch den Einsatz von Syncron global optimieren können, anstatt dass jede Region isoliert plant. Das deutet vermutlich darauf hin, dass sie eine Optimierung durchführen, die die Bestände aller Standorte zum bestmöglichen Service ausgleicht. Die wirtschaftliche Optimierung bei Syncron mag nicht so explizit mathematisch sein wie Lokads ROI oder GAINS Kostenminimierung, aber sie zeigt sich in Funktionen wie den Lagerausfallkosteneinstellungen. Wenn ein Nutzer Kosten eingibt, berücksichtigt Syncron diese. Ein kleiner Unterschied: Syncron hebt Verfügbarkeit (Uptime) als Schlüsselkriterium hervor. Sie könnten sagen, dass sie dafür sorgen, dass eine bestimmte Uptime bei minimalem Lagerbestand erreicht wird. In der Praxis entspricht das demselben wie das Servicelevel, nur anders formuliert. Angesichts der breiten Suite koppeln sie die Bestandsoptimierung auch an die Preisgestaltung – beispielsweise, wenn ein Teil selten von Wettbewerbern gelagert wird, könnte Syncron empfehlen, den Preis zu erhöhen, um den hohen Servicedifferenzierungswert auszunutzen 70. Das ist eher ein Ergebnis der Geschäftsstrategie und zeigt den ganzheitlichen Ansatz von Syncron, bei dem Bestandsoptimierung, Preisgestaltung und Kundenwert zusammenwirken.
-
Automatisierung & Skalierbarkeit: Syncron betont, dass sein System „Aktionen in Richtung Exception Management, strategische Simulationen und automatische Optimierung“ 29 mit minimalem manuellem Aufwand vorantreibt. Dies deutet auf einen hohen Automatisierungsgrad hin. Viele Syncron-Einsätze ermöglichen es Planern, exceptionsbasiert zu arbeiten: Das System generiert Bestellanforderungen, Vorschläge zur Neuausrichtung und identifiziert Artikel, bei denen prognostiziert wird, dass die Zielvorgaben verfehlt werden. Planer überprüfen dann diese Vorschläge oder untersuchen die Ursachen für die Ausnahmen. Syncrons Skalierbarkeit zeigt sich auch an seiner Kundenbasis großer OEMs (einige mit Millionen von Ersatzteilen in ihren Katalogen, auch wenn typischerweise nicht alle aktiv sind). Die reine Cloud-Bereitstellung unterstützt dies – Syncron läuft als SaaS-Modell, sodass die Rechenkapazität bei Bedarf skaliert werden kann. Es wird erwähnt, dass „Millionen von Teil-Standort-Kombinationen“ mit KI-Modellen bearbeitet werden 27, was darauf hinweist, dass sie Big-Data-Verarbeitung (möglicherweise auch verteiltes Rechnen für ihre ML-Algorithmen) einsetzen. Der Nutzer muss sich nicht um diese Komplexität kümmern, sie wird alles im Hintergrund abgewickelt. Syncron automatisiert zudem Aufgaben der Datenintegration – z. B. tägliche oder wöchentliche Datenfeeds aus ERPs, die die Daten automatisch bereinigen (manche KI kann eingesetzt werden, um Ausreißer zu eliminieren oder fehlende Lieferzeiten zu ergänzen usw.). Außerdem, weil Syncron auch Field Service Management und IoT anbietet (nach der Übernahme von Mize und der Entwicklung von Uptime), erfolgt die Automatisierung auch bei der Auslösung von Ersatzteillieferaktionen bei externen Ereignissen. Zum Beispiel, wenn Syncron Uptime einen Ausfall in 10 Tagen für eine Maschine in Brasilien vorhersagt, könnte das System automatisch sicherstellen, dass das Teil im brasilianischen Depot vorrätig ist oder beschleunigt wird. Diese bereichsübergreifende Automatisierung ist eine einzigartige Fähigkeit, sofern sie vollständig realisiert wird. Das Händlerbestandsmodul von Syncron deutet darauf hin, dass sie die Zusammenarbeit automatisieren – zentrale Planer können die Lagerbestände der Händler einsehen und Bestände automatisch umverteilen, anstatt auf Händlerbestellungen zu warten. Personell wirbt Syncron damit, dass Unternehmen die globale Ersatzteilversorgung mit relativ kleinen Teams steuern können. Viele Nutzer loben Syncron dafür, dass es den „Feuerwehr-Einsatz“ reduziert – das System sorgt für hohe Servicelevels, sodass Planer nicht ständig in den Einsatz geschickt werden müssen.
-
Technologische Tiefe: Syncron ist nicht so offen bezüglich der Details seines Tech-Stacks, zeigt aber eindeutig, dass in die Modernisierung mittels KI und IoT investiert wurde. Das AI bei Syncron beinhaltet wahrscheinlich Machine-Learning-Modelle für Prognosen (Zeitreihenmodelle, ergänzt durch Regressionsfaktoren wie Nutzung, oder sogar Deep Learning zur Mustererkennung).
-
Umgang mit sporadischer und unregelmäßiger Nachfrage: Syncrons Ansatz war historisch gesehen, nach dem Prinzip segmentieren und puffern vorzugehen. Sie klassifizieren Teile vermutlich anhand der Nachfrageschwankungen und Kritikalität. Für rein unregelmäßige Teile empfiehlt Syncron oft eine „Null oder eins“-Strategie: entweder lagert man eine Einheit (wenn sie kritisch genug ist) oder gar keine, da es wenig Sinn macht, einen Durchschnitt von etwa 0,2 pro Jahr zu prognostizieren. Im Grunde handelt es sich hierbei um eine wirtschaftliche Entscheidung, die als Regel getarnt ist (Lagerbestand, falls die Kosten des Nichtvorhandenseins höher sind als die Kosten, eine Einheit möglicherweise über Jahre zu halten). Syncrons neuere KI könnte besser sein, indem sie Muster in unregelmäßiger Nachfrage erkennt. Fehlt ein solches Muster, stützt sich Syncron auf Logiken zur Sicherheitsbestandsberechnung: beispielsweise wird ein Servicelevel festgelegt, das durch Berechnungen zu einem bestimmten Lagerbestand führt, der >0 sein kann, selbst wenn die durchschnittliche Nachfrage bei 0,2 liegt. Dabei fließt die Lieferzeit definitiv mit ein – eine lange Lieferzeit bei unregelmäßiger Nachfrage rechtfertigt oft das Vorhalten einer Einheit „für alle Fälle“, was das Tool signalisiert, falls das Serviceziel hoch ist. Ein weiterer Aspekt, den Syncron hervorhebt, sind kausale Faktoren für den Teilebedarf: So kann beispielsweise die Nutzung eines Gerätes oder eine anstehende Servicekampagne unregelmäßige Teilebedarfe auslösen. Syncron empfiehlt, solche Informationen in die Planung einfließen zu lassen (das System kann manuelle Prognoseanpassungen oder zusätzliche Nachfragetreiber verarbeiten). Erkennt das Uptime-Modul bestimmte Trends bei Ausfallmustern, kann es die Inventarplanung entsprechend informieren. Dies ist ein proaktiver Weg, um eine Ursache hinter der unregelmäßigen Nachfrage zu adressieren. Bei wirklich zufälliger Nachfrage bleibt oft nur das Setzen von Puffern – und das weiß Syncron. Verlassen sie sich auf eine „Ausreißerbereinigung“? Vermutlich nicht ausdrücklich; größere Nachfrage-Spitzen werden wahrscheinlich manuell untersucht oder als Sonderereignisse behandelt, anstatt blind in die Prognosen einfließen zu lassen. Syncron ermöglicht vermutlich auch die Festlegung von manuellen Prognosen oder Eingriffen in bestimmten Fällen (z. B. wenn ein OEM weiß, dass aufgrund eines Rückrufs eine Vielzahl von Teilen benötigt wird, kann dies explizit eingegeben werden). Somit ist der Ansatz eine Mischung aus automatisierter Klassifikation und menschlicher Steuerung bei Ausnahmeereignissen.
-
Integration & Architektur: Als SaaS muss Syncron in der Regel über einen sicheren Datenaustausch oder APIs in die ERP-Systeme (SAP, Oracle, etc.) der Kunden integriert werden. Viele große OEMs haben Syncron beispielsweise in SAP integriert, um den Artikelstamm, den Lagerbestand abzurufen und geplante Aufträge zurückzusenden. Dies ist ein Standardbestandteil der Syncron-Projekte. Die modulare Architektur (Inventory, Price, etc.) bedeutet, dass diese Module über definierte Schnittstellen miteinander kommunizieren. Die Tatsache, dass Price eine separate Datenbank hat, deutet darauf hin, dass es zu Datenredundanzen kommen kann und eine Synchronisation von Teilenummern und Ähnlichem zwischen den Modulen notwendig ist – was die Implementierung erschweren kann. Syncron wird dies wahrscheinlich im Hintergrund schließlich vereinheitlichen (oder einen einheitlichen Data Lake für alle Module anbieten). Nutzt ein Kunde mehrere Syncron-Module, ist es wichtig zu klären, wie diese verbunden sind – zum Beispiel, ob eine Preisänderung automatisch die Logik zur Inventaroptimierung aktualisiert (etwa könnte die prognostizierte Nachfrage sinken, wenn der Preis erhöht wird) oder ob es sich im Grunde um isolierte Funktionen handelt, die der Nutzer koordinieren muss. Diese Reife der Integration gilt es zu prüfen.
-
Warnsignale / Anbieteransprüche: Syncrons Aussagen drehen sich üblicherweise um die Ermöglichung von Servitization, die Verbesserung von Servicelevels usw. Sie haben Fallstudien, in denen etwa ein Unternehmen mit Syncron eine 98%ige Verfügbarkeit bei geringerem Lagerbestand erreicht hat. Diese Behauptungen sind plausibel, auch wenn es schwer zu isolieren ist, wie viel auf das Tool und wie viel auf den Prozess zurückzuführen ist. Eine gesunde Skepsis ist angebracht: Fragen Sie Syncron nach technischem Nachweis ihrer KI – zum Beispiel anhand eines Beispiels, bei dem ihre KI-Prognose eine naive Methode um einen bestimmten Prozentsatz übertroffen hat. Marketingphrasen wie „only purpose-built AI-powered service parts software“ 71 sollten jedoch mit Vorsicht genossen werden, da Wettbewerber den Begriff „only“ bestreiten würden. Was Buzzwords angeht: „Demand sensing“ – soweit mir bekannt, verwendet Syncron diesen Begriff im Marketing nicht explizit (Demand Sensing ist eher in schnelllebigen Supply Chains verbreitet), weshalb hier kein Warnsignal vorliegt. „Plug-and-play“ – Syncron, als SaaS, könnte eine schnelle Implementierung nahelegen; bei Schwerindustrie-Kunden ist es jedoch nie wirklich Plug-and-play, bedingt durch notwendige Datenbereinigungen. Seien Sie vorsichtig, wenn ein Anbieter – auch Syncron – behauptet, die Integration sei einfach; Nutzererfahrungen berichten oft, dass erheblicher Aufwand zur Zuordnung und Bereinigung der Daten nötig ist. Ein weiteres potenzielles Warnsignal: Syncrons Fokus auf Preisgestaltung und Uptime könnte bedeuten, dass ihre F&E geteilt ist und sie sich nicht zu 100% auf die Entwicklung der besten Inventaralgorithmen konzentrieren, sondern auch auf andere Bereiche. Wenn ein Kunde ausschließlich an exzellenter Inventaroptimierung interessiert ist, sollte er evaluieren, ob das reine Inventarmodul von Syncron so konkurrenzfähig ist wie beispielsweise ToolsGroup oder GAINS. Es könnte etwas weniger ausgefeilt sein, da Syncrons Wettbewerbsvorteil im Angebot des gesamten Pakets (Inventory + Price + Field Service) liegt. Dieses Gesamtpaket kann insgesamt einen großen Mehrwert bieten, weil alle Aftermarket-Hebel an einem Ort gesteuert werden, doch in einem einzelnen Bereich mag ein Spezialist überlegen sein. Ein abschließender Hinweis: Historisch erforderte Syncron Inventory eine sorgfältige Feinabstimmung von Parametern (wie die Wahl von Klassifikationsschwellen, Überprüfungsintervallen etc.). Bei Fehlkonfiguration können die Ergebnisse enttäuschen. Es ist also keine Wunderkiste – der Anwender oder Berater muss die Vorarbeit leisten, um das System korrekt einzurichten. Dabei muss sichergestellt werden, dass sich diese Parameter im Laufe der Zeit (mittels KI oder Regeln) anpassen, damit das System nicht statisch wird.
Blue Yonder (JDA)
-
Probabilistische Prognose: Blue Yonders Historie umfasst sowohl Manugistics als auch i2 Technologies, zwei alte Giganten der Supply Chain Software, sowie jüngst das akquirierte Blue Yonder (ein AI-Startup) für die Bedarfsplanung. In der aktuellen Version verwendet Blue Yonder Luminate Machine Learning für die Nachfrageprognose, was probabilistische Prognosen ermöglicht. Konkret gibt es ein Produkt namens Luminate Demand Edge, das probabilistische kurzfristige Prognosen für schnelllebige Konsumgüter erstellt. Für Ersatzteile verfügt Blue Yonder über ein „Advanced Inventory Optimization“-Modul, das historisch (aus den JDA-Tagen) einen stochastischen Optimierungsansatz nutzte – im Wesentlichen wird die Verteilung der Nachfrage über die Lieferzeit (oft als normal oder Poisson angenommen) berechnet und der Bestand entsprechend optimiert. Es ist wahrscheinlich, dass Blue Yonder Konfidenzintervalle oder Servicelevel-Kurven ausgeben kann, wenngleich unklar ist, ob es für jedes Teil über die üblichen Standardverteilungen hinaus eine vollständig maßgeschneiderte Verteilung liefert. Angesichts des Branchentrends hat Blue Yonder seinen Inventaroptimierer vermutlich dahingehend aktualisiert, dass er Nachfrageverteilungen aus den ML-Prognosen übernimmt. Wenn die Nachfrageplanung von Blue Yonder beispielsweise eine Wahrscheinlichkeitsverteilung (oder zumindest eine Spannweite und Fehlerkennzahlen) erzeugt, kann die Inventaroptimierung dies nutzen, um Sicherheitsbestände intelligenter festzulegen. Zudem besitzt Blue Yonder – aus der i2-Vergangenheit – die Fähigkeit zur Multi-Echelon-Simulation, womit sie Nachfrageschwankungen und deren Weitergabe durch ein Supply Chain Netzwerk simulieren können. Probabilistische Konzepte sind also integriert, auch wenn Blue Yonder diese im Kontext von Ersatzteilen möglicherweise nicht explizit hervorhebt. Stattdessen wird etwa von „Scenario Planning“ und „What-If-Analysen“ gesprochen, die unsichere Ergebnisse indirekt abdecken. Zusammenfassend ist die Prognose für Ersatzteile bei Blue Yonder kompetent und verwendet moderne Algorithmen, wenngleich sie möglicherweise nicht so explizit probabilistisch oder speziell auf intermittierende Nachfrage zugeschnitten ist wie die Lösungen spezialisierter Anbieter. Es könnte dieselbe Engine verwendet werden, die beispielsweise Produktionsbestandteile oder Verkäufe prognostiziert, nur eben anders konfiguriert.
-
Ansatz zur Inventaroptimierung: Blue Yonder bietet sowohl Single-Echelon- als auch Multi-Echelon-Inventaroptimierung als Teil seiner Supply Chain Planning Suite an. Die Optimierung zielt typischerweise darauf ab, die gewünschten Kundendienstlevels bei minimalem Lagerbestand zu erreichen. Der Ansatz von Blue Yonder beinhaltet oft die Lösung eines mathematischen Optimierungsmodells, das den Gesamtbestand minimiert – unter Einhaltung der Servicelevel-Vorgaben im gesamten Netzwerk, wobei bei Bedarf die Multi-Echelon-Theorie zur Anwendung kommt. Es kann auch umgekehrt vorgehen – den Service maximieren bei einem festen Bestandsbudget. Die Lösung schlägt Sicherheitsbestände oder Wiederbestellpunkte für jede SKU an jedem Standort vor. Historisch (als JDA) ließen sich die Servicelevel-Ziele von den Nutzern pro Artikel oder Gruppe eingeben. Es gibt Funktionen, um nach Segmenten zu differenzieren (zum Beispiel A-Teile 99%, B-Teile 95% usw.), weshalb nicht automatisch eine ROI-Berechnung für jedes Teil erfolgt, sofern dies nicht explizit konfiguriert wird. Die Stärke von Blue Yonder liegt jedoch in der umfassenden Planungsintegration: Die Inventaroptimierung kann mit der Supply Planning verknüpft werden, sodass sichergestellt wird, dass die angestrebten Bestandsziele mit der Lieferantenkapazität usw. realisierbar sind. Für Ersatzteile verfügt Blue Yonder zudem über Repair Planning-Funktionen (stammend aus der ehemaligen JDA Service Parts Planning Lösung), die koordinieren, wann repariert und wann neu gekauft werden soll – unter Berücksichtigung der Lagerbestände. Diese Optimierung basiert eher auf Regeln (etwa das Festlegen wirtschaftlicher Schwellenwerte zwischen Reparatur und Ersatz). Blue Yonders Fähigkeiten in der Netzwerkoptimierung können große, komplexe Distributionsnetzwerke, wie sie bei Ersatzteilen oft vorliegen, handhaben. Nutzt der Anwender diese Funktionen voll aus, kann er beispielsweise erkennen, wie sich eine Umlagerung von Beständen zwischen Lagern auf den globalen Service auswirkt – Blue Yonders Tools können solche Maßnahmen identifizieren. Wirtschaftlich gesehen kann die Lösung von Blue Yonder selbstverständlich Kosten (wie Rückstandskosten, Lagerhaltungskosten etc.) berücksichtigen, sofern der Kostensparmodus gewählt wird. Allerdings haben viele JDA-Implementierungen das Tool eher als Servicelevel-Instrument genutzt, weil dies der Denkweise der Planer entspricht. Wurde es jedoch entsprechend konfiguriert, kann es ein Kostenminimierungsziel verfolgen. Ein Defizit besteht darin, dass Blue Yonder kein eingebautes Wissen über beispielsweise SLA-Strafen oder Ausfallkosten mitbringt – diese müssen vom Anwender definiert werden. Somit ist die ökonomische Optimierung nur so gut wie der Aufwand, den man in die korrekte Modellierung der eigenen Kosten steckt.
-
Automatisierung & Skalierbarkeit: Blue Yonder’s Lösungen werden von vielen Fortune 500-Unternehmen eingesetzt, sodass die Skalierung im Allgemeinen kein Problem darstellt. Sie verarbeiten enorme Datensätze im Einzelhandel (zig Millionen SKU-Geschäftskombinationen). Für Ersatzteile, die zwar in der Menge kleiner, aber dennoch groß sind (vielleicht bis zu Millionen von Kombinationen für große OEMs mit vielen Depots), kann Blue Yonder das bewältigen, insbesondere in ihrer Cloud-Infrastruktur. In puncto Automatisierung stellt Blue Yonder die Engine bereit, die nach einem Zeitplan ausgeführt werden kann, um aktualisierte Prognosen und Bestandsziele zu erstellen. Die Ergebnisse können automatische Nachschubvorschläge auslösen, die an das ERP übermittelt werden. Da Blue Yonder jedoch ein breit gefächertes Werkzeug ist, erfordert es oft mehr Überwachung und Feinabstimmung. Planer müssen möglicherweise weiterhin stärker eingreifen, um sicherzustellen, dass die Daten korrekt sind, oder um Prognosemodelle anzupassen (die traditionelle Bedarfsplanung von Blue Yonder erforderte häufig eine manuelle Modellauswahl oder Parametertuning, obwohl das neue Luminate AI dies verringern könnte). Das Automatisierungsniveau kann je nach Implementierung variieren: Einige Unternehmen passen die Blue Yonder-Workflows stark an, während andere versuchen, die vorkonfigurierte Automatisierung zu nutzen. Typischerweise beinhalteten JDA-Implementierungen die Integration mit Bestellsystemen für die automatische Ausführung, behielten jedoch Menschen im Entscheidungsprozess für Prognosefreigaben oder Planakzeptanz. Das moderne Blue Yonder strebt nach mehr Autonomie, mit seinen KI-gestützten Prognosen und automatischen Optimierungsschleifen. Es ist jedoch sicher zu sagen, dass Blue Yonder für Ersatzteile etwas mehr Betreuung benötigen könnte als ein spezialisiertes Werkzeug wie Syncron, weil Blue Yonder nicht von vornherein mit der ganzen spezifischen Logik für Ersatzteile ausgestattet ist (man muss möglicherweise konfigurieren, wie Teile am Lebensende behandelt werden, etc., während ein Nischentool möglicherweise über dedizierte Einstellungen verfügt). Sobald es jedoch konfiguriert ist, berechnet der Bestandsoptimierer die empfohlenen Bestandslevel regelmäßig automatisch neu. Und das Ausnahme-Management von Blue Yonder kann Artikel, die außerhalb der Grenzen liegen, markieren (z. B. wenn der tatsächliche Service unter dem Ziel liegt, wird dies signalisiert und veranlasst Maßnahmen). Blue Yonder unterstützt auch kollaborative Workflows (z. B. wird eine Alarmmeldung an einen Lieferanten oder Einkäufer gesendet, wenn etwas Aufmerksamkeit erfordert) – eine hilfreiche Automatisierung für den Prozess. Es ist auch in Blue Yonder’s S&OP integriert, sodass alle strategischen Änderungen (wie die Einführung eines neuen Produkts oder die Ausmusterung) automatisch in die Bestandsplanung einfließen. Diese umfassende Integration ist eine Form der Automatisierung, die strategische mit taktischer Planung verbindet.
-
Technologische Tiefe: Blue Yonder (das Unternehmen) hat nach der Übernahme durch Panasonic und dem früheren Blue Yonder AI stark in KI/ML investiert. Sie haben ein Data-Science-Team und integrieren ML an verschiedenen Stellen: Bedarfswahrnehmung im Einzelhandel, dynamische Segmentierung, Anomalieerkennung in der Planung, etc. Für Ersatzteile ist ein interessantes Technikstück der Luminate Control Tower, ein Werkzeug für Echtzeit-Transparenz und Planung. Er kann Echtzeit-Ereignisse (wie einen plötzlichen Nachfrageanstieg oder eine Lieferverzögerung) aufnehmen und den Bestand neu planen oder sofortige Gegenmaßnahmen vorschlagen. Dies ist Spitzentechnologie für supply chain (wie Control Towers mit ML-gesteuerten Erkenntnissen). Im Kontext könnte es Ersatzteilplanern helfen zu erkennen, dass ein bestimmtes Depot aufgrund einer Lieferverzögerung von einem Engpass bedroht ist und dann automatisch eine Beschleunigung oder Umlagerung vorzuschlagen, etwas, das traditionelle Planungstools bis zum nächsten Batch-Lauf nicht erledigen würden. Die Tiefe der Plattform zeigt sich auch in den Optimierungslösungen: Blue Yonder verfügt über starke Optimierungsalgorithmen aus seiner Manugistics-Abstammung (die große lineare und nichtlineare Probleme lösten). Wahrscheinlich werden diese verwendet, um die multi-echelon Bestandsoptimierung als ein großes gemischt-ganzzahliges Programm oder Ähnliches zu lösen (einige Anbieter simulieren es, andere lösen es über mathematische Programmierung – Blue Yonder verwendet vermutlich einen Ansatz der mathematischen Programmierung, angesichts seiner OR-Wurzeln). Die Technologie von Blue Yonder deckt ein breites Spektrum ab: beispielsweise Mehrsprachigkeit, Cloud-Bereitstellung, hohe Sicherheit (wichtig für einige Kunden) und benutzerfreundliche Dashboards. Allerdings bringt ein breites Spektrum auch Komplexität mit sich. Die Lösungen von Blue Yonder können sich manchmal wie ein „ERP für die Planung“ anfühlen – viele Konfigurationstabellen, Anforderungen an Stammdaten, wovon jedoch nicht alles für Ersatzteile relevant ist. Das kann überwältigend sein. Die technologische Philosophie unterscheidet sich von einem schlanken Startup wie Lokad: Blue Yonder bietet eine umfassende Plattform mit konfigurierbaren Modulen, während Lokad eine maßgeschneiderte Modellierungsplattform bereitstellt. Das von Blue Yonder ist schwerer, aber standardisierter. Zudem besitzen sie mehrere Patente in der supply chain Optimierung, wobei diese nach ihrem Verdienst bewertet werden sollten. (Beispielsweise könnten sie einen spezifischen Algorithmus für die multi-echelon Optimierung oder eine Prognosetechnik patentiert haben, aber das bedeutet nicht zwangsläufig, dass andere nicht ähnliche Dinge auf anderen Wegen umsetzen.)
-
Umgang mit spärlicher & unregelmäßiger Nachfrage: Blue Yonder kann intermittierende Nachfrage bewältigen, erfordert aber möglicherweise Feinabstimmung. Historisch hat JDA in seiner Bedarfsplanung für Artikel mit niedriger Frequenz Croston’s Methode implementiert. Sie setzten zudem eine Technik namens „aggregate then disaggregate“ ein – wenn die Daten eines SKU zu spärlich zur Prognose waren, könnte auf einer höheren Ebene (wie etwa der Produktfamilie) prognostiziert und anschließend proportional auf die SKUs verteilt werden. Das ist für Ersatzteile mit sehr unterschiedlichen Verhaltensweisen nicht ideal, aber eine verfügbare Technik. Mit ML könnte Blue Yonder potenziell bessere Signale finden (vielleicht unter Verwendung von Flottennutzungsdaten als externes Signal, sofern vorhanden, oder makroökonomische Faktoren wie das Wetter für Versorgungsartikel). Standardmäßig, wenn nur sporadische historische Nachfrage vorliegt, könnte die Prognose von Blue Yonder nämlich etwas wie „meist 0, gelegentlich 1“ ergeben, mit einem fraktionalen Durchschnitt und hoher Varianz. Anschließend greift die Bestandsoptimierung ein, um den Lagerbestand sicherzustellen. Die Bestandsoptimierung von Blue Yonder für unregelmäßige Artikel würde im Grunde genommen den Sicherheitsbestand entweder auf Basis einer Poisson-Annahme oder einfach unter Verwendung eines hohen Perzentils der Nachfrage während der Durchlaufzeit berechnen. Beispielsweise, wenn ein Artikel normalerweise 0 oder 1 Mal im Jahr benötigt wird, und die Durchlaufzeit 90 Tage beträgt, könnte angenommen werden, dass in dieser Zeit 0 oder 1 benötigt werden; für einen Servicegrad von 95% würde als Sicherheitsbestand 1 Vorrat gehalten werden. Das ist ein vernünftiges Ergebnis, jedoch könnte das zugrunde liegende Modell einfacher oder stärker annahmebasiert sein als etwa ToolsGroup’s Monte Carlo. Der Vorteil von Blue Yonder liegt jedoch darin, dass, wenn eine gewisse bekannte Wahrscheinlichkeit oder Verteilung vorliegt, diese oft konfiguriert werden kann. Es könnte jedoch nicht automatisiert sein; ein Planer müsste unter Umständen einige Prognoseparameter manuell für die ungewöhnlichen Artikel anpassen. Blue Yonder ist zudem weniger auf die Prognose von End-of-Life- oder Supersessionsfällen spezialisiert – spezialisierte Anbieter handhaben Teil-Supersessions (bei denen ein Teil ein anderes ersetzt) häufig automatisch mittels Bayesscher Nachfragekombination. Blue Yonder kann dies zwar tun, allerdings könnte es erforderlich sein, die Artikel im Tool miteinander zu verknüpfen, etwa als „phase in/phase out“, woraufhin die Nachfrage entsprechend abgestuft wird. Es ist also fähig, erfordert jedoch Aufwand. Bei wirklich zufälliger, seltener Nachfrage verlässt sich Blue Yonder auf Bestandsrichtlinien (wie etwa Min=1, Max=1-Policy oder ähnliches), die der Optimierer empfiehlt, falls angemessen. Ein netter Aspekt: Das Tool von Blue Yonder kann auch review periods optimieren – also wie oft jeder Artikel neu bestellt werden soll. Für extrem langsame Teile könnte es vorschlagen, nur vierteljährlich zu überprüfen, was Rauschen reduzieren kann. Insgesamt kann Blue Yonder mit unregelmäßiger Nachfrage ebenso gut umgehen wie jede große SCP-Suite, liefert jedoch möglicherweise nicht einen so hohen Servicegrad bei so niedrigem Bestand wie ein spezialisierterer Ansatz, da es ohne umfangreiche Konfiguration nicht die Feinheiten der Verteilung jedes einzelnen Artikels erfassen könnte. In der Praxis verwenden einige Unternehmen Blue Yonder für ihre Hauptbestandsartikel und planen ihre sehr seltenen, kritischen Ersatzteile dennoch teilweise manuell oder mit separater Logik (da diese besondere Aufmerksamkeit benötigen könnten, z. B. zustandsbasierte Wartung, die Blue Yonder ohne Integration nicht von Haus aus abdeckt).
-
Integration & Architektur: Die Plattform von Blue Yonder ist breit gefächert, was bedeutet, dass es zahlreiche Integrationspunkte gibt. Für Ersatzteile könnte eine Integration mit einem ERP (für Bestände und Bestellungen) und möglicherweise einem EAM (Enterprise Asset Management, für Asset-Daten) erforderlich sein. Blue Yonder verfügt über Standardadapter für bedeutende ERPs, jedoch bedarf es oft einer Anpassung an die spezifischen Datenstrukturen des Unternehmens. Da Blue Yonder Teil einer größeren Planungssuite sein kann, ist die interne Integration zwischen Modulen (Nachfrage, Bestand, Supply Planning) nativer Natur – das ist ein Vorteil (alle Module teilen dasselbe Datenmodell in der zentralen Datenbank). Blue Yonder wird nun als SaaS angeboten (typischerweise Azure-basiert), was die Infrastrukturbelastung reduziert, aber sichere Datenpipelines in die Cloud erfordert. Was Akquisitionen betrifft, hat Blue Yonder (JDA) in der Vergangenheit viele Unternehmen übernommen, diese jedoch inzwischen vereinheitlicht. Die Umbenennung in Blue Yonder nach der Übernahme des gleichnamigen KI-Unternehmens war ebenfalls ein Zeichen dafür, dass sie unter einer modernen Architektur konsolidieren. Nichtsdestotrotz könnten einige Module noch aus älteren Codebasen stammen, die über gängige Schnittstellen integriert wurden. Beispielsweise könnte die Kern-Bestandsoptimierung noch Code aus einer Legacy-Komponente verwenden, während die neue Benutzeroberfläche einheitlich ist. Normalerweise spielt das für Endanwender keine Rolle, wenn es richtig umgesetzt wurde. Ein Unternehmen, das Blue Yonder in Betracht zieht, sollte sich bewusst sein, dass es sich um eine allumfassende Lösung handelt; wenn Sie es nur für Ersatzteile einsetzen, haben Sie womöglich das Gefühl, nur einen Bruchteil seiner Leistungsfähigkeit zu nutzen und gleichzeitig unnötige Komplexität mit sich herumzuschleppen. Planen Sie jedoch, es auch für Produktionsplanung oder Absatzprognosen zu nutzen, dann ist es als eine integrierte Umgebung vorteilhaft. Der Integrationsaufwand, Blue Yonder ausschließlich für Service-Teile zu implementieren, könnte im Vergleich zu einer fokussierten Lösung hoch sein, weshalb der ROI berücksichtigt werden sollte.
-
Red Flags / Skepsis: Ein großes Warnsignal in der Vergangenheit war die Implementierungsschwierigkeit dieser großen Suites. Wie wir bei SAP gesehen haben, kann eine komplexe Lösung scheitern, wenn sie zu unhandlich ist. Blue Yonder hat eine bessere Erfolgsbilanz als SAP SPP, aber es gibt Fälle, in denen JDA Service Parts Planning nicht vollständig übernommen wurde oder die Ergebnisse aufgrund fehlerhafter Konfiguration nicht den Erwartungen entsprachen. Um dem entgegenzuwirken, setzt Blue Yonder nun auf bewährte Vorlagen und KI-Unterstützung, doch ist Skepsis angebracht: Stellen Sie sicher, dass die Implementierer es korrekt für intermittierende Nachfrage konfigurieren (es ist leicht, dies falsch zu konfigurieren, wenn man es wie ein reguläres Bedarfsplanungsprojekt behandelt). Außerdem macht Blue Yonder glänzende Marketingaussagen über ihre KI (zum Beispiel könnten sie sagen: „Autonome Planung mit KI, die den Bestand um X reduziert“). Man sollte Beweise oder Pilot-Ergebnisse verlangen, die speziell auf den eigenen Anwendungsfall abgestimmt sind. Die Vielseitigkeit der Plattform kann auch eine Schwäche sein – einige Gartner Peer Insights Bewertungen weisen darauf hin, dass die Benutzeroberfläche von JDA/Blue Yonder komplex sein kann und die Lösung für ein einfaches Problem „zu umfangreich“ sein könnte, was bedeutet, dass man für und mit Komplexität zu tun hat, die man nicht nutzt. Wenn Ihnen ein Anbieter (oder SI-Partner) im Vertrieb sagt, dass Blue Yonder mit minimaler Konfiguration einfach aktiviert werden kann, weil es Vorlagen hat, seien Sie vorsichtig – Vorlagen helfen, aber jede service supply chain hat einzigartige Eigenschaften, die eine Anpassung dieser Vorlagen erfordern. Technisch sollte man überprüfen, ob Blue Yonder’s multi-echelon Bestandsoptimierung vereinfachende Annahmen trifft (wie die Annahme einer unabhängigen Nachfrage zwischen Standorten oder Normalverteilung), die möglicherweise nicht zutreffen – einige ältere Tools taten dies, um schneller Lösungen zu finden. Falls dem so ist, könnte dies eine Einschränkung für sehr schiefe Nachfrageverteilungen darstellen. Blue Yonder könnte dies mittlerweile mit besserer Rechenleistung überwunden haben, aber das sollte hinterfragt werden. Hinsichtlich der Aussagen des Anbieters: Blue Yonder hat vermutlich Referenzen wie „X Unternehmen verbesserte die Fill Rate um 10% und reduzierte den Bestand um 20%“ – das ist in Ordnung, aber prüfen Sie, ob dies hauptsächlich auf Prozessverbesserungen wie das Bereinigen von überschüssigem Lagerbestand während der Implementierung zurückzuführen war (was ein einmaliger Nutzen ist, der nicht direkt aus den fortlaufenden Algorithmen der Software stammt).
(Zusammenfassend lässt sich sagen, dass Blue Yonder zuverlässig und breit aufgestellt ist, aber um modernste Ergebnisse für Ersatzteile zu erzielen, muss ein Unternehmen sein umfangreiches Toolkit sorgfältig anpassen und nur die relevanten Teile nutzen. Es ist eine sichere Wahl für diejenigen, die eine Integration mit breiteren Planungsprozessen wünschen, aber nicht unbedingt der absolute Spitzenreiter in der Technologie der Ersatzteiloptimierung selbst.)
SAP SPP / ERP und Oracle
(Wir haben SAP und Oracle in der Rangliste behandelt und dabei ihre Einschränkungen hervorgehoben. Ein tiefgehender technischer Einblick würde im Wesentlichen wiederholen, dass SAP’s SPP zu versuchen, Servigistics zu ähneln, gescheitert ist aufgrund eines übermäßig komplexen Designs und mangelnder Flexibilität 33 34. Oracles Lösung ist technisch weniger ambitioniert (eher eine Erweiterung der bestehenden Oracle-Planung mit einigen Funktionen für Ersatzteile) und hat im Allgemeinen bei Innovationen nicht führend agiert. Beide stützen sich stärker auf deterministische Planung mit Sicherheitsbeständen oder grundlegenden stochastischen Modellen, und keiner von beiden hat so stark in KI für diese Nische investiert wie die spezialisierten Anbieter. Die sichere Schlussfolgerung: Wenn ein Unternehmen auf SAP oder Oracle ERP läuft, könnten sie in Erwägung ziehen, die eingebauten Tools für grundlegende Bedürfnisse zu nutzen, aber für eine echte Optimierung, wie sie durch unsere Kriterien definiert wird, reichen diese nicht aus.)
Markttrends & Beobachtungen
Die Landschaft der Software zur Optimierung von Ersatzteilen entwickelt sich, begleitet von mehreren bemerkenswerten Trends:
-
Verschiebung von deterministischer zu probabilistischer Planung: Überall zeichnet sich eine deutliche Bewegung hin zu probabilistischen Methoden ab. Anbieter und Kunden gleichermaßen haben erkannt, dass traditionelle deterministische Prognosen (eine einzelne Zahl mit einem statischen Sicherheitsbestand) für unregelmäßige, unvorhersehbare Ersatzteillnachfrage unzureichend sind. ToolsGroup befürwortet explizit probabilistische Prognosen als essenziell für long-tail items 4, und andere haben nachgezogen. Jetzt behaupten sogar traditionell konservative Anbieter in ihrem Marketing, dass ihre Modelle „KI-getrieben“ oder „probabilistisch“ seien. Der Trend ist real – unter der Haube integrieren die meisten führenden Tools mittlerweile Nachfragedistributionen, Monte-Carlo-Simulationen oder Szenarioanalysen, um Unsicherheiten abzubilden. Der Unterschied liegt darin, wie ehrlich und tiefgehend dies umgesetzt wird. Ein wahrheitssuchender Käufer sollte jeden Anbieter bitten, seine probabilistische Logik zu demonstrieren (z. B. zeige mir die Wahrscheinlichkeitsverteilung der Nachfrage für dieses Beispielteil und wie die Software damit optimiert). Diejenigen, die nur eine einzelne Zahl liefern und darum herumreden, haben das neue Paradigma wahrscheinlich nicht wirklich angenommen, trotz des Trends.
-
Von Servicelevels zur wirtschaftlichen Optimierung: Es zeichnet sich ein deutlicher Wandel ab: Statt Service-Level-Ziele zu steuern, wird nun anhand des erwarteten Kosten-Nutzen-Verhältnisses gesteuert. Dies ist ein philosophischer Wandel. Viele Anbieter ließen traditionell zu, dass man ein Serviceziel festlegt, und optimierten danach. Nun drängen Vordenker (z. B. Lokad, GAINS, Baxter) darauf, das Problem in Dollar zu definieren – indem Lagerkosten gegen Ausfallzeiten oder SLA-Strafen abgewogen werden 19 1. Dadurch werden Lagerentscheidungen direkt an finanziellen Ergebnissen ausgerichtet, was bei Führungskräften Anklang findet. Wir sehen Funktionen wie die Angabe von Fehlmengenkosten pro Teil oder dass das System ein optimales Servicelevel pro SKU basierend auf dem Wertbeitrag berechnet. Markttrend: Unternehmen haben genug von pauschalen Servicezielen, die für einige Artikel zu hoch und für andere zu niedrig angesetzt werden. Die Software, die den besten “bang for buck” optimieren kann, gewinnt an Beliebtheit. Dennoch denken viele Organisationen immer noch in Service-Metriken, weshalb die Software oft beide Modi bietet. Aber der Fortschritt geht eindeutig in Richtung ROI-basierter Optimierung.
-
KI/ML-Hype – Etwas Substanz hinter dem Hype: Jeder Anbieter behauptet nun, KI/ML zu verwenden. Die zynische Sicht: Es ist oft nur eine Umbenennung von fortgeschrittenen statistischen Methoden oder kleinen ML-Ergänzungen als „KI-unterstützt“. Allerdings gibt es in der Ersatzteilplanung aufkommende echte Anwendungen von KI/ML:
- Klassifikation intermittierender Nachfrage: ML-Algorithmen werden eingesetzt, um automatisch Muster in historischen Nachfragedaten zu erkennen (anstatt sich darauf zu verlassen, dass ein Mensch sagt „verwende Croston’s für dieses Teil“). Dies verbessert die Prognose, indem bessere Modelle oder Parameter ausgewählt werden.
- Integration kausaler Faktoren: Maschinelles Lernen kann externe Daten (Sensordaten, Nutzungsdaten, Wetter etc.) einbeziehen, um die Nachfrage nach Teilen vorherzusagen – etwas, das mit manuellen Methoden schwer zu bewerkstelligen ist. Anbieter wie PTC (ThingWorx) und Syncron (Uptime) realisieren dies, indem sie IoT-Eingaben verbinden 10.
- Dynamische Parametertuning: KI kann Sicherheitsfaktoren oder Annahmen zu Lieferzeiten dynamisch anpassen, sobald neue Daten eintreffen, anstatt dass Planer periodische Überprüfungen durchführen.
- Anomalieerkennung: ML ist hervorragend darin, Ausreißer oder Veränderungen zu erkennen (z. B. wenn die Nachfrage für ein obskures Teil plötzlich verdreifacht, erkennt ein Algorithmus dies schneller und zuverlässiger, als es ein beschäftigter Planer vermuten würde).
- Automatisierung von Entscheidungen: Einige erkunden Ansätze des Reinforcement Learning, bei denen das System durch Simulation „lernt“, optimale Bestellstrategien zu entwickeln.
Während dies alles geschieht, sollten Käufer bei vagen KI-Versprechen skeptisch sein. Beispielsweise ist ein Anbieter, der sagt „unsere KI reduziert den Lagerbestand um 30%“, ohne zu erklären, wie, verdächtig. Der Trend geht dahin, dass KI mittlerweile zum Standard gehört, jedoch nur differenziert, wenn Anbieter konkrete, KI-getriebene Funktionen vorweisen können. In unserer Bewertung zeigen Lokads Ansatz (wenn auch nicht als KI bezeichnet) sowie die Algorithmen von ToolsGroup und GAINS hinter den Kulissen substanzielle analytische Stärke. Syncron und Blue Yonder investieren ebenfalls in KI, aber man muss Marketing von tatsächlicher Leistungsfähigkeit unterscheiden. Ein verwandter Trend: Patente als Marketinginstrument. Einige Anbieter heben Patente hervor, um Einzigartigkeit zu suggerieren. Ein Patent (etwa zu einem bestimmten Prognosealgorithmus) garantiert jedoch nicht, dass dieser Ansatz tatsächlich überlegen oder effektiv im Produkt implementiert ist. Oft handelt es sich eher um Virtue Signaling als um praktischen Nutzen. Der Fokus sollte auf Ergebnissen und nachweisbaren Fähigkeiten liegen und nicht darauf, wer mehr Patente in seiner Broschüre vorweisen kann.
-
Einbindung von IoT und vorausschauender Wartung: Da Industrien IoT-Sensoren an Geräten einsetzen, wird die Ersatzteilplanung zunehmend mit vorausschauender Wartung verknüpft. Dies ist ein Trend, bei dem Anbieter wie PTC (mit ThingWorx + Servigistics) und Syncron (mit Uptime) frühzeitig führend geworden sind. Die Idee lautet: Anstatt auf sporadische Ausfälle zu warten, die Nachfrage erzeugen, werden Sensordaten genutzt, um Ausfälle vorherzusagen und Teile vorab bereitzustellen. Dadurch wird unsichere Nachfrage in (mehr) planbare Nachfrage umgewandelt. Dies ist ein Wendepunkt für teure Teile, bei denen Ausfälle – beispielsweise anhand von Vibrationsmustern – einigermaßen vorhersehbar sind. Nicht jeder Anbieter verfügt über diese Fähigkeit – es erfordert IoT-Integration und Analysen, die über herkömmliche Planung hinausgehen. Wir beobachten vermehrt Partnerschaften, z. B. eine IoT-Plattform, die sich mit einem Lageroptimierer zusammenschließt, wenn diese nicht unter einem Dach vereint sind. Der Markttrend zeigt, dass Kunden, besonders in Branchen wie Luftfahrt, Schwermaschinenbau, Energie, erwarten, dass ihre Ersatzteilsoftware zumindest eine Roadmap zur Nutzung von IoT-Daten vorweisen kann. Anbieter, die hierzu keine Geschichte haben, könnten als rückständig in puncto Zukunftsfähigkeit angesehen werden.
-
Multi-Echelon und Globalisierung als Standard: Vor zehn Jahren war die mehrstufige Lageroptimierung (MEIO) eine Nischenfunktion auf hohem Niveau. Heute ist sie zunehmend auch in Lösungen für den mittleren Markt Standard (sogar Cloud-Lösungen für den mittleren Markt werben mit Multi-Echelon). Der Trend zeigt, dass selbst mittelständische Unternehmen globale Netzwerke oder mehrere Lagerstandorte haben, sodass die Fähigkeit, das gesamte Netzwerk zu optimieren, entscheidend ist. Jeder Anbieter in unserer Liste bietet eine Form von MEIO an. Der Unterschied liegt in der Ausgereiftheit (z. B. das tief integrierte, Fed-RAMP-zertifizierte, verteidigungswürdige MEIO von Servigistics versus eine einfachere, zweistufige Optimierung). Kunden sollten darauf achten, dass das MEIO des Anbieters wirklich integriert ist (gemeinsam die Niveaus über alle Ebenen hinweg optimierend) und nicht nur sequentiell (zuerst zentral, dann lokal in einem Silo). Der Markt erwartet mittlerweile globale Optimierung, und einfachere Ansätze „jeweils separat“ sind ein Warnsignal, sofern Ihr Netzwerk nicht wirklich nur eine Ebene hat. Zudem beobachten wir eine zunehmende Komplexität im Netzwerk (E-Commerce-Kanäle, 3PL-Lager etc.), sodass die Software komplexere Vertriebsabläufe für Ersatzteile als früher bewältigen muss.
-
Betonung von Skalierbarkeit und Leistung: Da die Datenmengen größer werden (detailliertere Nachverfolgung von Nutzung, IoT-Daten, mehr SKUs aufgrund der Produktvielfalt), ist Skalierbarkeit zu einem Verkaufsargument geworden. Moderne Systeme werben mit ihrer Cloud-Skalierbarkeit und In-Memory-Berechnung. Alte On-Premise-Lösungen kämpften manchmal mit langen Laufzeiten bei riesigen Datensätzen, doch Cloud-Computing hat das erleichtert. Nun ist der Unterschied eher, wie effizient die Algorithmen sind. Beispielsweise, ob das System fast in Echtzeit neu optimieren kann, wenn sich etwas ändert (für halbautomatisches Rebalancing), oder ob man eine Batch-Verarbeitung über Nacht durchführen muss. Tools, die Empfehlungen inkrementell schnell aktualisieren können, haben im Hinblick auf Reaktionsfähigkeit einen Vorteil. Der Trend geht zu häufigeren Planungszyklen (sogar kontinuierliche Planung) statt monatlicher Batches. Deshalb kommen Konzepte wie kontinuierliche Optimierung (GAINS erwähnt sie 13) und Control-Tower-Ansätze (Blue Yonder) auf. Im Wesentlichen wandelt sich die Ersatzteilplanung langsam von einer statischen, periodischen Aufgabe zu einem bedarfsgesteuerten, adaptiven Prozess – und die Software entwickelt sich dahin, um dies mit besserer Leistung und Echtzeit-Datenverarbeitung zu unterstützen.
-
Integration der Planung mit Ausführung & anderen Funktionen: Die Anbieter erweitern ihren Leistungsumfang, um ganzheitlicher zu agieren. Syncron expandiert in den Bereich Garantie und Außendienst, PTC verbindet sich mit AR und Serviceausführung, ToolsGroup erweitert in den Handel – all dies deutet auf einen Trend hin: Kunden könnten eine einheitliche Plattform bevorzugen, die von der Prognose bis zur Erfüllung alles abwickelt. Im Bereich Ersatzteile bedeutet dies, die Lageroptimierung mit Field Service Management, Reparaturprozessen, Beschaffung und sogar Preisgestaltung zu verknüpfen. Während spezialisierte Point-Lösungen in ihrer Nische weiterhin überzeugen (und die Integration zwischen einigen spezialisierten Tools funktionieren kann), erleichtern Cloud und APIs die Integration, sodass Anbieter versuchen, angrenzende Funktionalitäten für ein nahtloses Erlebnis abzudecken. Ein mittelgroßes bis großes Unternehmen tendiert möglicherweise zu weniger Systemen, die es zu pflegen gilt. Der Markt zeigt daher eine gewisse Konsolidierung und den Aufbau von Suites: Zum Beispiel bündeln große Akteure wie Oracle/SAP mehr Funktionen (wenn auch nicht immer effektiv), oder Spezialisten gehen Partnerschaften ein (etwa Lokad, das sich auf Lagerbestände konzentriert, aber mit einem EAM-System für Wartungsdaten zusammenarbeitet). Ein bemerkenswerter Trend sind auch Fusionen und Übernahmen in diesem Bereich: Wir haben gesehen, dass Thoma Bravo (PE) mehrere Supply Chain Softwarelösungen fusioniert hat, Aptean Inventarplaner übernimmt, E2open Planungsunternehmen aufkauft etc. Dies kann dazu führen, dass vormals unabhängige Lösungen zu Modulen eines größeren Angebots werden. Es ist entscheidend zu beobachten, ob diese Übernahmen integriert oder lediglich zusammen vermarktet werden. Fragmentierte Lösungen unter einer Marke können zum Albtraum für Nutzer werden, die ein reibungsloses Erlebnis erwarten.
-
Zunehmende Skepsis und Nachweisanforderungen: Vielleicht ein Meta-Trend – Käufer sind skeptischer gegenüber kühnen Versprechen und Buzzwords geworden (zu Recht). Es gibt eine wachsende Nachfrage nach evidenzbasierter Entscheidungsfindung bei der Auswahl von Supply Chain Software. Infolgedessen können Anbieter unter Druck geraten, Pilotprojekte oder Proof-of-Concepts durchzuführen, die ihre Technologie anhand der firmeneigenen Daten demonstrieren. Die wirklich fortschrittlichen Anbieter können hier glänzen, indem sie tatsächliche probabilistische Prognosen und optimierte Ergebnisse vorzeigen, während diejenigen, die auf Buzzwords setzen, entlarvt werden, wenn sie ihr Tool nicht leicht auf ein reales Szenario anwenden können. Wir sehen auch unabhängige Analystenbewertungen (wie den IDC MarketScape 3), die sich auf technische Fähigkeiten in der Ersatzteilplanung konzentrieren und helfen, das Marketing-Grauschen zu durchdringen.
-
Benutzererfahrung: Von Experten-Tools zu planerfreundlich: Ein weiterer Trend ist die Verbesserung der Benutzerfreundlichkeit und Zugänglichkeit dieser komplexen Analysen. Früher hatten manche Tools (besonders solche mit schwerer Mathematik) spartanische Benutzeroberflächen oder erforderten einen Doktortitel zur Interpretation. Jetzt wird Wert auf Visualisierung gelegt (z. B. grafische Darstellung von Nachfragedistributionen, interaktive Trade-off-Kurven zwischen Lagerbestand und Service) und ein einfacheres Durchspielen von Szenarien. Anbieter investieren in UI/UX, um die Komplexität im Hintergrund zu verstecken und einfache Erkenntnisse zu präsentieren (z. B. „Wenn Sie 100.000 $ mehr in den Lagerbestand investieren, können Sie die Verfügbarkeit dieser kritischen Anlagen um 2% verbessern – ja/nein?“). Dies ist wichtig, weil viele Organisationen bereichsübergreifende Stakeholder (Finanzen, Betrieb) in Ersatzteilentscheidungen einbeziehen müssen und dafür verständliche Ergebnisse benötigen. Der Trend geht zu Tools, die managementfreundliche Kennzahlen ausgeben (wie den Wert vermiedener Ausfallzeiten etc.) und nicht nur technische Zahlen. Solche, die weiterhin wie Black Boxes agieren oder das Schreiben von Code erfordern (Lokad ist ein Ausnahmefall, der tatsächlich Codierung verlangt, obwohl sie dies für den Kunden abmildern), könnten auf Widerstand stoßen, sofern sie nicht klar überlegene Ergebnisse demonstrieren.
-
Fokus auf Überschuss und Veralterung: Ersatzteilplaner haben sich immer um Überbestände und Veralterung (tote Bestände) gesorgt, aber jetzt, vielleicht aufgrund wirtschaftlicher Zwänge und ESG-Bedenken (kein Kapital verschwenden), heben Anbieter hervor, wie ihre Tools Überschüsse intelligent reduzieren. ToolsGroup beispielsweise nennt eine Reduktion von veralteten Beständen um 5-20% durch intelligente Planung 4. Weitere Tools verfügen über Module oder Funktionen, die speziell Kandidaten für den Abbau identifizieren, Teile am Lebensende, die nicht nachgefüllt werden sollten, und Möglichkeiten, überschüssigen Lagerbestand vor der Abschreibung umzuschichten. Dieser Trend stimmt mit dem Thema der wirtschaftlichen Optimierung überein – es geht nicht nur um Service, sondern darum, Kapital nicht in nutzlosen Beständen zu binden. Moderne Lösungen verfügen daher häufig über Dashboards zur Lagergesundheit (Umschlag, Überschüsse, potenzielle Fehlmengen) mit KI, die Handlungsempfehlungen gibt (dies liquidieren, jenes verschieben etc.). Dies geht über die klassische Optimierung hinaus und umfasst eine fortlaufende Lagerhygiene, die insbesondere in Ersatzteilen entscheidend ist, wo 10% der Teile vielleicht 90% der Bewegung ausmachen, während der Rest still ansteigen und zu einem Kostenfaktor werden kann.
-
Servitization und ergebnisorientierte Metriken: In Industrien, die von der reinen Produktvermarktung zu Angeboten wie „Betriebszeit“ oder „Serviceverträgen“ wechseln, wird die Ersatzteilverfügbarkeit Teil eines größeren Bildes. Der Trend geht dahin, dass Software sich an ergebnisorientierten Metriken ausrichtet – wie Gerätelebensdauer oder Kundenzufriedenheit – und nicht nur an internen Kennzahlen. Syncrons Vision der Servitization ist ein Beispiel 26. Praktisch bedeutet dies, die Lageroptimierung mit vertraglichen Erfüllungsaspekten zu verbinden: Wenn in einem Vertrag beispielsweise eine Garantie von 99% Betriebszeit gegeben ist, sollte die Software so optimieren, dass dieses Ziel kostengünstig erreicht wird und zudem die Leistung belegt (berichtet, wie sie zur Erreichung der Betriebszeit beigetragen hat). Einige Anbieter (PTC, Syncron) ermöglichen es heute, SLA-Anforderungen direkt einzugeben, woraufhin der Lagerbestand optimiert wird, um die SLA-Einhaltung zu gewährleisten. Dies ist ein Trend weg von generischen „Fill Rate“-Ansätzen hin zu vertragsspezifischer Planung. Die Fähigkeit ist noch in der Entwicklung und vor allem in High-End-Tools zu finden.
Zusammenfassend lässt sich sagen, dass sich der Markt in Richtung intelligenter, integrierter und finanziell versierter Lösungen bewegt. Doch damit einher geht eine Menge Fachjargon. Der Trend für Käufer ist, mehr Transparenz und technische Validierung zu verlangen, was die Anbieter dazu bringt, ihre „KI“- und „Optimierungs“-Versprechen konkreter darzulegen.
Schlussfolgerungen & Empfehlungen
Nach einer rigorosen Bewertung des Marktes für Ersatzteiloptimierungssoftware zeichnet sich ein klares Bild ab: einige Anbieter treiben den Stand der Technik wirklich voran, während andere mit umverpackten Konzepten oder oberflächlichen Versprechungen hinterherhinken. Für mittelgroße bis große Unternehmen, die globale Ersatzteile verwalten, lassen sich folgende Schlussfolgerungen und Empfehlungen ableiten:
-
Lokad und ToolsGroup stechen als technologische Vorreiter hervor. Lokads kompromissloser probabilistischer Ansatz und der Fokus auf wirtschaftliche Optimierung machen es zur Top-Wahl für Organisationen, die bereit sind, eine datenwissenschaftsgetriebene Lösung zu übernehmen. Es liefert vollständig probabilistische Prognosen (selbst bei Lieferzeiten) und verwendet echte stochastische Optimierung zur Maximierung des ROI 2 1. ToolsGroup bietet mit Jahrzehnten der Verfeinerung eine sehr starke probabilistische Engine in Kombination mit pragmatischer Automatisierung, die sich in vielen Branchen bewährt hat 5. Es balanciert effektiv Service und Lagerbestand in großem Maßstab unter Einsatz fortschrittlicher Modelle. Beide Anbieter haben anhand glaubwürdiger technischer Belege gezeigt, dass sie die Fallstricke einfacher Planungsverfahren vermeiden (weder setzen sie auf feste Sicherheitsbestände noch auf Einzelpunktprognosen in ihren Kernberechnungen). Sie weisen geringe Unterschiede auf – Lokad bietet ultimative Flexibilität und Anpassbarkeit (einen “supply chain programming” Ansatz), während ToolsGroup eine stärker verpackte Lösung mit umfangreichen Funktionen (und vielleicht einer benutzerfreundlicheren UI für typische Planer) offeriert. Für Unternehmen, die über die Ressourcen für einen maßgeschneiderten Modellierungsansatz und den Wunsch nach maximaler Leistung verfügen, ist Lokad eine überzeugende Wahl. Für Unternehmen, die eine ausgereifte, sofort einsetzbare Software wünschen, die dennoch hochmoderne Analysen verkörpert, ist ToolsGroup eine sichere und leistungsstarke Option. Bemerkenswert ist, dass beide durch unabhängige Bewertungen und Fallstudien gezeigt haben, dass sie die Ergebnisse im Ersatzteilbereich signifikant verbessern können (Lagerbestandsreduzierungen, Serviceverbesserungen), und ihre Versprechen werden durch anspruchsvolle Methoden untermauert – nicht nur durch Worte 4 5.
-
PTC Servigistics bleibt ein Goldstandard für umfassende Fähigkeiten, insbesondere für diejenigen, die eine mehrstufige Optimierung, ein Reparaturschleifenmanagement und die Integration in breitere Serviceprozesse benötigen. Es verfügt über das umfangreichste Funktionstoolkit – praktisch jedes Szenario in der Ersatzteilplanung kann in Servigistics modelliert werden, basierend auf seiner über 30-jährigen algorithmischen Grundlage 9. Unser Skepsis gegenüber der Integrationsstrategie bei Akquisitionen wurde weitgehend durch den Nachweis gemildert, dass PTC die Plattform vereinheitlicht hat 8. Somit ist Servigistics für sehr große Unternehmen (z. B. Luft- und Raumfahrt & Verteidigung, Schwerindustrie), die eine erprobte Lösung benötigen und über die nötige Unterstützungsstruktur zur Implementierung verfügen, eine Spitzenwahl. Es liefert eine hohe Verfügbarkeit von Ersatzteilen zu den niedrigsten Kosten, wie angekündigt 60, und – was wichtig ist – es gibt Referenzen, die dies in sehr anspruchsvollen Umgebungen (Militär usw.) belegen. Die Warnung besteht darin, sicherzustellen, dass man die organisatorische Verpflichtung besitzt, um Servigistics voll auszuschöpfen – seine Wissenschaft ist exzellent, aber es ist nur so gut wie seine Implementierung. Bei der Auswahl sollte man PTC herausfordern, die spezifisch fortgeschrittenen Funktionen, die für einen relevant sind, zu demonstrieren (z. B. wie IoT-Daten den Prognosefehler reduzieren oder wie Empfehlungen aus mehreren Quellen in der Praxis funktionieren). PTCs Behauptungen „KI-gestützt“ sind im Kontext glaubwürdig (angesichts ihrer dokumentierten Geschichte mit Data Science 59), aber potenzielle Anwender sollten dennoch in die Details gehen, wie sich diese KI-Funktionen manifestieren.
-
GAINS und Baxter Planning bieten robuste, ROI-orientierte Alternativen, die möglicherweise für Unternehmen geeignet sind, die einen starken Kostenoptimierungsansatz mit vielleicht einfacherer Implementierung suchen. GAINS beeindruckte uns durch seinen klaren Fokus auf kontinuierliche Kosten- und Gewinnoptimierung 13 und seine End-to-End-Abdeckung der supply chain im Ersatzteilbereich (einschließlich Reparatur- und Wartungsplanung). Es mag nicht den großen Marketingknall mancher anderer Anbieter haben, erzielte jedoch in allen technischen Kriterien in substanziellem Maße hohe Werte. Baxter Planning, mit seiner TCO-orientierten Philosophie 19 und praktischer Erfahrung im Feld (plus der Option „Planning-as-a-Service“), ist ebenfalls eine glaubwürdige Lösung, insbesondere für Unternehmen, die eventuell eine praxisnähere Anleitung oder einen stufenweisen Ansatz wünschen. Sowohl GAINS als auch Baxter sind gute Wahlmöglichkeiten für Unternehmen, die echte Optimierung anstreben, jedoch vielleicht mit einer geführteren oder partnerschaftsorientierten Implementierung. Sie könnten sogar kosteneffektiver sein als die großen Anbieter und dennoch den Großteil der erforderlichen Funktionalitäten bereitstellen. Allerdings mangelt es ihnen eventuell ein wenig an dem „auffälligen KI“-Effekt – was jedoch keine Kritik darstellt, sofern ihre bestehenden Methoden gut funktionieren. Man sollte beispielsweise die probabilistische Tiefe von GAINS oder die Prognosegenauigkeitsansprüche von Baxter überprüfen, doch Hinweise deuten darauf hin, dass sie gute Leistungen erbringen. Wir empfehlen insbesondere GAINS oder Baxter in Betracht zu ziehen, vor allem für Unternehmen in den Bereichen Technologie, Telekommunikation oder Industrie, die solide Ergebnisse ohne enorme Komplexität benötigen.
-
Syncron ist ein starker, branchenspezifischer Akteur, jedoch sollten Sie ihn vor allem in Betracht ziehen, wenn Sie seinen umfassenderen Service-Suite (Preisgestaltung, Außendienst) zusätzlich zum Inventar schätzen. Technisch gesehen ist Syncrons Inventaroptimierung kompetent und wird die Bedürfnisse vieler OEMs erfüllen, übertrifft jedoch die anderen Anbieter nicht eindeutig in puncto Kernaussage der Prognose oder innovationsgetriebener Optimierung. Es setzt immer noch teilweise auf Segmentierungsstrategien und das Erzielen von Servicelevels, was funktionieren kann, jedoch nicht so rein optimal ist wie Ansätze von Lokad oder GAINS. Dennoch, wenn Ihr Unternehmen auf Servitization setzt – z. B. auch eine dynamische Ersatzteilpreisoptimierung, Garantieverwaltung, oder Dealer-Portal-Funktionalitäten benötigt – liefert Syncron eine integrierte Lösung, die jeden inkrementellen technischen Nachteil in der Inventaroptimierung aufwiegen könnte. Der Vorteil, Preisgestaltung und Inventar miteinander zu verknüpfen (z. B. um Rentabilität zu sichern), kann erheblich sein, und Syncron ist in diesem Angebot einzigartig. Gehen Sie nur mit offenem Blick hinein: Fordern Sie Syncron auf, seine „KI“-Prognose und Optimierungseffektivität zu demonstrieren, und seien Sie bereit, in die Datenintegration zwischen seinen Modulen (Inventar & Preis) für beste Ergebnisse 30 zu investieren. Wenn reine Exzellenz in der Ersatzteillagerhaltung das alleinige Kriterium ist, schneiden andere Anbieter besser ab; aber für eine Suite-Lösung für Aftermarket-Operationen ist Syncron ein führender Anwärter.
-
Große ERP-Lösungen (SAP, Oracle) und generische supply chain Suites sollten bei der Ersatzteilplanung mit Vorsicht betrachtet werden. Die Belege (einschließlich einiger bemerkenswerter Projektmisserfolge) zeigen, dass die nativen Angebote von SAP und Oracle oft nicht in der Lage sind, echte Optimierung zu liefern 33 34. Sie neigen dazu, veraltete Konzepte zu verwenden (statischer Sicherheitsbestand, vereinfachte Prognosen) und erfordern oft umfangreiche Anpassungen, um annähernd das zu erreichen, was die Best-in-Class-Tools direkt bieten. Sofern Ihre Ersatzteiloperationen relativ einfach oder bereits eng mit diesen ERPs verknüpft sind, empfehlen wir im Allgemeinen nicht, sich primär auf die integrierten Ersatzteilplanungsmodule von SAP oder Oracle zu verlassen. Sie können als Transaktionssysteme dienen und eventuell die Ausführung handhaben, aber in puncto Planungskompetenz sind die spezialisierten Anbieter oben eine Generation voraus. Sollte ein Unternehmen prinzipiell dagegen sein, ein Drittanbietertool einzuführen, besteht eine Strategie darin, eine Best-in-Class-Lösung zu nutzen, um die Richtlinien (Prognosen, Mindest-/Maximalwerte etc.) zu berechnen und diese dann in SAP/Oracle für die Ausführung einzuspeisen – im Wesentlichen das „Gehirn“ des ERPs zu umgehen und es nur als „Muskel“ zu verwenden. Dieser hybride Ansatz ist gängig und nutzt die jeweilige Stärke beider Systeme.
-
Wichtige Warnsignale bei jeder Anbieterevaluation: Durch diese Studie haben wir bestimmte Warnzeichen identifiziert, die darauf hindeuten, dass eine Lösung möglicherweise nicht wirklich auf dem neuesten Stand der Technik ist:
- Überbetonung der Bereinigung von Ausreißern: Wenn ein Anbieter häufig davon spricht, Ausreißer manuell zu bereinigen oder im Kontext von langsam rotierenden Teilen von „demand sensing“ zu berichten, seien Sie vorsichtig. Moderne Lösungen sollten Variabilität von Natur aus handhaben; zu viel Fokus auf Ausreißer könnte bedeuten, dass ihre Prognosen nicht robust genug sind, um Anomalien auf probabilistischer Basis einzubeziehen.
- Buzzword-Überflutung ohne Details: Begriffe wie „KI-gesteuert, Quantenlernen, Next-Gen“, die nicht durch eine Erklärung der Algorithmen oder eine Demo untermauert werden. Lenken Sie das Gespräch immer auf das „Wie“ – z. B. Wie verbessert Ihre KI Prognosen bei unregelmäßiger Nachfrage? Zeigen Sie ein Beispiel. Anbieter, die nicht über Marketing-Slogans hinaus antworten können, verpacken wahrscheinlich nur alte Methoden neu.
- Starre Service-Level- oder Sicherheitsbestandsvorgaben: Wenn das Tool verlangt, dass Sie für alles Ziel-Servicelevels eingeben, und keine anderen Zielfunktionen bietet, könnte es sich um ein älteres Design handeln. Ebenso, wenn der Workflow immer noch auf der manuellen Festlegung des Sicherheitsbestands basiert, ist das ein Warnsignal. Die besten Tools berechnen diese für Sie oder setzen sie als sekundäre Kennzahlen ein 1.
- Aktuelle Akquisitionsflut: Wenn ein Anbieter in kurzer Zeit mehrere Unternehmen übernommen hat (insbesondere wenn eines davon genau das Produkt ist, das Sie bewerten), überprüfen Sie die Versionsintegration. Fragen Sie, ob sämtliche Funktionalitäten in einer einzigen Benutzeroberfläche und einer Datenbank verfügbar sind. Zum Beispiel bei der Übernahme mehrerer Produkte durch ToolsGroup – Sie sollten darauf achten, dass Sie nicht drei verschiedene UIs für Prognose, Inventar und Ausführung nutzen müssen. Syncrons separate Datenbank für den Preis ist zwar ein kleines Problem, aber wissenswert 72. Nicht aufeinander abgestimmte Komponenten in einer Software-Suite können zu Ineffizienzen und Problemen bei der Datensynchronisation führen.
- Patente und proprietäre Begriffe statt Ergebnissen: Einige Anbieter könnten mit einem „patentierten intermittierenden Nachfragealgorithmus X“ prahlen. Das klingt zwar gut, aber die Frage ist, ob er Standardalgorithmen wesentlich übertrifft. Oft zeigt die akademische Forschung (teilweise von Anbietern, teilweise unabhängig), dass keine Methode ein Allheilmittel für alle intermittierenden Nachfragen ist. Ein patentierter Ansatz könnte in einigen Fällen marginal besser oder einfach anders sein. Es ist wichtig, entweder Referenzen oder Testergebnisse anzufordern, die die Verbesserung belegen. Lassen Sie sich nicht allein dadurch überzeugen, dass es patentiert oder proprietär ist – konzentrieren Sie sich auf Belege, die zu den Ergebnissen führen.
- „Plug-and-Play“ oder „1-Klick“ Implementierungsansprüche: Die Einführung einer Ersatzteiloptimierungslösung ist ebenso ein Prozesswechsel wie ein Technologiewechsel. Jeder Anbieter, der behauptet, seine Lösung sei supereinfach zu implementieren und erfordere praktisch keinerlei Aufwand, vereinfacht die Realität zu stark. Datenherausforderungen (fehlende Daten, ungenaue Stücklisten usw.) treten fast immer auf. Ein glaubwürdiger Anbieter wird den Bedarf an Datenaufbereitung und Change Management anerkennen. Behandeln Sie daher „Plug-and-Play“-Behauptungen als Warnsignal – gehen Sie der Frage nach, was tatsächlich erforderlich ist, um live zu gehen. Wahrscheinlich haben diejenigen, die mühelose Integration behaupten, eine grundlegende Lösung, die nicht tief genug geht, um die unordentlichen, aber wichtigen Details in Ihren Daten aufzudecken.
-
Letzte Empfehlung – Setzen Sie auf Substanz statt auf Hype: Um wirklich zu profitieren, sollte ein Unternehmen eine Lösung wählen, die mit modernen Techniken und seinen eigenen Geschäftsrealitäten im Einklang steht. Wenn Betriebszeit kritisch ist und Daten verfügbar sind, tendieren Sie zu einer Lösung, die probabilistische Modelle und wirtschaftliche Optimierung verwendet (Lokad, ToolsGroup, Servigistics, GAINS). Wenn Ihr Unternehmen zudem die Preisgestaltung oder Serviceausführung grundlegend überarbeiten muss, ziehen Sie eine integrierte Suite wie Syncron oder PTCs umfassenderes Angebot in Betracht – achten Sie jedoch darauf, dass die Kernoptimierungstechnologie nicht beeinträchtigt wird. In allen Fällen fordern Sie Transparenz bei der Auswahl: Bitten Sie die Anbieter, eine Stichprobe Ihrer Daten durch ihr System laufen zu lassen, um zu sehen, wie es mit intermittierender Nachfrage umgeht und welche Art von Empfehlungen es gibt. Dies durchschneidet schnell das Marketinggewirr. Diejenigen, die wirklich fortschrittliche Methoden anwenden, werden in der Lage sein, eine realistische Bandbreite an Ergebnissen und optimierten Lagerbeständen vorzuweisen, die sich richtig anfühlen (und Sie können diese Ergebnisse mit Ihren aktuellen Resultaten oder einem bekannten Ausgangswert vergleichen).
Letzten Endes ist das Ziel eine Ersatzteiloptimierungslösung, die die Serviceverfügbarkeit für Ihre Kunden zu den niedrigsten vernünftigen Kosten maximiert und dabei nur minimale manuelle Betreuung erfordert. Anbieter, die in probabilistische Prognosen, wirtschaftliche Optimierung und Automatisierung in großem Maßstab investiert haben, sind nachweislich besser darin, dieses Gleichgewicht zu erreichen. Der Markt bewegt sich glücklicherweise in diese Richtung, aber es ist entscheidend, die Fähigkeiten jedes Anbieters zu überprüfen. Indem Sie sich auf die in dieser Studie umrissenen Prinzipien konzentrieren – auf probabilitätsgesteuerte Planung, Kosten-Nutzen-Fokus, Skalierbarkeit und technische Authentizität – können Sie den Hype von der Substanz trennen und eine Plattform wählen, die Ihre Ersatzteilplanung wirklich an die Spitze der Leistungsfähigkeit bringt.
Fußnoten
-
ToolsGroup als führend im IDC MarketScape erkannt: Weltweite supply chain Planung für Ersatzteile/MRO-Industrien | ToolsGroup ↩︎ ↩︎
-
[PDF] Fünf Inventaroptimierung – Geheimnisse für Aftermarket-Teile ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
ToolsGroup als führend im IDC MarketScape erkannt: Weltweite supply chain Planung für Ersatzteile/MRO-Industrien | ToolsGroup ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
GAINSystems GAINS Bewertungen, Ratings & Funktionen 2025 - Gartner ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Evaluierung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎
-
Teileplanungs- und Bestandsmanagementsystem - Syncron ↩︎ ↩︎ ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Warum SAP SPP weiterhin Implementierungsprobleme aufweist - Brightwork Research & Analysis ↩︎ ↩︎ ↩︎
-
Warum SAP SPP weiterhin Implementierungsprobleme aufweist - Brightwork Research & Analysis ↩︎ ↩︎ ↩︎
-
Warum SAP SPP weiterhin Implementierungsprobleme aufweist - Brightwork Research & Analysis ↩︎
-
Warum SAP SPP weiterhin Implementierungsprobleme aufweist - Brightwork Research & Analysis ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Warum SAP SPP weiterhin Implementierungsprobleme aufweist - Brightwork Research & Analysis ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
| Servigistics Service Parts Planning: Mehr Wissenschaft, weniger Kunst ↩︎ ↩︎
-
ToolsGroup übernimmt Evo, erweitert seine Business Performance-Optimierungslösungen … ↩︎
-
ToolsGroup übernimmt das Demand Management-Geschäft von Mi9 Retail ↩︎
-
ToolsGroup übernimmt Onera, um die Retail-Plattform im Einzelhandel von der Planung … zu erweitern ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎ ↩︎
-
Servigistics | KI-gestützte Service Supply Chain Optimierung - PTC ↩︎ ↩︎ ↩︎
-
KONE nutzt Servigistics, um seine globale Ersatzteilversorgung zu optimieren … ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Supply Chain Management und Planungssoftware - GAINSystems ↩︎
-
Supply Chain Optimierungs- und Designplattform - GAINSystems ↩︎
-
GAINS entfesselt revolutionäre Entscheidungs-Engineering-Plattform … ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎
-
Service Parts Preisgestaltung und Bestandsmanagement | Syncron ↩︎ ↩︎
-
Benchmark-Bewertung der Ersatzteilmanagement-Software auf dem neuesten Stand der Technik ↩︎