Im Einzelhandel haben viele Unternehmen wenig Kontrolle über ihre Servicelevels. Tatsächlich überwachen viele Unternehmen das Servicelevel dort, wo es am wichtigsten ist, nämlich im physischen Geschäft, nicht. Die Messung des Servicelevels im Geschäft ist tatsächlich eine mühsame Aufgabe. Einige Unternehmen - meistens Panelisten - haben sich auf diese Art von Messungen spezialisiert, aber die Kosten sind hoch, da es keine Möglichkeit gibt, den umfangreichen Personalaufwand zu umgehen, der mit dem Prozess verbunden ist.

Wenn man einen Schritt zurückgeht, warum müssen wir überhaupt das Servicelevel messen?

Wäre es nicht praktischer, wenn das Servicelevel etwas wäre, das durch Design erzielt wird und durch explizite Einstellungen in der Bestandsoptimierungssoftware definiert wird? Das wäre sicherlich viel praktischer. Servicelevels müssen sicherlich nicht als nachträglicher Gedanke des Bestandsoptimierungsprozesses betrachtet werden.

Es stellt sich heraus, dass der Bedarf an der Messung der Servicelevels historisch bedingt ist und aus frühen Bestandsoptimierungsmethoden wie der Sicherheitsbestandsanalyse stammt, die kaum Kontrolle über die tatsächlichen Servicelevels bieten. Tatsächlich beruhen die zugrunde liegenden Modelle auf der Annahme, dass die Nachfrage normalverteilt ist, und diese Annahme ist in der Praxis so falsch, dass die meisten Einzelhändler diese Annahme zugunsten von ad-hoc Sicherheitsbestandskoeffizienten aufgegeben haben.

Diese ad-hoc Sicherheitsbestandskoeffizienten sind an sich nicht schlecht: Sie sind sicherlich besser als der Missbrauch von Annahmen über die zukünftige Nachfrage. Jedoch geht die quantitative Beziehung zwischen dem Sicherheitsbestand und dem Servicelevel verloren. Daher messen Einzelhändler ihre Servicelevels und optimieren die Koeffizienten, bis sich der Bestand irgendwie stabilisiert. Am Ende ist die Situation unbefriedigend, weil die Bestandsstrategie unflexibel ist: Sicherheitsbestandskoeffizienten können nicht geändert werden, ohne dass das Unternehmen einer Vielzahl von Problemen ausgesetzt ist, was die ursprünglichen mühsamen empirischen Anpassungen wiederholt.

Mit dem Aufkommen der Quantilprognosetechnologie ist es jedoch jetzt möglich, Prognosen zu erstellen, die die Servicelevels sehr genau steuern, auch wenn die Quantilprognosen selbst nicht genau sind. Alles, was dazu erforderlich ist, sind unverzerrte Prognosen und nicht perfekt genaue Prognosen.

Tatsächlich adressieren Quantilprognosen das Problem der Erzeugung der Nachbestellmengen, die erforderlich sind, um die Ziel-Servicelevels abzudecken, direkt und sehr nativ. Wenn eine neue und bessere Quantilprognosetechnologie gefunden wird, könnte diese Technologie möglicherweise in der Lage sein, die gleichen Servicelevels mit weniger Bestand zu erreichen, aber beide Technologien liefern die Servicelevels, die sie durch Design versprechen.

Dieses Verhalten unterscheidet sich sehr von dem Fall der klassischen Prognose, die mit der Sicherheitsbestandsanalyse verbunden ist, bei der eine Verbesserung der Genauigkeit, obwohl wünschenswert, in der Praxis zu unvorhersehbaren Ergebnissen führt. Zum Beispiel verbessert sich für viele Produkte mit geringem Volumen, wie sie in Geschäften beobachtet werden, die Genauigkeit, definiert als absoluter Unterschied zwischen den tatsächlichen Verkäufen und den prognostizierten Verkäufen, wenn man zu einem dummen Prognosemodell wechselt, das immer null zurückgibt. Offensichtlich führt die Umstellung auf Nullprognosen für die Hälfte der Produkte nur zu miserablen Geschäftsergebnissen. Dieses Beispiel mag anekdotisch erscheinen, ist es aber nicht. Nullprognosen sind in zahlreichen Situationen die genauesten klassischen Prognosen.

Daher ist es erforderlich, eine Bestandsoptimierungsmethodik zu verwenden, bei der eine solche Kontrolle inbegriffen ist, um die Kontrolle über Ihre Servicelevels zu übernehmen.