Dans le commerce de détail, de nombreuses entreprises n’ont pas beaucoup de contrôle sur leurs taux de service. En effet, de nombreuses entreprises ne surveillent pas le taux de service là où il compte le plus : en magasin. En effet, mesurer le taux de service en magasin est un exercice fastidieux. Certaines entreprises – principalement des panelistes – se spécialisent dans ce genre de mesures, mais le coût est élevé car il n’existe aucune solution de contournement face à la main-d’œuvre importante requise pour le processus.

Prendre du recul, pourquoi avons-nous même besoin de mesurer le taux de service ?

Ne serait-il pas plus pratique que le taux de service soit quelque chose obtenu par conception et défini par des paramètres explicites au sein du logiciel d’optimisation de stocks ? Cela serait certainement bien plus pratique. Les taux de service ne doivent certainement pas être une réflexion après coup du processus d’optimisation de stocks.

Il s’avère qu’historiquement, le besoin de mesurer les taux de service est venu des premières méthodes d’optimisation de stocks telles que l’analyse des stocks de sécurité qui n’offrent pratiquement aucun contrôle sur les taux de service réels. En effet, les modèles sous-jacents reposent sur l’hypothèse que la demande est distribuée normalement et cette hypothèse est tellement erronée en pratique que la plupart des détaillants ont abandonné cette hypothèse au profit de coefficients de stocks de sécurité ad hoc.

Ces coefficients de stocks de sécurité ad hoc ne sont pas mauvais per se : ils sont certainement meilleurs que de se fier à des hypothèses abusives concernant la demande future. Cependant, la relation quantitative entre le stock de sécurité et le taux de service se perd. Ainsi, les détaillants finissent par mesurer leurs taux de service et ajuster les coefficients jusqu’à ce que les stocks se stabilisent d’une manière ou d’une autre. Finalement, la situation n’est pas satisfaisante car la stratégie d’optimisation de stocks est inflexible : les coefficients de stocks de sécurité ne peuvent être modifiés sans exposer l’entreprise à une myriade de problèmes, répétant ainsi les fastidieux ajustements empiriques effectués à l’origine.

Cependant, avec l’avènement de la prévision quantile, il est désormais possible de produire des prévisions qui pilotent avec une très grande précision les taux de service, même si les prévisions quantiles elles-mêmes ne sont pas précises. Il suffit d’avoir des prévisions sans biais, et non des prévisions parfaitement exactes.

En effet, les prévisions quantiles répondent de manière directe et très intrinsèque au problème de produire les quantités de réapprovisionnement nécessaires pour couvrir les taux de service cibles. Si une nouvelle et meilleure technologie de prévision quantile est découverte, alors cette technologie pourrait être capable d’atteindre les mêmes taux de service avec moins de stocks, mais les deux technologies fournissent les taux de service qu’elles promettent par conception.

Ce comportement est très différent du cas de la prévision classique alliée à l’analyse des stocks de sécurité où une amélioration de la précision, bien que souhaitable, conduit à des résultats erratiques en pratique. Par exemple, pour de nombreux produits à faible volume, comme observé en magasin, passer à un modèle de prévision bête qui retourne toujours zéro améliore généralement la précision définie comme la différence absolue entre les ventes réelles et les ventes prévues. Évidemment, adopter des prévisions nulles pour la moitié des produits ne peut se terminer qu’avec des résultats commerciaux lamentables. Cet exemple peut paraître anecdotique mais ne l’est pas. Les prévisions zéro sont les prévisions classiques les plus précises dans de nombreuses situations.

Ainsi, pour prendre le contrôle de vos taux de service, il faut une méthodologie d’optimisation de stocks dans laquelle un tel contrôle est intégré.