Dans le secteur de la vente au détail, de nombreuses entreprises n’ont pas beaucoup de contrôle sur leurs taux de service. En fait, de nombreuses entreprises ne surveillent même pas le taux de service là où cela compte le plus : le magasin physique. En effet, mesurer le taux de service en magasin est un exercice fastidieux. Certaines entreprises - principalement des panélistes - se spécialisent dans ce type de mesures, mais le coût est élevé car il n’y a pas de solution de contournement pour la main-d’œuvre importante impliquée dans le processus.

Si l’on prend du recul, pourquoi avons-nous même besoin de mesurer le taux de service ?

Ne serait-il pas plus pratique si le taux de service était quelque chose obtenu par conception et défini par des paramètres explicites dans le logiciel d’optimisation des stocks ? Ce serait certainement beaucoup plus pratique. Les taux de service ne doivent certainement pas être une réflexion après coup du processus d’optimisation des stocks.

Il s’avère que, historiquement, la nécessité de mesurer les taux de service provenait des premières méthodes d’optimisation des stocks telles que l’analyse des stocks de sécurité qui n’offrent aucun contrôle sur les taux de service réels. En effet, les modèles sous-jacents reposent sur l’hypothèse que la demande est normalement distribuée et cette hypothèse est tellement fausse en pratique que la plupart des détaillants ont abandonné cette hypothèse au profit de coefficients de stocks de sécurité ad hoc.

Ces coefficients de stocks de sécurité ad hoc ne sont pas mauvais en soi : ils sont certainement meilleurs que de s’appuyer sur des hypothèses abusives concernant la demande future. Cependant, la relation quantitative entre le stock de sécurité et le taux de service est perdue. Par conséquent, les détaillants finissent par mesurer leurs taux de service et ajuster les coefficients jusqu’à ce que l’inventaire se stabilise d’une manière ou d’une autre. À la fin, la situation n’est pas satisfaisante car la stratégie d’inventaire est inflexible : les coefficients de stocks de sécurité ne peuvent pas être modifiés sans exposer l’entreprise à une myriade de problèmes, ce qui nécessite de répéter les ajustements empiriques fastidieux effectués initialement.

Cependant, avec l’avènement des prévisions quantiles, il est maintenant possible de produire des prévisions qui conduisent très précisément aux taux de service, même si les prévisions quantiles elles-mêmes ne sont pas précises. Il suffit d’avoir des prévisions impartiales, et non des prévisions parfaitement précises.

En effet, les prévisions quantiles abordent directement et de manière très native le problème de la production des quantités de réapprovisionnement nécessaires pour atteindre les taux de service cibles. Si une nouvelle technologie de prévision quantile meilleure est trouvée, alors cette technologie pourrait être capable d’atteindre les mêmes taux de service avec moins d’inventaire, mais les deux technologies fournissent les taux de service qu’elles promettent par conception.

Ce comportement est très différent du cas de la prévision classique associée à l’analyse des stocks de sécurité où une amélioration de la précision, bien qu’elle soit souhaitable, conduit à des résultats erratiques en pratique. Par exemple, pour de nombreux produits à faible volume, comme observé en magasin, passer à un modèle de prévision stupide qui retourne toujours zéro améliore généralement la précision définie comme la différence absolue entre les ventes réelles et les ventes prévues. De toute évidence, passer à des prévisions nulles pour la moitié des produits ne peut aboutir qu’à des résultats commerciaux désastreux. Cet exemple peut sembler anecdotique, mais ce n’est pas le cas. Les prévisions nulles sont les prévisions classiques les plus précises dans de nombreuses situations.

Ainsi, pour prendre le contrôle de vos taux de service, il faut une méthodologie d’optimisation des stocks où un tel contrôle est intégré.