00:00:00 Lancement du panel, débat sur les KPI animé par le public
00:04:00 Supply chain = économie : allouer des ressources rares
00:08:00 La valeur de l’information relie les prévisions aux finances
00:12:00 Les Beanie Babies miniatures exposent l’illusion de la précision
00:16:00 Les taux de service masquent l’asymétrie et les incitations
00:20:00 Paris sur les stocks à la manière du poker ; la prédiction des ruptures de stock compte
00:24:00 Optionnalité : la tarification, les réductions et les transferts redéfinissent les résultats
00:28:00 L’incertitude des délais d’approvisionnement et les corrélations font échouer les métriques simples
00:32:00 Cygnes violets : les queues révèlent les ruptures de stock à venir
00:36:00 Demande aéronautique : modernisations et réquisitions fantômes
00:40:00 Les simulations du passage de la décision à l’encaissement remplacent la chasse aux KPI
00:44:00 Deux tableaux de bord : la valeur pour les dirigeants et la cohérence des données
00:48:00 L’étrangeté de la qualité des données : négatifs, retours, manque de puissance
00:52:00 Les ajustements manuels signalent des défauts du modèle
00:56:00 Les bonus des KPI créent des conflits et incitent à la manipulation
01:00:00 La loi de Goodhart : les cibles se dégradent avec le temps
01:04:00 Supprimez les murs de métriques ; gardez cinq éléments essentiels
01:08:00 Conclusions finales et clôture
Résumé
La supply chain est de l’économie appliquée : allouer des ressources rares pour un rendement maximal. Des KPIs en pourcentage comme précision des prévisions et taux de service paraissent « scientifiques » mais ignorent souvent les véritables asymétries — les ruptures de stock peuvent anéantir la marge, tandis que l’excès de stock n’engendre « que » des coûts ou un risque de décote. L’alternative est une évaluation décisionnelle end-to-end libellée en euros : probabilistic forecasts, simulation Monte Carlo, et résultats financiers attendus versus réels. La gouvernance devrait suivre les signaux d’échec du modèle (notamment les ajustements manuels) et la cohérence des données, tout en évitant des dispositifs incitatifs qui encouragent la manipulation des KPI.
Résumé étendu
La discussion commence en traitant la supply chain pour ce qu’elle est : de l’économie appliquée dans un contexte de rareté. Chaque choix — l’achat de stocks, la consommation de matières, le déplacement de stocks — utilise des ressources limitées qui ne peuvent être dépensées deux fois. Ainsi, le véritable objectif n’est pas de maximiser des pourcentages « esthétiques », mais de maximiser le rendement des ressources déployées.
À partir de ce postulat, le panel démolit les idoles habituelles : la précision des prévisions et les taux de service. Ces métriques sont faciles à calculer et à vénérer, précisément parce qu’elles sont détachées de la réalité des affaires. Un pourcentage peut paraître scientifique — 97,17 % a une consonance rassurante — tout en révélant peu sur le profit, le flux de trésorerie ou le risque. Pire encore, les métriques d’exactitude standard pénalisent de manière symétrique la sur-prévision et la sous-prévision, alors que l’économie est asymétrique : une rupture de stock peut détruire la marge et la fidélité de la clientèle, tandis que l’excès de stock n’engendre « que » un coût de stockage ou un risque de décote.
L’alternative consiste à relier les décisions aux résultats financiers de bout en bout. Patrick présente cela sous le terme « value of information » : utiliser des prévisions probabilistes (des distributions complètes, et non des estimations ponctuelles), simuler les décisions via Monte Carlo, propager l’incertitude à travers les KPI jusqu’aux états financiers, puis comparer l’attendu au réel. Joannes approuve, ajoutant que le débat technique — simulation versus modélisation de densité — est secondaire ; l’essentiel est que la chaîne se termine en euros ou en dollars, et non en métriques abstraites.
La conversation critique également la mentalité de la « prévision statique ». Dans le commerce de détail, la demande dépend des actions tarifaires et des options de liquidation ; prévoir un futur unique sans reconnaître l’optionnalité transforme la planification en un engagement prématuré. Les opérations réelles sont dynamiques : les transferts entre magasins, les remises et d’autres leviers modifient les résultats après la décision initiale.
En matière d’incertitude, les délais d’approvisionnement et les événements rares comptent. Les distributions peuvent être bimodales avec de longues queues, des corrélations apparaissent pour les grosses commandes, et les cas limites dominent les pertes. La « précision » ignore souvent le coûteux 1 % — le dysfonctionnement qui déclenche des commandes d’achat insensées, le faux pas saisonnier d’un produit périssable, la pièce aéronautique qui devient urgente à cause de modernisations ou de fenêtres de maintenance. Ce ne sont pas des curiosités statistiques ; c’est là que l’argent brûle.
Enfin, la gouvernance : Joannes soutient que le signal non financier le plus important est celui des ajustements manuels des décisions automatisées — car ces ajustements révèlent l’ignorance du modèle ou une défaillance des données. Tous deux insistent sur les vérifications de cohérence des données et avertissent que les dispositifs incitatifs liés aux KPI encouragent la manipulation. Si vous faites d’une métrique une cible, vous la dégradez ; mieux vaut en conserver peu, ancrées financièrement, et se fier au jugement des dirigeants plutôt qu’à une comptabilité bureaucratique.
Transcription complète
Conor Doherty: Voici Supply Chain Breakdown, et le panel d’aujourd’hui va décortiquer les KPI les plus importants pour la performance de votre supply chain. Vous savez qui je suis. Je suis Conor, Directeur de la communication ici chez Lokad.
À ma gauche, comme toujours, Joannes Vermorel, le fondateur de Lokad. Notre invité spécial aujourd’hui, qui nous rejoint à distance, est Patrick McDonald. Il est Conseiller Exécutif chez Evolution Analytics, et il apporte à ce panel environ 30 ans d’expérience très pertinente.
Alors Patrick, tout d’abord, merci beaucoup de nous avoir rejoints.
Patrick McDonald: Merci beaucoup, Conor. C’est vraiment un plaisir d’être ici.
Conor Doherty: Parfait. Ravi de vous avoir parmi nous.
Avant de commencer, il s’agit d’un chat en direct. Ce panel est organisé à la demande de notre audience. Alors, si vous avez des questions ou des commentaires, n’hésitez pas à les poser. Pensez-vous que la précision des prévisions est un KPI important pour votre supply chain ? Pourquoi ? Et les taux de service ? Ne nous lancez pas là-dessus.
Passons à autre chose. Patrick, en tant qu’invité, nous nous adressons d’abord à vous. Avant de plonger dans les détails de la déconstruction des KPI, nous sommes tous logiciens ici, donc je pense que la première question devrait être : quel est exactement, selon vous, l’objectif de la prise de décision en supply chain ? Et ensuite, nous pourrons parler des KPI pour mesurer l’efficacité de cela, n’est-ce pas ?
Patrick McDonald: Et je pense que c’est une question vraiment importante. Comme je l’ai dit, j’ai fait 30 ans de conseil en gestion et de travail en data science. Obtenir une bonne réponse à cette question est souvent bien plus difficile que vous ne le pensez.
Nous intervenons en nous demandant, « Qu’est-ce que nous essayons exactement de faire ici ? » Et je pense que, de manière assez systématique, la réponse est : nous essayons de prendre une décision sur la manière d’allouer une ressource.
Très souvent, il s’agit de déterminer où nous allons positionner les stocks. Dans d’autres contextes, cela pourrait concerner l’endroit où nous concentrer nos efforts, comment nous allons répartir le temps de notre personnel, etc.
Mais d’un point de vue supply chain, il s’agit avant tout de : comment allons-nous allouer les stocks ? Et c’est la décision centrale que nous essayons de prendre. Je pense qu’il faut examiner les décisions que vous prenez dans ce contexte pour pouvoir réellement se concentrer et obtenir les meilleurs résultats.
C’est donc quelque chose que j’ai essayé de faire tout au long de ma carrière, et c’est ce dont nous allons discuter aujourd’hui. J’ai hâte.
Conor Doherty: Eh bien, merci, Patrick. Et Joannes, je sais que vous préférez vous concentrer sur l’optimisation des taux de service de manière isolée, n’est-ce pas ? C’est l’objectif de la supply chain pour vous. Je paraphrase, n’est-ce pas ?
Joannes Vermorel: Pas tout à fait. J’apprécie vraiment l’approche de Patrick, qui consiste à se concentrer sur les décisions.
Plus précisément, mon point de vue est que la supply chain est une branche appliquée de l’économie. Ainsi, nous avons une série de choix qui constituent l’allocation de ressources rares.
Stocks : d’abord, vous avez votre argent que vous devez dépenser pour vos achats. Une fois qu’un dollar est dépensé pour quelque chose, vous ne pouvez pas le dépenser pour autre chose. Ensuite, si vous avez des matières premières et que vous les consommez pour produire quelque chose, dès qu’elles sont consommées, elles disparaissent.
Si vous déplacez un lot de stocks d’un produit fini d’un endroit A vers un endroit B, dès qu’il est déplacé, il n’est plus disponible à l’endroit A. Ces ressources rares doivent être utilisées de la manière la plus optimale pour l’entreprise.
Ensuite, lorsque l’on aborde ce que signifie réellement optimiser l’utilisation de ces ressources rares, la réponse courte est : maximiser le taux de rendement.
En essence, pour chaque dollar ou équivalent monétaire de ressource que vous utilisez, vous devez vous assurer d’obtenir le maximum de dollars en retour. Autrement dit, vous devez maximiser le taux de rendement.
Conor Doherty: Eh bien, merci. Patrick, à vous. Êtes-vous d’accord avec cette perspective — que la supply chain est fondamentalement une branche appliquée de l’économie ?
Patrick McDonald: Je pense absolument. L’approche que j’ai adoptée ces dernières années est un concept issu de cette branche, peut-être pas très bien publié. On l’appelle « value of information ».
Le travail que j’ai tendance à faire consiste à aider à répondre à la question suivante : d’un point de vue data science, nous pourrions utiliser une prévision comme un aperçu, n’est-ce pas ? Et sur cette base, nous allons prendre une décision sur la façon de positionner les stocks.
Une fois cela fait, nous pouvons faire une prédiction basée sur notre modèle : si nous positionnons les stocks à cet endroit, quelles seront probablement les ventes ? Si je sais quelles seront probablement mes ventes, alors je peux aussi dire : quel sera probablement mon niveau de stocks ?
Si je le sais, alors je peux calculer ce que seront probablement mes KPI. Si je connais mes KPI, je peux ensuite calculer ce que seront probablement mes postes financiers.
J’ai donc passé ces dernières années à examiner cette chaîne dans son intégralité. Typiquement, ce que je fais, c’est une analyse Monte Carlo basée sur le niveau d’incertitude que nous avons dans la prévision.
C’est l’une des choses clés, n’est-ce pas ? Les gens recherchent cette précision ponctuelle, qui ne m’importe pas tant que ça. Je me soucie bien plus de la fonction de masse de probabilité effective, ou de la fonction de densité, autour de la prévision elle-même.
Je tire donc parti de cela. Je réalise une analyse Monte Carlo, et je suis cette chaîne depuis l’aperçu jusqu’à la décision, en passant par les KPI, jusqu’aux états financiers. Cela me permet de vraiment comprendre ce qui se passe, de faire des simulations, et d’examiner les résultats possibles en ayant une idée de la probabilité que ceux-ci se produisent.
Pouvoir aller jusqu’à produire un état financier que vous pouvez ensuite présenter en réunion de direction et dire, « D’accord, si vous prenez ce type de décisions, voici le genre de résultats auxquels vous pouvez vous attendre. »
Ensuite, nous pouvons revenir en arrière et mesurer effectivement l’écart entre le réel et l’attendu, afin d’obtenir une véritable valeur ajoutée. J’ai constaté que c’était une approche bien meilleure que ce que font la plupart des entreprises, qui va du très simple tableur utilisant une régression linéaire pour obtenir une ligne, à des prévisions plus sophistiquées cherchant à chasser la précision individuelle des prévisions.
Est-ce que cela a du sens ?
Conor Doherty: Eh bien, Joannes, est-ce que cela a du sens ?
Joannes Vermorel: Oui, cela a tout à fait du sens. C’est très, très aligné avec la façon dont Lokad aborde les supply chains.
En effet, il existe même une dualité entre tout type de simulateur — les techniques Monte Carlo — et la prévision probabiliste avec une modélisation directe de la densité. Si vous avez quelque chose qui peut générer de nombreux écarts sur le futur, vous pouvez reconstruire les densités de probabilité.
Et si vous avez les densités de probabilité, alors vous pouvez générer des écarts qui les reflètent. Vous pouvez ainsi aller et venir. Parfois, il est plus pratique d’en utiliser un plutôt qu’un autre, mais cela relève davantage d’un aspect technique que d’une réflexion stratégique.
L’intention dans les deux cas est la même. Oui, l’idée est que nous voulons vraiment relier le tout, de bout en bout, au résultat financier.
Il y a de très nombreuses étapes, mais fondamentalement, toutes ces étapes ne sont que des artefacts numériques, de simples moyens pour atteindre une fin, à savoir le résultat financier que vous souhaitez maximiser pour l’entreprise.
Conor Doherty: D’accord. J’ai entendu beaucoup de termes mathématiques. Parfait. Je les comprends.
Mais je veux également rester un peu plus concret. Donc, pour revenir au point, Patrick : il semble que nous soyons en totale unanimité — en parfait consensus — sur le fait que l’impact économique est ce à quoi vous devriez vous intéresser. Ainsi, la supply chain est de l’économie appliquée.
D’accord, à quelqu’un qui dirait : « Eh bien, attendez, Patrick. Si nous continuons à viser des niveaux toujours plus élevés de précision des prévisions et des taux de service toujours plus élevés, nous allons maximiser le retour économique de notre supply chain. » Comment se fait-il que de meilleurs chiffres — une meilleure précision des prévisions et de meilleurs taux de service — ne se traduisent pas par une meilleure performance économique ?
Patrick McDonald: Exact. Je sais que c’est contre-intuitif, mais ce n’est tout simplement pas vrai.
Il existe un principe mathématique — désolé, je vais devoir faire un peu de maths pointues ici — appelé l’inégalité de Jensen qui nous aide à comprendre pourquoi ce n’est pas vrai.
Il y a quelques éléments clés. D’abord, si vous considérez les métriques d’exactitude traditionnelles, elles pondèrent de manière égale. Si vous êtes trop haut ou trop bas, cela sera pondéré de la même façon.
Mais ce n’est pas ce que nous avons avec les stocks. Le modèle de value of information dit : si je perds une vente, je perds toute ma marge. Si j’en ai trop, alors j’encours simplement le coût de stockage des stocks. Ainsi, j’ai déjà une asymétrie à prendre en compte.
Typiquement, je procède à ce genre d’évaluation sur mes métriques d’exactitude de toute façon.
L’autre chose que nous négligeons est que nous savons qu’il existe une incertitude inhérente à la prévision — inhérente au résultat futur — et que cette incertitude est fondamentalement encapsulée dans cette fonction de densité.
Maintenant, vous pouvez gérer cela de plusieurs façons. La méthode la plus simple que nous utilisons depuis des années consiste à comprendre l’écart type et à essayer de l’utiliser, et de définir certaines limites.
C’était bien à l’époque où nous avions des capacités de calcul vraiment limitées. Mais maintenant, je peux faire sur mon MacBook personnel des choses qui auraient nécessité un superordinateur Cray à l’époque où j’étais à l’université.
Ainsi, notre capacité de calcul est aujourd’hui tellement supérieure à celle d’autrefois que nous pouvons faire beaucoup plus. Nous devons examiner à la fois cette fonction de valeur de l’information et la forme de cette fonction de densité de probabilité.
C’est là que je pense que certains indicateurs clés entrent en jeu.
Si vous me permettez une minute, je vais raconter une petite histoire sur la façon dont je me suis lancé dans ce domaine—sur comment j’ai commencé à l’examiner—et pourquoi il est devenu si important pour moi au cours de ma carrière.
Je débutais ma carrière, et nous étions en train de construire un data warehouse pour McDonald’s. J’étais consultant chez Proco, et nous étions en 1997, ce qui vous donne une idée de mon âge à l’époque.
C’était la première année où ils ont lancé la promotion des Teeny Beanie Baby. Je ne sais pas si vous vous en souvenez, mais c’était énorme. Ça faisait les gros titres. Les gens achetaient les Happy Meals, jetaient la nourriture juste pour obtenir le jouet.
Un pauvre type, un livreur, s’est fait agresser parce que quelqu’un avait tenté de voler les Teeny Beanie Babies. Ça a fait les gros titres nationaux. C’était très, très important.
Nous sommes intervenus, en gros, lundi matin durant cette première semaine de la promo, et les dirigeants étaient sur le qui-vive en disant : “Nous avons besoin d’un rapport sur la date d’épuisement en magasin”, n’est-ce pas ?
Parce qu’ils écoulaient les Teeny Beanie Babies à une vitesse folle. C’est leur article promotionnel. Il doit être bon marché. Il influe sur l’ensemble du panier d’achat, n’est-ce pas ?
Il doit être bon marché. Ils les commandent depuis la Chine, donc ils doivent le faire un an à l’avance. Ils avaient une quantité fixe. Aucune possibilité de replenishment.
Si votre promotion dure aussi longtemps qu’elle dure, dès que vous êtes en rupture de Teeny Beanie Babies, la promotion est terminée. Les ventes chutent, n’est-ce pas ?
Nous avons donc réalisé le rapport pour eux. Et effectivement, ils ont été épuisés en environ une semaine et demie.
Alors, était-ce une bonne promotion ou non ? Je pense que oui, potentiellement, mais réfléchissez-y : vos ventes étaient quatre fois supérieures à ce que vous aviez prévu pour une semaine et demie, puis elles se sont effondrées en dessous de la normale car vous n’aviez plus de promotion pour les trois semaines restantes du mois.
Ils sont donc revenus vers nous et ont dit : “Eh bien, combien devrions-nous commander l’année prochaine ?” Et nous avons répondu : “Eh bien, vous savez, quatre fois plus.” Et la décision fut : “Non, c’est bien trop. Nous ferons deux fois plus.”
L’année suivante, ils se sont épuisés en deux semaines et demie.
Ce sont ce genre de choses qui m’ont permis de comprendre le défi. Une partie du problème était qu’ils ne pouvaient pas obtenir de bonnes prévisions.
Nous avons donc développé ce qu’on appelait un système de prévision intérimaire pour eux, qui a fonctionné pendant 18 ans. Il était censé être là juste jusqu’à ce qu’ils obtiennent quelque chose de mieux, et il calculait des jouets des Happy Meals et des galettes de burger de McDonald’s pendant 18 ans.
Ce qui m’embêtait vraiment, c’est que les fournisseurs de prévisions arrivaient en disant : “Je peux vous offrir une meilleure précision, et si je vous donne une meilleure précision, vous obtiendrez de meilleurs résultats commerciaux.”
Pour moi, c’était un peu comme dans la bande dessinée Far Side de Gary Larson où un type se tient devant un tableau rempli d’équations, et il pointe du doigt l’endroit au milieu qui n’est pas expliqué en disant : “Et puis un miracle se produit.”
Je n’ai jamais vraiment réussi à relier le tout jusqu’à ce que je découvre comment construire cette chaîne de valeur, avec la valeur de l’analytics ou la valeur de l’information, tout au long de la chaîne afin de pouvoir la modéliser.
C’est donc en quelque sorte le chemin de ma carrière, et l’une des choses sur lesquelles j’ai travaillé au cours de ces 30 années de data science.
Conor Doherty : Eh bien merci. Joannes, cela s’intègre parfaitement à votre perspective.
Dans votre livre, sur la table, je sais—et je cite les termes—vous qualifiez la précision et le taux de service de distractions, de mauvais indicateurs, et l’un de vos termes préférés : des artefacts numériques.
Maintenant, en termes simples, pourquoi pensez-vous cela ? Et je présume que c’est une version de ce que Patrick vient de dire.
Joannes Vermorel : Fondamentalement, si l’on considère le taux de service, c’est d’abord une construction très mathématique dans le sens où il s’agit essentiellement d’un pourcentage. Il ne reflète aucune valeur économique pour l’entreprise.
La première chose est que dès que nous avons des éléments basés sur un pourcentage, nous devons être prudents car il n’est pas du tout évident que cela soit enraciné dans quelque chose de réel pour l’entreprise.
C’est ça le problème : cela peut donner l’impression d’être très scientifique car on dispose de mesures et autres, mais ne l’est-il pas vraiment ?
J’apprécie vraiment le commentaire de Patrick : “et puis un miracle se produit.” Vous avez votre pourcentage, mais comment cela se relie-t-il à la rentabilité ? “Et puis un miracle se produit.” Peut-être, mais peut-être pas.
Le danger est que dès que vous avez ces pourcentages, vous courez le risque de tomber dans le scientisme. Cela ressemble à de la science. Il y a un nombre, il y a un indicateur, vous pouvez même avoir un pourcentage très précis—97,17—ce qui le fait paraître d’une rationalité exceptionnelle.
Mais ce n’est pas le cas. Ce n’est qu’un pourcentage, et il n’est pas clair qu’il soit du tout lié à l’intérêt à long terme de l’entreprise.
Maintenant, si nous revenons à ces taux de service, nous pouvons distinguer l’aspect descriptif et l’aspect prescriptif.
Le descriptif consiste à regarder en arrière. Le problème est que si je regarde pour un certain SKU, et que je bénéficie généralement d’un taux de service relativement élevé, je peux avoir de nombreux SKU à 100%. Cela ne m’apprend pas grand-chose.
Parce que que se passe-t-il, par exemple, si ce jouet Beanie Baby, avant le début de la promotion—pour l’éternité—était à 100% ou indéfini ? En termes descriptifs, ce n’était pas très utile.
Et puis, lorsque vous passez à zéro—parce que vous n’enregistrez plus de ventes car il n’est plus disponible—le taux de service ne fait pas la différence entre manquer une unité ou un million.
Donc, si vous voyez cela, c’est aussi un autre problème : cela dit “Je suis en rupture de stock”, oui, mais ce n’est vraiment pas la même chose d’être en rupture de stock parce que j’ai vendu 100 et il me manquait une unité, par rapport à avoir vendu une seule et manqué 100, et être en rupture de stock.
Encore une fois, en termes descriptifs, cela ne raconte pas l’histoire.
Ensuite, si nous parlons en termes de prescription—perspective prescriptive—comme ce que je devrais rechercher en matière de taux de service, c’est exactement comme vous l’avez décrit : les asymétries économiques ne sont pas prises en compte.
Si j’ai quelque chose qui peut, comme chez McDonald’s, avoir un impact en pourcentage à deux chiffres sur la croissance de mes ventes—de sorte que je puisse augmenter considérablement mes ventes—et que cela me coûte quelques centimes par repas pour obtenir ce jouet depuis la Chine, c’est extrêmement, extrêmement asymétrique.
Cela signifie qu’avec un investissement limité, je peux obtenir une adoption massive.
Dans ce genre de situation, on dirait : vous savez quoi, ces jouets en plastique ne sont pas périssables, ils sont très bon marché, le potentiel de hausse est extrêmement élevé, peut-être devrais-je prendre le risque de constituer un surstock.
Si les choses ne se passent pas bien, je les liquiderai au fil du temps. Les clients ne seront pas… par exemple, chez McDonald’s, dans le pire des cas, les clients recevront deux jouets avec leur repas pendant un mois.
Probablement même si le deuxième jouet n’est pas génial, cela ne contrariera pas autant de clients si le Happy Meal comporte un deuxième jouet.
Je peux donc voir que le risque que je prends en ayant trop de stock n’est pas si énorme, tant que le coût par repas reste relativement maîtrisé.
Patrick McDonald : Exactement. J’adore la manière dont, tout d’abord, vous parlez de la précision en tant qu’artefact mathématique.
Je pense qu’essentiellement, j’en ai vu les choses un peu différemment. J’appelle cela l’une des six séductions. J’ai six hypothèses que les data scientists font que nous ne devrions pas faire tout le temps.
L’une d’elles concerne l’optimum local par rapport à l’optimum global. Ainsi, si vous dites que c’est un artefact numérique—si je me concentre sur la précision—je me focalise sur un optimum mathématique local artificiel plutôt que sur ce sur quoi je devrais me concentrer, à savoir : comment maximiser le flux de trésorerie ou le profit que je vais réaliser ?
C’est l’optimum local contre l’optimum global.
L’autre chose qui me vient à l’esprit lorsque nous en parlons est : quelle décision essayez-vous vraiment de prendre ?
Je pense aux décisions de stocks beaucoup comme jouer au poker, n’est-ce pas ? Vous misez vos jetons sur la table pour parier sur la base d’informations incertaines.
Vous voulez disposer de toutes les informations possibles, et il y a un élément de risque qui entre en jeu.
Mon client actuel se trouve aux Pays-Bas. C’est une entreprise de software-as-a-service où, pour le retail, ils font de la prévision et aident les petits détaillants à positionner leurs stocks.
L’une des choses qu’ils ont constatées dans leurs applications de prévision était qu’ils privilégiaient d’abord la précision, et ont découvert que ce n’était pas la chose la plus importante pour leurs détaillants spécifiques.
La chose la plus importante était de pouvoir prédire s’ils allaient être en rupture de stock, car les détaillants vont expédier.
Si vous avez un vêtement, vous en aurez un dans un style, une couleur et une taille donnés, typiquement—peut-être un ou deux—mais pas plus que cela. Vous expédiez une fois par semaine.
Réapprovisionnez-vous ou pas, n’est-ce pas ? Vous l’avez dans l’entrepôt, il y repose. Il n’y a pas beaucoup de différence en termes de frais d’exploitation que ce soit dans l’entrepôt ou en magasin, mais vous ne voulez pas trop d’articles sur le sol du magasin.
Mais vous voulez en avoir suffisamment. Donc, leur capacité de prévision est vraiment axée sur la compréhension : d’accord, vais-je vendre cette unité, et vais-je être en rupture de stock ?
C’est ainsi qu’ils répondent à la question : est-ce que je décide de pousser des stocks du DC vers le point de vente ?
C’est une très bonne approche car ils répondent à une question différente au lieu d’essayer de dire : d’accord, combien vais-je vendre, et puis-je atteindre exactement ce nombre ?
Il s’agit de : est-ce que je prends la décision d’expédier ou non ?
Comprendre cela revient à identifier la question à laquelle vous essayez de répondre, et cela détermine l’indicateur que je vais utiliser.
Ils examinent donc plus attentivement le rappel et la précision autour d’une décision catégorielle—vais-je être en rupture de stock ou non—ce qui est bien plus important que l’aspect numérique : combien vais-je vendre ?
C’est un autre type d’indicateur que je pense que nous devons parfois examiner sous l’angle de la prévision, car il nous fournit de meilleures informations quant aux types de décisions que nous allons réellement prendre.
Est-ce que cela a du sens ?
Conor Doherty : Absolument. C’est tout à fait vrai.
Joannes Vermorel : Il y a un autre avantage si vous commencez à vous concentrer sur la décision. Par exemple, la prévision de la demande : le problème est que, selon votre mode de fonctionnement, il se peut qu’il n’y ait même pas de bonne réponse—aucune réponse précise.
Un exemple : vous avez votre réseau de retail de mode. À la fin de la collection, à la fin de la saison, ils ont l’opportunité de faire des remises pour liquider la collection en cours.
Donc, si vous dites : “Je prévois ce niveau de demande”, la question est : à quel niveau de prix prévoyez-vous ?
Il y a le prix actuel, mais il y a aussi l’option de faire une remise. Vous devez maintenant examiner les différentes stratégies.
Si je conserve l’unité dans l’entrepôt jusqu’à la fin de la saison, je devrai la pousser quelque part et appliquer une remise.
Si je l’envoie en magasin, j’aurai peut-être l’opportunité de le vendre avant la fin de la saison, avant de devoir appliquer une remise.
Mais peut-être que ce magasin en particulier, en termes de pouvoir de marché lorsqu’il s’agit des remises—peut-être que la clientèle locale est très limitée et peu réceptive aux remises pour ce magasin spécifique comparativement aux autres.
Vous voyez : cela implique plusieurs aspects—votre affaire de local versus global—mais aussi, ce que je voulais souligner, c’est que si vous considérez le futur comme quelque chose de statique, vous éliminez toute la capacité d’action dont vous disposez pour façonner ce futur au fur et à mesure.
Ce que je dis, c’est que le problème de l’approche “prévisions d’abord” est qu’elle élimine toute la marge de manœuvre que l’entreprise pourrait avoir, car vous dites essentiellement : c’est le plan, cela devient un engagement, et c’est ce que nous faisons.
Au lieu de penser : c’est la bonne décision, et que je garde de nombreuses options disponibles pour adapter cette décision que je prends à l’instant.
Je n’ai pas besoin de m’engager au-delà de la décision. La décision que je prends est mon seul engagement. Le reste reste ouvert.
Voilà le problème avec les prévisions : elles ont tendance à enfermer l’entreprise dans une trajectoire complètement aveugle à toute possibilité d’option.
Et si vous souhaitez effectuer un transfert ultérieur entre magasins ? Peut-être que c’est une option, peut-être pas. Mais si vous pensez en termes de décision, cela devient très naturel.
Si vous pensez en termes de prévision—en particulier la prévision des séries temporelles—c’est quelque chose d’extrêmement difficile à exprimer.
Patrick McDonald : Mon client actuel fait en fait une partie de cela. Ils disposent d’un module de transfert, de sorte qu’ils vérifient : d’accord, dois-je transférer cette variante particulière d’un magasin à un autre parce qu’elle a plus de chances de se vendre là-bas ?
Nous avons également effectué une analyse des prix. Nous avons réalisé une analyse basique de price elasticity, en nous demandant : d’accord, si je fais une remise, vais-je obtenir plus de volume, ou est-ce que je cède simplement de la marge ?
Nous commençons à être capables de répondre à cette question.
J’aime bien que vous parliez un peu de si c’est dynamique ou plutôt statique. C’est le numéro quatre de mes six sacro-saints auxquels nous pensons tout le temps : nous considérons tout comme un problème d’équilibre statique, alors que la plupart des choses sont dynamiques.
Alors absolument, je pense que ce sont des décisions cruciales et que nous devons prendre en compte cette optionalité.
Je pense que l’autre domaine auquel nous ne pensons pas suffisamment—and même moi, je n’en suis pas encore arrivé là car le problème est assez compliqué, et je sais qu’il y a d’autres personnes qui y ont travaillé—c’est qu’il y a beaucoup d’incertitude en ce qui concerne les délais de livraison.
Vos fournisseurs, en particulier si vous êtes dans la fabrication et que vous attendez un bill of materials complet : vous recevez des fournitures et vous devez attendre leur arrivée.
Parfois, ils livrent à temps, parfois non. Il y a une incertitude qu’il faut modéliser.
Je sais qu’il y a des personnes qui font un très bon travail dans certains de ces domaines, mais je pense que nous disposons désormais d’une plus grande capacité, d’un point de vue de calcul, pour pouvoir examiner cela de manière un peu plus approfondie.
Donc je pense qu’il existe des opportunités même du côté de l’offre en termes de compréhension de ce à quoi cela ressemble et où cela va.
Joannes Vermorel: Oui. J’ai d’ailleurs des cours sur la modélisation probabiliste des délais de livraison sur YouTube.
Nous avons développé des technologies depuis plusieurs années pour combiner de nombreuses sources d’incertitude, et c’est pourquoi, généralement, la précision classique tombe à plat.
C’est très difficile en raison de ces préoccupations asymétriques. Vous combinez de nombreuses incertitudes, chacune ayant ses propres asymétries qui peuvent être assez contre-intuitives.
Elles peuvent se combiner. Par exemple, les délais de livraison ont tendance à… la plupart des distributions des délais de livraison sont bimodales. Vous avez un mode, un pic, pour la date normale attendue quand tout se passe bien, puis vous avez la queue qui est extrêmement longue lorsque les choses ne se déroulent pas comme prévu.
C’est même très souvent une distribution qui n’a même pas de moyenne parce que certaines choses ne sont jamais livrées. Donc, mathématiquement, il n’y a même pas de moyenne. C’est un peu étrange.
De plus, dans le cas où les délais de livraison ont tendance à complètement dérailler, c’est lorsque vous passez une grosse commande, ce qui n’est pas surprenant. Vous passez une grosse commande, ce qui est inhabituel, et ensuite votre fournisseur rencontre des difficultés.
Donc, vous avez des corrélations.
Ce que je dis, c’est que si nous adoptons le paradigme classique de la supply chain qui pense en termes d’exactitude, avec des pourcentages à gogo, lorsque vous combinez tous ces effets, vous vous rendez compte que ce qui peut vous coûter de l’argent n’est absolument pas évident d’un point de vue en pourcentage.
Vous pouvez vous retrouver avec des choses très absurdes. Par exemple, si vous avez un produit frais et périssable que vous allez vendre à Noël—disons des huîtres—c’est incroyablement sensible au timing.
Si vous manquez Noël et le Nouvel An, vous êtes foutu. Vous vous retrouverez à vendre ce que vous avez avec une remise de 80 %, et cela pourrait être le meilleur des cas.
Tout n’est pas un alignement de planètes destiné à vous nuire de cette manière, mais très souvent vous avez de nombreux cas limites. Vous avez une multitude de cas limites, où tant de produits ont leurs propres cas limites.
C’est pourquoi je revenais initialement sur le fait que nous devons tout rattacher à des dollars — ou à des euros.
Parce que lorsque vous combinez ces incertitudes, vous réalisez que la faiblesse de votre modèle prédictif peut être très contre-intuitive. Il se peut que ce soient des éléments que, de prime abord, un statisticien dirait : “Oh, cela semble assez précis et bien calibré”, mais vous constatez que vous vous retrouvez avec des problèmes.
Un exemple : si vous relancez votre logique chaque jour pour savoir si vous devez passer un bon de commande depuis, disons, la Chine, et qu’un jour sur 100 — donc 1 % de chances —, cela fait un pic juste à cause d’une instabilité numérique, cela signifie que vous passerez quelque chose comme trois commandes par an à votre fournisseur en Chine rien que par cette instabilité numérique du modèle.
Aujourd’hui, il y a eu un pic et ensuite vous vous retrouvez à courir après un fantôme. C’est un artefact numérique qui était simplement l’instabilité numérique de votre modèle ce jour-là.
En termes d’exactitude, si ce genre de problème ne se produit qu’une seule fois — 1 % du temps —, il n’apparaîtra même pas dans votre moyenne d’exactitude car il sera complètement éclipsé par d’autres éléments.
C’est ce que je dis : les faiblesses de votre modèle prédictif doivent être évaluées en dollars. Sinon, vous avez des choses qui semblent insignifiantes pour la plupart des métriques basées sur les pourcentages, mais une fois que vous les regardez en dollars, vous vous rendez compte : “Oh merde, cette chose qui semble petite, en réalité, n’est pas petite, elle est grande”, parce que j’ai oublié mon effet cliquet, par exemple, sur les bons de commande passés auprès de ce fournisseur en Chine.
Patrick McDonald: Nous avons commencé à y réfléchir un peu. Taleb en a parlé en premier dans son livre The Black Swan. Je suis sûr que vous connaissez cela, non ?
Nous avons maintenant des cygnes gris et des cygnes noirs. J’appelle cela des cygnes pourpres, qui sont des distributions vraiment étranges qui se produisent à cause de certaines choses assez uniques. Ce sont ces cas limites.
Ils ne correspondent pas à une distribution standard. Ils ne sont pas numériquement décrits. Je dois utiliser une véritable fonction de densité de probabilité et l’exploiter comme un tableau de valeurs afin de la décrire.
Le premier exemple que j’ai eu fut : nous développions une solution de prévision dans le cadre d’une preuve de concept pour une entreprise aérospatiale, et ils m’ont demandé de calculer safety stock. C’était quelque chose que je n’avais jamais fait auparavant.
Je l’ai abordé un peu différemment. J’ai tiré parti du travail de Sam Savage de Stanford sur la gestion de la probabilité, et il a un petit outil Excel qui vous permet, en gros, de faire des calculs avec des fonctions de densité de probabilité.
J’ai donc fait quelque chose de très simple. J’ai pris l’intervalle de prédiction pour la prévision et j’en ai utilisé un de base, donc c’était juste une distribution normale.
C’était la première fois que je réalisais entièrement ce mapping du modèle de valeur de l’information et que je me disais, d’accord, sur cette base, comment définir mes stocks de sécurité ?
J’ai commencé à l’examiner. Je regardais une série temporelle individuelle et : distribution normale, distribution normale, distribution normale. Tout à coup, j’en vois une que je n’avais jamais vue auparavant, et elle ressemble à ceci — boum.
Qu’est-ce que c’est que ça ?
J’ai compris. Ce que j’avais fait, c’est que j’avais intégré une fonction où je disais : mes ventes sont le minimum entre mon niveau de stocks et la demande, n’est-ce pas ?
La demande était une distribution normale. Le niveau de stocks était juste ici. Et si la demande dépassait le niveau de stocks, la distribution — la queue — apparaît. Eh bien, c’est simplement votre risque de rupture de stock.
J’ai pu constater cela 11 mois à l’avance en observant cette distribution de probabilité.
Donc, c’est un exemple d’un genre de cygne pourpre.
En ce qui concerne votre point, lorsque nous poursuivons cette quête de précision, beaucoup d’entre nous prennent cette métrique d’exactitude de manière isolée. Nous calculons un intervalle de prédiction, mais nous le laissons de côté et nous ne l’utilisons pas.
L’utiliser et l’intégrer dans une simulation est là où vous commencez à réellement observer ces cas limites se manifester et à mieux comprendre la situation.
Joannes Vermorel: Oui, absolument. Pour l’aérospatiale, c’est très intéressant parce que nous avons fait énormément de choses.
Quelques exemples : la précision vous enferme dans la perspective des séries temporelles, ce qui est particulièrement erroné dans ce cas.
L’une de nos premières découvertes lorsque nous travaillions dans l’aérospatiale a été de découvrir le concept de retrofits. Vous avez des pièces demandées parce que vous avez besoin d’une réparation, donc une pièce doit arriver.
Mais ensuite, vous vous rendez compte que vous avez des retrofits, qui sont des pièces dont l’OEM déclare : vous devez pousser ces pièces — ces nouvelles pièces — en remplacement de l’avion parce que nous ne faisons plus confiance aux anciennes.
Ainsi, dans vos séries temporelles, vous mélangez, en fait, deux types d’unités différents : celles qui sont tirées pour les réparations, et celles qui sont poussées pour les retrofits.
Mais ce n’est pas tout.
Un autre élément : lorsqu’on observe la demande dans l’aérospatiale, très souvent, l’avion doit compléter la réparation en, disons, huit heures pour une petite maintenance.
En conséquence, l’équipage va demander beaucoup plus de pièces que ce dont il a réellement besoin, car il n’aura que huit heures pour effectuer la réparation.
Ils diraient : “Nous avons besoin de 100 de ces pièces”, mais le lendemain, vous vous retrouvez avec une quantité massive de pièces retournées, mais non utilisées.
Ainsi, vous devez comprendre votre signal de demande.
Ces éléments ne sont pas super compliqués, mais ils doivent être pris en compte, et vous devez avoir la perspective aérospatiale pour vraiment comprendre : d’accord, qu’essaient-ils de faire ?
Ils essaient de réparer un avion. Ils se préoccupent du timing de leur opération. Ils doivent donc demander un peu plus et retourner beaucoup de choses.
Certaines pièces sont en réalité demandées par l’équipage. D’autres sont en réalité poussées par l’OEM.
Nous avons donc ici une nuance à prendre en compte, etc.
C’est pourquoi toutes ces idées — contrairement aux pourcentages — proviennent de la compréhension de comment faire réparer un avion en premier lieu. C’est un domaine de connaissances différent.
Mon message ici, en ce qui concerne ces indicateurs, est que, en règle générale, il faut être extrêmement méfiant envers tout indicateur provenant directement du monde des mathématiques — des mathématiques pures — par opposition à quelque chose qui est réellement guidé par une compréhension très précise de ce que vous cherchez à accomplir sur le terrain.
Malheureusement, la plupart des KPI que je vois proviennent de beaucoup de mathématiques, généralement parce qu’ils sont beaucoup plus faciles à définir.
Si nous revenons à l’aérospatiale, c’est une sorte de situation médiocre où l’équipage dit : “Je veux 100”, vous n’en avez que 80, mais au final ils retournent 30.
Avez-vous satisfait la demande ? Oui, non, oui ?
L’équipage était très tendu parce qu’il pensait qu’il manquerait peut-être de pièces, mais finalement il n’en manquait pas.
C’est le genre de situation où, soudainement, nous nous retrouvons plongés dans les moindres détails pour comprendre la situation, par opposition à l’erreur quadratique moyenne contre le MAPE contre l’erreur absolue, etc. — tous les critères théoriques.
Conor Doherty: Eh bien, messieurs, sur ce point, je pense que nous avons complètement dénoncé ce que vous verriez tous comme l’approche traditionnelle pour suivre la performance.
Mais ce qui reste un peu flou, c’est ce que nous proposons comme alternative.
Donc, par exemple, pour revenir à Patrick : vous avez dit, encore une fois, que poursuivre la précision de la prévision de manière isolée est une quête vaine. Accordons-le pour le bien de la discussion.
D’accord, mais alors, que sommes-nous censés suivre ? Dire “suivons simplement l’argent”, cela n’est pas très clair pour les gens.
Alors, quelle est la véritable thèse que nous proposons — ou que vous proposez — pour remplacer les KPI traditionnels ?
Patrick McDonald: Exactement. J’ai tendance à faire ce que j’appelle l’analyse de la valeur de l’information.
Je veux simuler ce flux de trésorerie en termes des décisions que nous examinons réellement et de la manière dont nous les prenons.
Pour ce faire, vous devez vraiment avoir une compréhension claire de ce modèle de valeur de l’information.
Quel est le coût de ne pas réaliser la vente si nous sommes en rupture de stock ? Quel est mon coût de détention associé ?
À quoi ressemble cette incertitude, que ce soit une prévision ou une convolution avec les délais de livraison ou quoi que ce soit dans votre simulation pour la modéliser ?
Essayez de suivre cela à partir de : voici mon insight, voici la décision que je vais prendre, voilà le levier que je vais activer dans l’entreprise, c’est ici que je vais définir mon positionnement, c’est ici que je vais concentrer mes efforts.
Quels sont les résultats que j’attends ?
Réalisez cette simulation — faites l’analyse de Monte Carlo — et examinez quelles seront les distributions de probabilité des résultats.
Ensuite, mesurez le réel par rapport au prédictif en tenant compte de cela.
C’est l’approche que j’ai suivie. Elle a tendance à fonctionner assez bien. Elle exige cependant un peu plus de sophistication de la part de vos dirigeants d’entreprise.
Les dirigeants d’entreprise ont tendance à vouloir penser les choses de manière très linéaire et quelque peu simpliste. C’est une autre de mes six préoccupations.
Mais c’est l’approche que je prends, et c’est ce que je recommanderais vraiment : réfléchissez à ce modèle de valeur de l’information et à la manière dont vous l’appliquez.
Maintenant, les métriques de prévision traditionnelles — sont-elles encore utiles d’un point de vue statistique ? Oui, elles peuvent l’être.
J’ai tendance à essayer de les pondérer. J’examine, comme je dis, une précision pondérée, un rappel pondéré, une métrique pinball pondérée que je trouve beaucoup plus utile qu’une métrique d’exactitude.
Le pinball vous permet d’examiner l’exactitude sur l’ensemble de ce profil de demande — cette fonction de densité.
Si vous le positionnez correctement, y appliquez une pente de valeur de l’information et le pondérez correctement, cela peut vous donner un aperçu de l’analyse de valeur que vous recherchez.
Ce sont des choses que je ne fais qu’implémenter à l’heure actuelle. Je suis en train d’apprendre en réalisant ces tâches.
Cela fait, comme je le dis, plus de 30 ans de travail, et chaque jour en allant au bureau, j’apprends quelque chose de nouveau.
Voilà où j’en suis. C’est l’approche que je prends actuellement, et elle semble avoir un véritable impact pour certains de mes clients.
Conor Doherty: Merci, Patrick.
Joannes, même question. Je présume que vous l’abordez également d’un point de vue financier très concret.
Joannes Vermorel: Je dirais qu’il y a en réalité deux grands ensembles d’indicateurs que nous générons et surveillons habituellement pour des objectifs complètement différents et pour des publics différents.
Le premier public serait la gestion de la supply chain — les dirigeants de la supply chain. Pour ceux-ci, il s’agira essentiellement de facteurs économiques.
Nous disons : nous voulons maximiser le retour sur investissement, c’est-à-dire le taux de rendement de chaque décision. Mais nous devons décomposer cela en une série d’impacts : le coût des stocks, la marge attendue, le coût prévu de dépréciation des stocks, la pénalité de rupture de stock.
Donc, nous procédons à cette décomposition.
Dans ce domaine, nous avons des indicateurs qui sont prospectifs — donc dépendants du modèle prédictif — et d’autres qui sont purement descriptifs : ils se contentent de regarder ce qui se passe.
Ici, nous parlons peut-être, je dirais, d’une douzaine maximum d’indicateurs. Certains sont purement descriptifs — des statistiques descriptives — et d’autres sont embedding conditionnés à la justesse du modèle prédictif.
Par exemple, si je vous dis que ces stocks présentent un risque de dépréciation de tel montant de dollars, je n’ai pas encore observé cette dépréciation de stocks. C’est donc un nombre que je construis grâce à un modèle prédictif d’une certaine nature.
C’est destiné au public des dirigeants et des praticiens.
Ensuite, nous avons un second ensemble d’indicateurs qui est généralement relativement monstrueux. Il peut y avoir des centaines de chiffres pour les data scientists eux-mêmes.
Ici, on examine généralement le signe qu’il y a quelque chose qui peut mal tourner dans l’ensemble du processus de traitement, parce que nous obtenons des données. C’est généralement un processus désordonné où nous avons des dizaines et des dizaines de tables extraites des ERP — potentiellement plusieurs —, un WMS, un CRM.
Ainsi, nous consolidons beaucoup de choses à partir du paysage applicatif de l’entreprise, et il y a tant de choses qui peuvent mal tourner.
Par exemple : que se passe-t-il si, soudainement, d’un jour à l’autre, vous constatez une variation avec 5 % de fournisseurs supplémentaires ? Est-ce significatif ou non ? Quelqu’un a-t-il introduit des doublons ou pas ?
Et 20 % de fournisseurs en plus ? D’accord, 20 % — c’est probablement un doublon ou un bug.
Vous devez donc surveiller plein de choses qui posent problème et qui peuvent s’insinuer dans votre pipeline de traitement des données.
Pratiquement tout : vous surveillerez le nombre de SKU, le nombre de fournisseurs.
Parfois, vous essayez d’identifier des éléments proches de l’invariance que vous pourriez utiliser pour détecter qu’un bug s’est produit dans votre data pipeline.
Exemple : le e-commerce que nous exploitons vendant des pièces automobiles. Nous avons remarqué, il y a des années, que c’était extrêmement stable : « deux pièces et demie par panier ».
C’était incroyablement stable — pendant l’été, l’hiver, Noël — c’est super, super stable : deux pièces et demie par panier.
Cela signifie que nous avons quelque chose de très stable. L’activité peut fluctuer énormément, mais en réalité, cet élément reste très stable.
Ce qui signifie que si nous constatons une déviation à ce niveau, c’est probablement qu’il y a un bug dans le pipeline : par exemple, les lignes de commande ont été supprimées, nous n’avons que la première ligne de commande de chaque commande, ou quelque chose d’aussi absurde.
Ainsi, le Supply Chain Scientist composera un dashboard, mais ici, ce n’est absolument pas axé sur la valeur. C’est, de notre point de vue, ce que nous appelons guidé par la folie.
Vous voulez garder un œil sur tout ce qui peut littéralement semer le chaos dans vos calculs et compromettre complètement vos modèles. Cela peut être une multitude de bêtises.
Il peut même s’agir, par exemple, du ratio entre lettres et chiffres dans les étiquettes de description des produits. Si vos étiquettes se retrouvent soudainement composées uniquement de chiffres, il y a de fortes chances que vous n’ayez plus les bonnes étiquettes pour la description.
Il existe de nombreuses heuristiques qui sont là simplement pour s’assurer que les données que vous traitez automatiquement à grande échelle restent saines.
Cela n’intéresse que ce que nous appelons le Supply Chain Scientist, car le Supply Chain Scientist veut s’assurer que, chaque jour, les décisions prises à grande échelle comportent 0 % de folie.
Je définis la folie comme quelque chose pour lequel n’importe qui, en regardant ces décisions, dirait : “Une décision folle — oh non, c’est dingue, vous ne devriez pas faire ça.” Quelque chose s’est mal passé quelque part dans le pipeline de données.
Pour nous, il est très important de s’assurer que ce nombre de décisions folles soit nul.
Nous ne pouvons pas être parfaitement précis, mais nous pouvons éliminer cette folie grossière.
Conor Doherty: Patrick, quelque chose à ajouter avant que nous continuions ?
Patrick McDonald: Je veux juste dire rapidement que, tout au long de ma carrière en data science, l’exactitude et la qualité des données ont toujours été un problème.
J’ai vu des choses étranges — des niveaux de stocks négatifs. Comment peut-on avoir un niveau de stocks négatif ? Cela n’a aucun sens.
J’avais un client — un grand client FAANG — dont le directeur des data centers entrait dans un tout nouveau data center, consultait son rapport de consommation électrique, et il indiquait qu’aucune énergie n’était consommée.
Il regarde autour de lui et, bien sûr, toutes les machines fonctionnent et les lumières clignotent, alors il sait que le rapport est erroné. Que s’est-il passé ?
Donc oui, beaucoup de choses peuvent se produire dans le domaine du traitement des données.
Je pense que le contrôle statistique des processus est quelque chose qui peut être utilisé pour gérer cela. On dirait que c’est ce que vous utilisez, et c’est la bonne manière de procéder.
Si vous n’avez pas de bonnes données, le principe du “garbage in, garbage out” s’applique toujours. Avec le big data, cela signifie que vous allez avoir beaucoup de données inutiles. Vous devez donc y faire face.
Joannes Vermorel: Oui, absolument.
Parfois, la chose la plus positive est que les données sont en réalité correctes — mais d’une manière très, très étrange. Par exemple, SAP a décidé, il y a 30 ans, que les retours seraient comptabilisés comme des ventes négatives.
Cela signifie donc que vous aurez des jours avec des ventes négatives. Cela signifie simplement que vous avez eu, en réalité, plus de retours que d’articles vendus.
Si vous optez pour le e-commerce en Allemagne, où environ 40 % des articles expédiés sont retournés, vous aurez des tonnes de ventes négatives.
Mais c’est une information très importante — sauf qu’il ne s’agit pas d’une vente négative, mais d’un retour.
Voilà ce genre de choses.
Mais je suis d’accord : les données sont extrêmement désordonnées, et il est très important de s’assurer qu’elles restent sous contrôle.
Conor Doherty: Super.
Eh bien, messieurs, j’ai une question de clôture, mais je vais la remettre à la fin et plutôt donner la priorité à certaines questions du public.
Celles-ci proviennent de questions en messages directs sur ce fil, mais aussi d’une question intéressante de la semaine dernière qui, selon moi, s’applique très bien à aujourd’hui.
Je vais donc commencer par une question de Miguel Lara. Ceci est adressé au panel. Patrick, je vous cède la parole en premier.
Y a-t-il un ou des KPI qui n’affectent pas nécessairement les résultats financiers mais que vous considéreriez quand même comme ayant un fort impact, ou présentant une certaine utilité ?
Patrick McDonald: Oui.
Je pense que bon nombre des indicateurs standard que nous examinons restent importants à considérer.
Le MAPE est un indicateur important lorsque vous examinez et essayez de comprendre à quel point un modèle de prévision va fonctionner.
Votre MAE ou votre MASE sont également des indicateurs que je prendrai en compte et utiliserai.
Ce n’est pas qu’ils ne sont pas importants, mais ce ne sont pas les plus essentiels, et ce ne sont pas ceux que nous devrions poursuivre.
Je pense que c’est la perspective que j’adopterais.
Comprenez ce que les indicateurs vous disent et utilisez-les pour l’usage qui leur est destiné.
Ne faites pas l’hypothèse “et puis un miracle se produit” et n’appliquez pas ces indicateurs en pensant que vous allez en tirer une valeur financière lorsqu’ils sont utilisés d’une manière pour laquelle ils n’ont pas été conçus.
Donc, je suppose que c’est ma réponse à cela. L’adéquation à l’usage est quelque chose que je m’efforce de garder à l’esprit dans tout ce que je fais, et c’est ce que je recommanderais pour bon nombre de ces indicateurs.
Conor Doherty: Merci.
Joannes, même question. Dois-je répéter ?
Joannes Vermorel: Je pense que, pour Lokad, l’indicateur non financier le plus important est le nombre d’interventions manuelles par jour pour des décisions qui devraient être automatisées. C’est le premier point.
Donc, ce n’est pas financier, mais pour nous, tout ce qui est supérieur à zéro constitue un problème, et nous le considérons comme un défaut.
Le problème est que lorsqu’il y a un défaut, cela signifie que notre modèle est en quelque sorte erroné. S’il est erroné, alors nous ne pouvons même pas faire confiance à la modélisation économique que nous avons.
Par définition, si des personnes effectuent ces interventions manuelles, cela signifie qu’elles constatent des anomalies que nous ne voyons pas.
Ainsi, toutes ces mesures économiques que nous avons pourraient être complètement compromises par cette preuve d’inexactitude.
Pour nous, c’est donc la priorité numéro un : ces interventions manuelles, car chaque fois qu’elles surviennent, cela signifie qu’il y a quelque chose que nous nous trompons dans le modèle lui-même, et par conséquent, cela peut potentiellement compromettre toute l’analyse économique de bout en bout.
C’est pourquoi nous devons y accorder une grande attention. Nous considérons cela comme un bug. À moins de comprendre le bug, nous ne savons pas à quel point le gouffre est profond.
Patrick McDonald: J’ai trouvé cela vrai également.
La question que je me poserais est la suivante : est-ce toujours le cas ? Quand avez-vous découvert que presque toutes ces interventions manuelles étaient erronées ?
Ou existe-t-il des cas où quelqu’un intervient pour effectuer une dérogation et, oui, il y avait un problème avec le modèle que nous avons identifié et corrigé ?
Joannes Vermorel: Tout d’abord, il faut dire qu’au début, lorsque nous démarrons un projet, la plupart des interventions manuelles — malheureusement pour nous — sont réelles. Il y a des éléments que nous avons manqués. Il y a des choses que nous n’avons pas comprises.
Ainsi, lorsque nous commençons, la plupart de ces interventions reflètent généralement des éléments que nous ignorions.
Par exemple, lorsque nous avons démarré aviation, il y a environ quinze ans, je ne savais pas ce qu’était un retrofit — ni l’importance du retrofit.
Nous avons eu beaucoup de personnes ajustant des chiffres, et à un moment donné, j’ai dit : “Qu’est-ce qui se passe ?” Ils nous ont répondu que c’était un retrofit. J’ai dit : “Quoi ?”
Ensuite, nous sommes revenus en arrière. La personne qui avait réalisé la modélisation était très ignorante sur quelque chose de très important.
Mais avec le temps, cela peut être n’importe quoi. Il peut s’agir d’un nouveau qui effectue une dérogation sans raison aucune, simplement parce qu’il avait l’habitude de faire des dérogations dans sa précédente entreprise, vient ici et dit : “Oh, je devrais faire une dérogation.” Eh bien, en réalité, cela n’a aucun sens.
Je considère que… le pourcentage de rapports critiques diminue considérablement.
Mais c’est un peu comme quand vous êtes dans une entreprise de logiciels : vous recevez des rapports de bug de la part des utilisateurs. Vous avez beaucoup de rejets. Les gens diront : “Oh, c’est buggé”, non, vous vous êtes simplement trompé sur la fonctionnalité — c’est en réalité le comportement prévu.
Néanmoins, nous avons tendance à surveiller cela très attentivement, car, selon Nassim Taleb, les exceptions qui s’avèrent correctes peuvent être très significatives.
Donc, même si l’on dit que 99 % des cas relèvent du “l’utilisateur a tort”, peut-être que ce 1 % s’avère avoir un impact très important.
C’est pourquoi nous restons vigilants.
Pour un projet mûr, la grande majorité constitue essentiellement du bruit, mais quelques cas ne le sont pas, et ce sont ceux qui nous préoccupent réellement.
Conor Doherty: D’accord. Merci.
La question suivante a été posée par — j’espère prononcer correctement — Lucio Zona. Elle concernait la discussion sur les stocks de sécurité de la semaine dernière, mais elle est très pertinente.
Je dois donc la lire, puis il y a deux questions.
Un peu de contexte : Lucio a souligné que la plupart des bonus des managers supply chain sont liés aux KPI. Par exemple, à l’“on time and in full”. En conséquence, personne ne se fait vraiment renvoyer pour avoir des excès de stocks, seulement pour un mauvais “on time and in full”.
Cela incite naturellement — ou peut-être encourage — les gens à gonfler les stocks.
En théorie, nous pourrions dimensionner les stocks de sécurité en utilisant de véritables coûts économiques par unité manquante, par événement de rupture de stock, mais ces chiffres sont imprécis. Ainsi, les entreprises se rabattent sur des KPI simples.
Maintenant, les deux questions : à qui les KPI importent-ils réellement, et comment les structures d’incitation devraient-elles être conçues afin que ces indicateurs ou KPI ne récompensent pas fondamentalement ceux qui manipulent le système ?
Patrick, je commence avec vous.
Patrick McDonald: C’est une question difficile. Je sais. Non, ce n’en est pas une. C’est une question simple qui m’énerve énormément.
La quantité d’incitations conflictuelles dans les grandes organisations dans lesquelles j’ai travaillé est vertigineuse.
C’est l’un des plus grands défis auxquels je fais face.
Un tout autre sujet.
J’ai un ensemble différent d’indicateurs globaux que, je pense, les organisations devraient examiner pour la manière dont elles dirigent leurs activités.
Les indicateurs en conflit, en particulier ceux qui incitent à adopter des comportements contradictoires, posent problème.
C’est en partie pour cela que nous avons le sales and operations planning. Les opérations et la supply chain ont leurs propres problèmes pour de nombreuses raisons.
Sans oublier que chacun dispose de ce que l’on appelle une prévision, et qu’il y a au moins sept prévisions différentes dans chaque organisation.
Il y a un plan d’approvisionnement, un plan de demande, une statistical forecast, des objectifs de vente, un plan marketing et un plan financier. On les appelle tous “the forecast”. Ils ne se recoupent pas.
Ensuite, l’organisation se demande pourquoi ils ne sont pas alignés.
Une partie de la raison tient au fait que l’on revient aux indicateurs individuels sur lesquels sont basés les bonus des personnes, des indicateurs qui incitent à certains comportements.
Donc oui, c’est un énorme problème. Le résoudre n’est pas un défi trivial. C’est un travail de type conseil en management — ou un gros problème de gestion — qui doit être traité.
Cela peut être résolu, mais cela nécessitera un véritable leadership au sein de l’organisation pour y parvenir.
Cela couvre-t-il donc la première partie de la question ? Quelle était la deuxième partie ? Ai-je manqué quelque chose ?
Conor Doherty: Les KPI importent à qui — ou à qui importent réellement les KPI ? Et ensuite, comment inciter les gens à ne pas manipuler le système ?
Patrick McDonald: Vous vous assurez que vos indicateurs sont alignés et ne sont pas en conflit. C’est ainsi que vous procédez.
Conor Doherty: D’accord. Merci.
Joannes, même questions.
Joannes Vermorel: Mon approche sera un peu différente.
Il existe une loi d’entreprise qui dit : tout bon indicateur qui est établi comme objectif cesse d’en être un bon indicateur.
Selon moi, l’idée que vous pouvez inciter les gens sur la base d’indicateurs revient à infantiliser votre personnel. Cela se retournera toujours contre vous.
Les gens finiront toujours par manipuler l’indicateur. C’est juste une catastrophe qui n’attend que de se produire.
C’est une sorte d’idée qui semble bonne mais qui a invariablement des conséquences désastreuses à long terme.
Peu importe l’indicateur. Les gens pensent, “Oh, si nous choisissons le bon indicateur, cette fois, il ne sera pas manipulé. Cette fois, il sera bon. Cette fois, il sera aligné avec l’intérêt à long terme de l’entreprise.”
Il s’avère que non, ce ne sera pas le cas.
Je ne sais pas comment, mais donnez quelques mois à vos collaborateurs et ils trouveront un moyen de vous rendre la vie infernale et de rendre votre entreprise moins rentable en manipulant l’indicateur.
Encore une fois, c’est l’une des plus grandes forces de l’humain. Les humains sont ingénieux. C’est une bonne chose — ils sont ingénieux. Ainsi, des problèmes surviendront. Des problèmes surviendront et tout ira mal.
Ma suggestion est la suivante : abandonnez ce rationalisme naïf. Pour moi, c’est un rationalisme naïf de dire, “Oh, ce que j’ai simplement à faire, c’est d’avoir un indicateur très clair, et ensuite les gens maximiseront cet indicateur, il sera aligné avec l’intérêt à long terme, problème résolu.”
“Je n’ai pas à gérer les gens, il me suffit de laisser l’incitation faire le travail à ma place en tant que manager.” C’est, pour moi, une vision très infantile de la nature humaine. Ça ne fonctionne pas comme cela.
Les incitations sont très puissantes, mais les incitations — Taleb, d’ailleurs, en parle beaucoup dans ses livres, non seulement dans The Black Swan mais aussi dans Antifragile — les humains sont des créatures qui considèrent les effets de second ordre, de troisième ordre, de quatrième ordre.
Les gens feront quelque chose parce qu’ils pensent que leur prochain employeur pensera mieux d’eux, et ceci et cela et cela.
Ainsi, ils peuvent faire des choses avec un plan à long terme qui dépasse complètement vos attentes.
Aborder votre personnel par le biais de métriques, c’est comme un raisonnement de premier ordre. Vous ne prenez pas en compte le second ordre, le troisième ordre, etc.
En fin de compte : si votre entreprise dispose de ces incitations, la priorité absolue devrait être de les supprimer complètement—toutes.
Les seules choses qui sont en quelque sorte acceptables sont, par exemple, les stock options. Vous prenez des stock options, vous les faites acquérir sur une période de cinq ans. Très bien. C’est suffisamment proche de l’intérêt à long terme de l’entreprise, et c’est tout.
Gardez cela super simple et non spécifique.
Ensuite, il faut comprendre que lorsque vous commencez à faire de l’optimisation—optimisation économique—la demi-vie de votre fonction objectif est d’environ une semaine.
Votre fonction objectif n’est pas quelque chose que vous mettez sur un piédestal en disant “voilà”. Cette fonction évoluera beaucoup.
Par exemple, lorsque l’administration Trump a décidé que les tarifs pouvaient être modifiés environ cinq fois par jour, le jeu a soudainement changé.
Il y a eu, quoi, 400 mises à jour tarifaires aux États-Unis depuis… nous sommes tous en train d’être très antifragiles en ce moment. Nous devons l’être.
C’est donc ce genre de chose : de nouvelles règles, la fonction objectif évolue.
Maintenant, il faudrait introduire une prévision probabiliste de la distribution tarifaire pour anticiper, car personne ne peut vraiment se mettre à la place du président.
Apparemment, tout ce que vous pouvez avoir est une prévision probabiliste de l’endroit où se situera le tarif, et il sera apparemment entre 0 % et 200 %.
Mon point de vue ici est le suivant : comprenez que, parce que la fonction économique évolue rapidement—pas toujours aussi rapidement que les tarifs aux États-Unis, mais néanmoins rapidement—le problème est que la métrique dont vous disposez pour vos équipes sera revue une fois par an, voire tous les deux ans.
Vous allez rendre tout le monde fou si vous modifiez leur mode de rémunération chaque mois. C’est tout simplement insensé.
La réalité est la suivante : pour assurer la sécurité psychologique, les gens ont besoin de quelque chose qui leur donne au moins 12 mois de prévision où ils pensent, “Voilà ce que je gagne.”
Mais la supply chain exige parfois de penser en termes de jours et d’être très réactif. Ces éléments ne sont pas compatibles.
C’est pourquoi je dis : supprimez ces incitations. En pratique, cela se retournera contre vous, ne serait-ce que parce que vous devez mettre à jour vos fonctions économiques beaucoup plus rapidement que vous ne pouvez revoir les packages que vous offrez à vos employés, voire à vos cadres.
Conor Doherty : Cool. Merci.
Deux points ici. Premièrement, je crois avoir dit “Goodwin’s law”. Godwin’s law—c’est une toute autre affaire. Je voulais dire Goodhart’s law. Ce sont deux phénomènes très, très différents.
En réalité, ce ne sont que des commentaires qui affluent, essentiellement un accord. Miguel Lara signale : si vous créez un KPI qui n’a aucun impact, c’est essentiellement du travail supplémentaire et cela n’a aucune réelle valeur en fin de compte.
Joannes Vermorel : Et d’ailleurs, parce que personne ne pense que les grandes entreprises ne pensent qu’en termes d’éléments additifs—jamais soustractifs.
Ainsi, chaque fois qu’il y a un indicateur de quelque nature que ce soit, qu’il s’agisse d’un indicateur clé ou d’un indicateur de performance ou autre, il sera simplement ajouté au tas.
Avance rapide d’une décennie et vous obtenez ce que j’appelle le mur de métriques, qui regroupe les 100 chiffres que personne ne lit.
Et pourtant, cela fige toujours l’outil de business intelligence chaque premier jour du mois parce qu’il y a tellement d’indicateurs de performance à calculer.
Ils ont environ 100 indicateurs et toute l’instance BI est figée pendant toute la journée.
J’ai même vu des entreprises où, le premier jour du mois, elles doivent littéralement arrêter certaines opérations parce que l’ERP est à moitié gelé.
Donc, elles suspendent une usine pour permettre à l’ERP de faire le reporting.
Conor Doherty : Eh bien, messieurs, nous y sommes depuis un peu plus d’une heure. Je crois, Patrick, que vous avez mentionné cela comme une solution possible.
Cependant, pour résumer : Miguel a commenté—je vais le résumer ainsi, et vous me donnerez vos réflexions finales à ce sujet.
Ce n’est pas parce qu’il y a beaucoup de KPI que vous devez les suivre tous en même temps. Vous devez sélectionner uniquement les KPI qui comptent vraiment en fonction de votre approche et de votre focus actuel.
Dans l’ordre inverse, vos réflexions finales à ce sujet. Joannes ?
Joannes Vermorel : Je dirais oui et non.
Le problème, c’est que c’est la sagesse commune des entreprises actuelles. Si vous la prenez au pied de la lettre, le problème est le suivant : voyons où cette sagesse commune nous a menés.
Dans la plupart des entreprises, vous avez un mur de métriques. Vous avez littéralement des dizaines, voire des centaines, d’indicateurs dont personne ne se soucie.
C’est complètement opaque. Personne ne comprend même.
Habituellement, vous prenez le praticien moyen de la supply chain : il a un écran avec 15 chiffres et il ne peut même pas en expliquer la sémantique pour la moitié d’entre eux.
Ils diraient, “Oh, cette chose, je pense qu’elle calcule le niveau moyen de stocks sur les 30 derniers jours. Peut-être. Je n’en suis pas sûr.” Ou quelque chose dans ce genre.
Donc, je dirais : c’est une sagesse commune, mais mon approche serait beaucoup plus agressive.
Nous savons que les grandes organisations ont tendance à accumuler de la bureaucratie et des trucs inutiles bien plus facilement qu’on ne se débarrasse d’eux.
Il faut doubler la purge—être impitoyable—et épurer votre processus de tous ces chiffres qui ne sont pas critiques.
Pour les cadres typiques de la supply chain, ce que nous envisageons, c’est qu’il y a un quota d’environ 10 chiffres. Si vous voulez ajouter un nouveau chiffre, vous devez en retirer un pour en introduire un nouveau.
Vous devez le maintenir.
Ensuite, si l’on considère le côté data scientist, je dis que vous pouvez avoir des centaines de chiffres, mais c’est alors la recette numérique du data scientist—du Supply Chain Scientist—qui fait son propre travail.
Le reste de l’organisation n’est pas concerné. Cela va, car ce n’est pas une taxe que le reste de l’organisation doit payer. C’est uniquement une taxe qui impacte le scientifique lui-même, et non le reste de l’entreprise.
Ainsi, cette sagesse commune : oui, cela semble raisonnable, mais encore une fois, méfiez-vous.
Hâtons-nous d’une décennie, mon observation est que généralement, vous finissez dans une très mauvaise situation en suivant cette sagesse commune.
Conor Doherty : Patrick, vos réflexions finales. Qu’en pensez-vous ?
Patrick McDonald : Si vous en avez plus de cinq, vous en avez trop.
Je suis beaucoup plus strict. J’en ai spécifiquement cinq que je surveille, et ils sont tous liés aux états financiers.
Le premier est une métrique de part de marché. Je l’appelle l’équité de la marque.
Si vos ventes augmentent mais que le marché croît plus rapidement, vous perdez toujours des parts de marché. Ne vous contentez donc pas de suivre les ventes, suivez également votre position sur le marché.
Je veux m’assurer que nous répondons de manière fiable à la demande des clients, n’est-ce pas ? D’où une métrique de fiabilité.
Je veux m’assurer que nous allouons nos ressources de manière efficace. D’où une métrique d’efficacité.
Je déteste parler d’efficacité car l’efficacité conduit toujours à un optimum local. Je parle donc plutôt de productivité.
Ensuite, le dernier est celui sur lequel je travaille encore. Je n’ai toujours pas une bonne métrique pour cela, mais c’est l’agilité : à quelle vitesse pouvez-vous réagir aux changements rapides que nous observons sur le marché au quotidien.
Si vous couvrez ces cinq éléments, je pense que cela englobe l’essentiel de ce que vous souhaitez comprendre d’un point de vue commercial.
Bien sûr, il existe différentes façons de les considérer, mais ce sont en quelque sorte mes cinq indicateurs. Ils ne se chevauchent pas beaucoup et abordent les éléments clés liés aux finances.
Conor Doherty : D’accord.
Eh bien, messieurs, merci beaucoup. Je n’ai plus de questions. Nous avons tout abordé dans le chat en direct et je pense que nous sommes presque à court de temps.
Joannes, comme toujours, merci beaucoup de m’avoir rejoint.
Patrick, j’apprécie vraiment que vous vous soyez joint à nous à distance et pour votre temps. Vos analyses étaient vraiment excellentes.
Patrick McDonald : Avec plaisir. J’espère que nous pourrons recommencer cela une prochaine fois. Merci.
Conor Doherty : Et à tous ceux qui nous regardent, merci beaucoup d’avoir participé—pour vos messages privés, vos commentaires.
Si vous souhaitez poursuivre la discussion, comme je le dis toujours, contactez Joannes, moi, et Patrick. Nous sommes toujours heureux de parler avec de nouvelles personnes.
Et oui, c’est tout. Merci beaucoup. Nous vous verrons la semaine prochaine, et au boulot.