“Pour améliorer votre jeu, vous devez étudier la fin de partie avant tout ; car, alors que les finales peuvent être étudiées et maîtrisées isolément, le milieu de partie et l’ouverture doivent être étudiés en relation avec la fin de partie.” Source: Les Derniers cours d’échecs de Capablanca (1966), p. 23

Il y a quelques semaines, j’ai pris la parole lors d’un panel au 44ème Symposium international sur la prévision à Dijon, France. Le sujet du panel était la planification de la demande et le rôle du jugement dans le nouveau monde de l’AI/ML.

En tant qu’ambassadeur pour Lokad, vous pouvez imaginer quelle était ma perspective :

  • la prévision et la prise de décision devraient être entièrement automatisées;

  • la qualité des prévisions devrait être évaluée dans une optique de meilleures décisions;

  • le jugement humain devrait être utilisé pour améliorer l’automatisation (et non pour ajuster les prévisions ou les décisions).

une image d'un échiquier.

Étrangement, ma position sur l’automatisation n’a pas suscité autant de désaccord que vous pourriez le penser. Le président (responsable de la communication chez Lokad, Conor Doherty) et les autres panélistes (Sven Crone d’iqast et Nicolas Vandeput de SupChains) étaient presque unanimement d’accord pour dire que c’était l’avenir de la prévision. Le seul point de désaccord concernait la rapidité avec laquelle nous pourrions atteindre cet état (note : je crois que nous y sommes déjà).

Ce qui a provoqué pas mal de désaccord, voire même de confusion, fut mon argument selon lequel la précision des prévisions n’est pas aussi importante que prendre de meilleures décisions. Ce désaccord ne s’est pas limité aux autres panélistes, mais également aux membres du public. Je pense qu’il y a deux raisons majeures à cela :

  1. Lorsque je parlais sur scène, je ne disposais pas d’un support visuel pour étayer ce point. Il y a plusieurs éléments en mouvement dans l’explication, donc un support visuel aurait certainement aidé à la compréhension.

  2. L’idée que la précision des prévisions soit moins importante que les décisions contredit la formation, l’entraînement et l’expérience de la plupart des professionnels.

D’ici la fin de cet essai, j’espère avoir abordé les deux points mentionnés ci-dessus. Concernant le premier point, j’ai inclus une explication courte mais systématique ainsi qu’un support visuel intuitif. Pour ce qui est du deuxième point, je ne peux qu’inviter le lecteur à garder l’esprit ouvert pendant les 5 à 10 minutes à venir, et à aborder ces propos comme si vous n’aviez aucune formation préalable en prévision supply chain.

Questions directrices

Il y a, à mon avis, cinq questions fondamentales auxquelles il faut répondre pour clarifier ma position. Dans cette section, je ferai de mon mieux pour apporter des réponses relativement courtes à chacune d’entre elles - l’essentiel, pour ainsi dire. Rassurez-vous, Lokad dispose d’une multitude de ressources supplémentaires pour expliquer les aspects techniques, auxquelles je renverrai à la fin de l’essai.

Q1: Qu’est-ce que cela signifie qu’une prévision “ajoute de la valeur” ?

Je vais commencer immédiatement par un exemple. Supposons qu’il existe un mécanisme par défaut pour produire des décisions dans une entreprise (par exemple, une prévision statistique automatisée + une politique de stocks automatisée).

Pour qu’une prévision modifiée ajoute de la valeur, elle doit modifier une décision par défaut (générée à l’aide du processus par défaut de l’entreprise) de manière à influencer directement et positivement les résultats financiers de l’entreprise (c’est-à-dire, des retombées en dollars, en livres ou en euros).

Si une prévision est plus précise (en termes de prédiction de la demande réelle) mais qu’elle ne conduit pas à une décision différente et meilleure, alors elle n’a pas ajouté de valeur.

De nombreuses entreprises utilisent encore des modèles de prévision basés sur les séries temporelles, tandis que Lokad préfère les prévisions probabilistes pour aider à générer des décisions ajustées au risque. Cependant, le même standard s’applique aux deux paradigmes de prévision. Pour qu’un type de prévision ajoute de la valeur, il faut qu’il modifie une décision par défaut de manière à influencer directement et positivement les résultats financiers d’une entreprise.

Par exemple, une nouvelle décision (“modifiée”) pourrait éliminer directement une rupture de stock future que la décision par défaut aurait entraînée.

“Directly” est essentiel ici. En termes très simples, la prévision n’ajoute de la valeur que si vous pouvez identifier le changement de décision exact qui a influencé les retombées financières supplémentaires ou empêché des pertes financières (par rapport à la décision par défaut).

Pensez causalité, pas corrélation.

Q2: Une prévision plus précise ajoute-t-elle toujours de la valeur ?

Techniquement, non. Une prévision plus précise, en soi, n’« ajoute pas nécessairement de la valeur ». Ceci est dû au fait que, comme mentionné précédemment, pour qu’une chose (dans ce cas une prévision) ajoute de la valeur, elle doit influencer directement et positivement les résultats financiers d’une entreprise grâce à une meilleure décision.

Contrairement aux prévisions, les décisions de supply chain sont soumises à des contraintes de faisabilité (par exemple, les quantités minimales de commande - MOQs, multiplicateurs de lot, tailles de lots, etc.) et à des incitations financières (par exemple, des remises, des conditions de paiement, etc.). Il peut y avoir bien plus de prévisions que de décisions réalisables.

Cela signifie que les décisions de supply chain peuvent, occasionnellement (et très souvent), être insensibles aux variations de la précision des prévisions. Cela est vrai pour les prévisions basées tant sur les séries temporelles que sur les prévisions probabilistes.

La raison de cette insensibilité réside dans les contraintes de prise de décision (par exemple, les MOQs). Il est tout à fait possible qu’une prévision plus précise (par exemple, 10 % plus précise) conduise à la même décision exacte qu’une prévision moins précise. Le graphique ci-dessous illustre ce point.

Un graphique illustrant l'absence d'impact de la précision des prévisions sur les décisions en présence de quantités minimales de commande.

Dans l’exemple ci-dessus, supposons que la prévision consensuelle de 55 unités était plus précise que la prévision automatisée de 50 unités. D’un point de vue financier, l’augmentation de la précision n’a pas conduit à une décision différente (en raison de la présence d’une quantité minimale de commande). Ainsi, la prévision plus précise n’a pas ajouté de valeur.

En fait, il existe un argument fort selon lequel la prévision consensuelle la plus précise a entraîné une valeur ajoutée négative. En effet, les étapes supplémentaires de révision (selon un processus standard de Forecast Value Added) coûtent de l’argent (temps et efforts supplémentaires) à l’entreprise, sans pour autant conduire à une meilleure décision. D’un point de vue purement financier, ces étapes de révision manuelle se sont révélées être un net négatif.

Considérons également un cas où il n’y a pas de contrainte de MOQ.

Imaginez le même scénario global, mais avec un multiplicateur de lot à la place d’une MOQ. Les décisions réalisables sont par incréments de 50 unités (par exemple, 50 unités dans une boîte ou sur une palette). Dans ce cas, nous devrions acheter soit 50, soit 100 unités (1 ou 2 boîtes ou palettes).

Un graphique illustrant l'absence d'impact de la précision des prévisions sur les décisions en présence de multiplicateurs de lot pour l'achat de marchandises.

En réalité, il pourrait être moins rentable d’acheter 100 unités (couvrant la suggestion de la prévision consensuelle de 55 unités) que d’acheter 50 unités (légèrement moins que ce que suggère la prévision “plus précise”). On pourrait essayer de couvrir la demande restante avec des commandes en souffrance ou tout simplement perdre des ventes (par exemple, si l’on vend des produits périssables comme des denrées alimentaires fraîches).

D’un point de vue économique, la meilleure décision financière pourrait ne pas consister à suivre la prévision “plus précise”. Dans ce scénario, la prévision automatisée (50 unités de demande) et la prévision consensuelle (55 unités de demande) conduisent à la même décision (commander 50 unités). Ainsi, la prévision “plus précise” n’a pas entraîné une augmentation de la valeur financière.

Certes, toutes les situations ne sont pas soumises à des contraintes aussi strictes, cependant la supply chain est remplie de ce genre de scénarios. Bien sûr, je concède que différentes prévisions aboutiront à des décisions différentes, mais la question de la valeur reste ouverte. En tout temps, nous devons considérer si le retour supplémentaire attendu de l’achat d’unités additionnelles est supérieur aux ressources supplémentaires consommées pour améliorer la précision des prévisions.

Peut-être que la précision supplémentaire en vaut la peine dans certaines situations. Cependant, les prévisionnistes et les professionnels de la supply chain semblent prendre pour acquis qu’elle l’est en termes absolus, malgré le fait qu’il existe des scénarios évidents dans lesquels ce n’est pas le cas.

Un graphique illustrant la difficulté d'évaluer l'impact financier de la précision des prévisions dans une situation sans contrainte.

Si vous avez pensé à un scénario qui ne correspond pas exactement aux exemples décrits ici, ce n’est pas un problème. Rappelez-vous, l’objectif aujourd’hui est de démontrer un point général (à savoir qu’il existe des situations où une précision supplémentaire des prévisions ne vaut pas la peine d’être recherchée), et non d’analyser en profondeur chaque scénario possible de prise de décision en supply chain.

Q3: Comment pouvons-nous nous assurer que la valeur obtenue justifie le coût de l’intervention du jugement ?

Un élément central de la discussion du panel à Dijon était la valeur (ou non) de l’intervention du jugement (ou “interventions humaines”) dans le processus de prévision. Pour paraphraser l’autre camp, “il faut que des personnes soient dans le processus pour corriger quand la prévision automatisée a omis quelque chose”.

Cette perspective m’intéresse beaucoup, car elle présuppose que l’intervention humaine ajoute de la valeur - sinon, pourquoi diable quelqu’un le ferait-il ?

Pour cette section, je vais ignorer la discussion sur la capacité des humains à (parfois ou même souvent) surpasser une prévision automatisée (en termes de précision). En fait, je suis prêt à concéder que, pour un SKU isolé, un humain peut être aussi performant, voire même meilleur, qu’une prévision automatisée en matière de précision.

Note: Je ne pense pas que cela soit vrai si l’on considère la prévision de des dizaines de milliers de SKUs pour des centaines de magasins, chaque jour, dans une supply chain de taille considérable1. Dans ce dernier scénario, une prévision automatisée surpasse de loin des équipes entières de prévisionnistes et d’autres experts fonctionnels incroyablement compétents, tout simplement parce que la grande majorité des SKUs ne peut être revue manuellement en raison des contraintes de temps.

Je concède que le jugement humain peut parfois égaler ou dépasser la prévision automatisée pour deux raisons :

  1. À mon avis, cela rend l’essai plus intéressant, et;

  2. La force de mon argument ne repose sur aucune discussion concernant la “précision”.

Ma position est, comme vous pouvez sans doute le deviner à présent, que les interventions humaines n’« ajoutent de la valeur » que si elles…ajoutent une valeur financière - une valeur qui perdure au-delà d’un cycle unique de réapprovisionnement de stock. Cela est complètement indépendant de tout bénéfice en termes de précision.

Cette valeur peut être comprise comme “produit directement de meilleures décisions que celles initialement générées - en prenant en compte les profits supplémentaires issus de la meilleure décision et en soustrayant le coût de l’intervention”.

En d’autres termes, les interventions du jugement (interventions humaines) sont coûteuses, ainsi une entreprise devrait attendre un retour sur investissement significatif. C’est pourquoi, selon moi, la précision des prévisions est une métrique arbitraire (lorsqu’elle est évaluée isolément des décisions), et les entreprises devraient se concentrer sur des actions qui augmentent les retombées financières.

L’intervention humaine peut très bien augmenter la précision des prévisions (encore une fois, je concède cela pour les besoins de la discussion), cependant elle n’augmente pas nécessairement le rendement financier. Ce n’est vraiment pas une proposition radicale, de la même manière que quelqu’un peut être à la fois la personne la plus grande dans une pièce et la plus petite dans une autre.

Veuillez noter qu’il n’incombe pas à moi de fournir la preuve que l’augmentation de la précision ne se traduit pas par une augmentation des profits. Il revient, par définition, à ceux qui soutiennent que l’augmentation de la précision est en soi rentable de fournir des preuves concrètes, directes et irréfutables en ce sens.

Encore une fois, cela ne devrait pas être une position radicale ou contrariante. Il me semble, à mon avis, que cela devrait être la position par défaut de toute personne “with skin in the game”.

Gardez à l’esprit que, pour que les interventions humaines soient rentables, il faut considérer la totalité des interventions. Autrement dit, il s’agit de peser la valeur financière générée par tous les “succès” et de soustraire toutes les pertes financières causées par les “échecs”.

Cet experiment devrait également être réalisé à grande échelle, pour un réseau immense de magasins (clients entreprises dans le cas du B2B) et à travers l’ensemble de leur catalogue de SKUs, chaque jour, pendant une période considérable.

« Combien de temps cet experiment devrait-il durer, Alexey ? » À ce sujet, je suis mitigé. Disons une année, mais je suis très ouvert à la discussion sur ce point. Cela dépend de nombreux facteurs, notamment du nombre de cycles de décision par an, ainsi que des délais d’approvisionnement, naturellement.

Cela dit, toute cette discussion soulève la question de savoir quel est le seuil d’erreur acceptable pour les interventions humaines.

  • Si les succès l’emportent légèrement sur les échecs, est-ce acceptable ?
  • Qu’en est-il du coût des interventions humaines elles-mêmes ?
  • Comment devons-nous intégrer ces coûts directs et indirects dans le calcul ?

Ce ne sont pas des questions triviales, d’ailleurs. Ce sont le genre de questions qu’un étudiant de première année poserait dans n’importe quel cours d’introduction à une discipline STEM (ou apparentée aux STEM).

Jusqu’à ce que quelqu’un fournisse la preuve définitive que l’intervention humaine, déployée à grande échelle, est financièrement avantageuse, la position économiquement la plus judicieuse est de présumer que ce n’est pas le cas et de continuer à s’appuyer sur des prévisions automatisées et une prise de décision automatisée.

Q4: Comment déterminer quand une prévision plus précise doit remplacer la prévision actuelle aux fins de prise de décision ?

En bref, la manière la plus simple de savoir est de se poser la question suivante : la nouvelle prévision conduit-elle à de meilleures décisions ? La métrique d’évaluation, dans ce cas, devrait être le retour sur investissement (ROI) financier.

Pour être un peu plus précis, le remplacement devrait être effectué en fonction de l’utilité comparative globale du nouveau modèle (par exemple, ROI, applicabilité, maintenabilité, etc.), et non uniquement en fonction de l’amélioration de sa précision actuelle. Le ROI est ce qui oriente l’entreprise vers le succès. L’applicabilité, comme je vais le démontrer ci-dessous, est conçue en gardant le ROI à l’esprit. Rappelez-vous : la précision est, si elle est poursuivie isolément, un KPI arbitraire.

Par exemple, imaginez que nous ayons deux modèles : l’un qui peut gérer explicitement l’historique des ruptures de stocks et un autre qui ignore les ruptures de stocks (en utilisant quelques astuces de prétraitement de données). Il se pourrait que les ruptures de stocks ne se soient pas produites très souvent, et d’un point de vue décisionnel, les deux modèles performent presque de manière équivalente. Cependant, il serait tout de même plus prudent de privilégier le modèle capable de gérer les ruptures de stocks. En effet, si les ruptures de stocks commencent à se produire plus fréquemment, ce modèle sera plus fiable.

Cela démontre un autre aspect de la philosophie de Lokad : correctness by design. Cela signifie qu’au niveau de la conception, nous visons à élaborer un modèle qui prend de manière proactive en compte – et est capable de répondre à – la fois aux événements probables et improbables. Cela revêt une importance capitale, car les plus lourdes sanctions financières se situent souvent aux extrêmes – c’est-à-dire, du côté des événements improbables.

Q5 : Comment passons-nous d’un modèle de prévision à un autre en production ?

Il est important de se rappeler que la prévision n’est qu’une partie du moteur décisionnel global. En conséquence, la mise à jour de certaines parties peut avoir des impacts mineurs ou majeurs sur la performance globale du moteur. Passer d’un ancien modèle à un nouveau pourrait poser problème, même si le nouveau modèle génère finalement de meilleures décisions (et donc procure plus de bénéfices).

Cela s’explique par le fait que, en théorie, les décisions améliorées pourraient rencontrer des contraintes inédites dans la réalité si elles sont mises en œuvre trop rapidement.

Par exemple, un nouveau modèle de prévision pourrait aider à générer des POs nettement améliorées, mais l’espace nécessaire pour stocker les stocks supplémentaires pourrait ne pas encore exister ou les fournisseurs ne pourraient pas ajuster immédiatement leurs supply chains pour satisfaire la demande accrue. Se précipiter pour compléter les POs dès maintenant, en quête de profits immédiats, pourrait entraîner des pertes ailleurs, par exemple des stocks endommagés ou périssant plus rapidement en raison d’un manque d’espace adéquat dans les entrepôts (ou des limites de capacité de la main-d’œuvre).

Dans un tel scénario, il pourrait être judicieux de passer progressivement d’un modèle à l’autre. En pratique, cela pourrait impliquer de passer quelques POs consécutives légèrement plus importantes afin de corriger progressivement les positions de stocks, plutôt que de lancer immédiatement une seule commande énorme.

Les personnes ayant une expérience pratique à traiter l’effet bullwhip (y compris les partisans du DDMRP) devraient immédiatement comprendre pourquoi cette tactique est judicieuse.

Mot de la fin

Si vous êtes arrivé jusqu’ici, j’apprécie votre attention. Si vous avez été en désaccord en cours de route, j’apprécie encore plus votre attention.

Pour ceux qui ne seraient pas d’accord, permettez-moi une dernière tentative : la valeur signifie plus d’argent, et plus d’argent découle de meilleures décisions. Pour ma part, rien ne peut remplacer de bonnes (ou de meilleures) décisions. Pas une prévision plus précise. Pas un processus S&OP plus efficace.

Si nous sommes toujours en désaccord, tant pis, mais au moins nous savons où nous en sommes tous les deux.

Merci d’avoir lu.

Avant de partir

Voici quelques ressources supplémentaires qui pourraient vous être utiles (surtout si vous avez été en désaccord avec moi) :

Notes


  1. Les plus grandes supply chains comptent des chiffres encore plus élevés – des dizaines de milliers de magasins dans plus d’une centaine de pays, avec plusieurs centaines de centres de distribution. Les catalogues de ces géants contiennent souvent des centaines de milliers (voire des millions) de produits différents. ↩︎