Valeur ajoutée de prévision

learn menu
Par Conor Doherty, septembre 2023

Cette entrée a été étendue et publiée sous le nom de “Une évaluation critique des hypothèses de la valeur ajoutée de prévision” dans Foresight: The International Journal of Applied Forecasting, International Institute of Forecasters, numéro 73, pages 13-23, Q2. Téléchargez l’article ici.

La valeur ajoutée de prévision1 (FVA) est un outil simple pour évaluer la performance de chaque étape (et contributeur) du processus de prévision de la demande. Son objectif ultime est d’éliminer les gaspillages dans le processus de prévision en supprimant les interventions humaines (modifications) qui n’augmentent pas la précision des prévisions. La FVA repose sur l’idée que la précision accrue des prévisions vaut la peine d’être poursuivie et que l’identification des modifications qui l’augmentent, ainsi que l’élimination de celles qui ne le font pas, est souhaitable. Malgré de bonnes intentions, la FVA présente une utilité limitée en une seule fois, et si elle est déployée de manière continue, elle présente de nombreux inconvénients, notamment des hypothèses mathématiques défectueuses, des idées fausses sur la valeur intrinsèque de l’augmentation de la précision des prévisions et l’absence d’une perspective financière solide.

Une visualisation des cinq étapes du cadre de la valeur ajoutée de prévision

Aperçu de la valeur ajoutée de prévision

La valeur ajoutée de prévision vise à éliminer les gaspillages et à augmenter la précision de la prévision de la demande en encourageant - et en évaluant - les contributions de plusieurs départements (y compris des équipes autres que celles de la planification de la demande, telles que les ventes, le marketing, la finance, les opérations, etc.). En évaluant la valeur de chaque intervention humaine dans le processus de prévision, la FVA fournit aux entreprises des données exploitables sur les modifications qui rendent la prévision moins précise, leur offrant ainsi la possibilité d’identifier et d’éliminer les efforts et les ressources qui ne contribuent pas à une meilleure précision des prévisions.

Michael Gilliland, dont The Business Forecasting Deal a attiré l’attention du grand public sur cette pratique, soutient2

La FVA contribue à garantir que toutes les ressources investies dans le processus de prévision - des matériels et logiciels informatiques au temps et à l’énergie des analystes et de la direction - améliorent la prévision. Si ces ressources n’aident pas à prévoir, elles peuvent être redirigées en toute sécurité vers des activités plus utiles.

On identifie les activités et les ressources qui aident grâce à un processus de prévision en plusieurs étapes, où une prévision statistique est générée à l’aide du logiciel de prévision existant de l’entreprise. Cette prévision statistique est ensuite soumise à des modifications manuelles (modifications) par chaque département sélectionné. Cette prévision ajustée est ensuite comparée à une prévision naïve, de référence (sans modifications, agissant comme un placebo) et à la demande réelle observée.

Si les modifications apportées par les départements ont rendu la prévision statistique plus précise (par rapport à la prévision statistique inchangée), elles ont apporté une valeur positive. Si elles l’ont rendue moins précise, elles ont apporté une valeur négative. De même, si la prévision statistique était plus précise que le placebo, elle ajoutait une valeur positive (et inversement si elle était moins précise).

La FVA est donc “[une mesure] du changement d’une métrique de performance de prévision qui peut être attribué à une étape ou à un participant particulier du processus de prévision2.

Les partisans de la valeur ajoutée de la prévision soutiennent que c’est un outil essentiel dans la gestion moderne de la supply chain. En identifiant les parties du processus de prévision qui sont bénéfiques et celles qui ne le sont pas, les organisations peuvent optimiser leur précision de prévision. La raison principale est que de meilleures prévisions conduisent à une meilleure gestion des stocks, à une planification de production plus fluide et à une allocation plus efficace des ressources.

Cela devrait donc réduire les coûts, minimiser les ruptures de stock et réduire les surstocks, tout en augmentant la satisfaction des clients et en générant une éthique de prévision et d’entreprise plus inclusive. Le processus s’est avéré remarquablement populaire, la FVA étant appliquée dans plusieurs entreprises de premier plan, dans des secteurs exceptionnellement concurrentiels, notamment Intel, Yokohama Tire et Nestlé3.

Réaliser une analyse de la valeur ajoutée de la prévision

Réaliser une analyse de la valeur ajoutée de la prévision implique plusieurs étapes intuitives, généralement proches des suivantes :

  • Définir le processus en identifiant les étapes ou les composants individuels, c’est-à-dire la liste des départements qui seront consultés, l’ordre de consultation et les paramètres spécifiques que chaque contributeur utilisera pour modifier la prévision initiale.

  • Générer une prévision de référence. Cette référence prend généralement la forme d’une prévision naïve. Une prévision statistique est également générée, selon le processus de prévision normal au sein de l’entreprise, en utilisant le même ensemble de données utilisé pour la génération de la référence. Cette prévision statistique sert de base à toutes les modifications ultérieures.

  • Recueillir les informations des contributeurs désignés, en respectant les paramètres exacts définis à la première étape. Cela peut inclure des informations sur les tendances du marché, les plans promotionnels, les contraintes opérationnelles, etc.

  • Calculer la FVA pour chaque contributeur en comparant la précision de la prévision statistique avant et après la contribution de ce dernier. À son tour, la précision de la prévision statistique est comparée à celle de la prévision de référence simple. Les contributions qui améliorent la précision de la prévision reçoivent une FVA positive, tandis que celles qui diminuent la précision reçoivent une FVA négative.

  • Optimiser en améliorant ou en éliminant les contributions avec une FVA négative, tout en préservant ou en améliorant celles avec une FVA positive.

Ces étapes forment un processus continu qui est amélioré de manière itérative dans le but d’obtenir une plus grande précision de prévision. Le processus FVA, et la manière dont il diffère d’une prévision traditionnelle, sont illustrés ci-dessous.

Un processus de prévision traditionnel avec trois phases - collecte de données historiques, prévision statistique et intervention d'experts

Figure 1 : Un processus de prévision traditionnel utilisant une intervention humaine minimale (réservée à l'étape EO).

Une visualisation des cinq étapes du cadre de la valeur ajoutée de la prévision

Figure 2 : Une visualisation étape par étape du processus de prévision dans un cadre FVA.

La figure 2 est basée sur les processus décrits par Gilliland2 3 et Chybalski4. Contrairement à la figure 1, il existe plusieurs étapes d’intervention humaine (EO1, EO2 et CF). Les processus FVA peuvent comporter encore plus d’étapes d’intervention humaine, y compris une phase finale d’intervention de la direction exécutive2.

Un tableau de données affichant les différents résultats de l'analyse de la valeur ajoutée de la prévision

Tableau 1 : Rapport en escalier de la valeur (positive ou négative) ajoutée à chaque étape du processus FVA.

Dans le tableau 15, la métrique d’évaluation est le MAPE (erreur de pourcentage absolue moyenne). Cet exemple indique que la Prévision statistique a amélioré la précision de la prévision (valeur ajoutée en réduisant l’erreur de prévision de 5%) par rapport à la Prévision naïve. De plus, l’intervention humaine n’a pas été utile, avec une augmentation significative de l’erreur de prévision introduite à l’étape Expert Override 2.

Considérons un vendeur de pommes. Paul (Planification de la demande) informe la direction que l’entreprise a vendu 8 pommes chaque mois au cours des 3 derniers mois. La prévision naïve indique que l’entreprise vendra à nouveau 8 pommes le mois prochain, mais Paul dispose d’un logiciel statistique avancé qui prédit la vente de 10 pommes (prévision statistique). John (Marketing) intervient et dit qu’il a l’intention de lancer un nouveau slogan accrocheur ce mois-ci6 et que les ventes sont susceptibles d’être plus élevées ce mois-ci grâce à son esprit vif. George (Ventes) prévoit de regrouper les pommes et de baisser légèrement les prix, stimulant ainsi les ventes et augmentant la demande. Richard (Opérations) est d’abord perplexe, mais révise ensuite la demande prévue pour refléter une période d’arrêt à venir dans les machines de triage des pommes cruciales, ce qui, selon lui, aura un impact négatif sur la capacité de l’entreprise à répondre à la demande. La prévision statistique a donc été ajustée manuellement trois fois. Les départements se réunissent ensuite pour parvenir verbalement à une prévision consensuelle.

Un mois plus tard, l’entreprise effectue un backtest pour confirmer l’ampleur des écarts7 à chaque étape de ce relais de prévision, c’est-à-dire à quel point la contribution de chaque département était “fausse”. Ce n’est pas difficile car ils disposent maintenant des données de ventes réelles du mois précédent et Paul peut isoler, étape par étape, la quantité d’erreur introduite par John, George et Richard, respectivement, ainsi que l’étape de prévision consensuelle8.

La perspective mathématique de la valeur ajoutée de la prévision

Sous le capot, la valeur ajoutée de la prévision est un processus remarquablement simple et délibérément simplifié. Contrairement aux processus de prévision qui exigent une connaissance avancée des mathématiques et du raisonnement statistique, la FVA “est une approche de bon sens facile à comprendre. Elle exprime les résultats de faire quelque chose par rapport à ne rien avoir fait3.

Exprimer les résultats d’avoir fait quelque chose par rapport à ne rien avoir fait nécessite cependant une intervention mathématique, qui prend généralement la forme d’une simple série temporelle - l’épine dorsale des méthodes traditionnelles de prévision. L’objectif principal de l’analyse des séries temporelles est de représenter de manière pratique et intuitive la demande future sous la forme d’une seule valeur exploitable. Dans le contexte de la FVA, la série temporelle de référence sert de placebo ou de témoin par rapport auquel toutes les modifications apportées par l’analyste (détaillées dans la section précédente) sont comparées. Une série temporelle de référence peut être générée par diverses méthodes, notamment différentes formes de prévisions naïves. Celles-ci sont couramment évaluées à l’aide de mesures telles que le MAPE, le MAD et le MFE.

Choix d’une prévision de référence

Le choix de la prévision de référence variera en fonction des objectifs ou des contraintes de l’entreprise en question.

  • Les prévisions naïves et les prévisions naïves saisonnières sont souvent choisies pour leur simplicité. Elles sont faciles à calculer et à comprendre car elles reposent sur l’hypothèse que les données précédentes se répéteront à l’avenir. Elles fournissent une référence sensée dans de nombreux contextes, notamment lorsque les données sont relativement stables ou semblent présenter un schéma clair (tendance, saisonnalité, etc.).

  • Les marches aléatoires et les marches aléatoires saisonnières sont généralement utilisées lorsque les données présentent une grande aléatoire ou variabilité, ou lorsqu’il semble y avoir un fort motif saisonnier qui est également soumis à des fluctuations aléatoires. Ces modèles ajoutent un élément d’imprévisibilité au concept de prévision naïve, dans le but de refléter l’incertitude inhérente à la prévision de la demande future.

Évaluation des résultats de la valeur ajoutée de la prévision

  • Le MFE (Mean Forecast Error) peut être utilisé pour évaluer si une prévision a tendance à surestimer ou à sous-estimer les résultats réels. Cela pourrait être une mesure utile dans une situation où il est plus coûteux de surestimer que de sous-estimer, ou vice versa.

  • Le MAD (Mean Absolute Deviation) et le MAPE (Mean Absolute Percentage Error) fournissent des mesures de précision de la prévision qui tiennent compte à la fois de la surestimation et de la sous-estimation de la demande. Ils peuvent être utilisés comme indicateurs de précision lorsqu’il est important de minimiser la taille globale des erreurs de prévision, qu’elles entraînent une surestimation ou une sous-estimation.

Bien que le MAPE soit couramment présenté dans les sources liées à la FVA, il existe des divergences quant à la configuration des métriques de prévision à utiliser dans une analyse de FVA2 4 9.

Limitations de la FVA

La valeur ajoutée de la prévision, malgré son approche inclusive, ses nobles objectifs et sa faible barrière à l’entrée, est sans doute soumise à une vaste gamme de limitations et de fausses hypothèses. Ces lacunes couvrent un large éventail de domaines, notamment les mathématiques, la théorie moderne de la prévision et l’économie.

La prévision n’est pas collaborative

La valeur ajoutée de la prévision repose sur l’idée que la prévision collaborative est bénéfique, dans le sens où plusieurs (voire un consensus) remplacements humains peuvent ajouter de la valeur. La FVA estime en outre que cette valeur ajoutée positive de la prévision est répartie dans toute l’entreprise, car les employés de différents services peuvent tous posséder des informations précieuses sur la demande future du marché.

Par conséquent, le problème, selon la FVA, est que cette approche collaborative comporte des inefficacités gênantes, telles que certains points de contact humains qui contribuent à une valeur négative. La FVA cherche donc à trier les collaborateurs de prévision inefficaces à la recherche des bons.

Malheureusement, l’idée selon laquelle la prévision est meilleure en tant que processus collaboratif et multi-départemental est contraire à ce que démontre la prévision statistique moderne - y compris dans les situations de vente au détail.

Un examen approfondi de la cinquième compétition de prévision de Makridakis10 a démontré que “toutes les 50 méthodes les plus performantes étaient basées sur l’apprentissage automatique (machine learning). Par conséquent, M5 est la première compétition M dans laquelle toutes les méthodes les plus performantes étaient à la fois des méthodes d’apprentissage automatique et meilleures que tous les autres benchmarks statistiques et leurs combinaisons” (Makridakis et al., 2022)11. La compétition de précision M5 était basée sur la prévision des ventes à l’aide de données historiques pour la plus grande entreprise de vente au détail au monde en termes de revenus (Walmart).

En fait, selon Makridakis et al. (2022), “le modèle gagnant [dans le M5] a été développé par un étudiant ayant peu de connaissances en prévision et peu d’expérience dans la construction de modèles de prévision des ventes11, remettant ainsi en question l’importance réelle des informations sur le marché provenant de différents services dans un contexte de prévision.

Cela ne signifie pas que des modèles de prévision plus complexes sont nécessairement souhaitables. Au contraire, les modèles sophistiqués l’emportent souvent sur les modèles simplistes, et la prévision collaborative de la FVA est une approche simpliste à un problème complexe.

La FVA ignore l’incertitude future

La FVA, comme de nombreux outils et techniques liés à la prévision, suppose que la connaissance de l’avenir (dans ce cas, la demande) peut être représentée sous la forme d’une série temporelle. Elle utilise une prévision naïve comme référence (généralement une copie-coller des ventes précédentes) et les collaborateurs arrondissent manuellement les valeurs d’une prévision statistique. Cela comporte deux défauts.

Tout d’abord, l’avenir, qu’il s’agisse de manière générale ou de termes de prévision, est irréductiblement incertain. Ainsi, l’exprimer sous la forme d’une seule valeur est une approche intrinsèquement erronée (même si elle est complétée par une formule de stock de sécurité). Face à l’incertitude irréductible de l’avenir, l’approche la plus sensée consiste à déterminer une plage de valeurs futures probables, évaluées par rapport au retour financier potentiel de chacune. Cela l’emporte, d’un point de vue de la gestion des risques, sur la tentative d’identifier une seule valeur selon une série temporelle traditionnelle - ce qui ignore complètement le problème de l’incertitude future.

Deuxièmement, les informations (aussi utiles qu’elles puissent sembler) des collaborateurs sont généralement du type qui n’est pas facilement (voire pas du tout) traduit en une prévision de séries temporelles. Prenons l’exemple d’une situation dans laquelle une entreprise sait à l’avance qu’un concurrent s’apprête à entrer sur le marché. Autrement dit, imaginez un monde dans lequel les connaissances concurrentielles indiquent que le concurrent le plus redoutable prévoit de lancer une nouvelle ligne de vêtements d’été impressionnante. L’idée que ce type d’informations puisse être plié de manière collaborative par des non-spécialistes en une seule valeur exprimée dans une série temporelle est fantaisiste.

En réalité, toute similitude avec les ventes futures réelles (valeur ajoutée positive) sera complètement accidentelle, dans le sens où les modifications humaines (qu’il s’agisse d’arrondir la demande à la hausse ou à la baisse) sont des expressions équivalentes de la même entrée défectueuse. Une personne qui apporte une valeur négative n’est donc pas plus “juste” ou “fausse” - d’un point de vue logique - que la personne qui apporte une valeur positive.

Au fond, la FVA tente de projeter des propriétés tridimensionnelles (les connaissances humaines) sur une surface bidimensionnelle (une série temporelle). Cela peut sembler correct d’un certain point de vue, mais cela ne signifie pas que c’est correct. Cela donne à la FVA une apparence plutôt trompeuse de rigueur statistique.

Même si l’entreprise utilise un processus de prévision traditionnel avec un minimum d’interventions humaines (comme le montre la Figure 1), si la prévision statistique sous-jacente analysée par la FVA est une série temporelle, l’analyse elle-même est une perte de temps.

Paradoxalement, cela est gaspilleur

En tant que démonstration unique de surconfiance et de biais dans la prise de décision, la FVA a une utilité. Des prix Nobel ont été décernés pour la profondeur, l’étendue et la persistance des biais cognitifs dans la prise de décision humaine12 13, mais il est tout à fait concevable que certaines équipes refusent d’accepter à quel point les modifications humaines sont généralement défectueuses jusqu’à ce qu’elles soient catégoriquement démontrées.

Cependant, en tant qu’outil de gestion continu, la FVA est intrinsèquement défectueuse et contradictoire. Si les prévisions statistiques sont surpassées par une prévision naïve et des ajustements collaboratifs, il convient de se poser la question suivante :

Pourquoi les modèles statistiques échouent-ils ?

Malheureusement, la FVA n’a pas de réponse à cette question car elle n’est fondamentalement pas conçue pour cela. Elle ne fournit pas d’informations sur pourquoi les modèles statistiques peuvent sous-performer, simplement qu’ils sous-performent. La FVA n’est donc pas tant un outil de diagnostic qu’une loupe.

Bien qu’une loupe puisse être utile, elle ne fournit pas d’informations exploitables sur les problèmes sous-jacents du logiciel de prévision statistique. Comprendre pourquoi les prévisions statistiques sous-performent a une valeur directe et indirecte bien plus grande, et c’est quelque chose que la FVA ne met pas en évidence de manière plus précise.

Non seulement le logiciel FVA ne fournit pas cette information importante, mais il formalise également le gaspillage de différentes manières. Gilliland (2010) présente une situation théorique dans laquelle une prévision consensuelle est surpassée dans 11 des 13 semaines (taux d’échec de 85%), avec une moyenne de 13,8 points de pourcentage d’erreur. Au lieu de recommander une cessation immédiate, l’avis est de

présenter ces résultats à votre direction et essayer de comprendre pourquoi le processus de consensus a cet effet. Vous pouvez commencer à étudier la dynamique de la réunion de consensus et les agendas politiques des participants. En fin de compte, la direction doit décider si le processus de consensus peut être corrigé pour améliorer la précision des prévisions, ou s’il doit être éliminé.”2

Dans ce scénario, non seulement le logiciel FVA ne diagnostique pas le problème sous-jacent des performances des prévisions statistiques, mais la couche d’instrumentation de la FVA ne fait qu’augmenter la bureaucratie et l’allocation des ressources en disséquant des activités qui ne contribuent manifestement pas à la valeur.

Ainsi, l’installation d’une couche de logiciel FVA garantit que l’on continue à obtenir des images similaires à faible résolution d’un problème en cours et dirige des ressources précieuses vers la compréhension d’entrées défectueuses qui auraient pu être ignorées dès le départ.

Cela, sans doute, n’est pas l’allocation la plus judicieuse des ressources de l’entreprise qui ont d’autres utilisations possibles.

Surestime la valeur de l’exactitude

Fondamentalement, la FVA présume que l’augmentation de l’exactitude des prévisions vaut la peine d’être poursuivie isolément, et procède sur cette base comme si cela était évident. L’idée selon laquelle une plus grande exactitude des prévisions est souhaitable est compréhensible, mais elle - d’un point de vue commercial - présuppose que cette plus grande exactitude se traduit par une plus grande rentabilité. Ce n’est manifestement pas le cas.

Cela ne signifie pas qu’une prévision précise n’a pas de valeur. Au contraire, une prévision précise devrait être étroitement liée à une perspective purement financière. Une prévision peut être plus précise de 40 %, mais le coût associé fait que l’entreprise réalise 75 % de moins de bénéfices globaux. La prévision, bien qu’appréciablement plus précise (valeur ajoutée positive), n’a pas réduit les dollars d’erreur. Cela viole le principe fondamental des affaires : gagner plus d’argent, ou du moins ne pas le gaspiller.

En ce qui concerne la FVA, il est tout à fait concevable que la valeur ajoutée positive d’un département soit une perte nette pour une entreprise, tandis que la valeur ajoutée négative d’un autre département est imperceptible. Bien que Gilliland reconnaisse que certaines activités peuvent augmenter la précision sans ajouter de valeur financière, cet aspect n’est pas poussé jusqu’à son aboutissement logique : une perspective strictement financière. Gilliland utilise l’exemple d’un analyste augmentant la précision des prévisions d’un point de pourcentage :

Le simple fait qu’une activité du processus ait une FVA positive ne signifie pas nécessairement qu’elle doit être maintenue dans le processus. Nous devons comparer les avantages globaux de l’amélioration au coût de cette activité. La précision accrue augmente-t-elle les revenus, réduit-elle les coûts ou rend-elle les clients plus satisfaits ? Dans cet exemple, la correction de l’analyste a effectivement réduit l’erreur d’un point de pourcentage. Mais devoir embaucher un analyste pour examiner chaque prévision peut être coûteux, et si l’amélioration n’est que d’un point de pourcentage, en vaut-elle vraiment la peine ?2

En d’autres termes, une augmentation de 1 % pourrait ne pas valoir la peine d’être poursuivie, mais une augmentation plus importante de la précision des prévisions pourrait l’être. Cela présuppose que la valeur financière est liée à une plus grande précision des prévisions, ce qui n’est pas nécessairement vrai.

Ainsi, il existe une dimension financière inéluctable dans les prévisions qui est au mieux sous-estimée dans la FVA (et, au pire, à peine remarquée). Cette perspective strictement financière devrait vraiment être la base sur laquelle un outil visant à réduire le gaspillage est construit.

Vulnérabilité à la manipulation

La FVA présente également une opportunité évidente de manipulation et de trucage des prévisions, notamment si l’exactitude des prévisions est utilisée comme mesure de la performance des départements. C’est l’esprit de la loi de Goodhart, qui stipule que dès qu’un indicateur devient la principale mesure du succès (accidentellement ou délibérément), cet indicateur cesse d’être utile. Ce phénomène peut souvent ouvrir la porte à des interprétations erronées et/ou à des manipulations.

Supposons que l’équipe des ventes soit chargée d’apporter des ajustements à court terme aux prévisions de la demande en fonction de leurs interactions avec les clients. Le service des ventes pourrait voir cela comme une opportunité de signaler sa valeur et commencer à apporter des modifications aux prévisions même lorsque cela n’est pas nécessaire, dans le but de démontrer une FVA positive. Ils pourraient surestimer la demande, ce qui les ferait apparaître comme créateurs de valeur, ou recalculer la demande à la baisse, ce qui les ferait apparaître comme corrigeant une projection trop optimiste d’un département précédent. De toute façon, le service des ventes peut sembler plus précieux pour l’entreprise. En conséquence, le service marketing peut alors se sentir sous pression pour sembler générer de la valeur, et l’équipe commence à apporter des ajustements arbitraires similaires aux prévisions (et ainsi de suite).

Dans ce scénario, la mesure de la FVA, initialement destinée à améliorer la précision des prévisions, devient simplement un mécanisme politique permettant aux départements de signaler leur valeur plutôt que d’ajouter de la valeur, une critique que même les défenseurs de la FVA reconnaissent9. Ces exemples illustrent les dangers potentiels de la loi de Goodhart en ce qui concerne la FVA14.

Les partisans de la FVA pourraient soutenir que ces critiques psychologiques sont tout l’intérêt de la FVA, à savoir l’identification des entrées précieuses par rapport aux entrées inutiles. Cependant, étant donné les biais associés à la substitution humaine dans les prévisions, qui sont si bien compris de nos jours, les ressources consacrées à l’analyse de ces entrées biaisées seraient mieux utilisées dans un processus qui évite (autant que possible) ces entrées dès le départ.

Une solution locale à un problème systémique

Implicitement, la tentative d’optimiser les prévisions de la demande de manière isolée présuppose que le problème des prévisions de la demande est séparé des autres problèmes de la chaîne d’approvisionnement. En réalité, les prévisions de la demande sont complexes en raison de l’interaction d’un large éventail de causes systémiques de la chaîne d’approvisionnement, notamment l’influence des délais de livraison variables des fournisseurs, les perturbations inattendues de la chaîne d’approvisionnement, les choix d’allocation des stocks, les stratégies de tarification, etc.

Tenter d’optimiser les prévisions de la demande de manière isolée (également appelée optimisation locale) est une approche erronée étant donné que les problèmes au niveau du système - les véritables causes profondes - ne sont pas correctement compris et traités.

Les problèmes de la chaîne d’approvisionnement - dont les prévisions de la demande font certainement partie - sont comme des personnes debout sur un trampoline : déplacer une personne crée un déséquilibre pour tout le monde15. Pour cette raison, une optimisation holistique de bout en bout est préférable à une tentative de guérir les symptômes de manière isolée.

L’avis de Lokad

La valeur ajoutée des prévisions prend une mauvaise idée (les prévisions collaboratives) et la rend sophistiquée, en habillant cette mauvaise idée de couches de logiciels inutiles et en gaspillant des ressources qui pourraient être utilisées de manière plus efficace.

Une stratégie plus sophistiquée consisterait à regarder au-delà du concept même de précision des prévisions et à opter plutôt pour une politique de gestion des risques qui réduit les dollars d’erreur. En conjonction avec une approche de prévision probabiliste, cette mentalité s’éloigne des KPI arbitraires - tels que l’augmentation de la précision des prévisions - et intègre la totalité des facteurs économiques, des contraintes et des chocs potentiels de la chaîne d’approvisionnement dans la prise de décision en matière de stocks. Ces types de vecteurs de risque (et de gaspillage) ne peuvent pas être efficacement quantifiés (et éliminés) par un outil qui exploite une perspective collaborative et temporelle, comme celui que l’on trouve dans la valeur ajoutée des prévisions.

De plus, en séparant la prévision de la demande de l’optimisation globale de la chaîne d’approvisionnement, la valeur ajoutée des prévisions (peut-être involontairement) augmente la complexité accidentelle du processus de prévision de la demande. La complexité accidentelle est synthétique et résulte de l’accumulation progressive de bruit inutile - généralement d’origine humaine - dans un processus. L’ajout d’étapes redondantes et de logiciels au processus de prévision, comme le fait la valeur ajoutée des prévisions, est un exemple typique de complexité accidentelle et peut rendre le problème beaucoup plus complexe.

La prévision de la demande est un problème intentionnellement complexe, c’est-à-dire qu’il s’agit d’une tâche intrinsèquement déroutante et exigeante en ressources. Cette complexité est une caractéristique immuable du problème et représente une classe de défis beaucoup plus préoccupante que les problèmes accidentellement complexes. Pour cette raison, il est préférable d’éviter les tentatives de solutions qui simplifient à outrance et déforment fondamentalement le problème à résoudre16. Pour reprendre la rhétorique médicale de la littérature sur la valeur ajoutée des prévisions, il s’agit de la différence entre guérir une maladie sous-jacente et traiter constamment les symptômes au fur et à mesure qu’ils surviennent17.

En résumé, la valeur ajoutée des prévisions se situe entre la théorie de pointe de la chaîne d’approvisionnement et la prise de conscience du public à ce sujet. Il est recommandé de mieux comprendre les causes sous-jacentes de l’incertitude de la demande - et ses racines dans l’évolution de la discipline de la chaîne d’approvisionnement -.

Notes


  1. Forecast Value Added et Forecast Value Add sont utilisés pour désigner le même outil d’analyse des prévisions. Bien que les deux termes soient largement utilisés, il existe une préférence négligeable en Amérique du Nord pour le second (selon Google Trends). Cependant, Michael Gilliland l’a explicitement désigné sous le nom de Forecast Value Added tout au long de The Business Forecasting Deal - le livre (et l’auteur) le plus souvent cité dans les discussions sur la valeur ajoutée des prévisions. ↩︎

  2. Gilliland, M. (2010). The Business Forecasting Deal, Wiley. ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  3. Gilliland, M. (2015). Forecast Value Added Analysis: Step by Step, SAS. ↩︎ ↩︎ ↩︎

  4. Chybalski, F. (2017). Forecast value added (FVA) analysis as a means to improve the efficiency of a forecasting process, Operations Research and Decisions. ↩︎ ↩︎

  5. Le tableau du modèle a été adapté de Schubert, S., & Rickard, R. (2011). Using forecast value added analysis for data-driven forecasting improvement. IBF Best Practices Conference. Le rapport en escalier apparaît également dans le livre de Gilliland, The Business Deal↩︎

  6. John a opté pour “All you need is apples” plutôt que pour le légèrement plus verbeux “We can work it out…with apples”. ↩︎

  7. Dans le contexte actuel, delta est une mesure de l’erreur introduite dans la prévision par chaque membre du processus de prévision. Cette utilisation du terme diffère légèrement de la notion de “delta” dans les options de trading, qui mesure le taux de variation du prix d’une option par rapport au prix d’un actif sous-jacent. Les deux sont des expressions globales de la volatilité, mais le diable se cache dans les détails. ↩︎

  8. Le lecteur est invité à remplacer la prévision de la demande de pommes par la prévision de la demande pour un vaste réseau mondial de magasins, à la fois en ligne et hors ligne, qui possèdent tous un catalogue de 50 000 références. La difficulté, sans surprise, augmente de manière exponentielle. ↩︎

  9. Vandeput, N. (2021). Forecast Value Added, Medium. ↩︎ ↩︎

  10. Les compétitions de prévision Spyros Makridakis, connues familièrement sous le nom de compétitions M, ont lieu depuis 1982 et sont considérées comme l’autorité de référence en matière de méthodologies de prévision de pointe (et parfois de pointe saignante). ↩︎

  11. Makridakis, S., Spiliotis, E., & Assimakopolos, V., (2022). M5 Accuracy Competition: Results, Findings, and Conclusions. Il convient de mentionner que toutes les 50 méthodes les plus performantes n’étaient pas basées sur l’apprentissage automatique. Il y avait une exception notable… Lokad↩︎ ↩︎

  12. Les travaux (individuels et collectifs) de Daniel Kahneman, Amos Tversky et Paul Slovic constituent un exemple rare de recherche scientifique de référence ayant obtenu une reconnaissance grand public. Thinking, Fast and Slow de Kahneman en 2011 - qui détaille une grande partie de ses recherches récompensées par le prix Nobel en 2002 - est un texte de référence dans la vulgarisation scientifique et traite des biais dans la prise de décision dans une mesure dépassant le cadre de cet article. ↩︎

  13. Karelse, J. (2022), Histories of the Future, Forbes Books. Karelse consacre un chapitre entier à la discussion des biais cognitifs dans un contexte de prévision. ↩︎

  14. C’est un point non trivial. Les départements ont généralement des indicateurs de performance clés (KPI) à atteindre, et la tentation de manipuler les prévisions pour servir leurs propres besoins est à la fois compréhensible et prévisible (jeu de mots intentionnel). Pour donner un contexte, Vandeput (2021, précédemment cité) observe que la direction générale - la dernière étape du carrousel de l’analyse des écarts de prévision - peut délibérément biaiser la prévision pour satisfaire les actionnaires et/ou les membres du conseil d’administration. ↩︎

  15. Cette analogie est empruntée à la psychologue Carol Gilligan. Gilligan l’a initialement utilisée dans le contexte du développement moral des enfants et de l’interrelation de l’action humaine. ↩︎

  16. Il est important de souligner un point ici. Le terme “solution(s)” est quelque peu inapproprié dans le contexte de la complexité intentionnelle. Le terme “compromis” - disponible en versions “meilleure” ou “pire” - refléterait mieux l’équilibre délicat associé à la résolution de problèmes intentionnellement complexes. On ne peut pas vraiment “résoudre” un problème lorsque deux valeurs ou plus sont en opposition totale. Un exemple est la lutte entre la réduction des coûts et l’atteinte de niveaux de service plus élevés. Étant donné que l’avenir est irréductiblement incertain, il n’y a aucun moyen de prédire la demande avec une précision de 100%. On peut cependant atteindre un taux de service de 100% - si c’est l’objectif principal de l’entreprise - simplement en stockant beaucoup plus de stocks qu’on ne pourrait jamais vendre. Cela entraînerait des pertes énormes, donc les entreprises, implicitement ou non, acceptent qu’il y ait un “compromis inévitable” entre les ressources et le taux de service. En tant que tel, le terme “solution” cadre incorrectement le problème comme étant capable d’être “résolu” plutôt que “atténué”. Consultez Basic Economics de Thomas Sowell pour une analyse approfondie du bras de fer entre des compromis rivaux. ↩︎

  17. Dans The Business Forecasting Deal, Gilliland compare l’analyse des écarts de prévision à un essai clinique avec des prévisions naïves agissant comme un placebo. ↩︎