00:00:00 Introduction des participants au débat et du format du débat
00:02:56 Remarques d’ouverture de Joannes
00:09:53 Remarques d’ouverture de Jeff
00:16:56 Réfutation de Joannes
00:21:47 Réfutation de Jeff
00:26:53 Remarques de conclusion de Joannes
00:28:56 Remarques de conclusion de Jeff
00:31:05 Questions de suivi
00:48:36 Questions du public
01:18:57 Réexamen des perspectives initiales et des conclusions
Résumé
Dans un débat animé par Conor Doherty, le sujet “La Valeur Ajoutée des Prévisions (FVA) est-elle une meilleure pratique ou une perte de temps ?” a été exploré par Jeff Baker et Joannes Vermorel. Jeff Baker, avec une vaste expérience en gestion de la supply chain, a plaidé en faveur de la FVA, en soulignant sa valeur lorsqu’elle est appliquée correctement et structurée, mettant en évidence l’importance de traiter les biais et de tirer parti des contributions d’experts. En revanche, Joannes Vermorel, PDG de Lokad, a soutenu que la FVA peut être inefficace, préconisant plutôt l’optimisation financière des décisions de la supply chain avec des prévisions probabilistes. Le débat a souligné les points de vue contrastés sur le rôle de la FVA dans la gestion de la supply chain, fournissant des informations pour améliorer les processus de prise de décision.
Résumé étendu
Lors d’un récent débat animé par Conor Doherty, responsable de la communication chez Lokad et animateur de la chaîne YouTube LokadTV, le sujet “La Valeur Ajoutée des Prévisions (FVA) est-elle une meilleure pratique ou une perte de temps ?” a été examiné en détail. Le débat a réuni deux personnalités éminentes de l’industrie de la supply chain : Jeff Baker et Joannes Vermorel.
Jeff Baker, qui soutient l’utilisation de la FVA, est le fondateur et directeur général de Libra SCM, responsable de cours au MITx MicroMasters en SCM et rédacteur associé de Foresight, l’International Journal of Applied Forecasting. Fort de plus de 25 ans d’expérience en gestion de la supply chain, Jeff intervient fréquemment sur la planification des ventes et des opérations (S&OP) et la FVA.
De son côté, Joannes Vermorel, PDG et fondateur de Lokad, une entreprise de logiciels basée à Paris dédiée à l’optimisation financière des décisions de la supply chain, s’est opposé à l’utilisation de la FVA. Joannes est bien connu pour ses nombreuses publications sur des sujets liés à la supply chain et ses conférences et débats réguliers avec des leaders de l’industrie.
Conor Doherty a commencé le débat en introduisant le sujet et en donnant à chaque participant l’occasion de se présenter. Après les présentations, chaque participant a exposé ses points de vue sur la FVA.
Jeff Baker a soutenu que la FVA est une pratique précieuse lorsqu’elle est appliquée correctement. Il a souligné que les ajustements des prévisions doivent être guidés et structurés. Selon Jeff, les ajustements doivent être basés sur la direction de l’ajustement (à la hausse ou à la baisse), la prévisibilité inhérente de la série temporelle et l’ampleur de la modification. Il a insisté sur l’importance de rechercher des augmentations substantielles plutôt que d’apporter des ajustements mineurs.
Jeff a également souligné la nécessité d’inputs structurés, où les hypothèses sont clairement énoncées et basées sur de nouvelles données qui n’ont peut-être pas encore été modélisées. Il a préconisé une approche proactive pour identifier et corriger les biais, comprendre les motivations qui les sous-tendent et tirer des enseignements des erreurs passées. Jeff estime que le bon jugement est basé sur l’expérience, qui à son tour est basée sur de mauvais jugements. En revenant aux hypothèses et en les validant, les organisations peuvent résoudre des problèmes tels que la sur-prévision due à un manque de confiance dans la supply chain.
De plus, Jeff a soutenu que les experts en ventes et marketing sont mieux équipés pour contextualiser les informations que les scientifiques de la supply chain. Il a suggéré que les apports précieux de ces experts devraient être automatisés au fil du temps, mais a reconnu que nous ne vivons pas dans un monde avec des données pures infinies. Il est donc essentiel de collecter les bonnes données auprès de différentes sources, notamment la fabrication, les ventes et le marketing.
Joannes Vermorel, en revanche, s’est opposé à l’utilisation de la FVA. Il a soutenu que la FVA peut être une perte de temps et ne conduit pas toujours à de meilleures prises de décision. Joannes a souligné l’importance de se concentrer sur l’optimisation financière et d’utiliser des prévisions probabilistes pour prendre automatiquement des décisions plus éclairées en matière de supply chain. Il a soutenu que s’appuyer trop fortement sur la FVA pourrait entraîner des inefficacités et détourner l’attention des aspects plus importants de la gestion de la supply chain.
Le débat comprenait des questions de suivi et un échange libre entre les participants, leur permettant d’approfondir leurs arguments et de répondre aux points soulevés par les autres. La discussion s’est conclue par une session de questions-réponses, où le public a eu l’occasion de poser des questions en direct dans le chat.
En résumé, le débat a mis en évidence les perspectives divergentes sur la valeur de la FVA dans la gestion de la supply chain. Jeff Baker a préconisé une approche guidée et structurée de la FVA, en insistant sur l’importance d’apprendre de l’expérience et de corriger les biais. Joannes Vermorel, quant à lui, a soutenu que la FVA pouvait être une perte de temps et a souligné la nécessité d’optimiser financièrement les décisions de la supply chain plutôt que de modifier les prévisions. Le débat a fourni des informations précieuses sur les complexités de la prévision de la supply chain et les différentes approches pour améliorer la prise de décision dans ce domaine.
Transcription complète
Conor Doherty: Bienvenue à la troisième édition des Débats Lokad Supply Chain. Aujourd’hui, j’ai le plaisir d’animer un débat très attendu entre Jeff Baker et Joannes Vermorel. Jeff enseigne la dynamique de la supply chain au MIT Center for Transportation and Logistics et est le fondateur et directeur général de Libra SCM. Pendant ce temps, à ma gauche, Joannes est le fondateur et PDG de Lokad. Il est ingénieur à l’École Normale Supérieure en France et y a enseigné l’ingénierie logicielle pendant six ans.
Maintenant, le sujet du débat d’aujourd’hui est “Forecast Value Added (FVA) : une meilleure pratique ou une perte de temps ?” Jeff soutiendra que la FVA est en fait une meilleure pratique, tandis que Joannes soutiendra que c’est une perte de temps. Maintenant, aussi rapidement que possible, j’essaierai de passer en revue les paramètres du débat, les règles à suivre, afin que nous puissions passer aux choses sérieuses.
Tout d’abord, il y aura des remarques d’ouverture, maximum 7 minutes chacun. Comme convenu à l’avance, Joannes prendra la parole en premier. Ensuite, chaque intervenant disposera de 5 minutes pour réfuter les arguments de l’autre. Cela sera suivi d’une conclusion de deux minutes de chaque intervenant, à ce moment-là, je poserai quelques questions de suivi. Ces questions peuvent être soumises par les spectateurs à tout moment pendant l’événement dans le chat en direct.
Maintenant, en préparation du débat, les deux intervenants ont convenu de la définition suivante : Forecast Value Added (FVA) est un outil simple pour évaluer la performance de chaque étape et contributeur d’un processus de prévision. Son objectif est d’éliminer les gaspillages en supprimant les processus et les activités de toute sorte qui ne contribuent pas à augmenter la précision des prévisions ou à réduire les biais.
Cette définition, ainsi que les biographies complètes des deux intervenants, se trouvent dans un document Google ouvert que vous pouvez trouver dans la section des commentaires ou le chat de commentaires de cette vidéo. Pendant la section du débat, je chronométrerai strictement les deux intervenants et je leur rappellerai poliment quand ils auront presque épuisé leur temps, au mieux avec un léger raclement de gorge. Mais je recommande à chaque personne de se chronométrer elle-même pour savoir quand le temps est presque écoulé.
Presque terminé. Les intervenants doivent rester complètement silencieux pendant le tour de parole de chaque personne, donc s’il vous plaît, ne vous interrompez pas les uns les autres, du moins pas pendant la section chronométrée. Et enfin, un peu d’autopromotion : pendant que vous êtes ici, si vous aimez ces débats et que vous appréciez ce que nous faisons, je vous encourage à vous abonner à la chaîne YouTube de Lokad et à nous suivre sur LinkedIn. Et avec ça, la valeur ajoutée des prévisions est-elle une meilleure pratique ou une perte de temps ? Joannes, je vous en prie, vos remarques d’ouverture.
Joannes Vermorel: Tout d’abord, je tiens à remercier Jeff d’avoir accepté ce débat de bonne grâce. En termes simples, la FVA est un outil de suivi des augmentations et des diminutions de précision. Maintenant, est-ce que la FVA est une meilleure pratique ? Pour qu’une chose soit considérée comme une meilleure pratique, elle doit, par définition, refléter la compréhension de la communauté de ce qui est la manière la plus efficace d’atteindre un objectif particulier. Cependant, la prévision n’est pas un objectif en soi, et elle ne se produit pas dans le vide.
La prévision est un outil que nous utilisons pour atteindre un objectif spécifique. Certains pourraient soutenir que l’objectif de la prévision est une plus grande précision. C’est une position fortement contestée. À mon avis, la prévision est simplement un autre outil qui nous aide à prendre de meilleures décisions commerciales, c’est-à-dire des décisions commerciales qui rapportent plus d’argent. Donc la question est la suivante : est-ce que la FVA, en mesurant les augmentations ou les diminutions de précision, nous rapproche de l’objectif de gagner plus d’argent ? Je ne suis pas convaincu, et pour l’instant, je vais présenter trois critiques pour étayer mon argument.
Tout d’abord, même si la FVA n’a pas été initialement conçue pour faciliter la prévision collaborative, la FVA fournit, par sa conception, un cadre pour mesurer l’impact de la précision de la prévision collaborative. C’est important. La FVA ne dit pas que vous devez utiliser les meilleures pratiques de prévision. La FVA dit simplement voici l’impact de précision de ce que vous faites. Pourquoi est-ce important ? Eh bien, quelle est la meilleure pratique dans la communauté de la prévision ?
Depuis les années 1980, Spyros Makridakis a organisé une série de compétitions de prévision publiques (les compétitions M) pour trouver les meilleures pratiques. Depuis la compétition M4 en 2018, ces compétitions ont régulièrement démontré la supériorité des méthodes algorithmiques. En fait, probablement le plus grand expert vivant en matière de capacités de prévision humaine, Philip Tetlock, a écrit que chaque fois qu’un algorithme de prévision est disponible, cet algorithme doit être utilisé. La raison ? L’algorithme offre invariablement une précision supérieure par rapport au jugement humain. Cet algorithme et évidemment l’expert qui l’utilise sont la meilleure pratique.
Donc, si la prévision collaborative et les remplacements manuels ne sont pas les meilleures pratiques, et qu’ils ne le sont manifestement pas, alors les entreprises qui les mesurent avec la FVA ne suivent pas non plus les meilleures pratiques et, je soutiendrais, perdent leur temps. Certains pourraient dire, mais Joannes, la FVA ne préconise pas explicitement la prévision collaborative ou les remplacements manuels. D’accord, mais c’est ainsi qu’elle est couramment utilisée, même dans les écrits de Jeff.
Cependant, ma deuxième critique concerne quelque chose sur lequel la FVA est basée, à savoir la perspective des séries temporelles. La FVA nécessite des prévisions classiques des séries temporelles, également appelées prévisions ponctuelles. Au minimum, la FVA préconise l’utilisation d’une prévision naïve, simplement une copie de la dernière valeur réelle en tant que référence pour comparer les remplacements de prévision. Cette prévision sans changement est une série temporelle. Mais est-ce une meilleure pratique ? Encore une fois, non. Les prévisions ponctuelles ne sont pas seulement des outils de prévision incomplets ; elles peuvent être carrément trompeuses, par exemple dans des scénarios de forte variance. C’est parce que les prévisions ponctuelles ne tiennent pas compte de l’incertitude.
En fait, la compétition de prévision M5 comprenait un défi séparé, le défi de l’incertitude, qui se concentrait sur les prédictions quantiles, auquel Lokad a participé et a remporté au niveau des SKU, soit dit en passant. En réalité, une bien meilleure catégorie de prévisions existe déjà, ce sont les prévisions probabilistes. Contrairement aux séries temporelles, les prévisions probabilistes ne se limitent pas à un seul futur possible, par exemple la demande de la semaine prochaine. Au lieu de cela, nous examinons tous les futurs possibles et leurs probabilités respectives. Pourquoi est-ce important ? C’est important car identifier tous les scénarios futurs possibles est essentiel pour choisir la meilleure option possible. C’est important chaque fois que des risques financiers sont impliqués, ce qui est le cas en ce qui concerne les chaînes d’approvisionnement.
Cependant, FVA n’est pas compatible avec les prévisions probabilistes. Pourquoi ? Parce que les prévisions probabilistes signifient examiner les distributions de probabilité et non les séries temporelles. Et soyons réalistes, les personnes travaillant dans les ventes et le marketing ne vont pas éditer manuellement les distributions de probabilité avec ou sans FVA. C’est totalement inacceptable. Si les séries temporelles ne sont pas les meilleures pratiques, et elles ne le sont certainement pas en matière de gestion des risques, alors utiliser FVA pour comparer les précisions des prévisions n’est pas non plus la meilleure pratique. Je dirais que c’est une perte de temps.
Ma troisième critique est que la valeur ajoutée des prévisions ne mesure pas la valeur ; elle mesure la précision. Et est-ce que la précision ajoute de la valeur ? Pas nécessairement. Une prévision plus précise n’ajoute pas en soi de la valeur. Dans de nombreuses situations réelles, une prévision précise à 90% et une prévision précise à 60% conduisent aux mêmes décisions en matière de stocks si des MOQs ou d’autres contraintes sont présentes. Si le résultat financier de la décision ne change pas, alors mesurer le gain de précision n’ajoute pas de valeur commerciale. En tant que tel, d’un point de vue commercial, il est absolument incorrect de dire que la précision en soi ajoute de la valeur. Si c’est le cas, et c’est le cas, comment se fait-il que se concentrer sur la précision avec FVA soit la meilleure pratique ? Ce n’est pas le cas.
Même si vous n’utilisez pas personnellement FVA pour soutenir la prévision collaborative, d’autres le font. FVA est toujours basé sur des prévisions de séries temporelles, qui ignorent l’incertitude, ainsi que l’idée que l’augmentation de la précision équivaut à une augmentation de la valeur, ce qui contredit les paramètres commerciaux. Tout cela constitue de mauvaises pratiques, et donc je soutiens que FVA lui-même ne peut pas être considéré comme la meilleure pratique. C’est, à mon avis, une perte de temps. Merci.
Conor Doherty : Il vous reste encore 15 secondes, Joannes.
Joannes Vermorel : D’accord, merci.
Conor Doherty : Eh bien, merci beaucoup, Joannes, pour vos remarques liminaires. Jeff, je vous invite maintenant à faire vos remarques liminaires.
Jeff Baker : Oui, super. Merci, Conor. Merci, Joannes. Je suis vraiment ravi de pouvoir participer à cette conversation. Donc, évidemment, je suis en faveur de l’utilisation de FVA en tant que meilleure pratique. Cela vient du fait que toutes les chaînes d’approvisionnement ont besoin de planifier, n’est-ce pas ? Nous devons prendre des décisions bien à l’avance, peut-être deux à trois mois pour établir un calendrier de production, collaborer avec les fournisseurs, peut-être le fixer six mois à l’avance. Nous avons besoin d’une bonne prévision pour nous assurer, vous savez, si nous avons de petits changements de capacité, peut-être du personnel, peut-être un co-fabricant que nous voulons intégrer. Nous devons donc prendre ces décisions sur une longue période, et nous les réexaminons également.
J’ai quelques citations préférées dans la chaîne d’approvisionnement. L’une d’entre elles est : “Le plan ne vaut rien, mais la planification vaut tout.” Nous devons avoir ce plan pour nous mettre dans la bonne position. Maintenant, ma deuxième citation préférée dans la chaîne d’approvisionnement vient de Mike Tyson : “Tout le monde a un plan jusqu’à ce qu’il se prenne un coup de poing dans la figure.” Cela souligne le fait que nous savons que nous allons prendre quelques coups dans la chaîne d’approvisionnement. L’objectif est de prendre la meilleure décision possible avec la plus grande chance de succès dans l’espace de l’exécution. La meilleure façon de le faire est d’impliquer nos experts fonctionnels. Les ventes et le marketing ont des connaissances locales qui peuvent être utilisées pour améliorer la prévision et devraient donc être inclus dans le processus de consensus. Impliquer ces experts de manière structurée nous donne les meilleures données dont nous avons besoin pour prendre de meilleures décisions. Et FVA est un outil efficace pour mesurer l’efficacité de ces contributions.
Maintenant, la réserve étant que oui, vous pourriez potentiellement ouvrir la porte à des biais, mais de mon point de vue, ce que nous devons faire, c’est travailler à corriger ces biais, pas les éliminer complètement. Nous devons être interfonctionnels. Nous prêchons depuis de nombreuses années maintenant que l’interfonctionnalité est la voie à suivre. Je ne veux pas revenir à un modèle fonctionnel où chacun est uniquement responsable de sa propre décision, pas de ses impacts sur les autres. Pour faire cela au mieux, je pense qu’il faut avoir des ajustements guidés, là encore, où FVA brille. Cela me donne les produits qui ont une grande valeur mais qui ont une grande marge d’erreur. C’est là qu’il faut chercher de meilleures contributions.
Si j’ai un impact important qui est prévu - un effet matériellement défavorable qui se profile, ou cela pourrait aussi être un effet positif - nous devons être en mesure de planifier cela. Donc, la première chose est que ces ajustements doivent être guidés. La thèse que j’ai faite pour mon diplôme de maîtrise disait que nous devons examiner la direction de l’ajustement : est-ce à la hausse ou à la baisse ? Quelle est la prévisibilité inhérente de la série temporelle ? Quelle est l’ampleur de la modification ? Et assurons-nous que si nous ajoutons de la valeur, nous recherchons une augmentation substantielle - nous ne faisons pas simplement des ajustements mineurs.
Ensuite, il y a la structure. Je ne vais pas laisser quelqu’un des ventes ou du marketing me donner un chiffre arbitraire. Je vais demander : quelles sont leurs hypothèses d’entrée ? Est-ce basé sur de nouvelles données que nous n’avons même pas encore modélisées ? Ensuite, je creuserai plus profondément, en demandant : est-ce un scénario optimiste ? Un scénario pessimiste ? Quel est le scénario le plus probable ? Que faudrait-il pour que ce scénario se réalise à l’avenir ? De cette manière, ce que nous essayons de faire, c’est de déceler de manière proactive les causes de biais et de comprendre les motivations qui les sous-tendent.
Une fois que nous aurons fait cela, nous examinerons ces ajustements le mois prochain pour dire : “Ont-ils ajouté de la valeur ou non ?” Ce que j’aime dire, c’est que le bon jugement est basé sur l’expérience. L’expérience est basée sur de mauvais jugements. Donc, nous apprenons de nos erreurs. Nous revenons aux hypothèses, nous les validons, nous pourrions trouver quelque chose qui - hé, tu sais quoi - peut-être que les vendeurs surestiment constamment parce qu’ils n’ont pas confiance en la supply chain. Ce n’est pas seulement un biais, c’est un problème de confiance, et nous pouvons commencer à y remédier.
De plus, ce sont eux qui contextualisent ces informations mieux que nous. Je ne pense pas que nous aurons un scientifique de la supply chain qui soit expert dans toutes les subtilités du marketing ou de la prévision. Je vais compter sur ces experts, les utiliser pour me donner ces données. Maintenant, si avec le temps je trouve ces entrées précieuses, je vais essayer de les automatiser. Je n’ai aucun argument contre l’automatisation de la collecte de ces bonnes données. Mais le problème, c’est que nous ne vivons pas dans un monde avec des données pures infinies. S’il y a des données de fabrication, s’il y a des données de vente, s’il y a des données de marketing, souvent nous devons les chercher de manière proactive.
Si nous faisons cela correctement, il peut y avoir beaucoup de ces décisions que nous pouvons automatiser. Les ajustements ne sont pas nécessaires simplement parce que nous avons un processus FVA dans un système de prévision. En fait, le mantra numéro un de la prévision devrait être “Ne pas nuire”. Kraft Heinz, l’une des plus grandes entreprises alimentaires et de boissons en Amérique du Nord, a la métrique “pourcentage de prévision à faible intervention”. Comment puis-je m’assurer de ne pas y toucher à chaque fois ? Je pense que Deming l’a dit le mieux : “Ne faites pas quelque chose, restez là.” Parce qu’il a réalisé que la tendance naturelle de quelqu’un est de penser : “Ils attendent de moi que je fasse une contribution, je ferais mieux de faire une contribution pour montrer que je suis occupé.” Non, c’est totalement la mauvaise façon de voir les choses.
Lorsque nous examinons la preuve que la réduction des erreurs est précieuse, nous pouvons nous référer à l’Institut de prévision et de planification des affaires. Ils ont réalisé une enquête auprès de huit entreprises de biens de consommation et ont constaté qu’une réduction de 1% de l’erreur de prévision permet aux entreprises de réaliser 1,7 million de dollars d’avantages par milliard de dollars de revenus en évitant les coûts de prévision. Cela inclut l’évitement des remises, des transbordements, des produits obsolètes, des stocks excessifs et l’immobilisation du capital de travail. Les entreprises réduisent également le coût de la sous-prévision d’environ 1 million de dollars par milliard de revenus, en évitant les ventes perdues, les amendes pour non-respect des commandes et les coûts de production ou d’expédition accélérée.
L’IBF a constaté cela dans ses recherches. Gartner a également constaté des avantages similaires : une réduction de 2 à 7% de la valeur des stocks, une diminution de 4 à 9% des stocks obsolètes, une réduction de 3 à 9% des coûts de transport. L’ampleur de ces chiffres rend attrayante la poursuite de pistes visant à améliorer la précision des prévisions, en particulier dans les domaines où un article a une valeur élevée et une erreur élevée, ou si nous savons à l’avance que des événements externes auront un impact sur la supply chain d’une manière ou d’une autre. Merci.
Conor Doherty : Eh bien, merci, Jeff. Il vous reste également 15 secondes si vous le souhaitez.
Jeff Baker : J’en ai 13, mais ça va.
Conor Doherty : Très bien. Eh bien, Jeff, merci beaucoup pour votre déclaration d’ouverture. À ce stade, nous allons passer à la réfutation. Joannes, vous avez 5 minutes quand vous êtes prêt.
Joannes Vermorel : Merci, Jeff, pour vos remarques d’ouverture. Je pense que vous défendez bien votre position, bien que je pense qu’il y ait quelques points que j’aimerais clarifier. Je ne remets pas en question l’intention des gens de faire quelque chose de bien pour l’entreprise. J’essaie de remettre en question la réalité du résultat réel.
Tout d’abord, si nous pensons que la précision est la meilleure chose à poursuivre, quelque chose qui vaut la peine d’être poursuivi, alors la réalité, comme je l’ai souligné dans ma déclaration initiale, est que FVA ne reflète pas les meilleures pratiques de prévision. Si une entreprise poursuit réellement la précision, alors en ne faisant pas ces prévisions collaboratives, elle obtiendra en réalité des résultats plus précis. C’est malheureusement ce qui a été démontré empiriquement.
Deuxièmement, les ajustements eux-mêmes sont une façon très bureaucratique d’aborder le problème. Dès que vous mettez en place un mécanisme - oui, les gens peuvent dire “ne pas nuire” - mais si vous mettez en place un mécanisme bureaucratique, il sera utilisé. FVA implique la mise en place d’une mini-bureaucratie ou d’une mini-technocratie avec des éléments logiciels impliqués. Il y aura des personnes chargées de vérifier si les personnes des ventes et du marketing apportent effectivement les corrections nécessaires, etc. Et donc pour moi, cela ouvre la voie à quelque chose qui générera beaucoup de travail bureaucratique.
Parce que la réalité est que lorsque vous commencez à regarder à quoi ressemblent ces prévisions et ajustements, nous parlons de dizaines de milliers de séries temporelles, chaque série temporelle ayant environ 50 points ou plus, une prévision hebdomadaire d’un an à l’avance. Mais cela m’amène à une autre critique, c’est que, en se concentrant uniquement sur la précision, je pense que FVA attribue de manière erronée de l’argent et aveugle les entreprises à des moyens beaucoup plus efficaces par lesquels les gens pourraient contribuer au processus de prévision. Et pour être parfaitement clair, je n’ai jamais soutenu que les membres des ventes, du marketing et des finances ne pouvaient pas contribuer de manière significative au processus de prévision. Je suis parfaitement conscient que tout membre pertinent du personnel peut détenir des informations précieuses dans sa tête, des informations qui pourraient être financièrement bénéfiques pour l’entreprise.
Cependant, ce avec quoi je ne suis pas d’accord, c’est l’idée que les gens devraient attendre qu’une prévision ponctuelle soit produite pour ensuite la manipuler avec des ajustements manuels afin d’augmenter la précision. Cela, comme je l’ai dit, n’est pas une bonne pratique de prévision, et c’est pourtant ce que les gens font généralement avec FVA. Cependant, il existe un moyen constructif d’impliquer les gens dans le processus de prévision. Il s’agit de contribuer aux algorithmes de prévision qui génèrent la prévision, puis aux algorithmes ultérieurs qui génèrent les décisions. En réalité, cela signifie aider l’expert en prévision. Chez Lokad, il s’agirait d’un Supply Chain Scientist, en écrivant et en affinant ces algorithmes en fournissant une expertise et des informations spécifiques au domaine. Cela ne signifie pas que tout le monde dans les ventes et le marketing doit lire des distributions de probabilité et écrire des scripts en Python. Au lieu de cela, ils aident en fournissant à l’expert en prévision des informations exploitables qui pourraient être utiles, et l’expert traduit ces informations en lignes de code.
Et enfin, les algorithmes automatisés s’exécutent et génèrent la prévision. En fin de compte, ces informations ne sont que des éléments d’information, et elles sont distribuées, je suis d’accord, partout dans l’entreprise. Cependant, l’expert en prévision est la personne qui sait traduire tout cela en une prévision significative et un ensemble sensé de décisions de la chaîne d’approvisionnement. De nombreuses données excellentes peuvent être disponibles, mais c’est un expert en prévision et lui seul qui devrait décider comment ces données doivent être utilisées pour produire ou réviser une prévision. C’est la meilleure pratique soutenue par des décennies de résultats expérimentaux en prévision. Et malheureusement, FVA n’a pas sa place dans cet arrangement. En mesurant la précision au lieu de contribuer directement à l’amélioration de l’algorithme de prévision, la chose la plus gentille que l’on puisse dire est que FVA est une distraction. Pour ma part, je dirais que c’est une perte de temps.
Conor Doherty: Joannes, il vous reste encore 20 secondes.
Joannes Vermorel: Ça va, merci.
Conor Doherty: D’accord, merci. Jeff, à ce moment-là, je vous vois sourire. N’hésitez pas à répondre avec votre réfutation de cinq minutes.
Jeff Baker: Je pense que vous étiez en sourdine, au fait.
Oui, désolé. Non, perspective intéressante. Je voudrais revenir sur quelques points. Tout d’abord, vous avez mentionné la compétition M5 et Makridakis. Une chose que je voudrais souligner, c’est que 92% de ces personnes ont perdu face à un algorithme de lissage exponentiel très simple utilisé comme référence. Donc, il y a un argument en faveur de la simplicité. Il y a une différence, je pense, entre les meilleures pratiques et les dernières avancées. Je veux m’assurer que nous faisons une distinction car il y a de nombreuses situations où la simplicité est en réalité meilleure et plus acceptable pour les personnes qui l’utilisent. Du point de vue de l’explicabilité, lors d’une réunion S&OP lors d’un examen de la demande, il est beaucoup plus facile d’expliquer comment cela se passe et d’obtenir plus d’adhésion à cela.
L’autre point que vous avez mentionné concernant la focalisation des séries temporelles sur un seul point. Il est recommandé de ne pas seulement donner la série temporelle, mais aussi de préciser quelles seront les intervalles de prévision, n’est-ce pas ? Et cela est lié à la précision. Donc oui, une bonne pratique peut être de fournir la série temporelle ainsi que les intervalles de prévision correspondants. Nous sommes d’accord sur le fait qu’une prévision ponctuelle est une information. Une prévision ponctuelle plus les intervalles de prévision sont plus précieux.
Vous avez mentionné que les prévisions probabilistes ne sont pas adaptées à l’analyse de la valeur ajoutée (FVA). Je pense que si vous consultez l’un des derniers numéros de Foresight, vous verrez un article de Stefan De Kok sur les prévisions probabilistes et une variante de celles-ci, la valeur ajoutée stochastique, qui, selon moi, met en évidence l’intérêt de ce cadre. Je suis plutôt agnostique quant à ma méthode de prévision. Quelle que soit la méthode que j’utilise, je veux voir une amélioration lorsque j’intègre différentes données dans ma prévision. Comment puis-je l’améliorer ? Il est également important de veiller à une utilisation efficace et efficiente de nos ressources. Tout l’équilibre entre le coût de l’inexactitude et le coût de la génération de la prévision est connu depuis 1971. Il existe un article de la Harvard Business Review sur la façon d’équilibrer le coût d’une prévision trop longue par rapport à la précision que j’obtiens. En termes familiers, est-ce que ça vaut le coup ? Sur la base des chiffres que je crée, pour une entreprise de taille raisonnable, il y a beaucoup d’avantages, et je peux me permettre de faire examiner cela par certaines personnes.
Je ne pense pas que la prévision collaborative soit bureaucratique. Je pense que vous devez impliquer ces personnes dans le processus afin qu’elles puissent apporter une valeur ajoutée grâce au système. Ces contributions sont précieuses. Il y aura toujours des événements qui se produisent. Les chaînes d’approvisionnement ne deviennent pas moins complexes ; elles deviennent plus complexes, plus dynamiques, plus sujettes à l’effet papillon. C’est pourquoi nous avons besoin de personnes capables de contextualiser ces informations et de prendre la meilleure décision au moment où nous devons la prendre. Donc, de ce point de vue, cela doit être collaboratif. Si je suis collaboratif, je travaille toujours avec les ventes et le marketing. Cela devient, vous savez, je ne cherche pas à tout résoudre ; je cherche ce qui a changé. Si je continue à le faire, j’ai cette relation. Je suis alors en mesure d’obtenir ces contributions et d’avoir une meilleure relation avec eux.
L’inverse, c’est que j’ai un processus ad hoc où j’implique les ventes et le marketing à ma discrétion, quand je le souhaite. Je peux vous garantir que la qualité de vos contributions de la part des ventes et du marketing sera considérablement réduite si elles ne font pas partie d’un processus régulièrement planifié. Ce que j’entends souvent de la part des commerciaux, c’est : “Je suis trop occupé à vendre, laissez-moi tranquille.” Donc, si vous voulez obtenir ces contributions, vous devez les impliquer dans le processus.
Vous avez mentionné le décalage par rapport à la valeur commerciale réelle. On ne peut pas prendre de bonnes décisions avec de mauvaises données. L’argument est que j’ai besoin de meilleures prévisions. Il n’y a pas d’argument en faveur d’une diminution de la précision des prévisions. Je dois m’assurer d’utiliser les meilleures données possibles pour la prise de décision. Est-ce que cela sera directement lié à un retour sur investissement (ROI) ? Puis-je calculer le ROI d’une décision isolée pour l’ensemble de la chaîne d’approvisionnement ? Cela n’arrivera pas. J’aimerais pouvoir le dire, mais ma décision du point de vue de la prévision est complètement distincte des décisions fonctionnelles prises par la production, les achats, l’entreposage, le transport. Toutes ces choses peuvent conduire à un faible ROI. Mon rôle est d’être aussi précis que possible. Merci.
Conor Doherty : Merci beaucoup, Jeff. Désolé de vous avoir interrompu à la fin, mais je voulais juste vous le rappeler.
Jeff Baker : Pas de problème.
Conor Doherty : À ce stade, je vous remercie, Jeff. Je vais maintenant me tourner vers Joannes. Veuillez faire vos remarques finales, deux minutes.
Joannes Vermorel : Mesdames et Messieurs, le sujet du débat était “FVA est-il une meilleure pratique ou une perte de temps ?” Tout au long de ce débat, vous avez entendu beaucoup d’informations, mais veuillez garder à l’esprit quelques éléments lorsque vous décidez ce que vous pensez de FVA. Premièrement, si vous utilisez FVA dans le cadre d’un processus de prévision collaboratif continu, compris comme une microgestion des points de prévision, ce n’est pas une meilleure pratique. La modification manuelle de la prévision n’est sans aucun doute pas une meilleure pratique dans la communauté de prévision, et en tant que telle, les mesurer avec FVA n’est pas non plus une meilleure pratique.
Deuxièmement, FVA est basé sur des prévisions de séries temporelles. Je suis sûr que quelqu’un, quelque part, essaie de l’appliquer à des prévisions probabilistes, mais soyons réalistes. FVA ne fonctionne à grande échelle que s’il fonctionne du tout en combinaison avec des prévisions classiques de séries temporelles, qui ignorent complètement l’incertitude. Ce ne sont pas des meilleures pratiques, et mesurer l’exactitude avec FVA n’est donc pas non plus une meilleure pratique.
Troisièmement, par conception, FVA suppose que l’augmentation de l’exactitude vaut la peine d’être obtenue. Ce n’est pas le cas. Contrairement à ce qui a été dit, il y a des cas où une augmentation de l’exactitude peut réellement nuire à votre entreprise. Nous avons un exemple très simple. Pour la prévision de séries clairsemées, zéro est très souvent la prévision la plus précise, même si prévoir une demande nulle n’a aucun sens. Ainsi, même si vous n’êtes pas d’accord avec moi sur tous ces éléments de prévision et de chaîne d’approvisionnement, ceci est très clair : FVA, pour toutes ces raisons et plus encore, ne peut pas être considéré comme une meilleure pratique. Si c’est le cas, c’est un triste constat pour la communauté de prévision.
Conor Doherty : Merci beaucoup, Joannes. Jeff, je me tourne vers vous. Vos remarques finales, s’il vous plaît, deux minutes.
Jeff Baker : D’accord, super, merci beaucoup. Encore une fois, comme je l’ai dit au début, une meilleure planification conduit à de meilleures décisions. Nous devons apprendre à planifier, nous devons apprendre à re-planifier, et nous devons nous assurer d’avoir une prévision précise. Je ne pense pas qu’il y ait un bon argument commercial selon lequel de mauvaises données conduiront toujours à de meilleures décisions. Si vous avez de mauvaises données et que vous prenez de bonnes décisions, j’appelle cela de la chance aveugle. Cela n’arrive pas très souvent. Là où FVA brille, encore une fois, je ne préconise pas la microgestion, je ne préconise pas de tout remplacer. Il y a des exemples où nous avons des articles de grande valeur, avec une grande marge d’erreur. Nous savons qu’il existe des événements externes qui peuvent se produire et qui ne peuvent pas être réduits à une entrée algorithmique précise. Nous devons les comprendre, nous devons les planifier sur l’horizon temporel nécessaire pour prendre ces décisions. Toute critique de FVA est largement basée sur une incompréhension de ce que FVA est conçu pour faire.
Je sais que Lokad, vous vendez des logiciels. Dans mes travaux précédents, j’ai travaillé pour une entreprise de logiciels et j’ai également mis en œuvre des logiciels. Je sais que l’outil fonctionne. Souvent, le problème réside dans la mise en œuvre. Si le client n’obtient pas ce qu’il veut, il s’agit généralement d’un problème de mise en œuvre. Une mise en œuvre et un problème de données. Toute critique de FVA découle d’une méconnaissance de la manière de l’implémenter correctement, de ne pas comprendre comment cela fonctionne et comment cela ajoute de la valeur. Je vais vous donner une autre analogie simple. Si je construis une terrasse à l’arrière de ma maison et que j’ai entendu dire que je devrais visser les planches dans les solives et que j’utilise un marteau pour commencer à enfoncer des vis à bois, cela ne fonctionnera pas et je ne serai pas content. Cela ne signifie pas qu’il y a un problème avec le marteau ; cela signifie simplement que je ne sais pas comment utiliser correctement le marteau. J’utilise le mauvais outil pour le travail.
Conor Doherty: Merci. Désolé de vous interrompre, mais je dois être strict sur les horaires pour maintenir l’impartialité. Merci beaucoup, messieurs. Merci à tous les deux pour vos remarques préparées, votre argumentation et votre passion. À ce stade, j’aimerais passer à quelques questions de suivi. Il y en a quelques-unes qui arrivent. J’ai pris des notes en fonction de ce qui a été dit. Avant de passer aux questions du public, juste parce que je suis assis ici, j’écoute et je souhaite clarifier quelques points qui ont été soulevés.
Je vais commencer par, je pense, en fait, je vais pousser Joannes pour montrer mon impartialité. Je vais pousser Joannes. Donc, Jeff, dans votre réfutation, vous avez mentionné l’aphorisme “plus simple est meilleur”. Je pense que vous avez mentionné les résultats M5 et vous avez souligné que le fait qu’une chose soit sophistiquée ou à la pointe de la technologie ne la rend pas nécessairement meilleure. Alors, Joannes, votre réponse à l’idée selon laquelle, en gros, si je peux simplement déballer un peu cela, la prévision probabiliste, la modélisation purement algorithmique, c’est juste trop sophistiqué. Vous devriez être simple.
Joannes Vermorel: La réalité est que nous avons remporté la compétition M5 au niveau des SKU avec un modèle paramétrique qui comporte seulement cinq paramètres. C’est tout. Donc, oui, encore une fois, algorithmique ne signifie pas meilleur. En fait, Tetlock dans son livre “Superforecasting” montre qu’une moyenne mobile battra 99% des humains dans la prévision de n’importe quoi. Les humains voient des motifs partout ; ils ont un immense problème cognitif. Il est extrêmement difficile de faire face au bruit, donc vous voyez des motifs partout, et c’est simplement mauvais pour la prévision. D’ailleurs, c’est quelque chose où l’intelligence artificielle, comme une moyenne mobile, bat en réalité l’esprit humain la grande majorité du temps. Donc, c’était juste un point. En particulier, les algorithmes de prévision probabiliste de Lokad ne sont pas naturellement très sophistiqués. Ils ont juste une forme étrange, mais ils ne sont pas super sophistiqués au sens de l’utilisation de l’apprentissage profond et autres.
Conor Doherty: Jeff, qu’en pensez-vous ? Y a-t-il quelque chose sur quoi vous souhaitez réagir ?
Jeff Baker: Le seul défi que je pourrais avoir, et je suis tout à fait favorable à l’introduction des dernières données et technologies - encore une fois, j’étais dans une entreprise de logiciels, nous vendions de la technologie - mon défi est que parfois nous n’avons pas besoin de compliquer les choses. Peut-être que c’est mieux, mais nous devons nous assurer que nous obtenons cette valeur incrémentale pour tout ce que nous faisons. De plus, l’explicabilité est essentielle.
Pour nous ici dans la salle, les personnes intéressées par cette discussion, nous sommes tous intéressés par les prévisions probabilistes et les données. Lorsque nous en arrivons à la mise en œuvre, si j’essaie de vendre n’importe quelle prévision algorithmique, si elle présente des problèmes d’explicabilité, nous pouvons commencer à rencontrer des résistances car les humains ont naturellement une aversion pour les algorithmes. Ils vont s’opposer à des choses qu’ils ne comprennent pas. Beaucoup de ces techniques de prévision, les plus simples, sont relativement faciles à expliquer. C’est là que je dis que parfois les plus simples, du point de vue des performances, fonctionnent tout aussi bien. Les prévisions d’ensemble simples battent 92% des personnes qui se battent pour la gloire et la fortune dans la compétition M5. Il y a donc une certaine valeur là-dedans.
Je dirais également que vous ne voulez pas surcharger une organisation individuelle. Certaines organisations ont un niveau de maturité que nous devons les amener à atteindre. Pour beaucoup d’entre elles, si je peux les amener à faire des prévisions de lissage exponentiel, c’est génial. Des ensembles, c’est génial. Parler des intervalles de prédiction, c’est fantastique. Aucun problème avec les algorithmes plus sophistiqués et plus élaborés. Nous devons simplement nous assurer de les amener en fonction de leur capacité à digérer et à accepter cette technologie. Sinon, nous courons le risque - et j’ai déjà eu ce problème - d’utiliser des programmes linéaires mixtes pour des entreprises, et si elles ne le comprenaient pas, elles ne l’accepteraient pas. C’est ce à quoi il faut faire attention lorsque nous essayons de pousser des algorithmes plus sophistiqués.
Conor Doherty: Joannes, avez-vous quelque chose à ajouter ?
Joannes Vermorel: Encore une fois, je pense qu’il y a légèrement un décalage parce que ce que je dis, c’est que d’abord, lorsque nous faisons des prévisions probabilistes, les méthodes elles-mêmes sont assez simples. Toute sophistication là-dedans ne sert qu’à prendre en compte précisément les facteurs. Notre alternative à FVA consiste à dire que lorsque les gens ont des informations et les partagent, ce sont des facteurs à inclure. La prévision elle-même va simplement utiliser ces informations supplémentaires en tant qu’entrée, pas comme une substitution à la sortie.
Cela a de nombreuses conséquences positives, par exemple si vous actualisez la prévision, les gens n’ont pas à actualiser la substitution. Le problème est que les gens pensent que c’est une substitution, quelque chose de statique. Mais si vous substituez la prévision, que se passe-t-il si la semaine prochaine il y a de nouvelles informations et que votre référence a simplement changé ? Que faites-vous ? Appliquez-vous la même substitution, le même écart par rapport à ce que vous aviez avant ? Il y a des tonnes de complications qui résultent simplement du fait que le marketing fournit des informations sous la forme d’une substitution de prévision. Il est beaucoup plus facile de dire : “Marketing, dites-nous que nous allons promouvoir ce produit avec une dépense publicitaire de tant,” et ensuite vous prenez cela en compte comme une entrée dans votre prévision. Vous pouvez même faire des tests rétrospectifs pour voir si cela ajoute de l’exactitude ou non. Ce test rétrospectif est quelque chose que vous pouvez obtenir sur place ; vous n’avez pas besoin d’attendre trois mois pour voir si votre correction manuelle a donné quelque chose de positif ou non.
Conor Doherty: Si je peux intervenir un instant, car vous avez touché quelque chose que je voulais également dire à Jeff. En ce qui concerne “plus simple est mieux”, en reprenant ce que vous venez de dire, ne serait-il pas théoriquement plus simple pour un expert d’interviewer d’autres experts, de recueillir des informations et de les traduire en une décision algorithmique plutôt que de laisser tout le monde, y compris les non-experts, toucher à une prévision ? En termes de simplicité, qu’en pensez-vous ? Est-ce aussi simple, ou est-ce plus complexe ?
Jeff Baker: En général, j’ai utilisé FVA dans le processus de planification des ventes et des opérations, lors de l’examen de la demande, en regardant l’horizon temporel à trois mois. Nous avons le mois en cours, le mois en cours plus un, deux. En général, pour de nombreuses entreprises de biens de consommation, c’est un calendrier figé. C’est là que vous commencez à passer de la planification à l’exécution, donc c’est S&OP par rapport à S&OE.
Lorsque nous sommes dans ce domaine S&OP, nous examinons certains de ces événements, certains des facteurs. Ce que nous faisons là-bas, si nous le faisons à un niveau agrégé, c’est que nous recueillons des informations. Si c’est une entrée au niveau de la famille de produits, vous pouvez utiliser ces facteurs de haut niveau pour les propager vers le bas. Vous pouvez désagréger certaines de ces décisions, ce qui est une pratique courante - prendre un chiffre de haut niveau et le désagréger en détails.
Du côté de l’exécution, s’il y avait un événement important qui s’est produit, alors oui, vous pourriez également le faire au niveau de la famille ou au niveau de l’entreprise, en fonction de l’ampleur de cet impact. Je pense que c’est plus facile. Je ne préconise pas nécessairement d’ajuster chaque SKU, car, comme vous l’avez mentionné plus tôt, cela peut être contraignant. Mais s’il y a des impacts importants, nous devons apporter ces ajustements.
Dans cette planification, dans cette re-planification, revenir au plan n’est rien, la planification est tout. Cette notion de re-planification, de réexamen, si nous le faisons dans le processus S&OP une fois par mois, nous avons tous les décideurs dans la salle. Nous le faisons une fois par mois, et nous commençons également à nous concentrer sur ce qui est déjà dans le modèle, quelles sont les nouvelles informations, et comment les incorporer. En fait, l’un des moments où j’ai failli me lever et applaudir lors d’une réunion d’examen de la demande, c’est lorsque le responsable des ventes, le vice-président, était dans la salle, et il a dit : “D’accord, quelles sont les nouvelles informations que nous connaissons à ce sujet ?” Aucune nouvelle information. “D’accord, la prévision statistique, la prévision algorithmique reste valable”, et c’est tout. Il n’y avait pas beaucoup de bureaucratie là-dedans.
Je pense que c’est la meilleure façon de le faire, sauf s’il y a des événements vraiment importants dont nous sommes au courant. Mais alors, si vous êtes le scientifique de la supply chain, vous devez aller chercher activement ces informations. Alors que, de la manière dont je le suggère, les ventes et le marketing viennent aux réunions en sachant qu’ils doivent me dire ce qui est nouveau, ce qui a changé, ce qui n’était pas inclus dans les hypothèses du mois dernier. Nous essayons de rendre cela aussi rapide que possible. Pour une grande entreprise de biens de consommation, vous pouvez passer rapidement à un niveau de famille.
Conor Doherty: Merci, Jeff. Joannes, avez-vous quelque chose à ajouter ?
Joannes Vermorel: Pas grand-chose, mais pour être concis, la raison pour laquelle nous préconisons vraiment que l’expert prenne les informations plutôt que de modifier la prévision est que presque invariablement, les informations ne correspondent pas en termes de granularité à l’activité de l’entreprise. Ils disent : “Oh, nous avons ce concurrent qui fait faillite.” Il n’y a pas de chevauchement clair entre ce concurrent et ce qu’il fait exactement. Ce n’est pas un-à-un. Il y a un problème important, catégorie par catégorie, pour déterminer quels sont les produits impactés.
L’idée selon laquelle les informations peuvent venir à l’esprit d’une personne des ventes ou du marketing ou autrement, en disant : “OK, ces informations peuvent trouver une série temporelle correspondante à remplacer”, est presque toujours fausse. Trouver exactement ce qui est pertinent à toucher est difficile. Et qu’en est-il de toutes les autres sources d’incertitude ? Lorsque Lokad exploite une entreprise avec des modèles prédictifs, nous avons facilement une demi-douzaine de modèles prédictifs - un pour la demande, oui, mais aussi les délais d’approvisionnement, les rendements de production, le prix futur des fournisseurs, l’anticipation de la volatilité des prix des concurrents, etc.
Lorsque vous dites que le point avec FVA est qu’il a également ce problème de non-correspondance d’impédance entre la granularité des informations que vous avez et la série temporelle. Il met simplement la demande sur un piédestal alors que vous pouvez avoir des tonnes d’autres incertitudes qui doivent être prévues. Il y a aussi des informations du type : “OK, ce fournisseur est complètement débordé, les délais d’approvisionnement vont exploser.” Cela devrait être reflété dans l’algorithme de prévision des délais d’approvisionnement.
Jeff Baker: Ouais, je ne suis pas en désaccord avec vous là-dessus, en termes de, ouais, il y a des choses que nous devons examiner dans la chaîne d’approvisionnement. En aucun cas, je ne recommande de nous concentrer sur FVA et d’oublier de regarder les délais d’approvisionnement des fournisseurs ou autre chose. Ce n’est pas correct. Nous devons nous concentrer sur ce que demande l’efficacité, quelle est ma meilleure demande, n’est-ce pas ?
Et j’ai aussi besoin de connaître toutes ces autres choses concernant mon côté approvisionnement. Nous devons faire les deux, n’est-ce pas ? Et oui, je suis tout à fait d’accord. Nous avons besoin de délais d’approvisionnement, de variation des délais d’approvisionnement, nous devons comprendre la fabrication, quand elle pourrait être arrêtée, la tarification des fournisseurs, nous devons aussi le savoir. Donc je n’ai aucun désaccord là-dessus. Le seul désaccord que j’ai, c’est que je ne dis pas de nous concentrer sur FVA au détriment de ces autres choses.
Conor Doherty: Eh bien, nous avons d’autres questions de l’auditoire auxquelles je vais répondre. Il y a juste un dernier point qui a été soulevé, et je vais le poser. J’ai d’abord essayé de paraphraser de manière équitable, Jeff, alors confirmez simplement si j’ai bien paraphrasé. Mais ensuite, je veux vous interroger, Joannes, à ce sujet. Jeff, dans vos remarques finales, vous avez affirmé qu’il existe des éléments qui ne peuvent pas être réduits à un algorithme. Est-ce une bonne synthèse de ce que vous avez dit ? Il existe certains éléments, je pense que c’était une faible prévisibilité, sur lesquels on ne peut pas simplement compter sur une solution algorithmique pour les fournir.
Jeff Baker: Oui, et il y a des événements, vous savez, c’est plus lié au fait que les événements ne se répètent pas.
Conor Doherty: Et l’implication ici étant qu’ils nécessitent une intervention manuelle, une saisie manuelle.
Jeff Baker: Une contextualisation du fait qu’il y a un événement. Je n’ai rien avec quoi je peux le modéliser, mais je vais devoir prendre une décision. Je vais utiliser un expert pour m’aider là-dessus.
Conor Doherty: Joannes, qu’en pensez-vous ? Parce que j’étais très curieux d’entendre votre avis là-dessus.
Joannes Vermorel: C’est là que je mentionnais l’expert Philip Tetlock dans mon argumentation. Il a en fait écrit un livre intitulé “Superforecasting” et il a évalué les capacités de prévision humaine avec un projet qui a duré une décennie appelé le Good Judgment Project. Il a été financé par l’IARPA, l’équivalent du renseignement américain du DARPA.
Ce qu’ils ont découvert, c’est que les personnes qui étaient de bons prévisionnistes pour ce genre de prévision intuitive, pour des choses où vous n’avez pas de recette algorithmique, leur conclusion immédiate était que lorsqu’il y a une recette algorithmique disponible, c’est mieux. Lorsqu’il n’y en a pas, bon, revenons aux humains et aux jugements de haut niveau. Mais ce qu’ils ont conclu, et c’est l’une des conclusions du livre, c’est que les superprévisionnistes, c’est-à-dire les personnes qui obtiennent de manière constante une précision de prévision supérieure, construisent en fait des micro-algorithmes adaptés au cas. C’est littéralement ça. Et lorsque les gens sont capables de le faire, ils ont une amélioration massive de la précision. L’ordre de grandeur est une augmentation de précision de 30 %, même sur des choses très difficiles à évaluer, comme par exemple, est-ce que l’ancien président de la Syrie va reprendre le pouvoir dans les cinq prochaines années ? Juste une question très difficile à répondre.
Donc, en fin de compte, si nous revenons à ces conclusions, cela soutient à nouveau l’idée que lorsque nous avons des informations, ce n’est pas la personne qui détient les informations qui doit être celle qui traduit ces informations en une déclaration quantitative sur la prévision de l’entreprise. C’est ce que je dis. Et c’est pourquoi je pense que là où FVA et la pratique de ces interventions manuelles se trompent, c’est que la façon dont nous abordons cela chez Lokad, c’est que quelqu’un nous donne les informations, les informations brutes, et ensuite, si nous avons un élément qui est là sans raison apparente, alors nous devons inventer une sorte de mini recette numérique qui convertit cela en un nombre.
Et la chose intéressante, c’est que vous devez non seulement l’inventer, mais vous devez la documenter. Vous devez expliquer quelle était la logique, même si ce sont trois phrases qui disent simplement : “D’accord, je fais ça, je multiplie ça par ça, j’applique un ratio et une réduction”, quelque chose de très simple comme une recette de cuisine. Encore une fois, si nous revenons à “Superforecasting”, ce livre, c’est exactement ainsi que les superprévisionnistes, les personnes qui obtiennent des résultats de prévision supérieurs sans utiliser d’algorithmes, le font. Ils ont la recette numérique explicite qui rend leur processus améliorable. Donc ce n’est pas seulement une question d’informations, vous devez avoir un processus qui soit reproductible et améliorable sur la manière dont vous convertissez ces idées en chiffres. Cela ne devrait pas être comme de la magie dans l’esprit des gens.
Jeff Baker: Non, je suis tout à fait d’accord. Nous demandons aux gens de documenter leurs hypothèses. Dans le prolongement de cela, oui, si vous pouviez avoir un modèle d’intelligence artificielle basé sur un grand modèle de langage pour l’équipe commerciale ou pour le marketing, ce serait fantastique. Parce que c’est l’un des biais, vous demandez aux gens, vous essayez d’obtenir leurs contributions, et parfois ils se souviennent de choses, parfois ils ne se souviennent pas de choses. Souvent, nous revenons sur les données en nous disant : “D’accord, quand avons-nous augmenté ce prix ? Oh, nous approchons d’un an, peut-être que le premier pic que nous avons atteint suite à l’augmentation des prix est maintenant passé.” Je suis tout à fait favorable à l’automatisation de cela si vous le pouvez. Vous devez avoir cette conversation avec les gens et commencer à obtenir cela. Cela doit faire partie de leur vie quotidienne car il y a tellement de cas comme celui-ci en ce moment dans de nombreuses entreprises. Donc je pense que oui, vous commencez par là.
Conor Doherty: D’accord, eh bien à ce stade, je vais passer à certaines des questions qui nous ont été posées par le public. Donc je pense que je vous ai posé la première question la dernière fois, Jeff, celle-ci s’adresse à vous deux mais je vais commencer par vous. C’est de la part de Nicholas. Comment gérer une situation où trop d’informations arrivent, obligeant les modèles statistiques à changer fréquemment, même avec un processus S&OP en place ? Comment équilibrer efficacement la pression des équipes marketing et financière ?
Jeff Baker: Donc la question est s’il y a beaucoup d’informations différentes provenant des ventes et du marketing ?
Conor Doherty: Oui, en gros, s’il y a une vague d’informations qui arrive, comment gérez-vous cela, surtout si cela force les modèles statistiques à changer fréquemment avec, disons, beaucoup de remplacements, par exemple. Bien que j’aie ajouté cette parenthèse moi-même.
Jeff Baker: D’accord, donc le modèle statistique lui-même ne serait pas modifié. Donc nous parlons d’un modèle de prévision statistique basé sur des séries temporelles, puis de remplacements provenant des ventes et du marketing, c’est ce que je comprends. Nous ne parlons pas de…
Conor Doherty: Je n’ai pas Nicholas avec moi en ce moment, désolé.
Jeff Baker: D’accord, dans ce cas, vous devez prendre une décision à l’horizon temporel, n’est-ce pas ? Donc si j’ai besoin de le faire trois mois à l’avance pour établir mon planning de production, ma séquence d’exécution pour ma planification de capacité finie, alors oui, nous devons avoir la pratique de ne pas apporter de nouvelles informations à la dernière minute. L’une des autres choses du côté de la production pour lesquelles je suis un fervent défenseur, ce sont les violations de la clôture temporelle figée pour former l’équipe commerciale. Hé, les surprises dans le mois en cours et le mois suivant, elles ne sont pas les bienvenues. Et c’est une question de culture, n’est-ce pas ? Et c’est ainsi que je traiterais cela. Je veux dire, il y a eu une situation où un commercial est venu et a dit : “Hé, nous avons cette énorme vente”, et il a attendu la dernière minute pour le dire à la production. Ce n’est pas une bonne affaire, n’est-ce pas ? Vous venez de nous coûter pas mal d’argent.
Donc cette idée de figé, comme vous devez prendre la décision dans ce délai, cela doit être votre meilleure décision et réaliser que nous allons planifier en fonction de cela et ne pas nous surprendre. C’est ainsi que je gérerais une situation de ce genre. En fait, l’une des mesures de l’OPSM que j’adore, c’est la violation de la clôture temporelle figée. C’est-à-dire à quelle fréquence mettons-nous la pression sur nos équipes de production simplement parce que vous avez attendu la dernière minute pour nous dire qu’il y a une nouvelle vente.
Conor Doherty: Merci, Jeff. Joannes, avez-vous des réflexions à ce sujet ? N’hésitez pas non plus à intégrer dans votre réponse comment un expert selon votre cadre gérerait de nombreuses informations soudaines provenant de différentes personnes.
Joannes Vermorel: Tout d’abord, l’approche de Lokad est d’automatiser tout. Donc pour nous, vous savez, c’est le genre de situation où, premièrement, vous devez avoir de la bande passante pour cela. Et vous voyez, c’est ce qui est intéressant dans l’automatisation de tout. Par définition, le scientifique de la supply chain dispose, une fois que la chose est automatisée, de beaucoup de bande passante pour gérer une situation exceptionnelle. Ce qui n’est généralement pas le cas dans une situation où les gens ont déjà tout leur temps occupé à gérer la routine. C’est donc la première chose.
La deuxième chose est que l’instabilité des prévisions est une caractéristique des prévisions classiques de séries temporelles, vous savez, des prévisions ponctuelles. Donc vous ajoutez un peu d’information, et la chose va simplement monter et descendre parce que, selon votre mesure de précision, c’est ce que vous devez faire pour être super réactif, pour être le plus précis possible. Très fréquemment, vous avez ce compromis : si vous voulez être assez précis, vous devez capturer rapidement les changements, et cela rend les prévisions très instables. Ici, si vous optez pour des prévisions probabilistes, cela tend à éliminer les problèmes d’instabilité car vous avez déjà une distribution de probabilité qui est un peu diffusée. Ainsi, le fait que vous ayez observé une valeur aberrante et ainsi de suite, vous avez toujours cette distribution de probabilité diffusée. Il n’y a pas de saut majeur dans la dispersion de la masse de la distribution de probabilité.
De plus, le problème de l’instabilité des prévisions, même si nous optons pour des prévisions ponctuelles qui peuvent être radicalement modifiées, est, comme je l’ai dit, pourquoi les gens n’aiment-ils pas les sauts dans les prévisions ? La réponse est que parce que les prévisions sont traitées manuellement, avec des remplacements manuels, des révisions manuelles, et ainsi de suite. Ce n’est pas ainsi que Lokad le fait. La prévision est automatisée, les décisions sont automatisées. Donc lorsque la prévision change, les décisions reflètent automatiquement et immédiatement quel est le nouvel état, en tenant compte du fait que vous pourriez être financièrement engagé dans une certaine action. Donc, oui, la demande a changé, mais vous avez déjà produit des stocks. Donc maintenant, même si la demande n’est pas ce que vous attendiez, vous devez quand même liquider, vendre ces stocks d’une manière ou d’une autre. Ainsi, vous voyez, l’automatisation rationalise et élimine largement les problèmes de rythme de l’ajout des informations. Les informations peuvent être ajoutées dès qu’elles deviennent disponibles, et dès qu’elles deviennent disponibles, elles sont prises en compte.
Jeff parlait de culture. Ce qui est intéressant, c’est que cela récompense immédiatement les personnes qui apportent l’information car, littéralement, le jour où ils ajoutent leur information, elle est validée. Le lendemain, les plannings de production sont tous orientés. Les plannings de production, l’allocation des stocks, les expéditions, les commandes d’achat, tout reflète immédiatement cette information qui a été fournie la veille. Donc, pour les personnes, vous voyez un moyen de développer une culture de l’apport de l’information. Ils doivent voir que lorsque ils apportent de l’information, en quelques heures seulement, elle est reflétée à toutes les échelles dans chaque décision. C’est ainsi que vous pouvez le rendre très tangible, pas en leur disant : “Revenez le mois prochain, et ensuite nous commencerons à examiner vos choses.”
Conor Doherty : Merci, Joannes. Jeff, je veux vraiment entendre vos réflexions sur cette dernière partie car je pouvais le voir sur votre visage. Cela résonnait au moins un peu.
Jeff Baker : Ouais, ouais. Je veux dire, pour moi, cela ressemble à une recette pour un effet coup de fouet, non ? Vous dites que je vais jeter n’importe quelle petite information là-dedans, je veux dire, j’apprécie la réactivité et la capacité technique à refléter immédiatement quelle est la meilleure décision. Le défi réside dans le fait que nous avons déjà pris beaucoup de ces décisions. Si j’ai fait ma planification et, disons, je fais de la bouillie d’avoine, et j’ai de la bouillie d’avoine normale, puis j’ai de la bouillie d’avoine à la cannelle, j’ai de la cannelle et de la pomme, puis je fais de la cannelle, de la pomme et de la noix. Eh bien, j’ai maintenant une allergie. Il y a un coût de changement énorme entre cela. Maintenant, si vous intervenez et que je dois perturber ce planning immédiatement, il y a un coût financier énorme, un coût financier potentiel à cela. Si tout à coup j’ai besoin de commander plus rapidement une matière première, je vais avoir un effet coup de fouet sur mon fournisseur.
Donc, il y a certains avantages à la stabilité. En fait, il y a beaucoup de conversations intéressantes sur la question de savoir s’il existe une prévision précieuse et stable, pas la plus précise, mais précise et stable, car la stabilité présente certains avantages dans la supply chain. Donc, je veux dire, c’est un domaine dans lequel nous commençons tout juste à faire des recherches, mais cela montre que bon nombre de ces décisions doivent être prises. Nous avons un peu planté un drapeau, et tout le monde rigolera quand je dirai, vous savez, une prévision figée. Comme, mec, ce n’est pas vraiment figé. D’accord, nous savons tous que ce n’est pas figé, mais il y a une conséquence financière à apporter des changements dans les décisions.
Donc, même si techniquement je pense que c’est génial que nous puissions refléter, “Eh bien, maintenant c’est la meilleure décision”, je pense que nous devons tempérer cela avec le fait que si nous changeons en fonction de tout ce qui arrive, il y aura des coûts associés. Cela peut être parfaitement acceptable pour certaines supply chains. Si j’ai une supply chain réactive, peut-être que nous allons bien. Peut-être que c’est le monde dans lequel nous vivons. Si nous avons une supply chain efficace où les changements sont coûteux et difficiles à réaliser, c’est là que je vois un problème.
Joannes Vermorel : Je comprends. Je veux dire, chez Lokad, évidemment, modéliser le coût du changement est quelque chose que nous faisons. Chaque allocation de ressources, si elle s’écarte de ce qui était précédent, nous modélisons cela dans le coût. C’est super basique. Donc, la chose ne va pas sauter si le coût du changement dépasse les avantages anticipés. Pour moi, c’est comme, encore une fois, je pense que les gens abordent généralement l’examen de recettes numériques extrêmement absurdes et disent : “Oh, regardez, c’est un problème.”
Par exemple, nous avons une décision qui est super naïvement esclave d’une prévision sans aucune considération de l’engagement actuel, etc. C’est incroyablement naïf. Évidemment, vous avez besoin d’une partie de votre recette numérique pour prendre la décision qui met en œuvre le coût du changement et toutes sortes de coûts. Il y en a beaucoup. Et c’est là que la prévision probabiliste brille également. Elle vous donne encore plus. Vous prenez en compte le fait que si vous prenez cette décision maintenant, devrez-vous la réviser à l’avenir ? Parce que, encore une fois, si vous avez cette prévision ponctuelle, par définition, vous supposez que vous connaissez déjà l’avenir. Donc, votre modèle vous empêche de considérer automatiquement que votre prévision pourrait être fausse. Mais avec des prévisions probabilistes, c’est donné. La prévision vous dit déjà que la demande peut être n’importe où dans cette plage, et vous avez les probabilités. Donc, non seulement vous calculerez, lorsque vous optimiserez la décision, le coût du changement s’il y a un changement, mais aussi le fait que le changement pourrait être nécessaire à l’avenir.
Conor Doherty : Eh bien, messieurs, encore une fois, je suis conscient du temps et il y a encore au moins quatre autres questions à aborder. Mais dans un souci d’équité, je vais vous poser la prochaine, euh, Jeff. Est-ce que FVA serait une bonne approche pour aider à atténuer la pression d’ajuster les modèles statistiques pour répondre aux attentes budgétaires ? Dans une deuxième partie, comment un data scientist en supply chain peut-il…
Désolé, je devrais en fait poser cette question à Joannes. Désolé. Est-ce que FVA serait une bonne approche pour aider à atténuer la pression d’ajuster les modèles statistiques pour répondre aux attentes budgétaires ? Et comment un data scientist en supply chain peut-il naviguer dans la politique et la hiérarchie lorsqu’il est confronté à de tels défis ? Et Jeff, je viendrai vers vous pour un commentaire.
Joannes Vermorel : Encore une fois, c’est le problème avec les prévisions ponctuelles. Les prévisions ponctuelles supposent que vous connaissez l’avenir. Donc, si vous connaissez l’avenir, tout, le plan, tout est une question d’orchestration, et votre prévision vous dit le budget dont vous avez besoin pour tout. Et c’est faux parce que, d’abord, la prévision comporte des imprécisions, et vous ignorez complètement l’incertitude.
Une prévision ponctuelle est rigidement attachée à un budget donné. Ce n’est absolument pas une bonne pratique. Mais si nous passons au monde des prévisions probabilistes, alors soudainement tous ces problèmes disparaissent. Ce que vous avez, ce sont des futurs possibles, et ensuite toutes les dépenses budgétaires peuvent être prises en compte. Si vous me dites que vous avez cette quantité de ressources, alors vous examinerez comment allouer ces ressources pour obtenir le meilleur résultat selon ces probabilités sur l’avenir.
Et d’ailleurs, nous avons un exemple de cela. Si les gens veulent avoir un tableur, ils peuvent consulter le réapprovisionnement priorisé des stocks sur notre site web. C’est un tableur Excel qui démontre qu’avec une prévision probabiliste, vous pouvez choisir n’importe quel budget que vous avez, et cela vous donnera le meilleur résultat que vous puissiez obtenir pour votre budget. Encore une fois, c’est un problème de prévisions ponctuelles défectueuses en tant que paradigme. Les séries temporelles classiques sont défectueuses en tant que paradigme, et vous vous retrouvez avec beaucoup de problèmes que vous n’auriez pas, même conceptuellement, si vous n’étiez pas attaché à un paradigme défectueux.
Jeff Baker: Juste une remarque en passant sur un paradigme défectueux qui a très bien fonctionné pour de nombreuses entreprises pendant des dizaines et des dizaines d’années. Donc, je ne le classerais pas comme défectueux. Maintenant, en ce qui concerne le budget, vous savez, la prévision et le budget posent un énorme problème car les budgets sont aspirants, n’est-ce pas ? La meilleure chose que nous puissions faire, et encore une fois, cela vient d’un point de vue commercial et opérationnel, c’est de demander à mes clients de prévoir sur 18 mois. Donc, devinez quoi ? Mi-2025, nous avons déjà commencé à regarder 2026. Nous pouvons comprendre quelle est la vision la plus probable de 2026.
Ensuite, à partir de là, vous pouvez ajouter vos objectifs aspirants par-dessus. Pas de problème avec ça, mais ensuite vous forcez la conversation : que faudrait-il faire pour augmenter nos ventes de tant, pour réduire nos coûts de tant, n’est-ce pas ? Cela fait partie de la conversation. Donc, la meilleure façon de faire cela est de baser votre budget sur une prévision statistique solide ou sur toute autre prévision consensuelle que vous avez pour l’avenir. Basez votre budget là-dessus. Ensuite, si vous avez des écarts par rapport à cela, ayez également des plans de vente, de marketing et de production pour combler ces écarts. La pire pratique, j’espère que tout le monde est d’accord là-dessus, est l’approche de la Tour d’Ivoire. Voici ce que notre budget est, les finances le mettent en place, et cela me rappelle les vieux problèmes de calcul différentiel où la dérivation est laissée à l’utilisateur, et nous nous disons : “Oh, comment diable allons-nous faire ça ?” Donc, c’est une pire pratique, il suffit de mettre ces bouchons là-dedans.
Donc, je pense que c’est une façon de s’assurer que votre budget initial est basé sur la réalité avec des plans pour y parvenir. Ensuite, la deuxième chose que je dis, c’est que l’analyse des écarts est parfaite pour cela. Voici ce que notre prévision statistique est. Le budget, il n’y a pas d’analyse des écarts pour le budget, n’est-ce pas ? C’est aspirant. Mais vous indiquez où se trouvent ces écarts et forcez cette conversation sur la façon de les résoudre. Oui, je pense que nous serions tous d’accord pour dire qu’une autre pire pratique absolue est que la prévision est égale au budget. Cela me rendrait fou.
Conor Doherty: Eh bien, merci, Jeff. Je vais passer à la prochaine remarque, à la prochaine question, excusez-moi, et celle-ci s’adresse directement à Joannes. C’est de Timur, je crois. Je trouve que l’analyse des écarts est utile mais parfois limitée dans son champ d’application. Seriez-vous d’accord avec la métaphore de Jeff selon laquelle l’analyse des écarts est comme un marteau, ou la voyez-vous différemment ?
Joannes Vermorel: Je veux dire, oui. Je ne suis pas trop sûr. Ma critique de l’analyse des écarts n’est vraiment pas qu’elle est un marteau. C’est vraiment que je pense qu’elle fonctionne dans les mauvais paradigmes. C’est étrange et dû aux mauvais paradigmes. Encore une fois, les séries temporelles, les prévisions ponctuelles classiques, le fait qu’elles soient basées sur la précision et non sur des mesures en pourcentage d’erreur, pas en dollars d’erreur. Vous voyez, il y a beaucoup de problèmes paradigmatiques, et c’est quand je dis que ces choses sont défectueuses. Je maintiens mon point de vue sur ce point. La sorte de friction que les entreprises endurent dans la pratique est plutôt la manifestation de tous ces problèmes.
Si vous voulez une preuve anecdotique que ces paradigmes sont défectueux, depuis les années 1970, la théorie de la supply chain promettait une automatisation complète de ces processus de prise de décision. C’était d’ailleurs la promesse d’Oracle depuis les années 70 : vous obtiendrez une gestion des stocks entièrement pilotée par des algorithmes. Cela ne s’est pas produit, et cela a échoué encore et encore. Le point que je soulève, c’est que je crois, et j’ai beaucoup d’arguments à l’appui, que cela reflète le fait que les paradigmes, les outils mathématiques, les instruments sont tout simplement erronés. Ainsi, vous vous retrouvez avec toutes sortes de problèmes étranges. Pour revenir à cette histoire de marteau, oui, cela ressemble parfois à essayer d’utiliser un marteau pour serrer des vis. Ce n’est pas que le marteau est mauvais en soi ; c’est que vous essayez de faire quelque chose pour lequel le marteau n’est pas l’outil approprié.
Conor Doherty: Jeff, je vous laisse la parole pour un commentaire si vous avez quelque chose à ajouter.
Jeff Baker: Non, à part le fait que l’analogie que j’ai faite à propos du marteau était que vous devez utiliser l’outil correctement. Donc, l’analyse des écarts est un outil. Si vous n’utilisez pas l’outil correctement, vous n’en tirerez pas de valeur. C’était mon analogie.
Conor Doherty: Merci. Je vais continuer. C’est de Marina. Il n’y a pas de désignation claire de qui cela concerne, donc je vais commencer par Jeff. Avec l’avancée rapide de l’IA et la possibilité d’avoir toutes les données disponibles dans un avenir proche, pensez-vous que l’analyse des écarts deviendra plus efficace, voire plus essentielle ?
Jeff Baker: Plus efficace ou plus essentielle ? C’est une question intéressante. Ce que je pense, c’est que, à mesure que l’IA devient de plus en plus présente, avec de plus en plus de données, nous devons apprendre à contextualiser cela et prendre des décisions avec. On pourrait presque imaginer un cas lointain où nous serions capables de contextualiser toutes ces informations, de les mettre dans de grands modèles de langage, et, pour reprendre votre point, Joannes, de commencer réellement à systématiser tout cela. C’est potentiellement quelque chose qui pourrait conduire à ce que l’analyse des écarts soit comme ça : “Eh bien, d’accord, nous prenons toutes ces décisions, et ce sont de bonnes décisions.”
Peut-être qu’il ne restera alors que des cas marginaux d’événements importants, comme un concurrent qui fait faillite ou qui fait une promotion en même temps qu’une baisse de l’économie, en même temps qu’une augmentation de votre saisonnalité. Vous pourriez peut-être commencer à les obtenir. Donc, je pense qu’il y aura probablement des fruits faciles à cueillir où l’IA sera fantastique pour prendre toutes ces données, comprendre les relations, et aussi comprendre le bruit qui existe et ce qui est précieux et ce qui ne l’est pas. Donc, je pourrais même voir qu’elle devienne un peu moins précieuse à l’avenir alors que nous commençons à automatiser.
Conor Doherty: Eh bien, merci, Jeff. Joannes, IA et analyse des écarts, le futur : oui, non, bon, mauvais ?
Joannes Vermorel: Je pense, encore une fois, que nous devons prendre du recul par rapport à l’intelligence artificielle. Considérons que, en termes de masse d’informations, les systèmes de transaction contiennent des gigaoctets d’informations. Je veux dire, des gigaoctets si vous voulez être vraiment précis. Les données de transaction représentent des gigaoctets d’informations. En comparaison, les informations que les gens ont dans leur tête représentent des kilo-octets d’informations. Les gens ne sont pas comme ça, vous savez, ils ne sont pas des mentats, comme je le dirais dans la série Dune pour ceux qui aiment ça. Donc, cela signifie que 99% du problème pour prendre les bonnes décisions consiste, en termes de masse d’informations, à prendre les informations de transaction banales que vous avez et à générer les décisions à partir de cela. C’est 99% de la masse d’informations ici.
Pour cette partie du problème, qui consiste à traiter les données numériques présentes sous forme tabulaire, je ne vois pas l’utilité des grands modèles de langage. Oui, ils peuvent être des outils de codage très efficaces pour que vous puissiez réellement utiliser l’outil pour écrire le code à votre place. C’est une chose. Mais peuvent-ils faire plus ou faire autre chose que d’écrire le code ? Cela devient très incertain.
Maintenant, pour les kilo-octets d’informations que les gens ont dans leur tête, peuvent-ils réellement les utiliser pour prendre ces informations et les convertir en comblant l’écart vers quelque chose de quantitatif ? Je dirais que oui, mais le défi consiste toujours à concevoir cette chose de bout en bout, ce pipeline pour avoir cette optimisation prédictive automatisée. C’est un véritable défi, et ici nous repoussons les limites de l’intelligence humaine pour le faire correctement. Donc, je ne vois pas dans un avenir proche que l’IA que nous avons soit vraiment capable de le faire plus qu’une entreprise d’IA remplaçant Microsoft en ayant une IA réécrivant une version de Microsoft Word. C’est le genre de chose où l’IA peut vous aider à écrire le code, mais cela nécessitera toujours une supervision intelligente humaine, du moins avec le paradigme actuel que nous avons avec les LLM. Ils ne sont pas encore super intelligents.
Conor Doherty: Encore bien, il reste encore deux questions. Donc Jeff, si vous voulez, nous pouvons passer directement à la suivante.
Jeff Baker: Parfait.
Conor Doherty: Merci. Celle-ci est pour vous. Je vais commencer. Euh, c’est de la part de Mark. Comment les intervalles de confiance des prévisions peuvent-ils être efficacement traduits en un seul nombre discret, comme un achat ou un bon de travail ? L’analyse post-prévision serait-elle la meilleure approche pour déterminer ce nombre ?
Jeff Baker: Oui, donc vous savez, je n’ai aucun problème avec les prévisions probabilistes ou les intervalles, mais en fin de compte, vous devez mettre un nombre dans votre système ERP, dans votre système de planification. Vous devez faire un choix sur le nombre. Maintenant, là où la conversation intéressante devient, c’est quelle est la variation de ce nombre ? Mon système est-il robuste ? Que se passe-t-il s’il était en hausse, vous savez, de 20%, 30%, peu importe ? Mais ce sont des scénarios que vous pouvez commencer à étudier, n’est-ce pas ? Donc oui, c’est ma réponse.
Conor Doherty: Merci. Joannes, avez-vous quelque chose à ajouter à cela ?
Joannes Vermorel: Oui, encore une fois, si vous pensez que vous devez aborder le problème d’un point de vue paradigmatique où vous devez prendre une décision sur les quantités d’inventaire, et donc la prévision doit être un nombre, alors vous avez ce problème que l’incertitude n’existe pas. Elle ne peut pas exister. Et c’est pourquoi les gens, encore une fois, nous revenons à cette perspective incorrecte, abordent le problème en demandant : “Que faire de ces intervalles de confiance ? Que dois-je en faire ? Oh, je dois penser à un nombre.” Et c’est un piège paradigmatique. Vous êtes piégé dans des concepts défectueux.
Donc, si vous abordez le problème avec le paradigme actuel où une prévision de la demande vous donnera un nombre précis pour la décision d’inventaire, la seule façon de le résoudre est de préserver, même dans la décision, le fait que la décision reflète tous les scénarios possibles. Ce n’est pas que vous choisissez un nombre pour l’inventaire ; vous choisissez une demande spécifique. Non, votre décision d’inventaire devrait refléter tous les scénarios possibles avec les priorités et exprimer les différents risques en termes monétaires. Donc, c’est pourquoi c’est une façon différente de penser à cela. Et pour revenir à la question, si vous restez dans le paradigme des séries temporelles, vous ne savez pas quoi faire de vos intervalles de confiance. Ils ne s’intègrent pas dans le système.
Jeff Baker: Je soutiendrais que vous savez exactement quoi faire de ces intervalles de confiance, car si j’ai l’erreur de prévision à mon délai de livraison, cela entre dans mon calcul de stock de sécurité. Que vous soyez d’accord ou non, il existe des calculs de stock de sécurité très bien définis pour prendre en compte la variabilité de la demande et la variabilité du délai de livraison. Donc, si nous prenons cela, maintenant nous avons, et encore une fois, je ne veux pas faire exploser cela et partir dans une théorie de gestion des stocks, mais il existe des calculs statistiques de stock de sécurité qui acceptent parfaitement une prévision ponctuelle ainsi qu’une erreur standard de votre prévision au délai de livraison et vous donnent un nombre de stock de sécurité. Nous pouvons discuter toute la journée de l’aspect de cette distribution et si une distribution normale est la bonne, mais c’est ainsi que cette déviation dans l’erreur de prévision est traitée dans la majorité des entreprises pour lesquelles j’ai travaillé et dans la majorité des entreprises dont j’ai entendu parler lors de conférences.
Conor Doherty: Je vais passer à la dernière question. Comment les modèles d’apprentissage automatique doivent-ils prendre en compte les ajustements pour les événements connus, tels qu’un nouveau client important, qui ne sont pas inclus dans les facteurs causaux de la prévision statistique ? Joannes, nous commencerons par vous.
Joannes Vermorel: Encore une fois, nous abordons ici le problème de la gestion des informations pour lesquelles vous n’avez pas de structure algorithmique claire, et vous ne pouvez pas invoquer l’apprentissage automatique comme un mot à la mode pour dire : “Oh, la technologie va faire quelque chose pour moi ici.” Nous entrons ici dans le domaine de la prévision informelle. Pour le public, je recommande vivement le livre de Philip Tetlock intitulé “Superforecasting”. Si vous n’avez pas de référence claire, que faites-vous ?
L’apprentissage automatique ne fournit aucune réponse à cette question. L’apprentissage automatique, du moins le paradigme classique de l’apprentissage automatique qui est l’apprentissage supervisé, entrée-sortie, ne fournit aucune réponse à cette question. Je crois vraiment que si vous lisez ce que le projet Good Judgment a fait et les techniques qu’ils ont développées, ils ont développé des techniques d’intelligence supérieure. Par intelligence supérieure, je veux dire que pour appliquer ces techniques, nous regardons quelque chose qui présente le même type d’intelligence floue qu’un LLM ou plus.
Ils ont identifié des techniques en discutant avec des super prévisionnistes, des personnes qui ont été les pionniers et ont démontré des compétences de prévision supérieures dans ce genre de situation, et ils ont examiné quelles techniques toutes ces personnes avaient en commun. Étonnamment, ils ont tous proposé à peu près le même ensemble de techniques. En résumé, il existe des techniques, mais elles nécessitent beaucoup de jugement. Sur la base de ces résultats empiriques, je ne pense pas que si vous vous trouvez dans une telle situation, vous puissiez vous en sortir avec un simple algorithme d’apprentissage automatique.
Vous devez construire un argumentaire, un peu comme un argumentaire commercial où vous devez concevoir vos propres hypothèses, décomposer le cas, évaluer les différents facteurs et essayer de trouver quelque chose de raisonnable. Mais utiliser des mots comme “raisonnable”, qu’est-ce que cela signifie formellement ? C’est très difficile, et pourtant les gens peuvent réellement examiner une argumentation et être d’accord là-dessus.
Donc, ce que je dirais, c’est de ne pas vous attendre à ce que l’apprentissage automatique classique soit une réponse. LLM pourrait peut-être être un outil d’appui pour vous aider à construire ce type de raisonnement, certainement pour réfléchir à la façon de décomposer et de quantifier les différents facteurs du problème. Mais en fin de compte, ce serait un expert en prévision qui examinerait vraiment cela et prendrait une décision basée sur la modélisation numérique ad hoc. Ce serait la meilleure pratique, du moins sur la base de ces études empiriques du projet Good Judgment.
Conor Doherty: Jeff, vos réflexions ?
Jeff Baker: Oui, je veux dire, je pense que nous devons faire attention à cela. Que ce soit l’apprentissage automatique, que ce soit l’IA, mettre trop de choses dedans, n’est-ce pas ? Parce qu’à ce moment-là, nous pourrions commencer à confondre la corrélation avec la causalité. L’une des expériences d’apprentissage classiques que j’ai eues lors de l’un de mes cours était un modèle de régression multiple. Nous avons continué à ajouter des facteurs, à ajouter des facteurs, l’ajustement devenait de plus en plus précis. Nous avons ajouté le prix, et tout à coup, devinez quoi ? Si j’augmente le prix, je vais augmenter les ventes, n’est-ce pas ? Totalement contre-intuitif. La causalité était évidemment fausse, mais la corrélation était meilleure.
Nous devons donc être vraiment, vraiment prudents avec cela, car à un moment donné, nous commençons à modéliser le bruit. Que ce soit l’apprentissage automatique ou l’IA, nous commençons à lui poser des questions. Le problème, c’est qu’avec l’IA, elle répondra avec toute la confiance excessive d’un enfant de 5 ans qui croit en la Petite Souris. C’est exactement ce qui se passe. Nous devons donc être prudents. Et c’est là que je suis d’accord avec Joannes. Vous devez contextualiser cela, trouver un expert qui peut le comprendre. N’essayez pas de construire un modèle parfait car à un moment donné, vos résultats ne seront pas ce que vous attendez.
Conor Doherty: Eh bien, à ce stade, messieurs, il n’y a plus de questions de l’audience. Mais une dernière question qui peut servir de conclusion, un dernier rappel. Je vais commencer par Jeff. Le sujet du débat était FVA : est-ce une meilleure pratique ou une perte de temps ? Maintenant, vous vous êtes écoutés pendant près de 80 minutes. Jeff, comment vous sentez-vous maintenant par rapport à cette proposition ? En vous écoutant exposer vos arguments et vos réfutations à Joannes, vous semblez assez charitable et accepter plusieurs des points que Joannes soulève. Je suis juste curieux, comment conciliez-vous le fait que Joannes puisse avoir raison sur certains ou tous ses points ? Comment conciliez-vous cela avec le fait que FVA reste une meilleure pratique ?
Jeff Baker: Oui, oui. J’apprécie cet échange ouvert d’idées et je pense que, oui, je peux toujours soutenir que, actuellement, la Valeur Ajoutée de la Prévision est une meilleure pratique. Nous en avons besoin dans le présent.
Barina a posé une excellente question plus tôt - à l’avenir, à mesure que la technologie progresse, FVA pourrait devenir de moins en moins une technique critique. Peut-être que nous pouvons quantifier cela, peut-être que nous pouvons commencer à paramétrer les choses, les mettre dans un modèle et prendre ces décisions automatiquement. Cependant, je pense que nous aurons toujours besoin d’un processus où nous établissons une collaboration, comprenons les ventes, le marketing et les influences externes.
Est-ce que je vois son rôle potentiellement diminué ? Oui. J’ai parlé de ce quadrant à haute valeur ajoutée et à haute variabilité, et je peux certainement voir qu’il deviendra moins pertinent à l’avenir. Mais pour l’instant, je considère toujours FVA comme une meilleure pratique et je pense qu’elle continuera à l’être bien après ma retraite.
Donc, dans un avenir proche - oui, FVA reste important. À long terme, je pense que Joannes a une très belle vision de ce qui pourrait être, et je ne vois pas beaucoup de problèmes avec cela. Je dirais que nous sommes d’accord à 50% sur beaucoup de ces idées.
Conor Doherty: Eh bien, merci, Jeff. Et Joannes, êtes-vous insensible après tout ce que vous avez entendu ? En termes simples, est-ce un objet immuable et une force imparable en somme ?
Joannes Vermorel: Je veux dire, je dirais que, si nous revenons à ce que j’ai appelé la théorie dominante de la supply chain, et que FVA en fait partie, c’est assez cohérent. Je le reconnais.
Donc, en effet, si vous acceptez toutes ces idées, tous ces paradigmes, et tout, alors oui, de ce point de vue, cela ne semble pas mauvais. Je serais quand même un peu prudent quant à la quantité de bureaucratie que vous pouvez générer.
Encore une fois, impliquer beaucoup de personnes est une recette pour consommer le temps de beaucoup de personnes. Dès que vous créez une sorte d’entité transversale, car cela va défier tout le monde, cela peut encore créer beaucoup de travail inutile.
J’ai des exemples dans mon réseau de personnes qui font une immense quantité de travail inutile sur ce genre de choses, en particulier tout ce qui est périphérique ou de soutien à la S&OP.
Maintenant, Lokad opère depuis plus d’une décennie selon différents paradigmes. Il existe une série de conférences, d’ailleurs, Jeff, qui compte près de 100 heures de vidéos sur YouTube pour soutenir cette vision alternative.
Mais ce qui est intéressant, c’est que lorsque vous adoptez différents paradigmes, différents outils, différentes méthodes, la grande majorité de ces problèmes disparaissent. Vous avez de nouveaux problèmes, complètement différents, mais sur le plan opérationnel, vous vous retrouvez avec quelque chose de très étrange.
Ce sont des chaînes d’approvisionnement où la quasi-totalité des décisions sont prises automatiquement. Et d’ailleurs, nous avons vécu une expérience très étrange en 2020-2021 où des dizaines de clients ont renvoyé tous leurs employés de bureau chez eux.
Nous avions un client avec plus d’un milliard d’euros de stocks qui a renvoyé tous ses employés chez eux pendant 14 mois sans accès à Internet parce qu’ils voulaient obtenir des subventions gouvernementales. Leur chaîne d’approvisionnement continuait de fonctionner à environ 80% de leur capacité nominale avec Lokad prenant toutes les décisions sans même la supervision.
Normalement, nous générons les décisions, mais nous avons beaucoup de personnes qui valident ce que nous générons. Je pense que si vous pouvez gérer des chaînes d’approvisionnement hyper-complexes de plusieurs milliards pendant 14 mois sans que toutes les personnes fassent cette micromanagement, cela remet vraiment en question la valeur ajoutée de toutes ces personnes et ce que nous devrions même attendre de l’automatisation.
Je pense que les gens parlent d’IA et de toutes sortes de choses, mais la façon dont j’aborde la question, c’est que vous n’avez pas nécessairement besoin d’un modèle hyper-paramétrique super sophistiqué avec des trillions de paramètres pour automatiser.
Ma conclusion est que je pense que FVA appartient à un monde où il s’agit vraiment de piloter directement la chaîne d’approvisionnement. Je l’aborde d’un point de vue où la machine pilote la chaîne d’approvisionnement et les personnes pilotent la machine, pas la chaîne d’approvisionnement.
Conor Doherty: Eh bien, merci. Comme le veut la coutume ici, nous aimons donner le dernier mot aux invités. Donc, Jeff, merci beaucoup de nous avoir rejoints. Si vous avez des commentaires de clôture à faire, n’hésitez pas.
Jeff Baker: Non, je vous remercie beaucoup pour cette opportunité. J’apprécie la conversation, Conor, très bien modérée. Merci beaucoup.
Mon but est de satisfaire. J’apprécie la participation du public aux questions. Je pense que c’est toujours intéressant lorsque deux points de vue opposés se rencontrent car je pense que les deux en ressortent un peu meilleurs après l’échange. Honnêtement, j’apprécie l’opportunité. C’était un plaisir de parler avec vous.
Joannes Vermorel: Merci, Jeff.
Conor Doherty: Joannes, merci beaucoup pour votre temps. Jeff, merci beaucoup pour le vôtre. Merci à tous de nous avoir regardés. À la prochaine.