00:00:00 Présentation des participants au débat et du format du débat
00:02:56 Remarques d’ouverture de Joannes
00:09:53 Remarques d’ouverture de Jeff
00:16:56 Réplique de Joannes
00:21:47 Réplique de Jeff
00:26:53 Remarques finales de Joannes
00:28:56 Remarques finales de Jeff
00:31:05 Questions de suivi
00:48:36 Questions du public
01:18:57 Revue des perspectives initiales et conclusions

Résumé

Dans un débat animé par Conor Doherty, le thème « La Forecast Value Added (FVA) est-elle une bonne pratique ou une perte de temps ? » a été exploré par Jeff Baker et Joannes Vermorel. Jeff Baker, fort d’une vaste expérience en gestion de la supply chain, a défendu la FVA, en insistant sur sa valeur lorsqu’elle est appliquée de manière structurée et correcte, soulignant l’importance de corriger les biais et de tirer parti des contributions d’experts. À l’inverse, Joannes Vermorel, CEO de Lokad, a contesté l’efficacité de la FVA, plaidant en faveur de l’optimisation financière des décisions supply chain avec des prévisions probabilistes. Le débat a mis en lumière les visions opposées concernant le rôle de la FVA dans la gestion de la supply chain, offrant des pistes pour améliorer le processus de prise de décision.

Résumé Étendu

Dans un récent débat animé par Conor Doherty, Responsable de la Communication chez Lokad et animateur de la chaîne YouTube LokadTV, le thème « La Forecast Value Added (FVA) est-elle une bonne pratique ou une perte de temps ? » a été examiné en profondeur. Le débat a réuni deux figures éminentes de l’industrie de la supply chain : Jeff Baker et Joannes Vermorel.

Jeff Baker, qui défend l’utilisation de la FVA, est le Fondateur et Directeur Général de Libra SCM, Responsable de cours au MITx MicroMasters en SCM, et Rédacteur Associé pour Foresight, l’International Journal of Applied Forecasting. Fort de plus de 25 ans d’expérience en gestion de la supply chain, Jeff intervient fréquemment et écrit sur le Sales and Operations Planning (S&OP) et la FVA.

Du côté opposé, Joannes Vermorel, CEO et Fondateur de Lokad, une entreprise de logiciels basée à Paris dédiée à l’optimisation financière des décisions supply chain, s’est opposé à l’utilisation de la FVA. Joannes est reconnu pour ses nombreuses publications sur des sujets de supply chain et ses conférences et débats publics réguliers avec des leaders de l’industrie.

Conor Doherty a lancé le débat en présentant le thème et en donnant à chaque participant l’occasion de se présenter. Après les présentations, chacun a exposé son point de vue sur la FVA.

Jeff Baker a soutenu que la FVA est une pratique valable lorsqu’elle est appliquée correctement. Il a souligné que les ajustements aux prévisions doivent être guidés et structurés. Selon Jeff, ces ajustements devraient être basés sur la direction de l’ajustement (qu’il soit à la hausse ou à la baisse), la capacité prévisible inhérente des séries temporelles, et l’ampleur de la modification. Il a insisté sur l’importance de rechercher des augmentations significatives plutôt que d’apporter des ajustements mineurs.

Jeff a également souligné la nécessité d’avoir des contributions structurées, où les hypothèses sont clairement énoncées et basées sur de nouvelles données qui n’ont peut-être pas encore été modélisées. Il a préconisé une approche proactive pour identifier et corriger les biais, comprendre les motivations qui les sous-tendent et tirer des leçons des erreurs passées. Jeff estime qu’un bon jugement repose sur l’expérience, laquelle découle d’erreurs précédentes. En revenant aux hypothèses et en les validant, les organisations peuvent résoudre des problèmes tels que la surestimation des prévisions due à un manque de confiance dans la supply chain.

De plus, Jeff a affirmé que les experts en vente et marketing sont mieux placés pour contextualiser l’information que les Supply Chain Scientist. Il a suggéré que les contributions précieuses de ces experts devraient être automatisées au fil du temps, tout en reconnaissant que nous ne vivons pas dans un monde où les données pures sont infinies. Il est donc essentiel de recueillir les bonnes données provenant de diverses sources, notamment la production, les ventes et le marketing.

En revanche, Joannes Vermorel s’est opposé à l’utilisation de la FVA. Il a soutenu que la FVA peut être une perte de temps et n’aboutit pas toujours à une meilleure prise de décision. Joannes a insisté sur l’importance de se concentrer sur l’optimisation financière et de tirer parti des prévisions probabilistes pour prendre automatiquement des décisions supply chain plus éclairées. Il a argumenté qu’une dépendance excessive à la FVA pourrait engendrer des inefficacités et détourner l’attention des aspects les plus cruciaux de la gestion de la supply chain.

Le débat a inclus des questions de suivi ainsi qu’un échange libre entre les participants, leur permettant d’approfondir leurs arguments et de répondre aux points soulevés par l’autre. La discussion s’est conclue par une séance de questions-réponses, durant laquelle le public a eu la possibilité de poser des questions en direct dans le chat.

En résumé, le débat a mis en évidence les perspectives divergentes concernant la valeur de la FVA dans la gestion de la supply chain. Jeff Baker a plaidé en faveur d’une approche guidée et structurée de la FVA, soulignant l’importance d’apprendre de l’expérience et de corriger les biais. Joannes Vermorel, quant à lui, a soutenu que la FVA pouvait être une perte de temps et a insisté sur la nécessité d’une optimisation financière des décisions supply chain plutôt que sur des ajustements de prévisions. Le débat a apporté des éclairages précieux sur la complexité des prévisions supply chain et sur les diverses approches pour améliorer la prise de décision dans ce domaine.

Transcription Complète

Conor Doherty : Bienvenue à la troisième édition des Débats Supply Chain de Lokad. Aujourd’hui, j’ai le plaisir d’animer un débat très attendu entre Jeff Baker et Joannes Vermorel. Jeff enseigne la Supply Chain Dynamics au MIT Center for Transportation and Logistics et est le fondateur et directeur général de Libra SCM. Pendant ce temps, à ma gauche, Joannes est le fondateur et CEO de Lokad. Il est ingénieur diplômé de l’École Normale Supérieure en France et y a enseigné l’ingénierie logicielle pendant six ans.

Maintenant, le sujet du débat d’aujourd’hui est « Forecast Value Added (FVA) : une bonne pratique ou une perte de temps ? » Jeff soutiendra que la FVA est, en effet, une bonne pratique, tandis que Joannes argumentera qu’elle est une perte de temps. Je vais maintenant passer en revue les modalités du débat, les consignes, le plus rapidement possible afin que nous puissions aborder l’essentiel.

Tout d’abord, il y aura des remarques d’ouverture, d’une durée maximale de 7 minutes chacune. Comme convenu à l’avance, Joannes s’exprimera en premier. Ensuite, chaque intervenant disposera de 5 minutes pour sa réplique. Cela sera suivi d’une conclusion de deux minutes pour chaque intervenant, après quoi je poserai quelques questions de suivi. Ces questions peuvent être soumises par les spectateurs à tout moment pendant l’événement via le chat en direct.

À présent, en préparation du débat, les deux intervenants ont convenu de la définition suivante : La Forecast Value Added (FVA) est un outil simple permettant d’évaluer la performance de chaque étape et contributeur dans un processus de prévision. Son objectif est d’éliminer le gaspillage en supprimant les processus et activités de toute nature qui ne parviennent pas à améliorer la précision des prévisions ou à réduire les biais.

Cette définition, ainsi que les biographies complètes des deux intervenants, se trouvent dans un document Google ouvert que vous pouvez consulter dans la section des commentaires ou dans le chat de la vidéo. Pendant le débat, je chronométrerai strictement chacun des intervenants et leur rappellerai poliment lorsqu’ils manqueront de temps, avec un léger raclement de gorge, pour ne pas dire plus. Mais je recommande à chacun de se chronométrer afin de savoir quand le temps presse.

Nous touchons presque au but. Les intervenants doivent rester complètement silencieux pendant la prise de parole de chacun, alors merci de ne pas vous interrompre, du moins pas pendant la partie chronométrée. Et enfin, une petite promotion sans complexe : pendant que vous êtes là, si vous appréciez ces débats et ce que nous faisons, je vous encourage à vous abonner à la chaîne YouTube de Lokad et à nous suivre sur LinkedIn. Sur ce, la Forecast Value Added est-elle une bonne pratique ou une perte de temps ? Joannes, à vous pour vos remarques d’ouverture.

Joannes Vermorel : Tout d’abord, je tiens à remercier Jeff pour son esprit sportif et pour avoir accepté ce débat. En termes simples, la FVA est un outil permettant de suivre l’amélioration ou la détérioration de la précision. Mais la FVA est-elle une bonne pratique ? Pour qu’une méthode soit considérée comme une bonne pratique, elle doit, par définition, refléter la compréhension collective de ce qui constitue la manière la plus efficace d’atteindre un objectif particulier. Cependant, la prévision n’est pas un objectif en soi, ni ne se réalise dans un vide.

La prévision est un outil que nous utilisons pour atteindre un objectif spécifique. Certains pourraient affirmer que le but de la prévision est d’obtenir une plus grande précision. C’est une position très contestée. À mon avis, la prévision n’est qu’un outil supplémentaire qui nous aide à prendre de meilleures décisions d’affaires, c’est-à-dire des décisions qui rapportent plus d’argent. La question est donc la suivante : la FVA, en mesurant les augmentations ou diminutions de précision, nous rapproche-t-elle de l’objectif de générer plus de profit ? Je n’en suis pas convaincu, et pour l’instant, je vais présenter trois critiques pour étayer mon propos.

Premièrement, bien que la FVA n’ait pas été conçue à l’origine pour faciliter la prévision collaborative, elle offre, de par sa conception, un cadre permettant de mesurer l’impact sur la précision de la prévision collaborative. C’est important. La FVA n’indique pas qu’il faut adopter les meilleures pratiques de prévision. Elle montre simplement quel est l’impact sur la précision de ce que vous faites. Pourquoi est-ce important ? Eh bien, quelle est la bonne pratique au sein de la communauté des prévisionnistes ?

Depuis les années 1980, Spyros Makridakis organise une série de compétitions de prévision (les compétitions M) afin de déterminer quelles sont les meilleures pratiques. Depuis la compétition M4 en 2018, ces compétitions ont constamment démontré la supériorité des méthodes algorithmiques. En fait, probablement le plus grand expert vivant en matière de capacités de prévision humaine, Philip Tetlock, a écrit que dès qu’un algorithme de prévision est disponible, il doit être utilisé. La raison ? L’algorithme procure invariablement une meilleure précision par rapport au jugement humain. Cet algorithme et, évidemment, l’expert qui l’utilise représentent la bonne pratique.

Donc, si la prévision collaborative et les ajustements manuels ne constituent pas une bonne pratique, et qu’il est démontré qu’ils ne le sont pas, alors le fait que les entreprises les mesurent avec la FVA n’est également pas une bonne pratique et, j’oserais dire, une perte de temps. Certains diront peut-être : « Mais Joannes, la FVA ne préconise pas explicitement la prévision collaborative ou les ajustements manuels. » C’est vrai, mais c’est ainsi qu’elle est communément utilisée, même dans les écrits de Jeff.

Cependant, ma deuxième critique porte sur un des fondements mêmes de la FVA, à savoir la perspective des séries temporelles. La FVA nécessite des prévisions classiques de séries temporelles, également appelées prévisions ponctuelles. Au minimum, la FVA préconise l’utilisation d’une prévision naïve, c’est-à-dire une simple copie du dernier réel comme référence pour comparer les ajustements de prévision. Cette prévision sans changement est une série temporelle. Mais les séries temporelles constituent-elles une bonne pratique ? Encore une fois, non. Les prévisions ponctuelles ne sont pas seulement des outils de prévision incomplets ; elles peuvent être carrément trompeuses, notamment dans des scénarios à forte variance. Cela s’explique par le fait que les prévisions ponctuelles ne prennent pas en compte l’incertitude.

En fait, la compétition de prévision M5 incluait un défi séparé, le défi de l’incertitude, axé sur les prédictions de quantiles, que Lokad a d’ailleurs remporté au niveau SKU. En réalité, une classe bien meilleure de prévisions existe déjà, à savoir les prévisions probabilistes. Contrairement aux séries temporelles, les prévisions probabilistes ne se focalisent pas sur un futur unique, par exemple la demande de la semaine prochaine. Elles examinent plutôt tous les futurs possibles ainsi que leurs probabilités respectives. Pourquoi est-ce important ? Parce qu’identifier tous les scénarios futurs possibles est essentiel pour sélectionner le meilleur choix possible. Cela s’avère crucial chaque fois que des risques financiers sont en jeu, ce qui est toujours le cas pour la supply chain.

Cependant, la FVA n’est pas compatible avec la prévision probabiliste. Pourquoi ? Parce que la prévision probabiliste implique d’examiner des distributions de probabilités et non des séries temporelles. Et soyons réalistes, les personnes du domaine de la vente et du marketing ne vont pas modifier manuellement des distributions de probabilités, que ce soit avec ou sans FVA. C’est tout simplement inenvisageable. Si les séries temporelles ne constituent pas une bonne pratique, et qu’elles ne le sont certainement pas en matière de gestion des risques, alors l’utilisation de la FVA pour comparer les ajustements de précision n’est également pas une bonne pratique. Je dirais que c’est une perte de temps.

Ma troisième critique est que la forecast value added ne mesure pas la valeur ; elle mesure la précision. Et la précision apporte-t-elle de la valeur ? Pas nécessairement. Une prévision plus précise n’apporte pas, à elle seule, de la valeur additionnelle. Dans de nombreuses situations concrètes, une prévision avec 90 % de précision et une autre avec 60 % de précision conduisent aux mêmes décisions de stocks si des MOQs ou d’autres contraintes sont présentes. Si l’issue financière de la décision ne change pas, alors mesurer le gain en précision n’ajoute pas de valeur commerciale. Dès lors, d’un point de vue économique, il est totalement incorrect de dire que la précision, en elle-même, apporte de la valeur. Si tel était le cas, comment se fait-il que se concentrer sur la précision avec la FVA puisse être considéré comme une bonne pratique ? Ce n’est pas le cas.

Même si vous n’utilisez pas personnellement la FVA pour soutenir la prévision collaborative, d’autres le font. La FVA repose toujours sur des prévisions de séries temporelles, qui ignorent l’incertitude, ainsi que sur l’idée que l’augmentation de la précision équivaut à une augmentation de la valeur, ce qui va à l’encontre des réalités économiques. Toutes ces pratiques sont néfastes, et par conséquent, j’estime que la FVA ne peut pas constituer une bonne pratique. À mon avis, c’est une perte de temps. Merci.

Conor Doherty : Il vous reste encore 15 secondes, Joannes.

Joannes Vermorel: D’accord, merci.

Conor Doherty: Eh bien, merci beaucoup, Joannes, pour vos remarques d’ouverture. Jeff, à ce moment, je vous invite à faire vos remarques d’ouverture, s’il vous plaît.

Jeff Baker: Oui, super. Merci, Conor. Merci, Joannes. J’apprécie vraiment l’opportunité de participer à cette conversation. Donc, évidemment, je suis en faveur de l’utilisation de FVA en tant que bonne pratique. Cela vient du fait que toutes les supply chains doivent planifier, n’est-ce pas ? Nous devons prendre des décisions bien à l’avance, peut-être deux à trois mois pour établir un calendrier de fabrication, collaborer avec les fournisseurs, peut-être planifier six mois à l’avance. Nous avons besoin d’une bonne prévision pour nous assurer, vous savez, si nous avons de petits changements de capacité, peut-être en termes d’effectifs, peut-être intégrer un co-fabricant. Nous devons donc prendre ces décisions sur un long horizon, et nous finissons par les revisiter.

J’ai quelques citations préférées en supply chain. L’une d’elles est, “Le plan n’est rien, mais la planification est tout.” Nous devons donc avoir ce plan pour nous mettre en bonne position. Maintenant, ma deuxième citation préférée en supply chain est de Mike Tyson : “Tout le monde a un plan jusqu’à ce qu’on lui en donne un coup de poing au visage.” Cela souligne qu’en supply chain, nous savons que nous allons encaisser quelques coups. L’objectif est de prendre la meilleure décision possible avec la plus grande chance de succès dans l’exécution. La meilleure façon d’y parvenir est de faire appel à nos experts fonctionnels. Les ventes et le marketing disposent d’aperçus locaux qui peuvent être utilisés pour améliorer la prévision et devraient donc être inclus dans le processus de consensus. Impliquer ces experts de manière structurée nous fournit les meilleures données nécessaires pour prendre de meilleures décisions. Et FVA est un outil efficace pour mesurer l’efficacité de ces apports.

Maintenant, le bémol étant, oui, vous pourriez potentiellement ouvrir la porte aux biais, mais de mon point de vue, ce que nous devons faire, c’est travailler à corriger ces biais, et non à les éliminer complètement. Nous devons être transversaux. Nous prêchons depuis de nombreuses années que la transversalité est la voie à suivre. Je ne veux pas revenir à un silo fonctionnel où chacun est uniquement responsable de sa propre décision, et non de ses impacts sur les autres. Pour faire cela au mieux, je pense que vous devez avoir des ajustements guidés, à nouveau, là où FVA excelle. Cela me fournit ces produits qui sont très précieux mais présentent une forte erreur. C’est le terrain fertile pour rechercher de meilleurs apports.

Si j’anticipe un impact important, qu’il s’agisse d’un effet matériel négatif ou positif, nous devons être capables de nous y préparer. Donc, la première chose est que ces ajustements doivent être guidés. La thèse que j’ai réalisée pour mon Master disait que nous devons examiner la direction de l’ajustement : est-ce une hausse ou une baisse ? Quelle est la prévisibilité inhérente des séries temporelles ? Quelle est l’ampleur de l’override ? Et assurons-nous que, si nous allons ajouter de la valeur, nous recherchons une augmentation substantielle — nous ne faisons pas que de petits ajustements.

Ensuite, vient la structure. Je ne vais pas laisser quelqu’un des ventes ou du marketing me donner simplement un chiffre arbitraire. Je vais demander : Quelles sont leurs hypothèses d’entrée ? Est-ce basé sur de nouvelles données que nous n’avons même pas encore modélisées ? Ensuite, j’approfondirai en demandant : S’agit-il d’un scénario optimiste ? D’un scénario pessimiste ? Quel est le cas le plus probable ? Que faudrait-il qu’il se passe ? Qu’est-ce qui devrait être vrai pour que ce scénario prenne place à l’avenir ? De cette manière, ce que nous cherchons à faire, c’est identifier de manière proactive les causes des biais et comprendre les motivations qui les sous-tendent.

Une fois cela fait, alors, le mois prochain, nous examinerons ces ajustements pour dire : “Ont-ils ajouté de la valeur ou non ?” Ce que j’aime dire, c’est que le bon jugement repose sur l’expérience. L’expérience est fondée sur de mauvais jugements. Nous apprenons donc de nos erreurs. Nous revenons aux hypothèses, nous validons, et nous pourrions découvrir que — hé, vous savez quoi — peut-être que les commerciaux surestiment constamment les prévisions parce qu’ils n’ont pas confiance en la supply chain. Ce n’est pas seulement un biais, c’est un problème de confiance, et nous pouvons commencer à y remédier.

De plus, ce sont eux qui contextualisent cette information mieux que nous ne pouvons le faire. Je ne pense pas que nous aurons un Supply Chain Scientist qui soit expert de toutes les nuances du marketing ou de toutes les nuances de la prévision. Je vais compter sur ces experts, les utiliser pour me fournir ces données. Maintenant, si avec le temps je trouve que ces apports sont précieux, je vais essayer de les automatiser. Je n’ai aucun argument contre l’automatisation pour collecter les bonnes données. Mais le problème est que nous ne vivons pas dans un monde avec une infinité de données pures. S’il y a des données de fabrication, des données de vente, des données de marketing, souvent nous devons aller les chercher de manière proactive.

Si nous faisons cela correctement, il se peut que nous puissions automatiser bon nombre de ces décisions. Les ajustements ne sont pas requis simplement parce que nous avons un processus FVA dans un système de prévision. En fait, le mantra numéro un en prévision devrait être “Ne pas nuire.” Kraft Heinz, l’une des plus grandes entreprises alimentaires et de boissons en Amérique du Nord, utilise la métrique “low-touch forecasting percent.” Comment m’assurer que je n’interviens pas à chaque fois ? Je pense que Deming l’a bien dit : “Ne faites pas seulement quelque chose, restez là.” Parce qu’il a réalisé que la tendance naturelle de quelqu’un est de penser, “Ils attendent de moi que j’apporte une contribution, je ferais mieux d’en apporter une pour montrer que je suis occupé.” Non, c’est totalement la mauvaise façon de voir les choses.

En examinant les preuves de la valeur de la réduction des erreurs, nous pouvons citer The Institute for Business Forecasting and Planning. Ils ont réalisé une enquête auprès de huit entreprises de biens de grande consommation et constaté que pour une réduction de 1 % de l’erreur de prévision, les entreprises gagnent 1,7 million de dollars de bénéfices par milliard de dollars de chiffre d’affaires en évitant les coûts de prévision. Cela inclut l’évitement des remises, des transbordements, des produits obsolètes, des excès de stocks et le blocage du fonds de roulement. Les entreprises réduisent également le coût de la sous-prévision d’environ 1 million de dollars par milliard de chiffre d’affaires, en évitant lost sales, les amendes pour non-respect des taux de service, et les coûts de production accrue ou d’expédition accélérée.

IBF a constaté cela dans ses recherches. Gartner a trouvé des bénéfices similaires : une réduction de 2 à 7 % de valeur des stocks, une diminution de 4 à 9 % des stocks obsolètes, et une réduction de 3 à 9 % des coûts de transport. L’ampleur de ces chiffres rend attrayant l’exploration de pistes pour améliorer la précision des prévisions, notamment dans les domaines où un article est de grande valeur et présente une forte erreur, ou si nous savons à l’avance que des événements externes auront un impact sur la supply chain d’une manière ou d’une autre. Merci.

Conor Doherty: Eh bien, merci, Jeff. Il vous reste encore 15 secondes, si vous le souhaitez.

Jeff Baker: J’en ai 13, mais ça va.

Conor Doherty: D’accord. Eh bien, Jeff, merci beaucoup pour votre déclaration d’ouverture. À présent, nous allons passer à la réplique. Joannes, 5 minutes lorsque vous êtes prêt.

Joannes Vermorel: Merci, Jeff, pour vos remarques d’ouverture. Je pense que vous défendez très bien votre position, bien que je crois qu’il y ait quelques points que j’aimerais clarifier. Je ne conteste pas l’intention des personnes qui essaient de faire quelque chose de bien pour l’entreprise. J’essaie de contester la réalité du résultat réel.

Premièrement, si nous pensons que la précision est primordiale, quelque chose qui mérite d’être poursuivi, alors la réalité, comme je l’ai souligné dans ma déclaration initiale, est que FVA ne reflète pas les meilleures pratiques de prévision. Si une entreprise cherche réellement la précision, alors en ne faisant pas ces prévisions collaboratives, elle obtiendra en réalité des résultats plus précis. C’est malheureusement ce qui a été démontré empiriquement.

Deuxièmement, les overrides eux-mêmes représentent une approche très bureaucratique du problème. Dès que vous mettez en place un mécanisme — oui, on peut dire “ne pas nuire” — mais si vous installez un mécanisme bureaucratique, il sera utilisé. FVA implique la mise en place d’une mini-bureaucratie ou d’une mini-technocratie avec des éléments logiciels impliqués. Il y aura des personnes vérifiant si ceux des ventes et du marketing effectuent bien les corrections, et ainsi de suite. Et donc, pour moi, cela ouvre la voie à quelque chose qui va générer beaucoup de travail bureaucratique inutile.

Parce que la réalité, c’est que lorsqu’on commence à regarder à quoi ressemblent ces prévisions et ces ajustements, nous parlons de dizaines de milliers de séries temporelles, chaque série comportant environ 50 points ou plus, par exemple une prévision hebdomadaire pour une année à l’avance. Mais cela m’amène à une autre critique, c’est qu’en se concentrant uniquement sur la précision, je crois que FVA mal alloue les ressources et empêche les entreprises de recourir à des méthodes beaucoup plus efficaces par lesquelles les personnes pourraient contribuer au processus de prévision. Et pour être parfaitement clair, je n’ai jamais soutenu que les membres des ventes, du marketing et de la finance ne pouvaient pas contribuer de manière significative au processus de prévision. Je suis parfaitement conscient que tout membre du personnel pertinent peut détenir dans sa tête des informations précieuses qui pourraient être financièrement bénéfiques pour l’entreprise.

Cependant, ce avec quoi je ne suis pas d’accord, c’est l’idée que les gens devraient attendre qu’une prévision ponctuelle soit produite pour ensuite la manipuler avec des overrides manuels afin d’augmenter la précision. Cela, comme je l’ai dit, n’est pas conforme aux meilleures pratiques de prévision, et pourtant c’est ce que les gens font habituellement avec FVA. Toutefois, il existe une manière constructive d’impliquer les gens dans le processus de prévision. Il s’agit de contribuer aux algorithmes de prévision qui génèrent la prévision, puis aux algorithmes qui prennent les décisions. En réalité, cela signifie assister l’expert en prévision. Chez Lokad, ce serait un Supply Chain Scientist qui rédige et affine ces algorithmes en fournissant une expertise de domaine et des éclairages. Cela ne signifie pas que tout le monde dans les ventes et le marketing doit lire des distributions de probabilité et écrire des scripts en Python. Au lieu de cela, ils aident en fournissant à l’expert en prévision des insights exploitables qui pourraient être utiles, puis l’expert traduit ces insights en lignes de code.

Et enfin, les algorithmes automatisés s’exécutent et génèrent la prévision. Au bout du compte, ces insights ne sont que des morceaux d’information, et ils sont, je suis d’accord, répartis partout dans l’entreprise. Cependant, c’est l’expert en prévision qui sait comment traduire tout cela en une prévision significative et un ensemble cohérent de décisions supply chain. Des tonnes de données excellentes peuvent être disponibles, mais c’est uniquement l’expert en prévision qui devrait décider comment ces données doivent être utilisées pour produire ou réviser une prévision. C’est la meilleure pratique, soutenue par des décennies de résultats expérimentaux en prévision. Et malheureusement, FVA n’a pas sa place dans cet arrangement. En mesurant la précision au lieu de contribuer directement à l’amélioration de l’algorithme de prévision, la meilleure chose que l’on puisse dire, c’est que FVA est une distraction. Pour ma part, je le qualifierais de perte de temps.

Conor Doherty: Joannes, il vous reste encore 20 secondes.

Joannes Vermorel: Ça va, merci.

Conor Doherty: D’accord, merci. Jeff, à cet instant, je vous vois sourire. N’hésitez pas à répondre avec votre réplique de cinq minutes.

Jeff Baker: Je pense, d’ailleurs, que vous étiez en sourdine.

Oui, désolé. Non, perspective intéressante. Je veux revenir sur quelques points. D’une part, vous avez mentionné le concours M5 et Makridakis. Une chose que j’aimerais souligner, c’est que 92 % de ces personnes ont perdu face à une très simple référence d’algorithme de lissage exponentiel. Ainsi, il y a un argument en faveur de la simplicité. Il y a, je pense, une différence entre les meilleures pratiques et l’état de l’art le plus pointu. Je veux être sûr que nous faisons cette distinction, car il y a souvent des cas où la simplicité est en réalité meilleure et plus acceptable pour les utilisateurs. Du point de vue de l’explicabilité, si nous sommes lors d’une réunion S&OP dans le cadre d’une revue de la demande, il est bien plus facile d’expliquer d’où cela vient et d’obtenir l’adhésion.

L’autre point que vous avez évoqué concerne les séries temporelles se limitant à un seul point. Il est recommandé non seulement de fournir les séries temporelles, mais aussi d’indiquer quels seront les intervalles de prévision, n’est-ce pas ? Et cela est lié à la précision. Ainsi, la meilleure pratique peut consister en une série temporelle accompagnée de la transmission aux gens des intervalles de prévision qui l’entourent. Nous sommes d’accord pour dire qu’une prévision ponctuelle est une information. Une prévision ponctuelle accompagnée des intervalles de prévision est plus précieuse.

Vous avez mentionné que les prévisions probabilistes ne se prêtent pas à FVA. Je pense que si vous regardez l’un des derniers numéros de Foresight, vous verrez un article de Stefan De Kok sur la prévision probabiliste et une variante de celle-ci, le stochastic value added, qui, je pense, souligne la valeur de ce cadre. Je suis quelque peu agnostique quant à ma forecasting method. Quelle que soit la manière dont je procède, je souhaite observer une amélioration à mesure que j’ajoute différents apports dans ma prévision. Comment l’améliore-je ? Ensuite, en veillant à ce que nous utilisions nos ressources de manière efficace et efficiente. Cet équilibre entre le coût de l’inexactitude et le coût de génération de la prévision est connu depuis 1971. Il existe un article dans Harvard Business Review sur la manière d’équilibrer le temps passé à générer une prévision et la précision obtenue. En langage courant, est-ce que le jus vaut la pression ? Sur la base de ces chiffres que je crée, pour une entreprise de taille raisonnable, il y a beaucoup d’avantages, et je peux me permettre de faire examiner cela par quelques personnes.

Je ne pense pas que la prévision collaborative soit bureaucratique. Je pense qu’il faut impliquer ces personnes dans le processus afin qu’elles puissent apporter de la valeur ajoutée au système. Ces apports sont excellents. Il y aura toujours des événements. Les supply chains ne deviennent pas moins complexes ; elles deviennent plus complexes, plus dynamiques, l’effet papillon s’accentue. C’est pourquoi nous avons besoin que les gens soient capables de contextualiser ces informations et de prendre la meilleure décision au moment opportun. Ainsi, de ce point de vue, cela doit être collaboratif. Si je suis collaboratif, je travaille toujours avec les ventes et le marketing. Cela revient à dire, vous savez, que je ne cherche pas à tout révolutionner ; je me concentre sur ce qui a changé. Si je continue ainsi, j’établis cette relation. Je suis alors en mesure d’obtenir ces apports et d’avoir une meilleure relation avec eux.

L’inverse est que j’ai un processus ad hoc où j’implique les ventes et le marketing à ma discrétion, quand je le souhaite. Je garantis presque que la qualité de vos apports provenant des ventes et du marketing sera considérablement réduite s’ils ne font pas partie d’un processus planifié régulièrement. Ce que j’entends tout le temps des commerciaux, c’est : “Je suis trop occupé à vendre, laissez-moi tranquille.” Donc, si vous voulez obtenir cet apport, vous devez les impliquer dans le processus.

Vous avez mentionné le décalage avec la véritable valeur commerciale. On ne peut pas prendre de bonnes décisions avec de mauvaises données. L’argument est le suivant : j’ai besoin de cette meilleure prévision. Il n’y a aucun argument pour une diminution de la précision des prévisions. Je dois m’assurer d’utiliser les meilleures données possibles pour la prise de décision. Cela sera-t-il directement lié à un ROI ? Puis-je calculer le ROI d’une décision isolée pour l’ensemble de la supply chain ? Cela n’arrivera pas. J’adorerais pouvoir dire que oui, mais ma décision du point de vue des prévisions est complètement distincte des décisions fonctionnelles que prend la fabrication, les achats, l’entreposage, le transport. Chacune de ces choses peut entraîner un mauvais ROI. Mon rôle est d’être le plus précis possible. Merci.

Conor Doherty: Merci beaucoup, Jeff. Désolé d’intervenir juste après la fin, mais je devais te le rappeler.

Jeff Baker: Pas de souci.

Conor Doherty: À ce stade, merci, Jeff. Je vais m’adresser à Joannes. S’il vous plaît, vos remarques de conclusion, deux minutes.

Joannes Vermorel: Mesdames et messieurs, le sujet du débat était : “FVA est-elle une bonne pratique ou une perte de temps ?” Au cours de ce débat, vous avez entendu beaucoup d’informations, mais veuillez garder quelques éléments en tête lorsque vous décidez de ce que vous pensez du FVA. Premièrement, si vous utilisez le FVA dans le cadre d’un processus collaboratif de prévision, compris comme une microgestion des points de prévision, cela n’est pas une bonne pratique. Le remplacement manuel de la prévision n’est, sans aucun doute, pas une bonne pratique dans la communauté de la prévision, et, par conséquent, les mesurer avec le FVA n’est pas non plus une bonne pratique.

Numéro deux, le FVA est basé sur les prévisions des séries temporelles. Je suis sûr que quelque part, quelqu’un essaie de l’appliquer aux prévisions probabilistes, mais soyons réalistes. Le FVA ne fonctionne à grande échelle que s’il fonctionne du tout en combinaison avec des prévisions classiques de séries temporelles, qui ignorent complètement l’incertitude. Ce ne sont pas des bonnes pratiques, et ainsi, mesurer la précision avec le FVA n’est pas non plus une bonne pratique.

Numéro trois, par conception, le FVA part du principe que l’augmentation de la précision est une chose précieuse. Ce n’est pas le cas. Contrairement à ce qui a été dit, il existe des cas où augmenter la précision peut réellement nuire à votre entreprise. Nous avons un exemple très simple. Pour la prévision de séries peu denses, zéro est très fréquemment la prévision la plus précise, même si prévoir une demande nulle n’a aucun sens. Ainsi, même si vous n’êtes pas d’accord avec moi sur tous ces éléments de prévision et de supply chain, ceci est clairement établi : le FVA, pour toutes ces raisons et plus encore, ne peut être considéré comme une bonne pratique. Si c’était le cas, ce serait une très triste condamnation de la communauté de la prévision.

Conor Doherty: Merci beaucoup, Joannes. Jeff, je m’adresse à vous. Vos remarques de conclusion, s’il vous plaît, deux minutes.

Jeff Baker: D’accord, super, merci beaucoup. Encore une fois, comme je l’ai commencé, une meilleure planification conduit à de meilleures décisions. Nous devons apprendre à planifier, nous devons apprendre à replanifier, et nous devons nous assurer d’avoir une prévision précise. Je ne pense pas qu’il existe un bon argument commercial selon lequel de mauvaises données mèneraient toujours à de meilleures décisions. Si vous avez de mauvaises données et prenez de bonnes décisions, j’appelle cela de la chance aveugle. Cela n’arrive pas très souvent. Là où le FVA brille, encore une fois, je ne préconise pas la microgestion, je ne préconise pas de tout remplacer. Il existe des exemples où nous avons des articles de grande valeur et présentant une forte erreur. Nous savons qu’il existe des événements externes susceptibles de se produire et qui ne peuvent être réduits à une entrée algorithmique nette. Nous devons comprendre cela, nous devons planifier en conséquence sur l’horizon nécessaire pour prendre ces décisions. Toute critique du FVA est en grande partie basée sur une incompréhension de ce pour quoi le FVA est conçu.

Je sais que chez Lokad, vous vendez des logiciels. Lors de travaux antérieurs, j’ai travaillé dans une entreprise de logiciels, et j’ai également mis en œuvre des logiciels. Je sais que l’outil fonctionne. Souvent, c’est un problème d’implémentation. Si le client n’obtient pas ce qu’il souhaite, c’est une question d’implémentation dans neuf cas sur dix. Un problème d’implémentation et de données. Toute critique du FVA découle du fait de ne pas savoir comment l’implémenter correctement, de ne pas comprendre comment cela fonctionne et comment cela apporte de la valeur. Je vais vous donner une autre analogie simple. Si je construis une terrasse à l’arrière de ma maison et que j’ai entendu dire que je devais visser les planches dans les solives et que j’utilise un marteau pour commencer à enfoncer des vis à bois, cela ne marchera pas, et je ne serai pas content. Cela ne signifie pas qu’il y a un problème avec le marteau ; cela signifie simplement que je ne sais pas comment utiliser correctement le marteau. J’utilise le mauvais outil pour le travail.

Conor Doherty: Merci. Désolé de vous interrompre, mais je dois être strict avec le temps pour maintenir l’impartialité. Merci beaucoup, messieurs. Merci à vous deux pour vos remarques préparées, vos arguments et votre passion. À ce stade, j’aimerais passer à quelques questions de suivi. Il y en a qui arrivent. J’ai pris quelques notes sur ce qui a été dit. Avant de passer aux questions du public, c’est simplement parce que je suis ici, j’écoute, et je veux clarifier quelques points soulevés.

Je vais commencer par, je pense, en poussant Joannes juste pour montrer mon impartialité. Je vais pousser Joannes. Alors, Jeff, dans votre réplique, vous avez mentionné l’adage “plus simple est mieux”. Je crois que vous avez évoqué les résultats du M5 et souligné que le seul fait qu’une chose soit sophistiquée ou de pointe ne la rend pas nécessairement meilleure. Donc, Joannes, votre réponse au concept ici, qui est en gros que la prévision probabiliste, la modélisation purement algorithmique, c’est tout simplement trop sophistiqué. Il faut rester simple.

Joannes Vermorel: La réalité, c’est que nous avons remporté, au niveau des SKU, la compétition M5 avec un modèle paramétrique comportant environ cinq paramètres. C’est tout. Donc, encore une fois, algorithmique ne signifie pas meilleur. En fait, Tetlock, dans son livre “Superforecasting”, montre qu’une moyenne mobile battra 99 % des humains dans la prévision de n’importe quoi. Les humains voient des motifs partout ; ils ont un problème cognitif immense. Il est extrêmement difficile de gérer le bruit, donc ils voient des motifs partout, et cela est tout simplement mauvais pour la prévision. D’ailleurs, c’est un domaine où artificial intelligence, comme une moyenne mobile, bat réellement l’esprit humain dans la grande majorité des cas. Voilà, c’était juste un point. En particulier, les algorithmes de prévision probabiliste de Lokad ne sont pas naturellement très sophistiqués. Ils ont juste une forme étrange, mais ils ne sont pas ultra sophistiqués dans le sens de l’utilisation du deep learning et autres.

Conor Doherty: Jeff, qu’en pensez-vous ? Y a-t-il quelque chose sur lequel vous souhaitez réagir ?

Jeff Baker: La seule objection que j’aurais, et je suis entièrement pour l’intégration des dernières données et technologies—encore une fois, j’ai travaillé dans une entreprise de logiciels, nous vendions de la technologie—, c’est que parfois nous n’avons pas besoin de compliquer excessivement les choses. Peut-être que c’est meilleur, mais nous devons nous assurer d’en obtenir la valeur ajoutée incrémentale pour tout ce que nous faisons. De plus, l’explicabilité est cruciale.

Pour nous ici présents, les personnes intéressées par ce visionnage, nous sommes tous passionnés par la prévision probabiliste et les données. Lorsqu’il s’agit de l’implémentation, si j’essaie de vendre telle prévision algorithmique, et si elle présente des problèmes d’explicabilité, nous pouvons commencer à rencontrer des résistances, car les humains éprouvent naturellement une aversion pour l’algorithme. Ils vont se rebeller contre des choses qu’ils ne comprennent pas. Beaucoup de ces techniques de prévision, les plus simples, sont relativement faciles à expliquer. C’est là que je dis que parfois les solutions plus simples, du point de vue de la performance, fonctionnent tout aussi bien. Des prévisions d’ensemble simples battent 92 % des personnes en lice pour la renommée et la fortune dans la compétition M5. Il y a donc une certaine valeur dans cela.

Je dirais également qu’il ne faut pas surcharger une organisation en particulier. Certaines organisations ont un niveau de maturité auquel nous devons les amener. Pour beaucoup d’entre elles, si je peux les amener à réaliser des prévisions par lissage exponentiel, tant mieux. Les ensembles, tant mieux. Discuter des intervalles de prévision, fantastique. Aucun problème avec les algorithmes plus sophistiqués. Nous devons simplement veiller à les amener à un niveau où elles puissent digérer et accepter cette technologie. Sinon, nous courons le risque—et j’ai déjà rencontré ce problème—d’utiliser des programmes linéaires mixtes pour des entreprises, et s’ils ne les comprenaient pas, ils ne les accepteraient pas. Voilà ce à quoi je fais attention lorsque nous essayons de promouvoir des algorithmes plus sophistiqués.

Conor Doherty: Joannes, quelque chose à ajouter ?

Joannes Vermorel: Encore une fois, je pense qu’il y a un léger décalage, car ce que je dis, c’est qu’abord, lorsque nous effectuons des prévisions probabilistes, les méthodes elles-mêmes sont assez simples. Toute sophistication se limite à prendre en compte précisément les facteurs. Notre alternative au FVA consiste à dire que lorsque les gens disposent d’informations et lèvent la main, cela constituera des facteurs à intégrer. La prévision elle-même utilisera simplement ces informations supplémentaires comme une entrée, et non comme un remplacement de la sortie.

Cela a de nombreuses conséquences positives, par exemple, si vous actualisez la prévision, les gens n’ont pas besoin d’actualiser le remplacement. Le problème, c’est que les gens le perçoivent comme un remplacement, comme quelque chose de statique. Mais si vous remplacez la prévision, que se passe-t-il la semaine suivante s’il y a de nouvelles informations et que votre référence a changé ? Que faites-vous ? Réappliquez-vous le même remplacement, le même delta par rapport à ce que vous aviez auparavant ? Il existe une multitude de complications qui découlent simplement du fait que le marketing fournit des informations sous forme de remplacement de la prévision. Il est beaucoup plus facile de dire, “Marketing, dites-nous que nous allons promouvoir ce produit avec une dépense publicitaire de telle somme,” puis vous intégrez cela comme une entrée dans votre prévision. Vous pouvez même effectuer un backtest pour vérifier si cela améliore la précision ou non. Ce backtest est quelque chose que vous pouvez obtenir sur-le-champ ; vous n’avez pas besoin d’attendre trois mois pour voir si votre correction manuelle a donné quelque chose de positif ou non.

Conor Doherty: Si je peux intervenir un instant, parce que vous avez abordé quelque chose que je voulais également dire à Jeff. En ce qui concerne “plus simple est mieux”, en m’appuyant sur ce que vous venez de dire, ne serait-il pas théoriquement plus simple pour un expert d’interviewer d’autres experts, d’extraire des idées, puis de les traduire en une décision algorithmique, plutôt que que tout le monde, y compris les non-experts, intervienne sur une prévision ? En termes de simplicité, quelles sont vos réflexions à ce sujet ? Sont-elles également simples, ou l’une est-elle plus complexe que l’autre ?

Jeff Baker: Typiquement, là où j’ai utilisé le FVA, c’est dans le processus de planification des ventes et des opérations, lors de l’examen de la demande, en regardant l’horizon temporel qui s’étend sur trois mois. Nous avons le mois en cours, le mois en cours plus un, plus deux. Typiquement, beaucoup d’entreprises de biens de consommation courante, beaucoup d’entre elles, suivent ce type de planning figé. C’est là que vous commencez à faire la transition entre la planification et l’exécution, donc c’est S&OP contre S&OE.

Lorsque nous sommes dans ce domaine S&OP, nous examinons certains de ces événements, certains des moteurs. Ce que nous faisons là, c’est, si nous le faisons à un niveau agrégé, nous recueillons des informations. S’il s’agit d’une information au niveau d’une famille de produits, vous pouvez utiliser ces moteurs de haut niveau pour les faire remonter. Vous pouvez désagréger certaines de ces décisions, ce qui est une pratique courante — prendre un chiffre global et le désagréger jusqu’aux détails.

Du côté de l’exécution, s’il y a eu un événement significatif, alors oui, vous pouvez également le faire à un niveau de famille ou d’entreprise, en fonction de l’ampleur de cet impact. Je pense que c’est plus facile. Je ne préconise pas nécessairement d’ajuster chaque SKU, car, comme vous l’avez mentionné précédemment, cela peut être contraignant. Mais s’il y a des impacts majeurs, nous devons apporter ces ajustements.

Dans cette planification, dans cette replanification, revenir au plan n’est rien, la planification est tout. Cette notion de replanification, de réexamen, si nous la faisons dans le processus S&OP une fois par mois, nous avons tous les décideurs dans la salle. Nous le faisons une fois par mois, et nous commençons également à nous concentrer sur ce qui figure déjà dans le modèle, sur ce qui est nouvelle information, et comment nous l’incorporons. En fait, une des fois où j’ai failli me lever et applaudir lors d’une réunion d’examen de la demande, c’était lorsque le responsable des ventes, le VP, était présent, et il a dit : “D’accord, quelles nouvelles informations avons-nous à ce sujet ?” Aucune nouvelle information. “D’accord, la prévision stat, la prévision algorithmique reste inchangée,” et c’était tout. Il n’y avait pas beaucoup de bureaucratie dans cela.

Je pense que c’est la façon idéale de procéder, à moins qu’il n’y ait de très grands événements dont nous soyons informés. Mais alors, si vous êtes le Supply Chain Scientist, vous devez aller de manière proactive chercher cette information. Alors que, dans la manière dont je le suggère, les ventes et le marketing viennent aux réunions en sachant qu’ils doivent me dire ce qui est nouveau net, ce qui a changé, ce qui n’était pas dans les hypothèses du mois dernier. Nous essayons de rendre cela aussi rapide que possible. Pour une grande entreprise de biens de consommation courante, vous pouvez traiter cela assez rapidement au niveau de la famille.

Conor Doherty: Merci, Jeff. Joannes, quelque chose à ajouter ?

Joannes Vermorel: Pas trop, mais pour faire court, la raison pour laquelle nous préconisons vraiment que ce soit l’expert qui prenne l’information au lieu que la prévision soit modifiée, c’est que, presque invariablement, l’information n’est pas alignée, en termes de granularité, avec l’activité de l’entreprise. Ils disent, “Oh, nous avons ce concurrent qui est en faillite.” Il n’y a pas de correspondance claire entre ce concurrent et ce qu’il fait exactement. Ce n’est pas un rapport un pour un. Il y a un problème considérable de, d’accord, catégorie par catégorie, quels sont les produits impactés.

L’idée que l’information puisse provenir de la tête d’une personne des ventes ou du marketing ou autre, du type “D’accord, cette information peut trouver une série temporelle correspondante pour être remplacée”, n’est presque jamais le cas. Simplement trouver ce qui est exactement pertinent à modifier est difficile. Qu’en est-il de toutes les autres sources d’incertitude ? Lorsque Lokad gère une entreprise avec des modèles prédictifs, nous disposons facilement d’une demi-douzaine de modèles prédictifs — un pour la demande, certes, mais aussi les délais d’approvisionnement, les rendements de production, le prix futur des fournisseurs, l’anticipation de la volatilité du prix des concurrents, etc.

Quand vous dites que le point avec le FVA est qu’il présente également ce problème de décalage d’impédance entre la granularité des informations dont vous disposez et les séries temporelles. Il place simplement la demande sur un piédestal alors que vous pouvez avoir une multitude d’autres incertitudes à prévoir. Il y a aussi des informations telles que, “D’accord, ce fournisseur est complètement débordé, les délais d’approvisionnement vont exploser.” Cela devrait être reflété dans l’algorithme de prévision des délais d’approvisionnement.

Jeff Baker: Ouais, je ne conteste pas ce que tu dis en ce qui concerne, ouais, il y a des choses que nous devons examiner dans la supply chain. En aucun cas, de quelque manière que ce soit, je ne recommande de nous concentrer sur le FVA et d’oublier d’examiner les délais de livraison des fournisseurs ou quelque chose de similaire. Ce n’est pas correct. Nous devons nous concentrer sur ce que représente la demande, d’un point de vue efficace, quelle est ma meilleure demande, n’est-ce pas?

Et j’ai également besoin de connaître toutes ces autres choses concernant mon côté supply aussi. Nous devons faire les deux, n’est-ce pas ? Et oui, je suis totalement d’accord. Nous avons besoin du délai de livraison, de la variation des délais, nous devons comprendre la fabrication, quand ils pourraient être en panne, les tarifications fournisseurs, nous devons connaître cela également. Je n’ai donc aucun argument à ce sujet. Le seul argument que j’ai, c’est que je ne dis pas de nous concentrer sur le FVA au détriment de ces autres éléments.

Conor Doherty: Eh bien, nous avons d’autres questions de l’audience auxquelles je répondrai. Il y a juste un dernier point qui a été soulevé, et je vais le poser. J’ai d’abord essayé de paraphraser équitablement, Jeff, alors confirme-moi si j’ai bien reformulé. Mais ensuite, je veux te presser, Joannes, à ce sujet. Jeff, dans tes remarques de conclusion, tu as affirmé qu’il existait des éléments qui ne peuvent pas être réduits à un algorithme. Est-ce une bonne synthèse de ce que tu as dit? Il existe certains éléments, je pense qu’il s’agissait de la faible prévisibilité, sur lesquels on ne peut tout simplement pas compter sur une solution algorithmique.

Jeff Baker: Ouais, et il y a des événements, tu sais, c’est plus lié au fait que les événements ne se répètent pas.

Conor Doherty: Et cela implique qu’ils nécessitent une intervention manuelle, une saisie manuelle.

Jeff Baker: Une contextualisation du fait qu’il y a un événement. Je n’ai rien avec quoi le modéliser, mais je vais devoir prendre une décision. Je vais faire appel à un expert pour m’aider à ce sujet.

Conor Doherty: Joannes, qu’en penses-tu ? Parce que j’étais très curieux d’avoir ton point de vue.

Joannes Vermorel: C’est là que je mentionnais l’expert Philip Tetlock dans mon argumentation. Il a d’ailleurs écrit un livre intitulé “Superforecasting” et il a évalué les capacités de prévision humaine via un projet qui fonctionne depuis une décennie, appelé le Good Judgment Project. Il a été financé par l’IARPA, l’équivalent du renseignement de la DARPA américaine.

Ce qu’ils ont constaté, c’est que les personnes qui étaient de bons prévisionnistes, dans ce genre de méthode intuitive pour prévoir des choses, pour des sujets où il n’existe pas de recette algorithmique, concluaient immédiatement que lorsqu’une recette algorithmique est disponible, c’est mieux. Lorsqu’il n’y en a pas, bon, retour aux humains et aux jugements de haut niveau. Mais ce qu’ils ont conclu — et c’est l’une des conclusions du livre —, c’est que les superprévisionnistes, c’est-à-dire les personnes qui obtiennent de manière constante une précision de prévision supérieure, construisent en réalité des micro-algorithmes adaptés au cas. C’est littéralement cela. Et quand les gens sont capables de faire cela, ils améliorent considérablement leur précision. L’ordre de grandeur est d’environ une augmentation de 30 % de la précision, même sur des sujets extrêmement difficiles à évaluer, comme par exemple, est-ce que l’ancien président de Syrie retrouvera le pouvoir dans les cinq prochaines années ? Juste une question très difficile à répondre.

En somme, si nous revenons à ces conclusions, cela soutient à nouveau l’idée que lorsqu’il y a de l’information, ce n’est pas la personne qui détient cette information qui doit la traduire en une déclaration quantitative concernant la prévision de l’entreprise. C’est ce que je dis. Et c’est pourquoi je pense que là où le FVA et la pratique de ces interventions manuelles se trompent, c’est que chez Lokad, notre approche consiste à ce que quelqu’un nous fournisse l’information, l’information brute, et ensuite, si un élément surgit de nulle part, nous devons inventer une sorte de mini recette numérique qui le convertit en un nombre.

Et l’élément intéressant, c’est que non seulement il faut l’inventer, mais il faut aussi le documenter. Il faut expliquer quelle était la logique, même si c’est en trois phrases qui disent simplement : “D’accord, je fais ceci, je multiplie cela par cela, j’applique un ratio et une réduction”, quelque chose de très simple, comme une recette de cuisine. Encore une fois, si nous revenons à “Superforecasting”, ce livre, c’est exactement comme cela que les superprévisionnistes — ceux qui obtiennent des résultats supérieurs sans algorithmes — procèdent. Ils disposent de la recette numérique explicite qui rend leur processus améliorable. Ce n’est donc pas seulement de l’information, il faut avoir un processus répétable et amélioré pour convertir ces insights en nombres. Cela ne doit pas passer pour de la magie dans l’esprit des gens.

Jeff Baker: Non, je suis tout à fait d’accord. Nous avons des gens qui documentent quelles sont tes hypothèses. Pour aller plus loin, oui, si tu pouvais disposer d’une IA basée sur un large language model pour l’équipe commerciale ou pour le marketing, ce serait fantastique. Parce que c’est l’un des biais : tu demandes aux gens, tu essaies d’obtenir leurs contributions, et parfois ils se souviennent de certaines choses, parfois non. Bien souvent, nous revenons aux données en nous demandant : “D’accord, quand avons-nous procédé à cette augmentation de prix ? Oh, cela fera bientôt un an, peut-être que le premier pic causé par l’augmentation de prix s’est estompé.” Je suis tout à fait en faveur d’automatiser cela si possible. Il faut avoir cette conversation avec les gens et commencer à recueillir ces informations. Cela doit devenir leur façon de travailler car il y a tellement de cas comme celui-ci actuellement dans de nombreuses entreprises. Donc, je pense, oui, tu commences sur cette voie.

Conor Doherty: Très bien, à ce stade, je vais passer à certaines des questions qui ont été posées par l’audience. Je crois que je t’ai interrogé en premier la dernière fois, Jeff, ceci s’adresse à vous deux, mais je commence par toi. Ceci vient de Nicholas. Comment peut-on gérer une situation où trop d’informations affluent, forçant les modèles statistiques à changer fréquemment, même avec un S&OP en place ? Comment peut-on équilibrer efficacement la pression des équipes marketing et finance ?

Jeff Baker: La question est donc de savoir s’il y a beaucoup d’informations différentes provenant des ventes et du marketing ?

Conor Doherty: Ouais, essentiellement, s’il y a une vague d’informations qui arrive, comment gères-tu cela, surtout si cela force les modèles statistiques à changer assez fréquemment avec, disons, beaucoup d’interventions, par exemple. Bien que j’aie ajouté cette parenthèse moi-même.

Jeff Baker: D’accord, donc le modèle statistique lui-même ne serait pas modifié. On parle donc d’un modèle de prévision statistique basé sur des séries temporelles et ensuite d’interventions de la part des ventes et du marketing, si je comprends bien. Nous ne parlons pas de…

Conor Doherty: Je n’ai pas Nicholas avec moi en ce moment, désolé.

Jeff Baker: D’accord, donc dans ce cas, il faut prendre une décision à l’horizon temporel, n’est-ce pas ? Donc, si je dois prévoir sur trois mois pour établir mon planning de fabrication, ma séquence de production pour ma planification de capacité finie, alors oui, nous devons avoir pour habitude, tu sais, de ne pas venir à la dernière minute avec de nouvelles informations. Une autre chose du côté de la fabrication, dont je suis un grand partisan, c’est l’application des violations de la time fence gelée pour former l’équipe commerciale. Hé, les surprises dans le mois en cours et dans le mois suivant ne sont pas les bienvenues. Et c’est une question culturelle, n’est-ce pas ? C’est ainsi que je traiterais cela. Je veux dire, il y a eu un cas où un commercial est venu en disant : “Hé, on a réalisé cette énorme vente,” et il a attendu la dernière minute pour en informer la fabrication. Ce n’est pas une bonne affaire, n’est-ce pas ? Ça nous a coûté pas mal d’argent.

Donc, cette idée de figer, en ce sens qu’il faut prendre une décision sur ce créneau temporel, qui doit être ta meilleure décision, et accepter que nous planifions sur cette base sans surprise. C’est ainsi que je gérerais une vague pareille. En fait, l’un des indicateurs S&OP que j’affectionne, c’est cette violation de la time fence gelée. C’est comme : combien de fois faisons-nous subir un effet de fouet à nos équipes de fabrication simplement parce que tu as attendu la dernière minute pour nous informer d’une nouvelle vente ?

Conor Doherty: Merci, Jeff. Joannes, des réflexions à ce sujet ? N’hésite pas à intégrer dans ta réponse, encore une fois, comment un expert selon tes critères gérerait un afflux soudain d’insights provenant de nombreuses personnes ?

Joannes Vermorel: D’abord, l’approche de Lokad est d’automatiser tout. Pour nous, c’est le genre de situation où, premièrement, il faut disposer de la capacité nécessaire pour cela. Et tu vois, c’est ce qui est intéressant dans l’automatisation totale. Par définition, le Supply Chain Scientist, une fois que tout est automatisé, dispose d’une grande capacité pour gérer réellement une situation exceptionnelle. Ce n’est typiquement pas le cas lorsque les gens ont déjà tout leur temps englouti par la routine. Voilà la première chose.

La deuxième chose est que l’instabilité des prévisions est une caractéristique des prévisions classiques basées sur des séries temporelles — tu sais, les prévisions ponctuelles. Ainsi, tu ajoutes un peu d’information, et le modèle va tout simplement fluctuer parce que, selon ta métrique de précision, c’est ce que tu devrais faire pour être ultra réactif, pour être le plus précis. Très fréquemment, il y a ce compromis : si tu veux être très précis, il faut capturer le changement très rapidement, et cela rend la prévision très instable. Ici, si tu optes pour la prévision probabiliste, cela tend à éliminer les problèmes d’instabilité parce que tu as déjà une distribution de probabilité assez diffuse. Donc, même si tu observes une valeur aberrante ou autre, ta distribution de probabilité reste diffuse. Il n’y a pas de saut majeur dans l’étendue de la masse de la distribution de probabilité.

De plus, le problème des fluctuations de la prévision, même si nous optons pour des prévisions ponctuelles, qui peuvent être radicalement modifiées, c’est, comme je l’ai dit, que les gens n’aiment pas les sauts dans la prévision. La réponse est que les prévisions sont de nouveau traitées manuellement, avec des interventions manuelles, des révisions manuelles, etc. Ce n’est pas ainsi que Lokad procède. La prévision est automatisée, les décisions le sont également. Ainsi, lorsque la prévision évolue, les décisions reflètent automatiquement et immédiatement le nouvel état, en tenant compte du fait que tu pourrais être financièrement engagé dans une certaine voie. Donc, oui, la demande a changé, mais tu as déjà produit des stocks. Alors, même si la demande n’est pas ce à quoi tu t’attendais, tu dois quand même liquider, vendre ces stocks d’une manière ou d’une autre. Tu vois, l’automatisation rationalise et élimine en grande partie les problèmes liés à la temporalisation de l’ajout de l’information. L’information peut être ajoutée dès qu’elle est disponible, et dès qu’elle l’est, elle est prise en compte.

Jeff parlait de culture. Ce qui est intéressant, c’est que cela récompense immédiatement les personnes qui transmettent l’information, car, littéralement, le jour même où elles ajoutent leur information, celle-ci est validée. Le lendemain, les plannings de production sont tous orientés. Les plannings de production, allocation des stocks, les expéditions, les bons de commande, tout reflète immédiatement cette information fournie dès la veille. Ainsi, pour chacun, il existe une manière de développer une culture de transmission de l’information. Ils doivent comprendre que lorsqu’ils apportent de l’information, en l’espace de quelques heures, elle se répercute à tous les niveaux dans chaque décision. C’est ainsi que tu peux rendre cela très tangible, et non pas en leur disant : “Revenez le mois prochain, et nous envisagerons de commencer à examiner vos informations.”

Conor Doherty: Merci, Joannes. Jeff, j’aimerais vraiment connaître ton avis sur cette dernière partie, car je le lisais sur ton visage. Ça résonnait, au moins un peu.

Jeff Baker: Ouais, ouais. Pour moi, cela ressemble à une recette pour l’effet bullwhip, n’est-ce pas ? Tu dis que chaque petite information que j’ajoute — j’apprécie la réactivité et la capacité technique à refléter immédiatement quelle est la meilleure décision — mais le problème, c’est que nous avons déjà pris beaucoup de ces décisions. Si j’ai établi mon planning et, disons, que je prépare de la bouillie d’avoine — et que j’ai de la bouillie d’avoine classique, puis de la bouillie d’avoine à la cannelle, de la bouillie à la cannelle et à la pomme, et ensuite je fais de la bouillie à la cannelle, à la pomme et aux noix. Eh bien, là, j’ai une allergie. Le coût de changement entre ces productions est énorme. Maintenant, si tu interviens et que je dois perturber ce planning immédiatement, il y a un coût financier considérable, un coût potentiel. Si tout à coup je dois commander plus d’une matière première plus rapidement, je vais provoquer un effet bullwhip auprès de mon fournisseur.

Ainsi, il y a certains avantages à la stabilité. En fait, il y a beaucoup de discussions intéressantes en cours pour déterminer s’il existe une prévision à la fois valable et stable, pas la plus précise, mais précise et stable, car la stabilité présente certains avantages dans la supply chain. Je veux dire, c’est un domaine dans lequel nous commençons tout juste à faire des recherches, mais cela montre que beaucoup de ces décisions doivent être prises. Nous avons en quelque sorte planté un piquet, et tout le monde rira quand je dirai, tu sais, une prévision gelée. Genre, mec, ce n’est pas vraiment gelé. D’accord, nous savons tous que ce n’est pas gelé, mais il y a une conséquence financière à modifier les décisions.

Donc, bien que techniquement je trouve formidable que nous puissions indiquer “Hé, maintenant c’est la meilleure décision”, je pense que nous devons tempérer cela par le fait que si nous changeons en fonction de tout ce qui arrive, il y aura des coûts associés. Cela peut être parfaitement acceptable pour certaines supply chains. Si j’ai une supply chain réactive, peut-être que tout va bien. Peut-être que c’est le monde dans lequel nous vivons. Mais si nous avons une supply chain efficace où les changements sont coûteux et difficiles à mettre en œuvre, c’est là que je vois poser problème.

Joannes Vermorel: Je comprends. Chez Lokad, bien évidemment, modéliser le coût du changement est quelque chose que nous faisons. Chaque allocation de ressources, si elle dévie de ce qui était prévu auparavant, est intégrée dans le coût. C’est super basique. Ainsi, la chose ne va pas fluctuer si le coût du changement dépasse les bénéfices anticipés. Pour moi, c’est comme, encore une fois, je pense que les gens ont tendance à aborder le sujet en regardant des recettes numériques extrêmement absurdes en se disant : “Oh, regarde, c’est un problème.”

Par exemple, nous avons une décision qui est naïvement subordonnée à une prévision sans aucune considération de l’engagement actuel, etc. C’est incroyablement naïf. Évidemment, vous avez besoin qu’une partie de votre recette numérique intègre la décision qui prend en compte, quelle que soit l’ampleur du coût de changement et toutes sortes de coûts. Il y en a plein. Et c’est là que la prévision probabiliste brille également. Elle vous offre encore plus. Vous prenez en compte le fait que si vous prenez cette décision maintenant, devrez-vous la réviser à l’avenir ? Car, encore une fois, si vous avez cette prévision ponctuelle, par définition, vous supposez que vous connaissez déjà l’avenir. Ainsi, votre modèle vous empêche de considérer automatiquement que votre prévision pourrait être erronée. Mais avec les prévisions probabilistes, c’est un fait acquis. La prévision vous indique déjà que la demande peut se situer n’importe où dans cette plage, et vous disposez des probabilités. Ainsi, non seulement vous calculerez, lors de l’optimisation de la décision, le coût de changement s’il y a une modification, mais également le fait que ce changement pourrait être nécessaire à l’avenir.

Conor Doherty: Eh bien, messieurs, encore une fois, je suis conscient du temps et il reste encore au moins quatre questions à traiter. Dans un esprit de parité, je vais donc vous poser la suivante, euh, Jeff. La FVA serait-elle une bonne approche pour aider à alléger la pression d’ajuster les modèles statistiques afin de répondre aux attentes budgétaires ? En second lieu, comment un supply chain data scientist…

Excusez-moi, je devrais en fait poser ceci. Pardonnez-moi, je devrais en fait poser ceci à Joannes. Désolé. La FVA serait-elle une bonne approche pour aider à alléger la pression d’ajuster les modèles statistiques afin de répondre aux attentes budgétaires ? Et comment un supply chain data scientist peut-il naviguer dans la politique et la hiérarchie lorsqu’il est confronté à de tels défis ? Et Jeff, je reviendrai vers vous pour un commentaire.

Joannes Vermorel: Encore une fois, voilà le problème avec les prévisions ponctuelles. Elles supposent que vous connaissez l’avenir. Ainsi, si vous connaissez l’avenir, tout, le plan, tout est une question d’orchestration, et votre prévision vous indique le budget nécessaire pour tout. Et c’est erroné car, d’abord, la prévision comporte des imprécisions, et vous écartez complètement l’incertitude.

Une prévision ponctuelle est rigidement attachée à un budget donné. Ce n’est absolument pas la meilleure pratique. Mais si nous passons au monde des prévisions probabilistes, alors soudainement tous ces problèmes disparaissent. Ce que vous avez, ce sont des futurs possibles, et ensuite toutes les dépenses budgétaires peuvent être envisagées. Si vous me dites que vous disposez de cette quantité de ressources, alors vous examinerez comment allouer ces ressources afin d’en tirer le meilleur parti selon ces probabilités pour l’avenir.

Et d’ailleurs, nous avons un exemple de cela. Si les gens souhaitent disposer d’un tableur, ils peuvent consulter prioritized inventory replenishment sur notre site web. Il s’agit d’un tableur Excel qui démontre qu’avec une prévision probabiliste, vous pouvez choisir le budget dont vous disposez, et il vous donnera le meilleur résultat possible pour ce budget. Encore une fois, c’est un problème lié aux prévisions ponctuelles, qui se révèlent défectueuses en tant que paradigme. Les séries temporelles classiques sont défectueuses en tant que paradigme, et vous vous retrouvez avec de nombreux problèmes que vous n’auriez pas, même conceptuellement, si vous n’étiez pas attaché à un paradigme défectueux.

Jeff Baker: Juste une remarque improvisée concernant un paradigme défectueux qui a pourtant parfaitement fonctionné pour de nombreuses entreprises pendant des dizaines et des dizaines d’années. Donc, je ne le qualifierais pas de défectueux. Maintenant, en ce qui concerne le budget, vous savez, la prévision et le budget posent un énorme problème, car les budgets sont aspiratifs, n’est-ce pas ? La meilleure chose que nous puissions faire, et encore une fois, ceci est d’un point de vue ventes et opérations, c’est que je demande toujours à mes clients de prévoir sur 18 mois. Alors, devinez quoi ? À la mi-2025, nous avons déjà commencé à envisager 2026. Nous pouvons comprendre quelle sera la vision la plus probable de 2026.

Ensuite, à partir de là, vous pouvez superposer vos objectifs aspiratifs. Aucun problème à ce niveau, mais vous forcez alors la conversation : que faudrait-il pour augmenter nos ventes de telle quantité, réduire nos coûts de telle manière, n’est-ce pas ? Cela fait partie de la discussion. Ainsi, la meilleure façon de procéder est de fonder votre budget sur une prévision statistique solide ou sur toute prévision consensuelle dont vous disposez pour l’avenir. Basez votre budget sur cela. Ensuite, si vous constatez des écarts par rapport à cela, prévoyez également des plans de ventes, de marketing et de fabrication pour combler ces lacunes. La pire pratique, et j’espère que tout le monde est d’accord, est l’approche de la Tour d’ivoire. Voici ce qu’est notre budget, la finance le fixe, et cela me rappelle les vieux problèmes de calcul où la dérivation est laissée à l’utilisateur, et nous nous disons : “Oh, comment diable allons-nous faire cela ?” C’est donc une pratique à éviter, simplement en insérant ces raccords.

Donc, je pense que c’est une manière de s’assurer que votre budget initial est ancré dans la réalité, avec des plans pour y parvenir. Ensuite, la deuxième chose que je dis, c’est que la FVA est parfaite pour cela. C’est ce que représente notre prévision statistique. Quant au budget, il n’existe pas de FVA pour le budget, n’est-ce pas ? C’est aspiratif. Mais vous identifiez où se situent ces écarts et forcez la conversation sur la manière de les traiter. Oui, je pense que nous serions tous d’accord pour dire qu’une autre pratique absolument à éviter est que la prévision équivaut au budget. Cela me rendrait fou.

Conor Doherty: Eh bien, merci, Jeff. Je passe au commentaire suivant, à la prochaine question, excusez-moi, et celle-ci est directement destinée à Joannes. Celle-ci vient de Timur, je crois. Je trouve la FVA utile mais parfois limitée en portée. Seriez-vous d’accord avec la métaphore de Jeff qui compare la FVA à un marteau, ou la voyez-vous différemment ?

Joannes Vermorel: Je veux dire, oui. Je ne suis pas trop sûr. Ma critique de la FVA n’est pas qu’elle est un marteau. C’est plutôt que je crois qu’elle opère dans les mauvais paradigmes. C’est étrange et dû aux mauvais paradigmes. Encore une fois, les séries temporelles, la prévision ponctuelle classique, le fait qu’elle soit basée sur la précision et non sur des mesures en pourcentage d’erreur, ni en dollars d’erreur. Vous voyez, il existe de nombreux problèmes de paradigme, et c’est à ce moment-là que je dis que ces concepts sont défectueux. Je maintiens mon point de vue à cet égard. Le genre de friction que subissent les entreprises en pratique ressemble davantage à la manifestation de tous ces problèmes.

Si vous voulez un élément de preuve anecdotique que ces paradigmes sont défectueux, depuis les années 1970, la théorie de la supply chain promettait une automatisation complète de ces processus de prise de décision. C’était, d’ailleurs, le discours d’Oracle dans les années 70 : vous obtiendrez une gestion des stocks entièrement pilotée par des algorithmes. Cela ne s’est pas produit, et cela a échoué à plusieurs reprises. Le point que je souligne, et j’ai de nombreux arguments à l’appui, c’est que cela reflète le fait que les paradigmes, les outils mathématiques, les instruments sont tout simplement erronés. Ainsi, vous vous retrouvez avec toutes sortes de problèmes étranges. Pour revenir à cette histoire de marteau, oui, on a parfois l’impression d’essayer d’utiliser un marteau pour visser des vis. Ce n’est pas que le marteau soit mauvais en soi ; c’est que vous essayez de faire quelque chose pour lequel le marteau n’est pas l’outil adapté.

Conor Doherty: Jeff, je vous laisse la parole pour ajouter quoi que ce soit, si vous le souhaitez.

Jeff Baker: Non, si ce n’est le fait que l’analogie que j’ai faite avec le marteau était de montrer qu’il faut utiliser l’outil correctement. Ainsi, la FVA est un outil. Si vous ne l’utilisez pas correctement, vous n’en tirerez pas de valeur. C’était mon analogie.

Conor Doherty: Merci. Je poursuis. Celle-ci vient de Marina. Il n’y a pas de désignation claire quant à qui cela s’adresse, donc je vais d’abord m’adresser à Jeff. Avec l’avancée rapide de l’IA et la possibilité d’avoir toutes les données disponibles dans un avenir proche, pensez-vous que la FVA deviendra plus efficace, voire même plus essentielle ?

Jeff Baker: Plus efficace ou plus essentielle ? C’est une question intéressante. Ce que je pense, c’est qu’au fur et à mesure que l’IA devient de plus en plus présente, avec toujours plus de données, nous devons apprendre à contextualiser tout cela et à prendre des décisions en conséquence. On pourrait presque envisager un scénario bien plus lointain dans lequel nous serions capables de contextualiser toutes ces informations, où les large language models les intégreraient, et, pour reprendre ton propos, Joannes, commenceraient réellement à systématiser tout cela. C’est potentiellement quelque chose qui conduirait la FVA à se dire : “Eh bien, d’accord, nous prenons toutes ces décisions, et ce sont d’excellentes décisions.”

Peut-être qu’alors, il ne restera que des cas limites d’événements significatifs, comme un concurrent qui fait faillite ou qui lance une promotion en même temps qu’il y a un ralentissement économique, et simultanément une augmentation de votre saisonnalité. Vous pourriez être en mesure de commencer à les anticiper. Je pense donc qu’il y aura probablement quelques fruits faciles à cueillir, là où l’IA sera fantastique pour analyser toutes ces données, comprendre les relations et également discerner ce qui relève du bruit et ce qui a de la valeur. Ainsi, j’envisage qu’elle puisse éventuellement devenir un peu moins indispensable à l’avenir, à mesure que nous commencerons à automatiser.

Conor Doherty: Eh bien, merci, Jeff. Joannes, IA et FVA, l’avenir : oui, non, bon, mauvais ?

Joannes Vermorel: Je pense, encore une fois, qu’il faut prendre du recul par rapport à l’intelligence artificielle. Considérons-la en termes de masse d’information : les systèmes de transaction détiennent des gigaoctets d’informations. Je veux dire, des gigaoctets si l’on veut être vraiment sophistiqués. Les données de transaction représentent des gigaoctets d’informations. Les personnes, en comparaison, n’ont que des kilo-octets d’informations. Ce que les individus ont dans leur tête n’est pas une quantité énorme d’informations. Les gens ne sont pas, vous savez, des mentats comme je dirais dans la série Dune pour ceux qui apprécient ce terme. Cela signifie donc que 99 % du problème pour prendre les bonnes décisions consiste, en termes de masse d’information, à prendre les informations transactionnelles banales dont vous disposez et à en dégager les décisions. Cela représente 99 % de l’essentiel de l’information ici.

Pour cette partie du problème, qui consiste à traiter des données numériques présentées sous forme de tableaux, je ne vois pas les large language models comme étant très pertinents. Oui, ils peuvent être des outils de codage très efficaces, de sorte que vous pouvez effectivement vous en servir pour écrire le code à votre place. C’est une chose. Mais peuvent-ils faire plus que simplement écrire le code ? Cela devient très flou.

Maintenant, pour les kilo-octets d’information que les gens ont dans leur tête, peuvent-ils réellement utiliser ces données pour combler le fossé vers quelque chose de quantitatif ? Je dirais oui, mais le défi reste d’ingénierie de bout en bout, c’est-à-dire la création de ce pipeline pour obtenir cette optimisation prédictive automatisée. C’est un véritable défi, et ici nous mettons en évidence les limites de l’intelligence humaine pour accomplir cela correctement. Ainsi, je ne vois pas dans un avenir proche que l’IA que nous avons sera vraiment capable de faire cela, pas plus que, disons, une entreprise d’IA remplaçant Microsoft en faisant réécrire par une IA une version de Microsoft Word. C’est le genre de chose où l’IA peut vous aider à écrire le code, mais cela nécessitera toujours une supervision intelligente humaine considérable, du moins avec le paradigme actuel que nous avons avec les LLM. Ils ne sont pas encore super intelligents.

Conor Doherty: Pourtant, il reste encore deux questions. Donc, Jeff, si vous le souhaitez, nous pouvons passer directement à la suivante.

Jeff Baker: Parfait.

Conor Doherty: Merci. Celle-ci est pour vous. Je vais commencer. Euh, ceci vient de Mark. Comment des intervalles de confiance de prévision peuvent-ils être efficacement traduits en un nombre discret unique, tel qu’un bon de commande ou un ordre de travail ? Une analyse post-prévision serait-elle la meilleure approche pour déterminer ce nombre ?

Jeff Baker: Ouais, donc, vous savez, je n’ai aucun problème avec la prévision probabiliste ou les intervalles, mais au bout du compte, vous devez inscrire un nombre dans votre système ERP, dans votre système de planification. Vous devez opter pour un nombre. Maintenant, là où la discussion devient intéressante, c’est de déterminer quelle est la variation de ce nombre. Mon système est-il robuste ? Que se passe-t-il s’il augmente, par exemple, de 20 %, 30 % ou autre ? Mais cela donne lieu à des scénarios que vous pouvez commencer à étudier, n’est-ce pas ? Donc, oui, ce serait ma réponse.

Conor Doherty: Merci. Joannes, souhaitez-vous ajouter quelque chose ?

Joannes Vermorel: Oui, encore une fois, si vous pensez qu’il faut aborder le problème d’un point de vue paradigmatique où vous devez prendre une décision concernant les quantités de stocks, et donc que la prévision doit être un nombre, alors vous vous retrouvez face à ce problème selon lequel l’incertitude n’existe pas. Elle ne peut pas exister. Et c’est pourquoi les gens, encore une fois, en revenant à cette perspective erronée, abordent le problème en se demandant : “Qu’en est-il de ces intervalles de confiance ? Qu’est-ce que j’en fais ? Oh, je dois trouver un nombre.” Et c’est un piège paradigmatique. Vous vous retrouvez enfermé dans des concepts défectueux.

Ainsi, si vous abordez le problème avec le paradigme actuel où une prévision de la demande vous fournit un nombre unique pour la décision sur les stocks, la seule solution est de préserver, même dans la décision, le fait que celle-ci reflète tous les scénarios possibles. Ce n’est pas que vous choisissiez un nombre pour les stocks ; vous choisissez une demande spécifique. Non, votre décision concernant les stocks devrait refléter tous les scénarios possibles, avec leurs priorités, et exprimer les divers risques en termes monétaires. Voilà pourquoi il faut y penser différemment. Et pour revenir à la question, si vous restez dans le paradigme des séries temporelles, vous ne savez pas quoi faire de vos intervalles de confiance. Ils ne s’intègrent pas dans le système.

Jeff Baker: Je soutiendrais que vous savez exactement quoi faire de ces intervalles de confiance, car si j’ai l’erreur de prévision à mon délai, cela entre dans mon calcul de stock de sécurité. Que vous soyez d’accord ou non, il existe des calculs de stock de sécurité très bien définis pour prendre en compte la variabilité de la demande et la variabilité du délai. Ainsi, si nous prenons cela, nous disposons – et encore une fois, je ne souhaite pas m’étendre sur une théorie de gestion des stocks – de calculs statistiques de stock de sécurité qui acceptent parfaitement une prévision ponctuelle associée à une erreur standard de prévision au délai, et qui vous fournissent un chiffre pour le stock de sécurité. Nous pourrions débattre toute la journée de la forme de cette distribution et de la pertinence d’une distribution normale, mais c’est ainsi que cet écart de l’erreur de prévision est traité dans la majorité des entreprises pour lesquelles j’ai travaillé et dans la majorité des entreprises que j’ai vues présentées lors de conférences.

Conor Doherty: Je vais aller jusqu’à la dernière question. Comment les modèles d’apprentissage automatique devraient-ils gérer les ajustements pour des événements connus, tels qu’un grand nouveau client, qui ne sont pas inclus dans les facteurs causaux de la prévision statistique ? Joannes, nous commencerons par vous.

Joannes Vermorel: Nous touchons ici, une fois encore, au problème de la gestion d’informations pour lesquelles vous n’avez pas de structure algorithmique claire, et vous ne pouvez pas invoquer l’apprentissage automatique comme un mot à la mode pour dire « Oh, la tech va faire quelque chose pour moi ici. » Nous entrons ici dans le domaine de la prévision informelle. Pour le public, je recommande vivement le livre de Philip Tetlock intitulé “Superforecasting.” Si vous ne disposez pas d’une référence claire, que faites-vous ?

L’apprentissage automatique n’apporte aucune réponse à cette question. L’apprentissage automatique, du moins le paradigme classique de l’apprentissage automatique qui est l’apprentissage supervisé, entrée-sortie, n’apporte vraiment aucune réponse à cette question. Je crois que si vous lisez ce que le Good Judgment Project a réalisé et les techniques qu’ils ont développées, ils ont mis au point des techniques d’une intelligence supérieure. Par intelligence supérieure, j’entends que pour appliquer ces techniques, nous cherchons quelque chose qui présente le même type d’intelligence floue qu’un LLM ou plus.

Ils ont identifié des techniques en échangeant avec des super forecasters, des personnes qui ont été pionnières et ont démontré des compétences de prévision supérieures dans ce type de situation, et ils ont examiné quelles techniques toutes ces personnes avaient en commun. Étonnamment, ils sont tous parvenus, en quelque sorte, au même ensemble de techniques. Pour faire court, il existe des techniques, mais elles nécessitent beaucoup de discernement. D’après ces résultats empiriques, je ne pense pas que, dans une telle situation, vous puissiez vous contenter d’un simple algorithme d’apprentissage automatique.

Vous devez constituer un argumentaire, un peu comme une business case en entreprise où vous devez élaborer vos propres hypothèses, décomposer le cas, évaluer les différents facteurs et essayer de trouver quelque chose de raisonnable. Mais en utilisant des termes comme « raisonnable », qu’est-ce que cela signifie formellement ? C’est très difficile, et pourtant, les gens peuvent réellement examiner une justification et se mettre d’accord là-dessus.

Donc, selon moi, ne vous attendez pas à ce que l’apprentissage automatique classique soit la solution. Un LLM serait peut-être un outil d’appui pour vous aider à construire ce type de raisonnement, certainement pour réfléchir à la manière de décomposer et de quantifier les différents facteurs du problème. Mais au bout du compte, ce serait un expert en prévision qui examinerait la situation et prendrait une décision en se basant sur une modélisation numérique ad hoc. Ce serait la meilleure pratique, du moins d’après ces études empiriques du Good Judgment Project.

Conor Doherty: Jeff, qu’en pensez-vous ?

Jeff Baker: Oui, je veux dire, je pense que nous devons faire très attention à ne pas en faire trop. Qu’il s’agisse d’apprentissage automatique ou d’IA, en y ajoutant trop d’éléments, n’est-ce pas ? Parce qu’alors nous pourrions commencer à confondre corrélation et causalité. L’une des expériences d’apprentissage classiques que j’ai eues lors d’un de mes cours fut un modèle de régression multiple. Nous n’avons cessé d’ajouter des facteurs, ajoutant toujours plus de variables, et l’ajustement s’améliorait de plus en plus. Nous avons intégré le prix, et tout à coup, devinez quoi ? Si j’augmente le prix, je vais augmenter les ventes, n’est-ce pas ? Totalement contre-intuitif. Le facteur causal était évidemment décalé, mais la corrélation s’améliorait.

Nous devons donc être vraiment, vraiment prudents, car à un certain moment, nous commençons à modéliser du bruit. Nous nous mettons à nous demander s’il s’agit d’apprentissage automatique ou d’IA, et nous commençons à lui poser des questions. Le problème est qu’avec l’IA, elle répondra avec toute la confiance excessive d’un enfant de 5 ans qui croit à la fée des dents. C’est exactement ce qui se passe. Il faut donc faire preuve de vigilance. Et c’est là que je rejoins Joannes. Il faut contextualiser cela, trouver un expert qui puisse comprendre. N’essayez pas de construire un modèle parfait, car à un moment donné, vos résultats ne seront pas ceux que vous anticipez.

Conor Doherty: Eh bien, à ce stade, messieurs, il n’y a plus de questions de l’audience. Mais une dernière question qui peut servir de conclusion, un rappel final. Je commencerai par Jeff. Le sujet du débat était FVA : est-ce une meilleure pratique ou une perte de temps ? Maintenant, vous vous êtes tous les deux écoutés pendant près de 80 minutes. Jeff, que pensez-vous de cette proposition maintenant ? En vous écoutant exposer vos arguments et formuler vos répliques à l’égard de Joannes, vous semblez assez bienveillant et réceptif à plusieurs des points de Joannes. Je suis simplement curieux : comment conciliez-vous le fait que Joannes puisse avoir raison sur certains, voire la totalité, voire la majorité de ses points, avec la position selon laquelle FVA reste une meilleure pratique ?

Jeff Baker: Oui, oui. J’apprécie cet échange ouvert d’idées, et je pense qu’il est encore possible d’affirmer qu’actuellement, Forecast Value Added est une meilleure pratique. Nous en avons besoin pour le présent.

Barina a posé une excellente question plus tôt—à l’avenir, au fur et à mesure que la technologie progresse, FVA pourrait devenir de moins en moins une technique cruciale. Peut-être pourrons-nous quantifier cela, peut-être pourrons-nous commencer à paramétrer certains éléments, les intégrer dans un modèle et prendre ces décisions automatiquement. Cependant, je pense que nous aurons toujours besoin d’un processus qui favorise la collaboration, la compréhension des ventes, du marketing et des influences externes.

Vois-je son rôle potentiellement diminué ? Oui. J’ai parlé de ce quadrant à haute valeur et forte variabilité, et je peux définitivement imaginer que cela devienne moins pertinent à l’avenir. Mais pour l’heure, je considère toujours FVA comme une meilleure pratique et je crois qu’elle continuera de l’être bien après ma retraite.

Ainsi, dans un avenir proche—oui, FVA reste important. Dans le futur à long terme, je pense que Joannes a une très belle vision de ce que cela pourrait être, et je n’y vois pas de problème majeur. Je dirais que nous sommes alignés à 50 % sur bon nombre de ces idées.

Conor Doherty: Très bien, merci, Jeff. Et Joannes, restez-vous indifférent après tout ce que vous avez entendu ? En termes simples, est-ce un objet immuable et une force irrésistible, en substance ?

Joannes Vermorel: Je veux dire, je dirais, voyez-vous, si nous revenons à ce que j’appelais la théorie dominante de la supply chain, et que FVA en fait partie, elle est assez cohérente. Je le reconnais.

Donc effectivement, si vous acceptez toutes ces idées, tous ces paradigmes, et tout le reste, alors oui, de ce point de vue, cela ne semble pas mauvais. Je resterais néanmoins un peu prudent quant à la quantité de charges bureaucratiques que l’on peut engendrer.

Encore une fois, impliquer beaucoup de personnes est une recette pour monopoliser le temps de nombreuses personnes. Dès que vous créez une sorte d’entité transverse, parce que celle-ci va mettre tout le monde au défi, elle peut toujours générer beaucoup de tâches administratives.

J’ai dans mon réseau des exemples de personnes qui accomplissent une quantité immense de tâches administratives sur ce genre de sujets, en particulier tout ce qui est périphérique ou en support au S&OP.

Maintenant, Lokad opère depuis plus d’une décennie sur différents paradigmes. Il y a, d’ailleurs, une série mondiale de conférences, Jeff, qui cumule près de 100 heures de séries YouTube pour étayer cette vision alternative.

Mais l’intéressant, c’est que lorsque vous adoptez différents paradigmes, différents outils, différents instruments, alors la grande majorité de ces problèmes disparaît tout simplement. Vous rencontrez de nouveaux problèmes, complètement différents, mais opérationnellement, vous vous retrouvez avec quelque chose de très étrange.

Ce sont des supply chains où la quasi-totalité des décisions est prise automatiquement. Et, d’ailleurs, nous avons vécu une expérience très étrange en 2020-2021 où nous avons eu des dizaines de clients qui ont envoyé tous leurs employés de cols blancs chez eux.

Nous avions un client avec des stocks de plus d’un milliard d’euros qui a envoyé toute son équipe chez elle pendant 14 mois sans accès à internet parce qu’il voulait obtenir des subventions gouvernementales. Leur supply chain continuait de fonctionner à environ 80 % de sa capacité nominale, avec Lokad prenant toutes les décisions sans même supervision.

Normalement, nous générons les décisions, mais nous avons de nombreuses personnes qui valident que ce que nous générons est acceptable. Mon point de vue est que si vous pouvez faire fonctionner des supply chains hyper complexes, de plusieurs milliards, pendant 14 mois sans tout ce micro-management, cela remet sérieusement en question la valeur ajoutée de toutes ces personnes et ce que nous devrions attendre de l’automatisation.

Je pense que les gens parlent d’IA et de toutes sortes de choses, mais ma façon d’aborder le sujet est que vous n’avez pas nécessairement besoin d’un modèle hyper sophistiqué, hyper-paramétrique à mille milliards de paramètres pour parvenir à l’automatisation.

Ma conclusion est que je crois que FVA appartient à un monde où il s’agit fondamentalement que des personnes pilotant directement la supply chain. J’envisage cela sous l’angle où la machine pilote la supply chain et les personnes pilotent la machine, et non la supply chain.

Conor Doherty: Eh bien, merci. Comme c’est la coutume ici, nous aimons donner le dernier mot aux invités. Alors, Jeff, merci beaucoup de nous avoir rejoints. Si vous avez des commentaires de clôture à formuler, n’hésitez pas.

Jeff Baker: Non, simplement merci beaucoup pour cette opportunité. J’apprécie la conversation, très bien modérée, Conor. Merci beaucoup.

Mon objectif est de plaire. J’apprécie la participation de l’audience aux questions. Je trouve toujours intéressant que deux points de vue opposés se rencontrent, car je pense que chacun en sort un peu meilleur grâce à cet échange. Franchement, j’apprécie l’opportunité. Quel plaisir de m’être entretenu avec vous.

Joannes Vermorel: Merci, Jeff.

Conor Doherty: Joannes, merci beaucoup pour votre temps. Jeff, merci beaucoup pour le vôtre. Merci à tous de nous avoir regardés. À la prochaine.