00:00:00 Mot d’ouverture par Robert Fildes
00:01:08 Conor Doherty présente le panel et le sujet
00:03:11 Perspective de Nicolas Vandeput
00:06:16 Présentation de Sven Crone
00:10:34 Perspective d’Alexey Tikhonov
00:15:01 Besoin d’automatisation dans la prise de décision
00:20:13 Partager l’information entre humains est une perte de temps
00:25:29 Perspective sur l’intervention humaine
00:30:23 Évaluer une prévision
00:35:18 Perspective financière et prise de décision
00:40:14 Coût des erreurs de prévision
00:45:43 Automatisation et confiance
00:50:27 IA augmentée et ses applications
00:55:03 Impact de l’IA sur les traducteurs humains
01:00:16 Importance d’une vision claire dans la mise en œuvre de l’IA
01:06:00 Pensées de clôture et avenir des planificateurs de la demande
01:11:50 Question du public : prévisions pour les hôpitaux
01:15:38 Question du public : réduction des biais du modèle et des biais humains

Contexte du panel

Le panel a été proposé pour la première fois par Robert Fildes (Professeur Émérite, Lancaster University) en réponse à l’article critiquant FVA. Cet article a été republié dans l’édition Q2 2024 de Foresight (produite par l’International Institute of Forecasters, la même organisation qui organise le symposium). Le panel a ensuite été élargi pour inclure Sven Crone, Nicolas Vandeput et Alexey Tikhonov, afin de fournir une gamme plus équilibrée de points de vue issus à la fois du milieu académique et de l’industrie.

Résumé de la discussion du panel

Filmé en juillet 2024 lors du 44e Symposium International sur les Prévisions à Dijon, le panel composé de quatre intervenants a abordé le sujet “Planification de la demande et le rôle du jugement dans le Nouveau Monde de l’IA/ML”. Modéré par Conor Doherty, Responsable Communication chez Lokad, le panel comprenait Alexey Tikhonov (Lokad), Sven Crone (Lancaster University & iqast) et Nicolas Vandeput (SupChains). La discussion a porté sur l’intégration de l’IA dans la planification de la demande, la valeur des prévisions dans la prise de décision, et l’avenir des planificateurs de la demande. Les panélistes ont partagé des points de vue divergents sur le rôle du jugement humain dans la planification de la demande, le potentiel de l’IA à remplacer les planificateurs de la demande, et l’importance de la précision dans les prévisions.

Résumé détaillé

Le 44e Symposium International sur les Prévisions à Dijon, France, organisé par l’International Institute of Forecasters, a présenté une table ronde sur “Planification de la demande et le rôle du jugement dans le Nouveau Monde de l’IA/ML”. La discussion était modérée par Conor Doherty de Lokad, et les panélistes comprenaient Alexey Tikhonov de Lokad, Sven Crone d’iqast, et Nicolas Vandeput de SupChains. La session a été introduite par Robert Fildes, Professeur Émérite à Lancaster University.

La discussion a débuté avec Nicolas Vandeput exposant sa vision de la planification de la demande à l’ère du machine learning. Il a proposé un processus en quatre étapes comprenant : considérer la prévision de la demande comme un jeu d’information, créer un moteur de prévision de la demande basé sur le machine learning automatisé, permettre aux planificateurs de la demande d’enrichir la prévision avec des informations non incluses dans le modèle, et suivre la valeur ajoutée par chaque intervenant dans le processus.

Sven Crone a partagé son expérience dans l’IA et les prévisions, notant l’adoption lente de l’IA dans la planification de la demande. Il a discuté des complexités liées à l’intégration de l’IA dans les processus de planification de la demande et a suggéré que l’IA pourrait potentiellement remplacer les planificateurs de la demande à l’avenir. Cependant, il a également souligné l’hétérogénéité des prévisions, certaines industries nécessitant des approches différentes.

Alexey Tikhonov a soutenu que la planification de la demande est une approche obsolète et que les interventions de prévision basées sur le jugement sont inutiles. Il a prôné la prévision probabiliste, qui capte le modèle structurel du risque, et a critiqué la planification de la demande pour son manque de perspective économique et d’automatisation. Il a également plaidé pour une automatisation complète du processus de prise de décision dans les supply chain, affirmant que la complexité et l’ampleur des décisions requises dans les supply chain le nécessitent.

Les panélistes ont également discuté de la valeur des prévisions dans la prise de décision. Nicolas Vandeput a souligné que les prévisions sont réalisées pour faciliter la prise de décision et a plaidé en faveur de modèles capables de traiter un maximum d’informations. Il a également suggéré que lors de l’évaluation d’une prévision, il se concentrerait sur la précision des prévisions plutôt que sur les résultats commerciaux, ces derniers pouvant être influencés par de nombreux autres facteurs échappant au contrôle du prévisionniste.

Sven Crone a évoqué la perspective industrielle de la planification de la demande, en mettant l’accent sur l’importance des décisions stratégiques à long terme et de la planification basée sur des scénarios. Il a également souligné les défis liés à la mesure de la valeur ajoutée et l’importance du jugement dans le processus.

Alexey Tikhonov a remis en question la valeur d’une prévision plus précise si celle-ci ne conduit pas à une décision différente. Il a soutenu que la valeur d’une décision ne dépend pas uniquement de la prévision, mais également d’autres facteurs tels que les leviers décisionnels.

Les panélistes ont également discuté de la confiance dans les prévisions, Nicolas Vandeput suggérant que la seule manière de construire cette confiance, qu’une prévision soit générée par un humain ou une machine, est de suivre la précision à chaque étape du processus. Sven Crone a convenu que la confiance est importante et a suggéré qu’une combinaison de l’IA et de méthodes simples et transparentes pourrait être utilisée pour automatiser certaines parties du processus.

Les panélistes ont également discuté de l’avenir des planificateurs de la demande. Sven Crone estime que les planificateurs de la demande auront toujours un rôle à jouer à l’avenir, mais qu’ils feront face à des défis croissants en raison de la fréquence accrue des décisions et de l’augmentation du volume de données disponibles. Nicolas Vandeput voit le rôle des planificateurs de la demande évoluer vers la collecte, la structuration et le nettoyage des données et des informations. Alexey Tikhonov estime que les planificateurs de la demande ne pourront pas rivaliser à long terme avec les systèmes d’intelligence.

Le panel s’est conclu par une session de questions-réponses, au cours de laquelle les panélistes ont répondu aux questions du public sur des sujets tels que les conditions ou exigences pour créer des décisions automatiques dans la planification de la demande, le rôle du jugement dans la planification de la demande, et comment intégrer le biais du jugement humain dans le biais statistique afin de réduire le biais global.

Transcription complète

Robert Fildes: Je suis Robert Fildes et je vous présente ces deux sessions. Pour des raisons logistiques, elles ont été échangées et nous allons, pour la prochaine heure environ, parler de l’évolution du rôle des planificateurs de la demande et de la manière dont leur rôle pourrait être substantiellement modifié par les développements en IA et machine learning. Le panel va bientôt partager ses mots de sagesse. La session de Paul Goodwin et moi-même, consacrée à de nombreuses preuves empiriques sur le rôle du jugement, est reportée à cet après-midi à 15h10. Elle figure de toute façon au programme. Oui, l’ajustement basé sur le jugement, nous en parlerons, mais pas dans cette salle, dans une autre salle. J’ai donc hâte de vous y voir et je me réjouis d’une discussion stimulante et de préférence controversée, et je passe la parole au président, Conor.

Conor Doherty: Eh bien, merci beaucoup Robert. Bonjour à tous, je suis Conor, Responsable Communication chez Lokad et je suis très heureux d’être sur scène en compagnie d’un illustre panel issu du monde académique et de l’industrie. À ma gauche immédiate, Alexey Tikhonov, développeur d’affaires et de produits chez Lokad. À sa gauche, le Dr Sven Crone de l’Université de Lancaster, CEO et fondateur d’iqast et, enfin, et non des moindres, Nicolas Vandeput de SupChains. Maintenant, le sujet de la discussion d’aujourd’hui, comme vous pouvez l’espérer sur l’écran, est la planification de la demande et le rôle du jugement dans le nouveau monde de l’IA et du machine learning.

Je suis convaincu, compte tenu des personnes présentes sur scène, que cet échange d’idées sera animé et je pense que toute avancée technologique soulève généralement des questions sur l’impact de ces avancées sur l’implication humaine. J’ai donc très hâte d’entendre nos trois panélistes en discuter. Avant de commencer, le temps est une ressource précieuse aujourd’hui, donc un petit mot administratif. Chaque panéliste aura 5 minutes pour présenter son point de vue sur le sujet. D’abord Nicolas, puis Sven, et enfin Alex.

Par la suite, je poserai quelques questions visant à clarifier certains détails et les implications de leurs points de vue et, selon le déroulement, si nous sommes tous toujours en communication, alors j’espère recevoir quelques questions du public. Ce que je dirai, c’est que, si possible, étant donné le temps limité, ayez des idées prêtes avant que le micro ne vous soit remis, plutôt qu’un monologue suivi d’un point d’interrogation. Sur ce, je passe la parole à Nicolas, s’il vous plaît, pour que vous nous exposiez votre point de vue sur le sujet.

Nicolas Vandeput: Merci, Conor. Bonjour à tous. Parfait, j’ai les diapositives. Permettez-moi de vous présenter la vision que j’ai pour l’excellence en planification de la demande à l’ère du machine learning et comment, fondamentalement, vous pouvez intégrer le machine learning avec l’enrichissement humain pour la prévision de la demande dans la supply chain. Vous avez donc quatre étapes sur la diapositive. Laissez-moi vous expliquer cela.

La première chose pour moi est de considérer la prévision de la demande comme un jeu d’information. Fondamentalement, cela signifie que vous devez collecter autant de données, d’informations, d’aperçus, ou quel que soit le terme, concernant la demande future. Cela peut être votre calendrier promotionnel, la quantité de publicité que vous prévoyez de faire, les données de vente, les stocks chez votre client, les commandes que vous avez déjà reçues de vos clients à l’avance, etc. Et cela pourra varier selon les industries, ce qui est tout à fait acceptable, mais l’essentiel est que la première étape consiste à trouver des informations sur ce qui se profile. Vous êtes journaliste, reporter, détective, allez chercher ces informations.

Maintenant, une fois que nous avons toutes ces informations, les données pouvant être structurées doivent être alimentées dans le machine learning et vous souhaitez créer un moteur de prévision de la demande basé sur le machine learning qui soit automatisé et fiable. Par automatisé, j’entends qu’il s’agit d’un outil, d’un moteur qui ne requiert aucune modification manuelle, révision ou ajustement par un humain. Cela est réalisé par une équipe de data science ou se fait automatiquement, donc c’est entièrement automatisé. Fiable signifie que votre moteur de machine learning doit réagir à la plupart de vos leviers commerciaux, à savoir la promotion, les prix, les ruptures de stock, peut-être la publicité, peut-être la météo, les jours fériés, etc. Il est donc fiable face à la plupart des leviers commerciaux et entièrement automatisé, vous n’avez pas besoin d’y toucher ou de le revoir.

Une fois cela en place, les humains, c’est-à-dire les planificateurs de la demande, peuvent encore enrichir la prévision en fonction des informations qu’ils ont recueillies et qui ne sont pas incluses dans ce modèle. Prenons par exemple le cas où ils appellent votre client et qu’un client déclare : “Eh bien, c’est vraiment une période difficile, je ne commanderai pas ce mois-ci.” Le client n’informera pas le modèle de machine learning, ce dernier n’en est pas informé. Le planificateur, lui, l’est. Le planificateur doit donc examiner la prévision et la modifier, parce qu’il sait quelque chose que le modèle ignore.

Dernière étape, la valeur ajoutée de la prévision. Il s’agit d’une étape absolument critique. Je commencerais même par celle-ci. Cela signifie que nous devons suivre la valeur ajoutée par chacun dans le processus. Nous devons donc mesurer la précision des prévisions avant et après l’enrichissement afin de nous assurer qu’avec le temps, l’enrichissement apporte de la valeur. Bien sûr, tout le monde peut avoir de la chance ou de la malchance par moments, ce qui est tout à fait acceptable. Chaque enrichissement ne pourra pas apporter de la valeur, mais ce que nous voulons prouver et montrer au fil du temps, c’est qu’en moyenne, ces enrichissements ajoutent de la valeur. Donc, cela vaut notre temps. Voilà, c’était ma vision en quatre étapes sur la manière d’intégrer le machine learning et les planificateurs de la demande.

Conor Doherty: Eh bien, merci beaucoup Nicolas. Je passe maintenant la parole à Sven.

Sven Crone: Merci. Oui, merci. Je suis Sven Crone de l’Université de Lancaster, professeur assistant avec probablement près de deux décennies de recherche en IA et en prévisions. Donc, je suis totalement partial envers l’IA, je dois le dire dès le départ. J’ai essayé de faire fonctionner l’IA dans les prévisions pendant de nombreuses années. Pour que vous soyez conscients de ce biais fondamental. Parallèlement, nous avons créé une petite entreprise où nous avons tenté d’aider de grandes multinationales à exploiter les nouvelles technologies et, en regardant ces décennies, c’est extraordinairement difficile. Je pense que nous devons aborder aujourd’hui, espérons-le lors du panel, certains éléphants dans la pièce.

Bien que la vision existe depuis de nombreuses années – nous pouvons remplacer les statistiques par l’IA, ou inversement – en réalité, nous n’avons pas été vraiment transformateurs en ce qui concerne les processus de planification de la demande, je pense. Voilà mon biais fondamental. Ce que je peux partager, c’est que nous avons formé beaucoup de planificateurs de la demande pour leur faire apprécier certains des algorithmes de lissage exponentiel et des algorithmes ARIMA existants. Je peux vous dire que ce n’est pas un exercice agréable. Ils mettent du temps à s’adapter à certains d’entre eux. C’est un exercice plaisant avec la demande, mais il est très difficile de les amener à accepter certaines technologies plus simples. Donc, je pense que nous parlerons plus tard un peu de ce qui se passe si cette technologie devient encore plus avancée et que les gens doivent interagir avec elle.

Mais il y a environ 10 ans, l’utilisation de l’IA était très limitée, bien que les réseaux de neurones existent depuis près de 60 ans, remontant certainement aux premières innovations, notamment dans les années 1980. Cependant, leur adoption a été relativement lente. Au cours des deux ou trois dernières années, nous réalisons régulièrement des enquêtes lors de conférences de praticiens. Nous venions tout juste de prendre la parole à une conférence de praticiens, l’ASM, à Bruxelles, et nous avons mené un sondage dans l’audience. Nous avons demandé combien de personnes étaient réellement en live avec un proof of concept en IA et ML, et environ 50 % de l’audience y participaient. C’est passé de 5 à 10 % il y a 10 ans. Aujourd’hui, 50 % réalisent un proof of concept. Ils ne sont pas encore en production, mais un bon nombre le sont déjà, et nous avons vu ici quelques grandes entreprises qui testent cela. Ainsi, aucune crainte dans l’audience, et quelques autres cas très intéressants. Mais ce qui est également frappant, c’est qu’autant de projets qui réussissent échouent aussi.

Nous avions donc une grande partie de l’audience pour qui les projets d’IA n’ont pas réussi, et je pense que c’est précisément à cet croisement entre embedding d’une technologie dans un processus de demand planning – qui est bien plus que la simple étape de prévision – que réside le problème. Si nous regardons l’industrie, nous devons considérer la gestion des données de référence, le nettoyage des données, la priorisation, les indicateurs d’erreur, l’exécution d’un modèle statistique, puis potentiellement l’analyse des erreurs, l’identification des alertes et enfin l’ajustement de ces dernières. Et d’ailleurs, même si vous disposez d’un processus complet de prévision statistique de base, que, même aujourd’hui, la majorité des entreprises ne possèdent pas, Gartner présente une belle cartographie de maturité des différents niveaux du S&OP.

Très peu d’entreprises se situent au niveau quatre, la plupart se trouvent entre les niveaux un, deux et trois. Même si vous disposez d’un processus statistique, la manière de nettoyer l’historique des séries temporelles, que ce soit automatiquement ou manuellement, relève d’une décision de jugement. Le choix de l’algorithme à utiliser est une décision. La sélection des méta-paramètres à explorer constitue également une décision de jugement. Il y a donc beaucoup de jugements à porter, mais je pense que, traditionnellement, nous considérons l’ajustement final d’une prévision statistique de base comme étant compris ou non. Et peut-être, à l’avenir, je n’ai pas vu beaucoup d’évolution ou d’innovation lorsqu’il s’agit de rénover le processus S&OP tel qu’il a été conçu par O.W., et je vois des dirigeants devenir sérieusement mécontents du manque de progrès – ou du progrès perçu – bien qu’il y ait souvent des avancées dans le développement des processus.

Mais vous savez, je pense qu’il y a eu un PDG d’Unilever qui a déclaré qu’il fallait se débarrasser du demand planning, car cela ne fonctionne pas en période de COVID. De réels défis se profilent pour les planificateurs de la demande afin qu’ils conservent leur emploi et, à moins qu’ils n’exploitent l’IA – et je pense qu’il existe un scénario réaliste où, comme vous l’avez dit, si vous arrivez à tout mettre en place, l’IA sera capable de remplacer les planificateurs de la demande même dans les étapes d’ajustement basées sur le jugement. Mais nous n’en sommes pas encore là. J’attends donc avec impatience de connaître vos points de vue.

Conor Doherty: Eh bien, merci, Sven. Alexey, vos réflexions, s’il vous plaît.

Alexey Tikhonov: Merci. Ma proposition sera radicalement différente. Je pense qu’il faut d’abord élargir le champ, car le demand planning existe dans la supply chain et l’objectif de la supply chain est de prendre des décisions en situation d’incertitude, de prendre des décisions profitables sous contraintes. En ce qui concerne cet objectif, mon point de vue est que le demand planning est une approche obsolète et que les interventions de prévisions fondées sur le jugement sont inutiles, même si elles contribuent à améliorer légèrement la précision des prévisions. Pourquoi cela ?

Le demand planning est une approche obsolète car il présuppose que nous devons séparer la prévision de la prise de décision. Cette séparation conduit inévitablement au choix d’outils simples, puisque nous instaurons une interface entre humains. Nous devons transmettre l’information de manière très simple et nous choisissons des prévisions ponctuelles, car tout le monde peut les comprendre. Les calculs des indicateurs de précision sont simples, ce qui nous permet d’ajuster ces valeurs à la hausse ou à la baisse. Mais malheureusement, ce choix d’outils nous empêche de prendre des décisions profitables.

Pour prendre une décision profitable, nous devons évaluer les risques financiers et les retours financiers. Nous ne pouvons le faire que si nous capturons le schéma structurel du risque. À ma connaissance, il n’existe qu’un seul outil capable de cela. Il s’agit de la prévision probabiliste, où, au lieu d’une prévision ponctuelle unique, vous proposez une opinion éclairée sur l’apparence de tous les futurs possibles, et sur les probabilités associées à chacun de ces scénarios.

Je ne parle pas seulement de la demande. Il existe d’autres incertitudes, par exemple, il peut y avoir des incertitudes de lead time que vous devez prendre en compte. Cela est particulièrement pertinent si vous traitez des marchandises expédiées de l’étranger. Ensuite, vous pourriez faire face à une incertitude de rendement si vous êtes impliqué dans la production alimentaire. Vous pouvez également rencontrer une incertitude de retours si vous êtes dans le le e-commerce. Ainsi, il existe de multiples sources d’incertitude et vous avez besoin d’outils spécifiques, appelés modélisation probabiliste, pour combiner toutes ces incertitudes afin de pouvoir dégager des décisions lors des étapes ultérieures.

Le demand planning ne nous offre qu’une seule version du futur, à savoir une prévision ponctuelle, qui correspond au scénario le plus probable. Mais nous nous intéressons aux extrêmes de cette distribution, car les risques se concentrent aux deux extrémités. Ensuite, la perspective du demand planning nous conduit inévitablement à envisager une seule option de décision. Vous avez une prévision ponctuelle, vous appliquez soit une formule de safety stock soit une simple politique de stocks, et vous en déduisez une décision. Mais cette décision est-elle profitable ? Que se passerait-il si je la modifiais à la hausse ou à la baisse ? Comment ma rentabilité attendue évoluerait-elle ? Je ne peux pas le déterminer, puisque mes prévisions sont uniquement ponctuelles et je n’attribue aucune probabilité à ces scénarios.

Le troisième problème du demand planning est que la perspective économique est complètement absente. Nous parlons de la précision des prévisions en pourcentages ou, lorsque nous utilisons diverses métriques s’exprimant en unités, nous négligeons la dimension financière. Il nous faut donc estimer le coût attendu, les gains attendus, et nous devons également prendre en compte des facteurs secondaires, comme la manière dont nous comparons les décisions de stocks pour différents produits. Chaque détaillant sait, par exemple, que disposer de stocks de couches est bien plus important que d’avoir du chocolat premium, car si vous n’avez pas le premier produit, vos clients seront déçus, vous perdrez leur fidélité.

Le demand planning nous empêche d’automatiser de manière extensive. Qu’allons-nous automatiser ? Nous allons automatiser la production des décisions finales, et pas seulement la prévision. Nous devons automatiser l’intégralité du processus. Il nous faut transformer nos données transactionnelles brutes en décisions opérationnelles, qui respectent dès leur conception toutes les contraintes décisionnelles telles que les quantités minimales de commande (MOQs) et d’autres leviers de décision comme les remises de prix.

Et enfin, il faut une prise en charge. Actuellement, il n’y a aucune responsabilité assignée aux décisions finales, car nous avons ce processus de transition où la prévision est confiée à une autre équipe qui en déduit ensuite la décision, et ensuite il y a un jeu du blâme. “Oh, nous avons pris cette décision parce que votre prévision était inexacte ou qu’il y a eu une augmentation basée sur le jugement de la prévision, ce qui nous a conduit à une mauvaise décision.”

Pour résumer, la perspective du demand planning est obsolète et nous disposons de quelque chose de mieux. Merci.

Conor Doherty: Eh bien, nous allons être d’accord aujourd’hui, mais pas sur tout. Puis-je simplement réagir à cela, car je pense être entièrement d’accord avec vous sur certains points. Je crois que vous avez évoqué les prévisions ponctuelles contre les prévisions par intervalles ou par distribution de probabilité, n’est-ce pas. Pourtant, de nombreux logiciels font cela depuis des années, mais les praticiens l’ignorent. Toutefois, je pense que nous comprenons tous l’importance de communiquer non seulement la valeur de la demande, mais aussi le risque qui y est associé.

SAS fait cela depuis longtemps, Forecast Pro le fait, et même Forecast X, mais c’est largement ignoré. Alors, pourquoi est-ce ignoré ? Nous devrions probablement discuter des raisons pour lesquelles les planificateurs de la demande ne comprennent pas les prévisions par intervalles. Ce serait intéressant. L’autre point que vous avez mentionné, et que je trouve également pertinent, c’est qu’il existe souvent un décalage entre le demand planning et la planification des stocks, la planification du supply network et la planification de la production, ce qui pourrait être bénéfique pour aboutir à une solution holistique.

Mais si vous envisagez les grandes entreprises multinationales, je pense que les processus sont établis de sorte que vous prenez des décisions impliquant des dizaines de milliers d’employés qui interviennent tous sans partager librement leurs connaissances. Et troisièmement, nous devons réfléchir à ce que nous considérons comme tel. Je pense que nous avons tous des horizons différents en matière de demand planning. Je viens du secteur industriel multinational, vous savez, peut-être de compagnies de transport multinationales, de biens de consommation à rotation rapide, de l’industrie pharmaceutique. Vous avez probablement une vision et une expérience plus orientées vers le retail, où ces éléments peuvent être regroupés.

Mais ce que nous constatons, c’est qu’il existe de très bons livres de Charlie Chase de SAS. Je crois qu’il a écrit sur le supply planning orienté par la demande. Il s’agit de la réconciliation entre l’offre et la demande. C’est autant un processus de partage d’informations et d’attentes que de gestion des risques, précisément la gestion des risques sur un horizon à long terme dans le S&OP (environ 6 à 18 mois). Le S&OE couvre une période de un à quatre mois, et ce partage d’informations peut également s’avérer inestimable, quel que soit le résultat final d’une prévision à une seule valeur.

Je ne dis pas qu’il faille tout refaire en matière d’intégration de la prise de décision. Mais je pense que le demand planning remplit plusieurs fonctions. Toutefois, dans l’intérêt de notre discussion, nous nous concentrons aujourd’hui sur l’automatisation. Peut-être que l’IA est utilisée dans le cadre de l’automatisation et que nous nous focalisons principalement sur la précision. Mais très peu de personnes s’intéressent réellement au partage d’informations. Il existe quelques articles intéressants sur la robustesse des prévisions. Je veux dire, que se passerait-il si vous modifiez constamment votre prévision avec un modèle de machine learning très réactif, et que la planification de la production déraille parce qu’elle cumule sur le lead time, conduisant à un surstock ou un sous-stock, et que vous lancez des ordres de production ?

Donc, je pense que si nous pouvons nous concentrer peut-être sur le processus de demand planning et sur la contribution de la prévision dans ce processus – car les autres aspects relèvent du supply planning, de la planification du réseau, de la planification de la production – cela rendrait notre discussion plus difficile. Mais je suis tout à fait d’accord avec vous sur le fait que ce serait un point important.

Alexey Tikhonov: Permettez-moi un court commentaire. Oui, mon point de vue n’est pas que nous ayons besoin d’un meilleur partage d’informations ou d’une meilleure prévision. Mon point de vue est que nous devons automatiser complètement la partie décisionnelle. Nous ne devrions pas laisser les praticiens de la supply chain être impliqués dans le processus de prévision, car les supply chains sont extrêmement complexes. Nous parlons d’entreprises telles que, même si vous prenez des entreprises de taille moyenne avec un chiffre d’affaires de 100 millions, dans le retail elles auront des dizaines de milliers de SKUs, des centaines de magasins. Vous multipliez l’un par l’autre et pour chaque emplacement de SKU, vous devez prendre une décision quotidiennement.

Même si vous disposez de cycles décisionnels prédéfinis tels que “Je prends cette décision une fois par semaine”, il est préférable de recalculer ces décisions chaque jour. Pourquoi ? Parce que la capacité humaine est limitée. Il faut qu’un ordinateur vérifie, par exemple, “D’accord, s’il y a un pic de demande, il vaut mieux que je le sache avant mon cycle décisionnel habituel, car je m’attends à ce que la demande soit plus homogène.” Vous devez donc reproduire ces décisions quotidiennement, même si la grande majorité de ces décisions seront triviales, à savoir “nous n’effectuons pas d’achat aujourd’hui.”

La capacité humaine est très limitée et, lorsque nous parlons de partager des informations entre humains, nous perdons du temps. Nous devons automatiser autant que possible. Nous devons être capitalistes. Nous devons construire des actifs, des robots de prise de décision. Ce n’est qu’alors que nous pourrons tirer de la rentabilité de nos supply chains.

Nicolas Vandeput: Pourriez-vous revenir un instant sur ma diapositive ? J’aimerais structurer cela. Je vais donc partir de mon cadre de référence et je souhaiterais le rendre encore plus extrême pour poursuivre la discussion à partir de là. Je pense que nous sommes tous d’accord sur le fait que nous ne faisons des prévisions que parce que nous voulons prendre d’excellentes décisions. Et nous dirions, eh bien, peut-être que ce type de prévision serait meilleur, ce type de prévision, cette granularité, cet horizon, une prévision ponctuelle, etc. Mais nous sommes tous d’accord sur le fait que nous faisons des prévisions parce qu’à un moment donné, nous devons prendre une décision.

Alors, pourquoi sommes-nous tous si enclins à l’automatisation ? C’est parce que nous devons réaliser tant de prévisions et prendre tant de décisions à grande échelle, et nous ne voulons pas de variabilité. Avec un humain, il y a un problème de variabilité. Il y a l’enjeu qu’il faille réaliser d’innombrables prévisions et décisions, et ainsi de suite. Pour moi, les prévisions se résument à combien d’informations vous pouvez traiter et à la qualité avec laquelle vous traitez ces informations. Je souhaite donc disposer d’un modèle le plus performant possible pour traiter un maximum d’informations.

La technologie dont nous disposons pourrait changer dans 10 ans. Nous pourrions avoir un modèle unique capable de gérer toutes les informations disponibles dans le monde. Prenons un exemple très simple, la pandémie de COVID-19. Imaginons que nous sommes à la mi-mars 2020. Si vous disposez d’un moteur de prévision, même avec la meilleure technologie d’apprentissage dont nous disposons aujourd’hui, vous savez, en tant qu’humain, que la COVID va arriver et que l’état du monde et de la ville changera dans les semaines qui suivent. Votre modèle n’en est pas informé.

Maintenant, vous pourriez avoir une prévision ponctuelle, ou bien une prévision probabiliste, mais vous, en tant qu’humain, devez tout de même enrichir et réexaminer celle-ci, car vous avez accès à des informations auxquelles votre modèle n’a pas accès. Pour moi, la question de savoir s’il doit s’agir d’une prévision ponctuelle n’a aucun intérêt dans ce débat, car la conclusion reste la même. Il s’agit de fournir autant d’informations que possible à votre modèle.

Et si vous ne pouvez pas fournir certaines informations à votre modèle, alors il est temps qu’un humain vienne les enrichir. C’est pourquoi il est toujours judicieux d’avoir un dernier humain capable de réexaminer une décision ou une prévision en se basant sur des informations que le modèle ne peut pas traiter.

Sven Crone: Je pense que nous parlons de secteurs différents ici. Lorsque nous examinons le demand planning, je suis entièrement d’accord avec toi : si tu es dans le retail et que tu dois prendre des dizaines de milliers de décisions chaque jour, alors il te faut un degré significatif d’automatisation.

Mais nous travaillons avec des retailers au Royaume-Uni depuis un certain temps et même là, des ajustements sont effectués au niveau des assortiments pour des éléments où régne l’incertitude, comme les effets des intempéries extrêmes ou l’impact des fermetures COVID sur le gel douche par rapport au papier toilette en Allemagne.

Mais si vous regardez, par exemple, un fabricant pharmaceutique qui possède peut-être de deux à 400 produits phares, ceux-ci sont tout à fait gérables par un humain. Je veux dire, comment se font toutes ces entreprises ? Nous avons mené des enquêtes et environ 50 % d’entre elles utilisent des mesures statistiques très simples. Elles s’en sortent, elles sont rentables, elles se développent, elles sont agiles dans leur Supply Chain, et elles ont toutes intégré le S&OP.

Il y a donc toute une gamme de problèmes que nous rencontrons et je pense que c’est l’une des choses que j’apprécie toujours lors de cette conférence. Toutes ces différentes approches de prévision se rejoignent. Nous avons des intervenants qui nous montrent la charge électrique pour les compteurs intelligents. Oui, vous avez des centaines de milliers de compteurs intelligents avec des prévisions minute par minute, une intervention humaine n’est tout simplement pas envisageable.

Mais si vous avez très peu d’articles importants, que vous, vous savez, maîtrisez réellement — disons dans une entreprise pharmaceutique, par exemple, nous avons analysé les vaccins qui sont bien connus — je pense qu’il existe différentes approches du demand planning.

Ce que nous faisons en prévision est aussi hétérogène que le sont les produits et les marchés, et c’est là toute la beauté du processus. C’est pourquoi nous nous retrouvons tous au bar pour discuter de prévision, nous abordons des sujets totalement différents. Mais je suis entièrement d’accord avec toi, donc si nous parlons du retail, je suis sûr que l’automatisation est faisable.

Nous avons convenu de ne pas être d’accord sur le fait que le monde serait assez grand pour accueillir tous les différents logiciels afin de disposer de solutions spécialisées. C’est pourquoi de grandes entreprises comme SAP ont des solutions spécialisées pour le retail, qui fonctionneront différemment de celles destinées aux biens de consommation ou à l’industrie pharmaceutique, par exemple. Je pense donc que nous sommes d’accord, même si nos points de vue diffèrent.

Conor Doherty: Alex, souhaites-tu commenter ?

Alexey Tikhonov: Juste un petit commentaire. Je ne peux pas être d’accord avec l’affirmation selon laquelle il faudrait que les gens interviennent dans le processus de prévision. Là où ils peuvent apporter de la valeur, c’est au niveau des entrées de ce moteur de décision, afin de clarifier la sémantique des données, d’apporter davantage de données, d’expliquer à l’ingénieur qui conçoit tous ces algorithmes ou ce moteur de décision comment les données sont utilisées dans l’entreprise, pour qu’il ait une meilleure compréhension d’ensemble.

Et ensuite, ils peuvent ajouter de la valeur en vérifiant les décisions générées par le moteur de décision, et en identifiant, selon eux, ces décisions insensées ou inexactes, puis en revisitant cette recette numérique pour découvrir ce qui ne va pas. Quelles sont les hypothèses erronées ? Pourquoi prend-il la mauvaise décision ? Car si ils interviennent entre-temps, ils touchent à la prévision ou passent outre la décision, ce qui revient à consommer des ressources au lieu de les investir. Tu dois avant tout examiner comment améliorer cette robotisation car, si tu le fais manuellement, tu perds du temps.

Et tu devrais commencer par les décisions, d’ailleurs, et non par la prévision. Parce que, disons, si j’avais une MOQ de 100 unités et que tu venais vers moi en disant, “Oh, maintenant j’ai une meilleure prévision. Au lieu de 50 unités de demande, il y en a 55.” Eh bien, j’ai toujours une MOQ, donc, de mon point de vue, les deux prévisions sont en quelque sorte sans importance, malgré le fait que, oui, l’une soit plus précise. Je prends toujours la même décision, et le fait que tu aies investi plus de ressources pour produire une prévision potentiellement plus précise et plus coûteuse en calcul ne change rien.

C’est pourquoi je suis contre le fait de modifier manuellement les étapes du processus. Il faut revoir l’ensemble de la recette afin d’améliorer l’automatisation pour la rendre plus robuste, plus fiable et plus cohérente.

Sven Crone: C’est dommage que nous n’ayons pas eu, auparavant, la discussion de Robert et Paul — qui examinaient sans doute, l’après-midi, le forecast value add —, car nous avons de nombreuses preuves qu’en complément des méthodes statistiques avancées, le jugement peut apporter une valeur ajoutée significative.

Et je pense que la question posée aujourd’hui est la suivante : le machine learning peut-il surpasser la valeur ajoutée des statistiques et du jugement, ou est-ce la même chose ? Ensuite, je trouve que la question du total cost of ownership est pertinente, n’est-ce pas ? Lequel est le plus efficace ?

Je suis sûr que Nicolas a de nombreux exemples que tu as évoqués ou rapportés, où tu automatises réellement le processus entier, ce qui apporte plus de valeur que de procéder à des ajustements fondés sur le jugement. Mais passons peut-être à la question suivante.

Conor Doherty: Eh bien, en réalité, c’est plutôt une transition, une sorte de relais. C’est pour avancer vers ce que je pense être la question fondamentale, car en t’écoutant, il ne s’agit pas d’un désaccord purement instrumental, mais d’un accord global malgré quelques divergences.

Et en réalité, je vais commencer avec toi, Nicolas. Quelque chose que tu as dit plus tôt — pardonne-moi si je paraphrase mal —, c’est que nous utilisons la prévision pour prendre de meilleures décisions. Cela signifie que la prévision est un instrument au service d’un processus plus large, ce qui soulève alors la question : où réside la valeur ?

Parce que si tu utilises la prévision comme outil pour accomplir quelque chose de plus grand, où se trouve la valeur ? La valeur réside-t-elle dans l’outil qui construit la maison ou dans la structure de la maison ? Dans cette analogie, la maison représenterait la décision.

Nicolas Vandeput: Je pense que tu as deux questions importantes concernant la prévision. La première est : ta prévision est-elle précise ou non ? Et encore, nous pourrions débattre de la manière de mesurer la précision – des débats très intéressants, mais ce n’est pas le sujet d’aujourd’hui. Imaginons simplement que la première étape consiste à évaluer à quel point elle est précise ou bonne.

La deuxième question est la suivante : à partir d’une prévision donnée, à quel point ton entreprise est-elle capable de prendre la bonne décision ? Malheureusement, l’équipe en charge de ces décisions est différente, avec des entrées, des sorties et des KPIs différents.

De point de vue de la Supply Chain, je ne blâmerais pas les prévisionnistes ou ceux qui conçoivent le moteur de prévision pour de mauvaises décisions ou pour des KPIs liés aux décisions, car ils ne contrôlent rien à ce sujet. Par ailleurs, tu peux avoir une prévision très médiocre et un décideur qui a eu de la chance ou qui est extrêmement doué pour prendre de bonnes décisions malgré cette prévision.

Ainsi, tu pourrais obtenir de très bons KPIs, des KPIs business. Encore une fois, nous pourrions discuter de la pertinence de tel ou tel KPI, mais nous pourrions les observer dans des directions différentes. Pour ma part, lorsque j’évalue une prévision, je ne regarde pas le résultat commercial. Je me concentre uniquement sur la précision de la prévision, car je sais que le résultat commercial peut être influencé par tant d’autres facteurs qui échappent totalement à ceux qui réalisent la prévision, qu’ils soient machines ou humains.

Ce qui est très intéressant, et ce que j’ai simulé pour quelques clients, c’est qu’en fonction de la qualité de votre prévision — encore une fois, nous pourrions débattre de la manière de mesurer la précision —, et notamment en fonction du biais, par exemple, si vous êtes très optimiste, en cas de sous-prévision, ou si vous disposez d’un outil correctement calibré, je l’espère, le moteur d’l’optimization de la supply chain qui en résulte pourrait adopter une politique très différente.

Ainsi, la politique optimale ou la meilleure manière de prendre une décision pourrait changer en fonction de la qualité de la prévision. Cela signifie également que si aujourd’hui tu passes d’une prévision qui surestime tout de manière extrême parce que ton processus est fortement biaisé politiquement, à une prévision réalisée via machine learning, tu dois en même temps revoir la manière dont tes décisions de Supply Chain sont prises.

Les gens se fient à l’outil du processus. Historiquement, la prévision était toujours 30 % trop élevée. Donc, si tu modifies cela maintenant, tu dois aussi changer le processus de supply. Les deux doivent être intégrés. Mais d’un point de vue Supply Chain, j’évaluerais les KPIs aussi indépendamment que possible.

Conor Doherty: Merci. Sven, quelles sont tes réflexions ? Pour réitérer la question : si la prévision est un outil pour accomplir autre chose, où attribues-tu la valeur ? Est-ce dans la qualité de la décision ou dans celle de la prévision ? Définis-les comme tu l’entends.

Sven Crone: Je pense que nous avons déjà abordé ce point. Pour moi, le demand planning — ou selon la définition de Gartner et le processus d’Oliver Wight — se conçoit d’un point de vue industriel. Prenons l’exemple des industries pharmaceutiques ou de la grande consommation : elles se projettent généralement sur des horizons bien plus longs que ceux que tu examines. Elles envisagent, disons, de 6 à 18 mois. Les décisions coûteuses sont celles de stratégie. Tu identifies des plans à long terme, tu définis des prévisions, tu réalises des activités de réduction d’écart, tu tentes de réconcilier l’offre et la demande sur un horizon bien plus long. Tu ne disposes pas d’informations promotionnelles, ni d’informations météorologiques, ni d’informations sur les disruptions. Ainsi, cela s’inscrit pleinement dans une planification basée sur des scénarios et une planification end-to-end de scénarios qui doivent se matérialiser en certaines positions de stocks.

Mais cela concerne une position à long terme. Si l’on en croit, je pense que la majorité des industries maintiennent encore une période gelée d’environ trois mois. Autrement dit, nous nous concentrons sur l’horizon en dehors de cette période. Le S&OE, quant à lui — qui a récemment été adopté par Gartner — aborde cela de manière très différente. Pour l’horizon à long terme, la transparence et la communication sont des éléments importants pour se préparer à des changements de budgets, pour réaligner les budgets, pour réconcilier volume et valeur. C’est un processus très agrégé : on se penche sur des niveaux élevés de la hiérarchie, sur les marchés, sur les canaux, mais pas sur des produits individuels.

Ensuite, tu te retrouves dans le travail quotidien, et c’est le S&OE. Dans le S&OE, je suis d’accord, tu as des décisions automatisées, des décisions standardisées, la précision est primordiale, tout comme la transparence — souvent négligée — ou encore la robustesse. Mais je pense que 85 % de toutes les présentations à cette conférence parlent de précision. Il existe même une session entière consacrée à la robustesse, ce qui est appréciable. Cependant, je pense que l’innovation la plus importante pour mesurer l’ensemble du processus est le forecast value add. Il s’agit vraiment de prendre les différents constituants et d’examiner comment ils apportent de la valeur. C’est une vision très orientée vers le management, car tu souhaites investir des ressources là où la valeur est créée.

Malheureusement, cela n’intègre pas des aspects comme la gestion des master data, qui est difficile à mesurer. Cela n’inclut pas non plus des éléments tels que le data cleansing, que je considère comme indispensable pour que quoi que ce soit fonctionne en prévision statistique. Et cela se focalise uniquement sur l’humain à la fin du processus. Nous avons du mal à mesurer le value add, car, en termes de précision de prévision — souvent pondérée par le coût et le volume pour obtenir une vue d’ensemble —, on se demande si l’on prend réellement les meilleures décisions avec des indicateurs d’erreur que les universitaires n’oseraient même pas aborder. Ce qu’ils examinent réellement, c’est la valeur ajoutée. Pourtant, de nombreux demand planners font le choix d’un algorithme statistique dans l’outil. Ils peuvent passer outre ce choix, mais la valeur est attribuée à l’algorithme statistique. Je pense donc que le jugement possède une grande valeur aujourd’hui et qu’il est mesurable. Par ailleurs, la majorité des entreprises s’en est déjà emparée, et le value add est un bon outil à cet effet. Et encore une fois, je regarde le long terme et bien moins le court terme, où la performance des stocks devrait être prise en compte, etc.

Conor Doherty: D’accord, merci.

Alexey Tikhonov: Je pense que lorsque nous parlons d’améliorations potentielles de la précision de la prévision et que nous nous référons au processus du forecast value add, nous nous embrouillons dans les termes, car le meilleur intitulé serait « forecast accuracy added » et non valeur. Car pour moi, la notion de valeur évoque immédiatement une perspective financière. Et la perspective financière est guidée par les décisions. Les résultats de ton entreprise dépendent uniquement des décisions que tu prends et de la façon dont tu les exécutes. Il n’y a donc rien d’autre dans cette perspective, seulement des décisions et leur bonne exécution.

Lorsque nous considérons les décisions — par exemple, j’ai une première prévision qui me conduit à prendre la décision A, et une seconde prévision, plus précise (dont je connais la différence) — la question est de savoir si cette prévision différente et plus précise me conduit à prendre une décision différente. Sinon, c’est inutile, malgré sa plus grande précision. Ainsi, en dépit d’une valeur apparente meilleure, nous nous retrouvons avec un résultat net négatif d’un point de vue financier. Et, si la décision change, comment évaluer cette divergence — ce changement, ce passage de la décision A à la décision B —, c’est-à-dire combien de profit supplémentaire est généré par rapport à la différence d’investissement en ressources ? Pour moi, c’est une question ouverte. Nous pouvons utiliser les deux modèles de prévision pour évaluer le rendement potentiel des deux décisions, mais cela reste de la spéculation, car nous n’avons pas deux univers alternatifs pour tester deux décisions. Finalement, nous devons n’en retenir qu’une seule.

Et de plus, la valeur d’une décision ne dépend pas uniquement de la prévision en elle-même. D’autres considérations interviennent, telles que les leviers décisionnels. À titre d’exemple, nous travaillons avec Air France, pour leur branche MRO de pièces détachées d’avions. Tout récemment, nous avons mis en place avec eux un moteur de décision, et il y a eu un achat massif déclenché par un robot qui a commandé plusieurs dizaines — je crois — d’unités d’alimentation auxiliaire pour un avion, pour un montant total de plusieurs millions d’euros, déclenché par un robot. Et les gens se sont exclamés : “Oh, il doit y avoir une erreur.” Mais lorsqu’ils ont commencé à inspecter, il s’est avéré que quelqu’un, de l’autre côté, avait commis une erreur et fixé le prix bien en dessous de la moyenne du marché. Le robot a détecté cela et a immédiatement exécuté les ordres d’achat. Cela n’a rien à voir avec la précision de la prévision, mais cette décision a une valeur énorme.

Vous voyez, nous nous concentrons sur la précision des prévisions, mais il y a tellement d’autres éléments qui peuvent influencer la valeur de la décision. Ainsi, je pense que lorsque nous parlons de valeur monétaire, nous ne devrions pas nous focaliser uniquement sur les prévisions. Nous devrions examiner l’ensemble du processus par lequel nous établissons des décisions, ce qui est pris en compte, quel est notre processus de décision, quelles choses sont importantes et lesquelles sont de moindre importance.

Sven Crone: Juste pour ajouter, je suis d’accord, et vous avez déjà mentionné lors du premier tour qu’il devrait y avoir une décision concernant les stocks, puis qu’il faudrait l’évaluer sur le plan des décisions de stocks. Et je pense qu’en toute équité, dans le milieu académique, la majorité des personnes – ou l’ensemble des revues – considèrent cela comme une bonne pratique, voire comme la pratique minimale. Ainsi, si vous consultez les revues d’économie de la production et de l’ISER, la société de stocks, cela est considéré comme une bonne pratique. Vous verrez ici de nombreuses présentations d’universitaires qui mesurent en fait le coût de la décision sur des courbes de compromis entre le taux de service et les délais, et qui indiquent également le coût des stocks y afférent. C’est quelque chose que je ne constate absolument pas en pratique.

Il est très difficile de le faire en pratique, c’est dur, mais c’est possible. Il faut, bien sûr, faire des hypothèses. La supply chain est complexe, mais je suis entièrement d’accord avec vous. Le coût de la décision devrait être satisfaisant. Mais cela nous ramène à Granger 1969, les fonctions de perte asymétriques. Nous n’avons généralement pas le coût de la décision, donc nous devons faire, nous devons supposer quelque chose. Ce que je perçois comme un énorme manque, et peut-être une omission, c’est que cette communauté n’a pas réussi à établir le lien entre la précision des prévisions, quelle que soit la méthode de mesure, et le coût de la décision qui y est associé.

Nous avons donc effectivement mené un projet de recherche. Très peu d’entreprises – Johnson and Johnson en a réalisé un dans le passé. Ainsi, un point de pourcentage d’amélioration de la précision des prévisions, typiquement évalué par le MAPE pondéré par les coûts, équivaut à 8 millions de dollars américains en coût de production accélérée des stocks de produits finis et dans les centres de distribution, etc. Ils avaient toute une démarche pour établir cela. Nous avons récemment présenté une étude où nous avons réalisé une simulation bottom-up avec TESA. Il existe quelques calculateurs sur le web auxquels je ne fais pas totalement confiance, mais je pense que c’est important de constater que les erreurs de prévision coûtent cher, uniquement à cause de la décision concernant les stocks de sécurité et les stocks dans l’étape immédiate, sans même aborder la planification de la production, l’approvisionnement en matières premières et les décisions à long terme.

Donc, je pense que c’est une omission réelle. Voilà pourquoi je pense que les équipes de planification de la demande dans les entreprises sont encore trop petites. Si elles savaient combien leurs décisions étaient coûteuses, à quel point les prévisions sont précieuses, nous verrions beaucoup plus de ressources allouées à ce domaine. Mais, et d’ailleurs, TESA, c’était approximativement – bien sûr, cela dépend de la taille de l’entreprise – nous n’avons pas le droit de divulguer le chiffre, l’équivalent d’une Bugatti Veyron. Les Bugatti Veyron ont un prix très fixe, donc c’est 1,5 million par point de pourcentage d’exactitude en stocks, en traduction directe. Et nous travaillons actuellement avec quelques autres entreprises pour établir cela, compte tenu des modèles de stocks inférieurs. Mais c’est vraiment quelque chose d’important. Vous résolvez le problème directement et vous leur montrez le coût de la décision. Mais lorsque le processus est découplé, vous pouvez quand même le faire. Et je pense que c’est le chaînon manquant. Mais je suis entièrement d’accord. Le coût de la décision ou des stocks serait idéal. Les stocks constituent un lien direct qui peut et doit être établi, et c’est ce que font les universitaires.

Conor Doherty: Je veux aller de l’avant et rassembler certains points qui ont été soulevés, notamment concernant les hypothèses. Je veux dire, si c’est une hypothèse émise par un planificateur de la demande du genre « Oh, c’est faux, je dois faire une modification manuelle », c’est une hypothèse. Une hypothèse intervient dans l’établissement d’une prévision ou d’un modèle automatisé. Ce sont donc des distinctions. Les roses, quel que soit leur nom, restent des roses, mais ma question est la suivante : est-il raisonnable d’attendre, de la part de la direction, c’est-à-dire des personnes non formées aux sujets dont nous parlons aujourd’hui, qu’elles aient le même niveau de confiance dans l’automatisation, comme une prévision générée automatiquement, par opposition à une prévision qui a transité par votre bureau, par exemple ? Et je dis pardon, ou par le bureau de Nicolas, ou d’Alex.

Nicolas Vandeput: Si cela ne vous dérange pas de revenir à mon diaporama, la question la plus fréquente, si je devais la résumer en quelques mots, est : « Comment puis-je faire confiance au machine learning ? » Et vous pourriez remplacer « machine learning » par « outils statistiques ». J’aime reformuler cette question ainsi : « Ouais, mais comment faire confiance aux humains ? » Car les gens se demandent : « D’accord, Nicolas, comment puis-je te faire confiance ? Comment puis-je avoir confiance en ton machine learning ? » Et je réponds : « Comment pouvez-vous avoir confiance en votre équipe ? » Et c’est, je pense, la véritable question. Pour moi, il n’existe qu’une seule manière de suivre cela et d’y répondre. On appelle cela la valeur ajoutée des prévisions. L’idée est vraiment la suivante, je vais essayer de l’expliquer en quelques phrases à nouveau. Vous voulez suivre la précision de chaque étape de votre processus. Cela peut être un humain, une machine, ou une information provenant de votre client, la prévision émanant de votre client. À chaque étape, vous allez mesurer la précision avant et après l’étape.

En faisant cela, et je vous conseille également de comparer la précision globale de votre processus à un référentiel statistique, qui pourrait être n’importe quel modèle simple que vous pouvez trouver gratuitement. En procédant ainsi sur plusieurs semaines, mois ou jours, en fonction de votre horizon, vous pouvez véritablement démontrer qu’une partie de votre processus – qu’elle soit humaine ou automatisée – apporte de la valeur et est précise. C’est la seule manière de le faire. Et j’irais même jusqu’à dire que, si vous ne le faites pas, c’est comme si vous n’aviez pas les lumières allumées dans la pièce. Vous êtes dans le noir. Vous n’avez aucune idée.

Et lorsque des entreprises me contactent pour mener des projets d’amélioration de la planification de la demande, la première question est : « Suivez-vous la valeur ajoutée des prévisions ? » Parce que, si ce n’est pas le cas, il n’y a aucun moyen de savoir si mon modèle apporte de la valeur et si nous faisons bien ou mal. C’est donc la première étape pour répondre à la question : « Comment savez-vous si je peux avoir confiance dans le machine learning ? » C’est la même question que : « Comment savez-vous si vous pouvez avoir confiance en vos collaborateurs ? » Et la réponse est : vous devez suivre la valeur ajoutée des prévisions.

Alexey Tikhonov: Je pense qu’il est important de se concentrer sur les décisions. Comment puis-je avoir confiance en une prévision ? Je ne sais pas si une prévision est bonne ou mauvaise tant que je ne vois pas la décision qu’elle recommande, quelles décisions j’en déduis. Et, de ce point de vue, les humains, les praticiens, ont souvent une très bonne intuition. Si vous prenez des décisions absurdes, ils vous le signaleront et vous expliqueront pourquoi. Par exemple, si votre bon de commande est trop élevé, ils vous indiqueront ce qu’il devrait être, l’ordre de grandeur d’un bon achat, et pourquoi ils pensent ainsi. Donc, suivre la précision des prévisions, oui. Faire intervenir des humains pour des modifications manuelles de prévisions, comme je l’ai déjà dit, est assez gaspillé, pratiquement, car ces interventions ont des durées de validité très courtes.

Vous pouvez intervenir, mais cela ne dure pas, par exemple, une année de plus. Cela aura probablement un impact sur votre prochain bon de commande, mais pas sur celui qui suit. Vous faites donc intervenir une ressource très coûteuse, une ressource très peu fiable, car nous devrions également discuter – même si nous manquons de temps – du processus derrière ces modifications manuelles des prévisions. Elles sont de nature semi-quantitative. Il n’existe pas de processus rigoureux, comme celui d’une prévision générée automatiquement, où l’on peut inspecter, décomposer et identifier ce qui ne va pas si quelque chose cloche. Vous devez donc automatiser autant que possible. Et comment gagnez-vous la confiance ? Eh bien, de la même manière que vous faites confiance à votre application météo. Si elle produit des prévisions cohérentes, si elle indique qu’il y a de fortes chances qu’il pleuve, et effectivement, la plupart du temps, il pleut quand elle prévient de la pluie. Ou encore avec d’autres technologies comme les filtres anti-spam.

Imaginez quand ils ont été introduits dans les clients de messagerie. Nous consultions très fréquemment le dossier spam parce que le pourcentage d’emails mal classés était assez élevé. De nos jours, je ne consulte le dossier spam que lorsque je sais qu’une personne qui n’est pas encore dans ma liste de contacts m’a envoyé un email et que je ne l’ai pas reçu. Je vais alors vérifier, et oui, il est là, et je clique sur « ce n’est pas un spam », et il ne finira plus jamais en spam. Vous voyez, la confiance se gagne avec le temps, et il faut un processus. Nous appelons cela l’optimisation expérimentale, lorsque vous peaufinez ce moteur de décision. Une fois qu’il commence à produire des résultats cohérents, tout ce que vous avez à faire, c’est de suivre les indicateurs. Oui, vous suivez la précision des prévisions. S’il change drastiquement, vous aurez besoin d’un ingénieur pour inspecter, avec des praticiens, ce qui se passe en coulisses. Mais vous ne devez jamais intervenir manuellement dans ce pipeline de décision. Vous voulez réparer ce qui est cassé, puis le laisser fonctionner, un peu comme vous le faites avec des machines. Vous effectuez de la maintenance, puis vous conduisez votre voiture.

Sven Crone: Oui, je pense que la confiance est une question importante, n’est-ce pas ? En regardant les 10, 20 dernières années, de nombreuses entreprises ont tenté de se lancer, par exemple dans le contexte des prévisions avec la prévision statistique. Et pourquoi y a-t-il un tel scepticisme ? Pourquoi tant d’entreprises ont-elles commencé et arrêté, commencé et arrêté, commencé et arrêté ? Nous connaissons tous le surapprentissage. Nous savons tous comment nous menons ces expériences en bac à sable avec toutes les variables futures, où il faut être particulièrement prudent lors de la conception d’une preuve de concept, puis dans une étude pilote, en les exécutant en parallèle plutôt que de les brûler. Et en effet, la majorité, avec autant de degrés de liberté, de méta-paramètres et d’indicateurs avancés leading indicators qui peuvent se retrouver dans n’importe quelle décomposition, il est très, très facile de promettre un niveau de précision qui ne se matérialise pas par la suite. Nous avons promis une certaine précision, puis le COVID est arrivé, et la direction ne comprenait pas pourquoi nous n’atteignions pas ce niveau de précision. Pour nous, c’était clair. Pour eux, ce ne l’était pas. Mais je dis, vous savez, la confiance a été perdue.

La confiance – je ne pense pas, généralement, que l’acceptation de la technologie soit un sujet dans les systèmes d’information, n’est-ce pas ? L’acceptation de la technologie est un problème majeur. Il existe des conférences entières qui analysent comment transmettre cela. Et je pense qu’une des clés réside dans l’acceptation générale de la technologie. Par exemple, la plupart d’entre nous serions sceptiques à l’idée de prendre une voiture autonome à San Francisco, du moins lors des premières fois. Peut-être pas, mais dans environ 20 ans, tout le monde s’en réjouira. Donc, comme vous l’avez mentionné – la facilité d’utilisation, le fait de ne rien voir se passer, etc. – c’est ainsi que l’on peut instaurer la confiance. Il faut également communiquer. Mais je ne pense pas que la réponse soit l’IA explicable. Tout le monde part expliquer que l’algorithme doit s’expliquer lui-même. J’ai essayé d’expliquer avec acharnement ce que fait un facteur gamma de 0,4 appliqué à douze indices saisonniers évolutifs, n’est-ce pas ? Aucun manager ne comprend cela. Mais le manager au sommet doit, vous savez, prendre la décision finale. Fait-il confiance à cet investissement significatif dans les stocks ? Fait-il confiance à son équipe pour travailler de manière efficace et efficiente ?

Et je pense que, pour cela, nous avons perdu beaucoup de confiance dans les statistiques, peut-être à cause de certaines implémentations logicielles inférieures qui étaient à la pointe à l’époque, mais qui ne l’ont pas été – certaines d’entre elles étant sur-paramétrées à un moment donné. Il existe de nombreuses preuves sur la sélection de modèles. Ainsi, beaucoup de ces innovations n’ont pas été adoptées, mais plutôt par des entreprises plus jeunes et innovantes. Un exemple intermédiaire qui a permis de renforcer la confiance en médecine, par exemple, est une étude de cas incroyable sur la détection du cancer du sein à partir d’images. La machine, l’algorithme, était nettement plus précis, avec un taux de vrais positifs beaucoup plus élevé et un taux de faux positifs bien plus faible, avec un coût incroyable en vies humaines associé. Et les médecins ne l’adoptaient pas. Rien qu’en 1980, ils n’adoptaient pas certains processus de décision parce qu’ils n’avaient pas confiance en eux. Ils se faisaient plus confiance qu’aux autres.

Les solutions que nous développons actuellement – lorsque l’IA peut corriger les valeurs aberrantes – mettent en avant la valeur aberrante dans la planification de la demande. L’IA peut effectuer une sélection de modèles, mais nous préférons mettre en lumière le classement de ce que nous jugeons significatif. Nous essayons d’expliquer ce que nous observons dans les données, par exemple en indiquant que ceci est très saisonnier et qu’il présente une perturbation. Ainsi, cette approche augmentée, également destinée aux médecins, ne se contente pas de fournir une classification ; elle met en évidence sur l’image l’endroit où le cancer est probablement détecté et, non seulement elle donne une réponse binaire (cancer ou non), mais elle fournit également une probabilité qu’il s’agisse d’un cancer, ce qui permet, dans des situations critiques, de trier par probabilité et de ne pas se contenter d’examiner uniquement celles qui sont clairement cancéreuses ou clairement non cancéreuses, mais d’analyser celles qui restent incertaines. et c’est là que les médecins pouvaient réellement mettre à profit leur expertise, menant soudainement à une adoption massive.

Donc, je pense que cela a beaucoup à voir avec la conception des systèmes, la conception du processus de décision, et que tout ne relève pas de l’automatisation, car nous avons ABC et XYZ et new products et des produits finis, vous savez. On ne peut pas – ou ne devrait pas – tout automatiser, mais automatiser certaines parties avec l’IA, d’autres avec des méthodes très simples et possiblement transparentes, et d’autres encore avec des algorithmes robustes. Mais je pense que, pour l’instant, compte tenu du niveau actuel d’acceptation et de scepticisme envers la technologie, bien que nous aimions tous GPT pour organiser notre prochaine fête d’anniversaire, l’IA augmentée constitue probablement une bonne étape pour obtenir l’adhésion, et ensuite nous pourrons entièrement automatiser avec l’IA.

Conor Doherty: Commentez cela. Eh bien, pour rebondir sur ce point, car encore une fois, vous avez tous soulevé d’excellents arguments. Mais je veux simplement démêler l’une des comparaisons. Je pense qu’Alexey, tu as donné l’exemple de l’utilisation d’une application de prévision météo – et justement, la météorologie repose depuis longtemps sur la prévision probabiliste – puis tu l’as comparé à un véhicule autonome, ou du moins l’as comparé indirectement. Je propose de reprendre cet exemple pour poser une question. Ainsi, selon l’exemple d’Alex, si tout le monde dans la salle apprenait qu’il faut partir en vacances la semaine prochaine et que votre unique destination est les Bermudes, alors que la prévision météo annonce un tsunami la semaine prochaine, allez-vous dépenser votre propre argent ? Allez-vous investir financièrement votre temps, vos efforts et votre énergie pour prendre l’avion vers les Bermudes ? La plupart des gens diraient non. Maintenant, adoptez exactement la même perspective, c’est-à-dire financière et basée sur la prévision probabiliste, regroupez toutes ces personnes dans une entreprise et dites : voici une prioritized list de décisions ajustées selon le rang et le risque, générées par un algorithme. Oh, non, absolument pas, je ne fais pas confiance à cela. Alors, est-ce une méfiance sélective ? Vos commentaires.

Alexey Tikhonov: Je pourrais faire un commentaire bref. Je pense que le véritable problème de la résistance humaine à l’adoption de nouvelles technologies, en particulier en matière d’automatisation, est la peur de devenir obsolète et d’être remplacé. En réalité, ce qui se passe généralement est tout le contraire. Oui, nous automatisons certaines tâches pour lesquelles les humains ne sont tout simplement pas financièrement efficaces. Par exemple, nous avions autrefois des traducteurs pour plusieurs langues pour traduire notre site web, puisque nous publions abondamment et, cumulativement, nous avons dépensé environ 400 000 Euros sur plusieurs années. Et maintenant, chaque fois que nous publions quelque chose, c’est traduit grâce aux LLMs.

Nous avons des programmes qui prennent une page markdown en entrée et produisent une page markdown où toute la syntaxe markdown, les shortcodes, tout reste intact et seules les parties pertinentes sont traduites dans d’autres langues. Les coûts ont chuté de manière considérable – de l’ordre de deux ordres de grandeur, c’est 100 fois moins cher qu’avant. Alors, devrions-nous payer 100 fois plus à un traducteur humain ? Non. Maintenant, avons-nous encore besoin de traducteurs humains ? Oui, par exemple, si vous voulez rédiger un document juridique, il vaut mieux utiliser un traducteur humain, car un seul mot, une seule virgule, peut vous coûter une somme considérable. Donc, avons-nous besoin de traducteurs humains ? Oui, nous en avons toujours besoin, mais dans des domaines différents, et il y aura probablement plus de demande pour des traducteurs dans ce domaine juridique qu’auparavant.

Et il en va de même pour les supply chains. Par exemple, il existe des secteurs entiers qui restent inchangés en raison du manque de ressources humaines disponibles. Très souvent, lorsque vous souhaitez passer une commande, vous ne savez pas d’emblée s’il y a un MOQ, et vous devez donc récupérer cette information. Vous pouvez faire appel aux humains, ou utiliser un copilote en tant qu’IA, mais il vous faut tout de même un humain pour extraire des informations mal structurées afin de les alimenter dans votre moteur de décision pour obtenir une décision conforme au MOQ. Je pense donc que nous avons toujours besoin d’humains, mais pour différents types de tâches qui évolueront.

Sven Crone: Je pense que vous avez souligné un aspect important concernant l’acceptation de certaines de ces techniques de traduction automatique, puisqu’elles existent depuis longtemps. IBM utilisait des réseaux neuronaux dès 1982, n’est-ce pas ? Ils étaient donc là, mais le taux d’erreur – ou le taux de traduction – était de l’ordre de 90 % d’identification. Ainsi, un humain devait intervenir pour corriger un grand nombre de lettres, de mots. Chaque dixième mot était erroné, ce qui était inacceptable car cela se situait en deçà d’un seuil jugé suffisant.

Et maintenant, si vous obtenez cette précision – sans atteindre nécessairement le niveau humain mais en dépassant un certain seuil – vous assistez soudainement à une adoption massive de la technologie. En prévision des séries temporelles, nous sommes assez coupables de cela, car nous avons vu des implémentations utilisant négligemment des modèles multiplicatifs sur des séries temporelles comportant des zéros. Et si, parmi 100 séries temporelles, 10 exemples explosent une fois par an, l’acceptation tombe à zéro, car la confiance disparaît.

Il faut donc atteindre une réelle robustesse pour permettre l’automatisation. Je pense que c’est un bon point. Nous avons généralement tenté de construire des modèles précis plutôt que des modèles robustes qui fonctionnent durablement. Les réseaux neuronaux posent toujours ce problème. De plus, nous sommes tous partiellement biaisés parce que nous sommes plutôt enclins à adopter la technologie – pas autant que mon frère cadet, par exemple, qui adore la technologie – donc il y a aussi une considération d’âge. Mais qu’est-ce qui inspire la confiance ? Je pense que lors d’une réunion de direction, je connais une très grande entreprise de logiciels qui examine activement les modèles LLM, et une décision récente a été prise. Je crois qu’Eric Wilson, de l’IBF – l’Institute of Business Forecasting – tient un blog dans lequel il affirme haut et fort que l’IA ne prendra pas en charge le processus de planification de la demande et que chacun conservera son emploi.

Mais récemment, il y a eu des exemples où, dans une salle de conseil, un modèle LLM, entraîné sur la majorité des connaissances fournies – les informations promotionnelles, les perturbations, la supply chain – a généré une prévision, et le PDG a demandé au modèle LLM pourquoi c’était le cas. Les avis divergeaient : le marketing avait un point de vue différent, la Finance un autre. Le modèle LLM était le seul capable de fournir un argument compréhensible expliquant pourquoi ce chiffre était le bon. Et je pense qu’un autre biais est en jeu, mais si vous pouvez raconter une histoire marquante, les gens y feront confiance. Cela instaure donc aussi de la confiance, même si c’est erroné.

Je pense donc que pour un planificateur de la demande, être capable d’argumenter pourquoi, dans un contexte de mille produits, assis avec le PDG, vous pensez qu’en six mois le chiffre sera doublé – alors qu’après avoir passé tout le mois à travailler sur ces nombres, à les découper, les analyser, les traduire en valeur, puis à obtenir des ajustements top-down par canal, vous obtenez un chiffre – le modèle LLM a su argumenter et c’est là, je pense, que nous verrons probablement ceux qui diront qu’un modèle LLM ne peut pas lire toutes les réunions de ventes et avec les grands comptes, qu’il ne peut pas intégrer toutes les informations du funnel, mais qu’il peut justifier le funnel, l’aligner avec les valeurs d’approvisionnement et proposer un ajustement meilleur que celui d’un humain parce qu’il peut traiter beaucoup plus de données. Je pense que c’est là que nous pourrions contourner la question de la confiance pour nous concentrer directement sur la précision. Pourtant, il existe des preuves que ces modèles peuvent instaurer la confiance en expliquant enfin ce qui se passe.

Nicolas Vandeput: Alors, je vois une question intéressante et je pense que nous avons enfin trouvé un sujet sur lequel je serai en désaccord.

La première chose que j’aimerais aborder est la gestion du changement concernant l’adoption du machine learning pour la prévision. Comme pour toute technologie, il y a des personnes totalement opposées et d’autres qui y sont plus favorables. Et je le constate sur LinkedIn à chaque fois que je publie : j’obtiens toujours quelques réactions du même bord affirmant que « ça ne marchera jamais, je ne le ferai jamais. » Vous savez quoi, j’ai simplement arrêté d’essayer de les convaincre. Très bien, restez où vous êtes et je travaillerai avec ceux qui veulent améliorer les supply chains.

J’ai travaillé avec de nombreux clients, j’ai vu d’excellents leaders, des leaders moyens, et même de mauvais leaders. Pour moi, si l’on veut mettre en œuvre avec succès un processus automatisé – nous pourrions parler de la planification de la demande par machine learning, mais il s’agit de n’importe quel processus – il faut, en tant que leader dans la salle, donner une vision claire à chacun sur le rôle qu’il occupera à l’avenir. Je reviens à la planification de la demande, mais cela s’appliquerait à tout processus. Si vous dites à votre planificateur de la demande « ton travail, et je te paye pour cela, c’est de modifier la prévision en ajustant les modèles », c’est ce que les gens feront. Et cela doit changer. Il faut que votre rôle soit de veiller à ce que les données qui alimentent le moteur de prévision de la demande soient de la meilleure qualité possible et de rechercher des informations au-delà de ce qui est fourni au modèle pour, le cas échéant, enrichir la prévision. Si vous ne faites pas cela, les gens continueront de modifier la prévision jour après jour, car ils auront l’impression qu’en l’absence de ces actions, ils ne peuvent pas justifier leur salaire. Encore une fois, pour l’adoption, il est extrêmement important de donner une vision claire, ce qui correspond à ma diapositive sur l’examen piloté par les insights et la collecte d’informations, sur ce que chacun doit faire.

Maintenant, quelque chose que j’aimerais ajouter concerne l’explicabilité. Je pense que c’est un sujet ouvert et que moi-même j’en apprends encore, mais je dirais que, pour moi, l’explicabilité n’est pas du tout indispensable. Je ne sais pas comment fonctionne une voiture, je l’utilise quand même et je n’essaie jamais d’envoyer un e-mail à Mercedes pour dire « Je n’utiliserai plus jamais cette voiture si vous m’expliquez son fonctionnement. » Je ne ferais jamais cela. Je ne comprends pas non plus le fonctionnement d’Internet, ni celui de certains dispositifs, et malgré tout, je les utilise.

Si une supply chain repose sur l’explicabilité, le storytelling ou des récits pour utiliser et avoir confiance en la prévision, vous ne pourrez jamais atteindre une échelle suffisante, car cela signifie que votre supply chain et votre processus dépendent de la capacité d’un humain à persuader les autres d’utiliser votre prévision grâce à une bonne histoire. Pour moi, il faut avoir confiance en la prévision parce que la précision – quelle que soit la manière dont vous la mesurez – est fiable et, sur le long terme, s’est avérée exacte ou a permis de prendre des décisions pertinentes. On fait confiance aux choses, aux processus, aux personnes, aux modèles parce que, quantitativement, ils sont excellents, et non parce que l’histoire a du sens. Si vous vous limitez à l’histoire, cela sera un échec. J’ai moi-même vu tant de consultants remporter des projets parce que leur histoire avait du sens, et pourtant, cela n’a jamais généré de valeur, car une fois le modèle mis en place, il ne crée aucune valeur. Mais l’histoire est plaisante, c’est pourquoi j’essaierais vraiment de m’en éloigner autant que possible.

Conor Doherty: D’autres commentaires ? Il n’y a aucune obligation.

Alexey Tikhonov: Quelques mots sur l’explicabilité et la compréhension de ce qui se passe, sur la manière dont les décisions sont produites et comment les prévisions sont établies.

Je ne peux parler que de ce que nous faisons chez Lokad. Nous abordons les problèmes selon un principe de correction par conception. L’un des problèmes que nous constatons est le manque de confiance, car les gens ne comprennent pas comment les choses fonctionnent. C’est pourquoi nous utilisons ce que nous appelons un élément de “white boxing”. Chaque fois que possible, nous recourons à des modèles explicites dans lesquels vous comprenez la signification des paramètres, plutôt qu’à une ingénierie des caractéristiques obscurcie. De cette façon, les gens peuvent saisir ce qui se passe. J’invite le public à regarder notre participation au concours M5 de prévision. L’équipe de Lokad a été classée numéro un dans le défi de l’incertitude. Si vous regardez la conférence donnée par notre PDG, Joannes Vermorel, vous verrez que le modèle est assez simple. Vous serez surpris de constater comment ce modèle simple a pu atteindre des résultats à la pointe de la technologie.

Il n’est pas nécessaire d’utiliser une IA de pointe pour obtenir un pourcentage supplémentaire de précision en prévision. Dans la supply chain, il faut viser une approximation correcte, et non une précision erronée. C’est pourquoi nous choisissons, par exemple, des méthodes probabilistes, car elles peuvent vous révéler la structure de l’incertitude. Puis, lorsque vous avez des leviers économiques, vous pouvez traduire cette structure d’incertitude en une structure des risques financiers, et ainsi prendre des décisions éclairées, adaptées au risque, plutôt que de simples décisions évaluées selon l’atteinte d’un taux de service.

Je pense que les gens peuvent comprendre l’histoire globale, c’est-à-dire ce que vous faites et pourquoi vous le faites. Mais à un niveau plus détaillé, s’ils sont curieux, ils peuvent également s’intéresser aux détails, même si cela devient presque insignifiant une fois le concept global compris. Une fois que vous constatez que les décisions sont sensées, pourquoi chercher à rentrer dans le détail ? Par exemple, en général, les gens utilisent des ordinateurs sans s’intéresser aux allocations mémoire, comme le fonctionnement de votre mémoire vive dans les calculs. Personne ne s’en préoccupe. Il en va de même pour les puces informatiques dans votre voiture. Oui, un robot gère le passage des vitesses, mais cela n’intéresse généralement personne. Cela n’a aucune incidence et ne rendra pas votre conduite plus sûre si vous le savez.

Conor Doherty: J’allais justement demander vos réflexions de clôture. Vous semblez tous être globalement d’accord pour dire que comprendre le « comment » de ces méthodologies dépasse la compétence de la plupart des gens s’ils ne disposent pas de la formation requise. Le « quoi » – c’est-à-dire ce qui se passe, qu’il s’agisse d’une plus grande précision ou d’une meilleure décision – est compréhensible. Mais avant de conclure, prenons peut-être 30 secondes pour terminer. Comment voyez-vous l’avenir des planificateurs de la demande ? Car, encore une fois, je peux déjà deviner votre réponse, mais en ce qui concerne Nicolas et Sven, vous semblez – et je ne veux pas mettre de mots dans votre bouche – avoir suggéré plus tôt : « Eh bien, nous n’en sommes pas encore au stade de l’automatisation complète de l’optimisation de bout en bout. » Alors, selon vous, quel est l’avenir des planificateurs de la demande ? Auront-ils un poste dans 5 ans, 10 ans, etc. ?

Sven Crone: Je pense qu’en examinant la disponibilité des données et le taux d’adoption technologique, il y aura assurément un emploi pour les planificateurs de la demande pour bien plus de cinq ans. J’en suis convaincu. Car, de plus, la pression pour restructurer ou innover au sein des entreprises n’est pas aussi forte. Si l’on considère toutes ces initiatives de digitalisation, force est de constater que, pour la plupart des entreprises, il n’y a même pas de cloud storage. Il est surprenant de voir comment certaines des plus grandes multinationales d’Europe ont réussi à bien fonctionner.

Donc, c’est probablement grâce aux personnes extraordinaires qui s’y trouvent. Mais je constate que, sur le long terme, nous prenons un véritable risque si nous n’adoptons pas, si les software vendors n’adoptent pas, si vous n’automatisez pas, si vous ne soutenez pas des décisions, des décisions significatives comme la correction historique – vous savez – et je pense que l’explicabilité est importante, non pas pour comprendre « Comment fonctionne un réseau neuronal », mais pour dire « Voici les variables d’entrée qui ont été utilisées », et pouvoir répondre à la question : « Avez-vous considéré que la promotion a été décalée de la semaine 5 à la semaine 12 ? » Je pense que ce sont là les questions auxquelles il faut répondre. Ce sont des questions bien plus simples.

Mais je pense qu’à long terme, avec l’augmentation des données disponibles, cela deviendra très difficile pour les planificateurs de la demande. Ainsi, en raison de la fréquence accrue des décisions, nous passons d’une prévision mensuelle à une prévision hebdomadaire, voire intra-hebdomadaire pour nous aligner également avec les détaillants. Je vois beaucoup plus de promotions, beaucoup plus de disruptions se produire. Il y a tellement de disruptions qu’il deviendra pratiquement incroyablement difficile pour les planificateurs de traiter autant d’informations dans un laps de temps si court. Et par conséquent, je ne pense pas qu’à long terme ils pourront rivaliser en termes de précision et de fiabilité avec les modèles de machine learning si toutes les données sont disponibles.

Conor Doherty: Merci, Sven. Vos réflexions finales, Nicolas.

Nicolas Vandeput: Pour résumer en une minute, quel est le rôle des planificateurs de la demande dans les années à venir et comment cela va évoluer. Pour moi, ce sont des personnes qui vont passer la majeure partie de leur temps à collecter, rassembler, structurer, nettoyer les données, les informations et les insights, et à alimenter en grande partie les modèles de machine learning. La prévision de la demande sera automatisée et les informations, les insights qui ne peuvent pas être intégrés aux modèles de machine learning seront tout de même utilisés par ces planificateurs pour enrichir manuellement ces prévisions. Mais ces planificateurs ne passeront pas leur temps à signaler les valeurs aberrantes, à corriger manuellement ces valeurs aberrantes. Ils ne passeront pas non plus leur temps à modifier les modèles, à revoir ou à affiner les paramètres des modèles, ni même à sélectionner les modèles. Pour moi, ces tâches doivent être automatisées à 100%. Les humains ne devraient pas faire cela. Les planificateurs se concentreront sur la recherche, la collecte et le nettoyage des informations et des insights.

Conor Doherty: Merci. Et Alexey, vos réflexions finales ?

Alexey Tikhonov: Je pense qu’actuellement, la planification de la demande occupe une niche de produits logiciels appelés systèmes d’intelligence car il existe généralement trois types de logiciels d’entreprise : les systèmes d’enregistrements, comme les ERPs et d’autres systèmes transactionnels ; les systèmes de rapports, qui sont des applications de business intelligence ; et les systèmes d’intelligence. C’est un domaine émergent. Ce sont ces systèmes capables d’automatiser la prise de décision, à l’image de l’un de ceux que Lokad propose à ses clients. Et actuellement, les planificateurs de la demande essaient de rivaliser avec ce domaine.

Je comprends qu’à long terme, ils ne pourront pas rivaliser, ils perdront. Pourquoi ? Parce que les humains sont de formidables créatures, super intelligents. Ils peuvent, lorsqu’on considère une décision unique, surpasser un robot car ils trouvent toujours un insight plus pertinent, quelque chose dont un robot n’est pas conscient, comme une information supplémentaire. Mais cela n’est pas scalable. Les humains coûtent cher. Nous parlons de supply chains d’une envergure immense, donc nous ne pouvons pas étendre cette approche. Et c’est la raison principale pour laquelle, à long terme, ils seront remplacés. Pour les mêmes raisons, comme à Paris, nous n’avons plus de porteurs d’eau, nous avons l’eau courante. Pourquoi ? Parce que c’est moins cher. Certes, il existe encore quelques pays sous-développés où, dans de petits villages, on trouve encore des personnes transportant de l’eau dans des seaux car, en raison des économies d’échelle, l’eau courante n’est pas encore une option. Mais même dans ces villages, à un moment donné, ils auront l’eau courante. Ainsi, à long terme, ils n’ont plus leur place. Et pour le moment, certaines entreprises s’en sont déjà débarrassées.

Conor Doherty: Merci beaucoup à tous sur scène pour vos insights et vos réponses. À ce stade, je passe la parole. Y a-t-il des questions ? Et je vais sprinter et passer le micro. Bien sûr, il sera tout au fond. D’accord, il ne devrait pas y avoir autant de rangées. Robert, donc, de qui étaient les mains levées ?

Audience Member (Bahman): Merci à tous. Je m’appelle Bahman. Je viens de Cardiff University. Je souhaite juste faire un commentaire très bref. Vous avez mentionné les décisions profitables. Je voulais souligner — et en fait, c’est un point que Sven a également abordé concernant le spectre — qu’il existe des milliers de supply chains qui ne visent pas le profit. Je pense donc qu’il est important d’en tenir compte.

Je comprends que le panel était davantage centré sur la supply chain, mais il existe tout un spectre de planification de la demande. Si l’on y pense, il y a des millions d’hôpitaux dans le monde qui font de la planification de la demande et qui gèrent une, deux ou trois séries temporelles. Ainsi, ma question porte davantage sur ce qui constitue les conditions ou quelles sont les exigences pour créer des décisions automatiques, étant donné que les décisions reposent sur la prévision en tant qu’un des intrants. Il y a de nombreux autres intrants, dont certains pourraient être des prévisions, mais la majorité ne le sont probablement pas.

Sven Crone: Je vais essayer de répondre à cela. Les hôpitaux, par exemple, disposent d’un grand stock de produits de replenishment, de produits importants comme le sang, de produits moins importants, etc., vous savez, des médicaments pour le traitement du cancer, certains étant en make to order, en make to stock. Je pense que nous nous sommes beaucoup concentrés sur ce point, donc mon expérience ne relève pas des hôpitaux ou des systèmes de santé. Nous avons regardé principalement du côté de l’industrie, vous savez, dans quel secteur — la supply chain management, la logistique, telle que définie probablement par Gartner —, et maintenant nous nous intéressons à de très grandes multinationales qui mettent en place ces processus bien définis, éprouvés, qui mesurent la valeur ajoutée de la prévision.

Je pense que, vous avez raison, c’est probablement applicable à beaucoup d’autres industries, comme les pharmacies, les hôpitaux, etc. Mais j’ai peu de preuves quant à son adoption dans ces domaines. Cependant, pour l’industrie de la supply chain logistique, qui représente environ un sixième du PIB mondial, n’est-ce pas ? Nous parlons donc d’un sixième du PIB mondial, principalement porté par de très grandes entreprises. Là, nous sommes vraiment préoccupés par le manque d’innovation en ce qui concerne ces aspects. Mais cela ne signifie pas que cela ne devrait pas s’appliquer à d’autres secteurs.

Audience Member (Bahman): Je veux dire, peut-être que la meilleure terminologie serait une supply chain de service. Par exemple, dans les hôpitaux, vous faites de la planification de la demande pour les services d’urgence. Il ne s’agit pas forcément de produits, mais du service lui-même. Donc, je pense que ma question porte davantage sur la prise de décision automatique, car, comme je l’ai dit, il existe un spectre, vous savez, des services d’urgences qui gèrent en réalité une seule série temporelle, et c’est peut-être là que vous ne traitez pas des millions de séries temporelles. La question est donc : quelles sont les exigences pour créer une prise de décision automatique ?

Sven Crone: Je pense que vous avez raison. C’est vraiment très intéressant, il existe de nombreux domaines dans lesquels nous, dans la communauté de la prévision, n’avons pas accordé autant d’attention que dans d’autres secteurs, n’est-ce pas ? Si l’on regarde parmi les 10 000 articles sur la prévision par réseaux de neurones, je pense que la moitié concerne l’électricité, n’est-ce pas ? Mais très peu concernent le secteur pharmaceutique. C’est donc un bon point. Je pense que nous devrions porter davantage d’attention aux éléments importants.

Conor Doherty: Désolé d’interrompre, Nicolas, vous pouvez répondre à la question suivante. Je veux passer la parole pour la prochaine question.

Audience Member: Bonjour, merci pour cette très belle discussion. Ma question porte davantage sur le rôle du jugement. Chaque expert a des jugements différents. Il existe donc un schéma de biais provenant du jugement humain et un schéma de biais provenant des modèles d’IA ou de ML, quel que soit le modèle statistique. Nous avons donc deux biais, celui du jugement humain et celui des modèles statistiques. Comment peut-on intégrer le biais du jugement humain dans le biais statistique afin de réduire le biais global lors de la planification de la demande ? Merci.

Nicolas Vandeput: Merci pour votre question. C’est un cas habituel dans mon travail avec les supply chains. L’une des premières choses que nous faisons est d’examiner historiquement la performance de vos prévisions. Si elles présentaient un biais très élevé ou très faible — une sous-prévision ou une sur-prévision — cela se résume toujours à une histoire. Les gens sur-prévoient parce qu’ils veulent jouer la sécurité, très probablement parce que le processus de supply n’est pas optimal et qu’ils ne savent pas vraiment comment gérer les stocks. Ainsi, au lieu de modifier les politiques ou la cible de stock de sécurité, ils se fient à des prévisions très élevées. Peut-être font-ils également des prévisions très élevées parce qu’ils veulent être optimistes, respecter le budget, etc.

En revanche, une sous-prévision peut se produire parce que les gens veulent battre la prévision pour obtenir une prime. Ainsi, généralement, si votre supply chain génère un biais très important, c’est un problème de mauvais incitatifs ou d’un processus de supply défaillant, et il faut y remédier, reconvertir les personnes, peut-être améliorer votre processus de supply et rendre impossible que certaines personnes modifient la prévision si elles ont un incitatif direct à la rendre trop élevée ou trop basse. C’est pour la partie processus, donc nous devons nous adresser à des personnes qui n’ont pas d’incitatifs à générer des prévisions trop hautes ou trop basses.

Pour la partie modèle, si vous avez un modèle qui, sur le long terme, génère des prévisions très élevées ou très basses — je ne dis pas qu’un mois est erroné, bien sûr, mais que sur plusieurs périodes vous avez le même problème — il s’agit très probablement d’un problème lié à la manière dont vous optimisez votre moteur de modèle, et très certainement du fait que le KPI utilisé pour optimiser le modèle n’est pas le bon. Je parierais qu’il repose sur le MAPE, mais c’est un autre sujet.

Conor Doherty: Peux-tu donner à Alexey l’occasion de faire une réflexion finale, car nous devons bientôt terminer.

Sven Crone: Je voudrais simplement ajouter quelque chose à ce qu’a dit Nicolas. Lorsque nous parlons de LLMs qui pourraient prendre le relais pour ajuster les jugements, nous n’avons pas vraiment détaillé leur fonctionnement. Mais il existe de nombreuses preuves ces derniers temps que l’on ne forme pas un seul LLM sur l’ensemble des données pour obtenir une seule valeur. En réalité, vous formeriez des personas sur lesquels vous les entraîneriez. Vous auriez un supply chain LLM, un finance LLM, un CEO LLM, un marketing et un key account management LLM, tous entraînés sur des données différentes. Souvent, ces biais proviennent de coûts différents associés aux décisions pour les key accounts par rapport à la supply chain. Mais souvent, vous disposez d’informations différentes et ce que chacun perçoit peut conduire à une prise de décision améliorée si, en réalité, vous avez des agents qui conversent entre eux et débattent en faveur d’un processus consolidé.

Il n’est pas rare de voir de bonnes pratiques dans le S&OP où l’on parvient à un consensus, et ce consensus est plus précis que la décision d’un seul LLM. C’est vraiment effrayant, car les biais sont présents, les processus de décision le sont aussi, et puis quelqu’un, au final, décide en pondérant l’information. C’est fantomatique.

Conor Doherty: Alex, le dernier mot pour toi et ensuite nous terminerons.

Alexey Tikhonov: Sur la même question, je pense que le biais est un problème de perspective de prévision ponctuelle. En général, le fait de vouloir que votre prévision soit intentionnellement biaisée s’explique par le fait que votre prévision est en quelque sorte naïve quant à la capture de la structure du risque. Vous prédisez le scénario futur le plus probable et vous supposez ensuite que les résidus du modèle sont distribués normalement, ce qui n’est jamais le cas. C’est pourquoi vous introduisez un biais qui déplace votre prédiction vers l’endroit où se concentre la majeure partie du risque. Par exemple, vers la queue de droite, comme si vous vouliez prévoir la probabilité de ne pas atteindre vos taux de service, et ainsi déplacer le biais.

Lorsque vous passez à une perspective probabiliste, ce biais n’est plus nécessaire, car ce que vous proposez est une opinion sur l’avenir qui se présente sous la forme : cet avenir avec telle probabilité, cet autre avenir avec telle probabilité. Dès que vous entraînez les paramètres qui capturent suffisamment précisément la structure du risque, tout ce dont vous avez besoin en plus, c’est d’une perspective économique, comme les coûts, les profits et quelques leviers de niveau supérieur, tels que ceux qui vous permettent de prendre des décisions de compromis. Par exemple, dois-je acheter une unité supplémentaire de ce produit plutôt qu’une unité supplémentaire d’un autre, puisque votre budget est toujours contraint. Avec une perspective probabiliste, ce problème disparaît, car le biais n’est pas nécessaire.

Conor Doherty: Sur ce, je suis conscient que nous avons un peu dépassé le temps imparti. Pour toute personne souhaitant poser des questions supplémentaires, nous essaierons de le faire au coin de la scène. Mais encore une fois, Sven, Nicolas et Alexey, merci beaucoup de nous avoir rejoints et bonne continuation pour le reste de la journée. Merci.