00:00:00 Introduction de l’interview
00:00:47 Parcours et travaux de Nikos Kourentzes
00:03:25 Comprendre la congruence des prévisions
00:04:44 Les limites de la précision dans les prévisions
00:06:14 Congruence dans les prévisions des séries temporelles
00:08:02 Considérations sur la modélisation des stocks dans la supply chain
00:09:03 Congruence et cohérence des prévisions
00:10:29 Métriques mathématiques en production
00:12:08 Considérations sur la gestion des stocks d’un horloger de luxe
00:14:47 Fluctuation à la hausse déclenchant la production
00:16:03 Optimisation du modèle pour la demande d’un SKU
00:17:41 Recherche sur les estimateurs de réduction et les hiérarchies temporelles
00:19:05 Les meilleurs modèles pour tous les horizons
00:21:32 Controverse autour de la congruence des prévisions
00:24:05 Calibration des politiques de stocks
00:26:27 Équilibrer la précision et la congruence
00:31:14 Astuces de l’agrégation temporelle pour lisser les prévisions
00:32:54 Importance des gradients dans l’optimisation
00:35:28 Corrélations dans la supply chain
00:38:10 Au-delà de la prévision des séries temporelles
00:40:27 L’honnêteté de la prévision probabiliste
00:42:32 Similarités entre la congruence et le ratio bullwhip
00:45:18 Importance de l’analyse des décisions séquentielles
00:47:27 Les avantages de séparer les étapes
00:49:34 Interaction humaine avec les modèles
00:52:05 Conserver l’élément humain dans les prévisions
00:54:35 Confiance dans les experts et les analystes
00:57:28 Situation réaliste de gestion de millions de SKU
01:00:01 Ajustements de haut niveau du modèle
01:02:13 Décisions guidées par la probabilité d’événements rares
01:04:44 Point de vue de Nikos sur les ajustements
01:07:14 Perdre du temps sur des ajustements mineurs
01:09:08 Contre les ajustements manuels quotidiens
01:11:43 Les bénéfices à l’échelle de l’entreprise des ajustements de code
01:13:33 Rôle de l’équipe data science
01:15:35 Les prévisions probabilistes dissuadent les interférences manuelles
01:18:12 La question à un million de dollars sur l’IA
01:21:11 Importance de comprendre les modèles d’IA
01:24:35 La valeur et le coût des modèles d’IA
01:26:02 Aborder les problèmes liés aux stocks

À propos de l’invité

Nikolaos Kourentzes est professeur en analytique prédictive et IA au Laboratoire IA de l’Université de Skövde en Suède. Ses intérêts de recherche portent sur les prévisions de séries temporelles, avec des travaux récents sur la modélisation de l’incertitude, les hiérarchies temporelles et les modèles hiérarchiques de prévision. Ses recherches se concentrent sur la traduction des prévisions en décisions et actions, dans des domaines tels que la gestion des stocks, la modélisation de la liquidité pour les opérations monétaires et la santé. Il possède une vaste expérience du travail tant dans le secteur industriel que public et a publié diverses bibliothèques open-source pour faciliter l’utilisation des méthodes de prévisions avancées en pratique.

Résumé

Dans une récente interview de LokadTV, Nikos Kourentzes, professeur à l’Université de Skövde, et Joannes Vermorel, PDG de Lokad, ont discuté de la congruence des prévisions dans la prise de décisions supply chain decision-making. Ils ont souligné l’importance d’aligner les prévisions avec les décisions, en reconnaissant que les modèles peuvent être mal spécifiés. Ils ont distingué entre la précision des prévisions et la congruence, soutenant que la prévision la plus précise ne serait pas nécessairement la meilleure pour la prise de décision si elle n’était pas alignée avec l’objectif de la décision. Ils ont également abordé l’application pratique de la congruence des prévisions dans la prise de décisions sur les stocks et son potentiel à atténuer l’effet bullwhip.

Résumé approfondi

Lors d’une récente interview animée par Conor Doherty, Responsable de la Communication chez Lokad, Nikos Kourentzes, professeur à l’Université de Skövde, et Joannes Vermorel, PDG et fondateur de Lokad, ont discuté du concept de congruence des prévisions dans le contexte de la prise de décisions supply chain.

Kourentzes, qui dirige une équipe axée sur la recherche en IA à l’Université de Skövde, a expliqué que son travail tourne principalement autour du risque de modèle et de la spécification des modèles. Il a souligné l’importance d’aligner les prévisions avec les décisions qu’elles soutiennent, un concept qu’il appelle la congruence des prévisions. Cette approche vise à améliorer la précision en reconnaissant que les modèles peuvent être mal spécifiés.

Kourentzes a en outre distingué entre la précision des prévisions et la congruence des prévisions. Alors que la précision est une mesure de l’ampleur des erreurs de prévision, la congruence décrit la cohérence des prévisions dans le temps. Il a soutenu que la prévision la plus précise n’est pas nécessairement la meilleure pour la prise de décision si elle n’est pas alignée avec la fonction objective de la décision.

Vermorel, s’accordant avec Kourentzes, a souligné que les métriques mathématiques s’avèrent souvent insuffisantes une fois mises en pratique. Il a donné des exemples montrant que différentes décisions peuvent entraîner des coûts asymétriques variés, comme la vente de produits périssables par rapport aux articles de luxe. Vermorel a également abordé l’effet cliquet dans la gestion de la supply chain, où les fluctuations des prévisions de demande peuvent conduire à des décisions irréversibles.

Kourentzes a partagé son passage d’un accent mis uniquement sur la précision à la prise en compte d’autres facteurs dans les prévisions. Il a souligné l’importance de comprendre le fonctionnement sous-jacent des modèles et les hypothèses sur lesquelles ils reposent. Il a suggéré qu’une fois une collection de prévisions précises établie, il conviendrait de choisir celle qui est la plus congruente.

Vermorel, quant à lui, a expliqué que chez Lokad, ils optimisent directement pour les résultats financiers, plutôt que de se concentrer sur des métriques mathématiques. Il a expliqué que les gradients sont essentiels pour l’optimisation, car ils indiquent la direction dans laquelle les paramètres doivent être ajustés pour minimiser les erreurs. Il a également évoqué l’importance de la prévision probabiliste, qui prend en compte tous les scénarios futurs possibles, non seulement pour la demande, mais aussi pour des délais d’approvisionnement variables et des incertitudes.

La discussion s’est ensuite portée sur l’application pratique de la congruence des prévisions dans la prise de décisions sur les stocks et son potentiel à atténuer l’effet bullwhip. Kourentzes a expliqué que la congruence et le ratio bullwhip présentent de nombreuses similitudes, et que concevoir des prévisions en tenant compte de la congruence peut aider à réduire l’effet bullwhip.

Le rôle de l’intervention humaine dans la congruence des prévisions a également été abordé. Kourentzes estime que l’intervention humaine ne doit pas être éliminée, mais plutôt guidée afin d’ajouter de la valeur là où cela est possible. Vermorel, quant à lui, a indiqué que Lokad n’autorise plus l’ajustement des prévisions par des humains, car cela conduisait à de meilleurs résultats.

La conversation s’est conclue par une discussion sur le rôle de l’IA dans la congruence des prévisions et la prise de décisions en supply chain. Les deux, Kourentzes et Vermorel, étaient d’accord sur le fait que, bien que l’IA joue un rôle dans la résolution des problèmes de prévisions, elle ne doit pas remplacer toutes les méthodes existantes et qu’il est crucial de comprendre le processus.

Dans ses remarques finales, Kourentzes a appelé à un abandon des méthodes traditionnelles de prévision au profit d’une approche plus intégrée à la prise de décisions. Il a souligné la nécessité de renouveler notre façon de penser, nos logiciels et nos manuels, et a salué l’inclusion de personnes issues de divers domaines dans le champ de la prévision. Il a conclu en insistant sur l’importance de la collaboration et de la diversité des perspectives pour relever ces défis.

Transcription complète

Conor Doherty : Bienvenue à nouveau. Généralement, les discussions sur les prévisions se concentrent sur l’idée de précision. L’invité d’aujourd’hui, Nikos Kourentzes, a une perspective différente. Il est professeur au Intelligence Artificielle Lab de l’Université de Skövde. Aujourd’hui, il va discuter avec Joannes Vermorel et moi du concept de congruence des prévisions. Nikos, pouvez-vous confirmer devant la caméra que j’ai bien prononcé Skövde ?

Nikos Kourentzes : C’est le mieux que je puisse faire également.

Conor Doherty : Eh bien, je n’ai plus de questions. Merci beaucoup de nous avoir rejoints.

Nikos Kourentzes : C’est un plaisir.

Conor Doherty : Plus sérieusement, je travaille à l’Université de Skövde, au Laboratoire d’Intelligence Artificielle. Cela semble très impressionnant. Que faites-vous exactement et quel est votre parcours en général ?

Nikos Kourentzes : D’accord, laissez-moi d’abord vous présenter un peu le laboratoire, puis je parlerai un peu de mon parcours. Nous sommes une équipe diversifiée d’universitaires intéressés par la recherche en IA. L’accent est principalement mis sur la data science, mais le champ d’application est assez vaste. Par exemple, comme vous l’avez déjà mentionné, je vais probablement parler de prévision et de modélisation des séries temporelles. Mais, par exemple, d’autres collègues s’intéressent à des sujets tels que la fusion d’informations, l’analytique visuelle, les voitures autonomes, les aspects cognitifs de l’IA. C’est ce qui est formidable dans cette équipe, car nous avons une polyphonie de recherches et, vous savez, lorsque l’on discute, on obtient beaucoup d’idées diverses qui vont au-delà de la littérature typique. Personnellement, je trouve que c’est un très bel environnement.

L’université est, vous savez, ce que je dis habituellement à mes collègues, n’étant pas moi-même Suédois, lorsqu’on utilise des noms suédois à l’international, cela peut être n’importe quoi. Donc, il serait probablement utile de dire que l’université, en matière de data science et d’IA, possède une certaine tradition, même si son nom n’est pas très connu. Mais, vous savez, je suis très heureux d’avoir rejoint l’équipe. Pour ma part, je travaille dans la prévision, la modélisation des séries temporelles, que ce soit par la statistique, l’économétrie ou l’IA, depuis plus ou moins 20 ans. J’ai réalisé mon doctorat à l’Université de Lancaster en intelligence artificielle. Cela s’est fait en école de commerce. Et mon parcours est à l’origine en gestion. Mais, à un moment donné, je me suis dit, d’accord, c’est plutôt bien. Je sais quelles questions poser, mais je ne sais pas comment les résoudre. Alors j’ai entrepris des travaux en recherche opérationnelle, d’où mon intérêt pour la supply chain, et finalement mon doctorat en intelligence artificielle. Par la suite, je me suis davantage intéressé à l’économétrie. J’ai donc réussi à diversifier ma compréhension des séries temporelles.

Conor Doherty : Merci, Nikos. En fait, Joannes et moi avons découvert votre profil, ou plutôt, j’en ai entendu parler grâce à un supply chain scientist qui suit certains de vos travaux sur LinkedIn et qui m’a envoyé un article dans lequel vous écriviez sur la congruence des prévisions en incluant un lien vers votre document de travail sur le sujet. L’essentiel de la conversation d’aujourd’hui portera sur la prévision et son application à la supply chain. Mais avant d’entrer dans les détails, pourriez-vous nous donner un peu de contexte sur ce qu’est la congruence des prévisions et comment ce domaine de recherche a émergé pour vous ?

Nikos Kourentzes : Une grande partie de mon travail a porté sur le risque de modèle et la spécification des modèles. Souvent, dans la prévision des séries temporelles, nous identifions un modèle et nous disons, d’accord, nous allons l’utiliser. Mais nous ne reconnaissons pas vraiment que chaque modèle sera erroné à certains égards. C’est le mantra habituel en matière de prévision, nous entendons toujours, d’accord, tous les modèles sont faux, mais certains sont utiles. Toutefois, je pense que nous pouvons aller au-delà, car nous pouvons commencer à quantifier à quel point les modèles sont erronés. Et d’autre part, dans la littérature, nous n’allons souvent pas aussi loin, et cela est en train de changer, je dois dire que cela change, ce n’est pas uniquement moi qui le dis, de nombreux collègues affirment qu’il faut relier la prévision à la décision qu’elle soutient.

Ainsi, la congruence découle de ces deux idées. J’ai travaillé avec ma collègue de l’Université de Lancaster, Kandrika Pritularga, qui est également la co-auteure de l’article que vous avez mentionné. Et nous étions assez intéressés à dire, d’accord, si nous partons du principe que les modèles sont, en quelque sorte, mal spécifiés, que nous ne faisons qu’approximer la demande à laquelle nous faisons face ou les ventes, selon la manière de voir les choses, alors quel en est le véritable coût ? Et la congruence des prévisions revient essentiellement à se demander : pouvons-nous faire mieux que la précision ? Car la précision suppose, de bien des manières, que vous faites un bon travail d’approximation de vos données.

Et vous savez, oui, nous essayons de le faire avec toute la sincérité possible, mais il se peut que nous n’utilisions pas le bon modèle. Par exemple, vous pouvez disposer d’un logiciel qui vous propose une sélection de X modèles, alors que l’approximation correcte serait un modèle absent de votre ensemble de modèles. C’est là que tout cela se justifie, en cherchant à relier la prévision à une décision une fois que nous reconnaissons que nos modèles seront probablement mal spécifiés. Voilà pour le contexte.

Si je veux être plus scientifique à ce sujet, une chose que je devrais dire, c’est qu’habituellement, avec mes collègues, nous commençons toujours nos sujets de recherche par une idée un peu plus saugrenue. Donc, vous savez, nous faisons autre chose et nous nous disons : « Oh, il y a un crochet intéressant ici, explorons-le un peu plus en profondeur. » Et souvent, une fois que vous faites cela, vous finissez par obtenir quelque chose qui peut être une idée utile. La raison pour laquelle je mentionne cela, c’est que je pense que la congruence de prévision, ce qu’elle apporte sur la table, est une façon de penser un peu différente. Et c’est pour cela que je trouve cela initialement intéressant, car en commençant sur le ton de la plaisanterie, cela nous a permis d’aborder l’ensemble sous un autre angle.

Conor Doherty: Joannes, je reviendrai vers toi dans un instant à ce sujet, mais pourrais-tu développer un peu plus ? Encore une fois, quand tu parles de précision des prévisions, tout le monde comprend plus ou moins ce que cela signifie. Mais quand tu dis que la congruence ou la congruence des prévisions aide les gens à voir les choses sous un angle différent, pourrais-tu expliquer un peu plus cette distinction afin que chacun comprenne exactement ce que tu entends par congruence dans le contexte des prévisions de séries temporelles ?

Nikos Kourentzes: D’accord, tout d’abord, le nom n’est pas le plus explicite et il y a une raison à cela. Ce que nous essayons de décrire avec cette congruence de prévision, c’est essentiellement à quel point les prévisions sont similaires au fil du temps. C’est une manière plus simple de le dire, mais voici quelques problèmes. Beaucoup des termes que l’on pourrait utiliser pour cela, par exemple « stabilité », sont déjà employés dans la prévision statistique, donc nous ne voulons pas créer de confusion à ce sujet.

Et l’autre problème est que, comme cela sera probablement abordé plus loin dans la discussion, il existe des difficultés techniques pour mesurer à quel point les prévisions sont similaires au fil du temps. Car, par exemple, si vous pensez à une série temporelle saisonnière et à une série temporelle non saisonnière, celles-ci impliquent quelque chose de très différent puisque la saisonnalité impose elle-même une variation des prévisions au fil du temps. Voilà le schéma à gérer ici. Ce n’est donc pas le type de non-similarité qui nous intéresse. Et c’est ce qui nécessite, pour ainsi dire, un peu de gymnastique mathématique pour définir la congruence. Mais voici la différence avec la précision. La précision, nous la comprenons habituellement — quel que soit le critère que vous utilisez — comme un résumé de l’ampleur de vos erreurs de prévision.

Nous supposerions bien sûr que si nous obtenons la prévision la plus précise, cela impliquerait que nous fournissons la meilleure information pour les décisions soutenues. Cependant, cela suppose que les décisions soutenues ont le même type de fonction objective que la prévision la plus précise, disons minimiser vos erreurs quadratiques. Mais ce n’est pas le cas. Je veux dire, si vous pensez à la modélisation des stocks en supply chain, nous devons parfois prendre en compte des coûts liés aux commandes groupées, aux coûts de surstockage et de rupture qui peuvent modifier la position par rapport à la prévision la plus précise. Nous devons également considérer d’autres aspects, comme par exemple des contraintes venant de nos fournisseurs ou d’autres limitations de capacité sur les lignes de production ou dans nos entrepôts, etc. Ainsi, dès que l’on considère le véritable coût des stocks ou la supply chain de manière plus générale, on se rend compte que la prévision la plus précise n’est pas nécessairement celle qui s’aligne le mieux avec la décision. Et c’est vraiment là le point le plus intéressant concernant la congruence.

Donc, d’une part, il existe une lignée de recherche — et mes coauteurs et moi-même avons publié pas mal de travaux dans ce sens — qui montre que la plupart des métriques de précision ne corrèlent pas bien avec de bonnes décisions. Cela ne veut pas dire qu’elles sont inutiles ou quoi que ce soit, c’est simplement qu’elles ne racontent pas toute l’histoire. Cela plaide donc un peu en faveur de la congruence. La congruence, quant à elle, essaie de dire que si les prévisions ne varient pas trop au fil du temps, alors il y a probablement une certaine confiance, d’une part, dans les prévisions. Mais d’autre part, il s’agit également d’une prévision sur laquelle les gens peuvent planifier de manière cohérente. Je n’ai pas à revoir toute ma planification à chaque cycle de prévision, car celle-ci restera assez similaire. Ainsi, même si ce ne sont pas les prévisions les plus précises, elles défaillent de manière prévisible, ce qui peut faciliter la prise de décision. Et c’est exactement ce que nous constatons dans notre travail : les décisions qui reposent sur des prévisions plus congruentes sont également des décisions plus cohérentes dans le temps. Il faut donc moins d’efforts pour prendre ces décisions.

Conor Doherty: Eh bien, merci, Nikos. Et Joannes, je te passe la parole maintenant. J’ai l’impression que tout cela te parle assez bien. Des prévisions plus précises ne se traduisent pas nécessairement par une meilleure prise de décisions en matière de stocks.

Joannes Vermorel: Oui, exactement. Notre perspective générale de nos jours est qu’en effet, à peu près toutes les métriques mathématiques — dans le sens où vous choisissez une formule et dites que c’est une formule mathématique caractérisant votre métrique à optimiser — quand cette formule tombe du ciel ou est tout simplement inventée, même si elle est émise avec de bonnes intentions — disons la norme un, la norme deux, quelque chose à laquelle certaines propriétés mathématiques sont attachées — se révèlent habituellement très décevantes une fois mises en production pour de multiples raisons.

Il y a plus d’une dizaine d’années, Lokad a commencé à prôner l’idée que les gens ne devraient pas faire ce que nous appelons aujourd’hui les prévisions nues. Fondamentalement, je rejoins Nikos dans sa proposition selon laquelle une prévision est un instrument pour une décision et que l’on ne peut évaluer la validité de la prévision qu’à l’aune de la validité des décisions.

Et c’est assez étrange, car si vous avez 10 décisions différentes, vous pourriez alors vous retrouver avec des prévisions incohérentes pour soutenir ces décisions. Cela peut sembler bizarre, mais la réalité est que c’est acceptable, même si cela contrevient à l’intuition. Et pourquoi est-ce acceptable ? Eh bien, parce que vous disposez d’un ensemble de décisions qui peuvent avoir des coûts asymétriques très divers en termes de surestimation ou de sous-estimation.

Ainsi, si vous avez une décision pour laquelle une surestimation est catastrophique — disons, par exemple, que vous vendez des fraises. Les fraises, à la fin de la journée, tout ce qui n’est pas vendu est quasiment jeté. Donc, toute surestimation est catastrophique dans le sens où elle représente une perte immédiate garantie ou une dépréciation des stocks.

Au contraire, si vous êtes un horloger de luxe et que vos articles sont fabriqués en or, en platine et autres métaux et pierres précieux, s’ils ne se vendent pas, les stocks ne périment pas. Même si ce que vous fabriquez et intégrez dans vos articles se démode, vous pouvez toujours récupérer les matériaux et les remodeler en quelque chose de plus en phase avec les désirs actuels du marché.

Donc, fondamentalement, si vous faites de la joaillerie, vous n’avez jamais de dépréciations de stocks. Vous pourriez avoir quelques coûts pour remodeler vos produits, mais c’est un tout autre jeu.

L’un des problèmes fondamentaux qui n’est pratiquement jamais évoqué dans les manuels de supply chain est l’effet cliquet. Supposons que vous jouiez au jeu du réapprovisionnement de stocks. Chaque jour, vous avez un SKU, vous avez une prévision de la demande et, si cette demande dépasse un certain seuil, vous passez une commande de réapprovisionnement.

Mais il s’avère que si votre prévision fluctue, cela signifie que vos stocks sont toujours fixés en capturant le pic de vos fluctuations. Je veux dire, en considérant, vous savez, un mois par exemple, si votre cycle de commande typique est d’environ un mois, alors votre prévision fluctue durant ce mois. Et disons, chaque jour — ce qui fait environ 30, 31 jours — vous relancez la logique de prévision et vous passez invariablement une commande d’achat le jour où votre prévision est la plus élevée.

C’est un effet cliquet, car une fois que votre prévision fluctue vers le haut ou vers le bas — et en termes de précision, ces fluctuations peuvent être très bonnes car elles capturent joliment la variation à court terme — le prix à payer est que dès que vous déclenchez une décision, vous vous y engagez.

Et lorsque vous avez ces fluctuations, ce qui se produit typiquement, c’est que vous allez capter la fluctuation à la hausse. La fluctuation à la baisse n’est pas si grave, vous la reportez simplement d’un jour, mais la fluctuation à la hausse déclenche le lot de production, le réapprovisionnement des stocks, l’allocation des stocks, la baisse des prix.

Parce qu’encore une fois, c’est du même genre de chose. Si vous baissez votre prix et que vous obtenez ensuite une explosion de la demande causée par cette baisse, mais que vous avez sous-estimé la demande et pensé avoir trop de stocks alors qu’en réalité ce n’était pas le cas, et qu’en baissant le prix, vous vous retrouvez accidentellement en situation de rupture de stock planifiée.

C’est exactement ce type de situation où, en présence d’effets cliquet, si vous avez ces fluctuations, vous agissez, et la performance de votre entreprise reflétera la variation extrême de votre modèle statistique, modèle prédictif, ou autre. Ce n’est pas bon, car en termes de décision, vous capturez le bruit de ce modèle prédictif.

Nikos Kourentzes: Puis-je ajouter quelque chose ? Tout d’abord, je suis tout à fait d’accord. Mais il peut être utile de voir également le même argument du point de vue d’un spécialiste des séries temporelles comme moi, qui a été élevé pour penser en termes de précision.

J’en suis finalement venu à changer d’avis, car supposons que vous ayez une certaine demande pour une unité de gestion des stocks, un SKU, et que vous trouviez alors votre meilleur modèle, que vous optimisiez sur la vraisemblance ou en minimisant votre erreur quadratique moyenne.

Or, l’hypothèse derrière cette démarche est que vous avez effectué une bonne approximation du modèle, et typiquement, votre erreur correspond à une prédiction à un pas en avant. C’est ce que nous faisons habituellement, du moins en minimisant l’erreur in-sample.

Si votre modèle n’est pas le bon — le bon modèle impliquant que, d’une certaine manière, vous connaissez le processus de génération des données, ce qui n’est jamais le cas —, alors, si vous minimisiez cette erreur, votre prévision serait parfaite pour tous les horizons de prévision. Mais ce n’est pas le cas, car votre modèle n’est qu’une approximation.

Donc, supposons que vous minimisiez vos erreurs pour une prévision à un pas, comme nous le faisons habituellement, alors votre modèle peut fonctionner très bien pour cette prévision, mais pas sur le délai de livraison. Ce délai nécessite des prévisions sur plusieurs pas.

Si vous décidiez alors, « Oh, je peux ajuster mon modèle pour qu’il soit très performant, disons pour trois mois à partir de maintenant, soit trois pas en avant », eh bien, vous finissez par obtenir l’effet inverse. Votre modèle sera très bien ajusté pour cet horizon de prévision, mais pas pour un horizon plus court. Ainsi, sur le délai de livraison, vous manquez d’informations.

Ce que j’essaie de montrer par là, c’est que la méthode traditionnelle d’optimisation des modèles conduit invariablement à des prévisions effectivement inexactes dans le sens où elles seront toujours calibrées pour l’erreur que l’optimiseur prend en compte et non pour la décision réelle que nous essayons de soutenir. Elles ont un horizon différent.

C’est ici que, par exemple, de nombreuses recherches sur les estimateurs de réduction ou les travaux que mes collègues et moi avons menés sur les hiérarchies temporelles ont apporté leur aide, car ces techniques pensent toujours : « Ne surajustons pas aux données. Ne nous focalisons pas sur la minimisation d’une statistique d’erreur. »

Donc, vous voyez, ce que Joannes a décrit, c’est essentiellement que l’on peut voir cela sous deux angles. L’un concerne l’impact sur la supply chain, et l’autre repose sur les fondements statistiques expliquant pourquoi cela se produit invariablement.

Joannes Vermorel: Oui, en effet. Chez Lokad, notre pratique actuelle — et cela fait déjà un certain temps dans le cadre de la Supply Chain Quantitative — est de réaliser une optimisation purement financière. Nous optimisons donc directement en euros ou en dollars.

Et en effet, ces métriques se découvrent. Nous disposons même d’une méthodologie spécifique pour cela, appelée optimisation expérimentale, où, étant donné que les systèmes de supply chain sont très opaques et très complexes et que la métrique n’est pas acquise, c’est tout un sujet à explorer.

Maintenant, le point intéressant concerne les horizons de prévision et la variation des prévisions en fonction de ceux-ci. J’ai longtemps réfléchi dans ce sens, mais essentiellement, la dernière compétition de prévisions de Makridakis — M4, M5, M6 — a prouvé qu’à peu près les meilleurs modèles sont les meilleurs pour tous les horizons, peu importe celui que vous choisissez.

Chez Lokad, nous avons décroché en 2020 la première place au niveau des SKU pour Walmart, et nous étions les meilleurs pour une prévision à un jour, à 7 jours, tout type d’horizon. Pendant longtemps, j’ai envisagé la possibilité que certains modèles performent mieux à certains horizons.

Mais si vous regardez les modèles modernes, ceux comme le differentiable programming, par exemple, ces classes modernes de modèles de prévision, c’est désormais assez uniforme. Il est très rare de nos jours d’avoir des modèles qui performent mieux pour une prévision à un pas plutôt que pour six mois à l’avance.

Et essentiellement, il existe des modèles à horizon indéfini, qui prévoient jusqu’à la fin des temps, et on s’arrête simplement pour économiser des ressources de calcul parce que cela serait un gaspillage. Mais néanmoins, cela montre bien qu’en général, la métrique optimisée ne doit pas être considérée comme acquise.

Elle ne doit pas être supposée être l’une des élégantes métriques mathématiques, comme la log-vraisemblance si vous optez pour une approche bayésienne, ou l’erreur quadratique moyenne, ou autre. C’est très bien si vous voulez démontrer des théorèmes dans des articles, mais démontrer des théorèmes et des propriétés de modèles ne se traduit pas par des résultats opérationnels.

Cela peut créer de nombreux défauts subtils dans le comportement, qui ne sont pas immédiatement apparents d’un point de vue mathématique.

Conor Doherty: Eh bien, merci. Nikos, pour revenir sur quelque chose que vous avez dit précédemment et aller de l’avant, vous avez dit que vous vous qualifiez de gars des séries temporelles et qu’auparavant vous étiez concentré sur la précision, puis vous avez dit, “Oh, j’ai changé d’avis et je suis allé au-delà de la précision ou de la focalisation sur la précision de manière isolée.” Pourriez-vous décrire ce processus ? Parce que chaque fois que j’aborde le sujet de la prévision, il est assez difficile de convaincre les gens de ne pas considérer la précision de la prévision comme une fin en soi. Je me souviens même que, dans votre article, vous avez déclaré, “L’objectif de la prévision n’est pas la précision.” Cette affirmation est assez controversée selon à qui on s’adresse. Alors, comment avez-vous concrètement parcouru ce chemin ?

Nikos Kourentzes: Oui, je veux dire que c’est controversé, vous avez tout à fait raison. Mais je pense que c’est un argument que les personnes du monde des séries temporelles acceptent plus volontiers que les utilisateurs de prévisions, si je puis dire. Permettez-moi de commencer par reprendre quelque chose que vous venez de mentionner concernant les horizons de prévision.

Je pense que cette compréhension, selon laquelle les modèles sont capables de produire de bonnes prévisions pour tous les horizons, réside dans la manière dont nous comparons les modèles eux-mêmes. Comme vous le savez, en revenant aux compétitions M que vous avez mentionnées. C’est une interprétation utile des compétitions M, mais tous ces modèles sont optimisés de manière similaire. Même si vous prenez un lissage exponentiel simple et que vous modifiez votre fonction objectif, la manière dont vous estimez vos paramètres, vous pouvez en fait le faire fonctionner beaucoup mieux ou beaucoup moins bien selon différents objectifs ou différents horizons.

Pour moi, cela a également constitué un point de départ pour dire, eh bien, peut-être qu’il se passe quelque chose ici. Et c’est là, par exemple, que je suis un peu critique quant à l’utilisation systématique de méthodes standard… laissez-moi reformuler. Lorsque je travaille avec des doctorants ou des étudiants de Master en dissertation, je leur demande parfois de faire l’implémentation de la manière la plus difficile plutôt que de prendre une bibliothèque, car je veux qu’ils comprennent ce qui se passe réellement sous le modèle. Et c’est là que l’on peut découvrir certains détails et se demander, eh bien, est-ce que cela a du sens ?

L’une des choses qui a déjà été mentionnée est que nous aimons les formules et expressions qui sont faciles à manipuler mathématiquement. Je veux dire “faciles” entre guillemets, car parfois elles sont assez complexes, mais elles restent néanmoins abordables dans la mesure où, avec les bonnes hypothèses, on peut toujours développer les mathématiques. Mais c’est là que réside le problème pour moi : en procédant ainsi, nous finissons par bien comprendre ce qui se passe sous ces hypothèses, et cela est très utile. Cependant, nous oublions souvent de nous demander : et si cette hypothèse était violée ? Et si nous avions une spécification erronée du modèle ?

Pour moi, cette spécification du modèle est le point de départ. Une fois que vous l’introduisez, bon nombre de ces expressions deviennent problématiques. Je devrais être prudent ici et, vous savez, en tant qu’universitaire moi-même, cela ne rend pas cette recherche inutile. Mais c’est une étape. Il faut comprendre toutes les propriétés, puis dire : d’accord, maintenant introduisons la spécification du modèle.

J’ai quelques collègues d’Espagne avec qui j’ai travaillé sur la calibration des politiques de stocks. Et un article sur lequel nous essayons d’obtenir une validation—ce qui est toujours un aspect compliqué pour les universitaires—consiste exactement à essayer de dire, vous savez, supposons que nous ayons une politique très simple, comme une politique de “order up to”, voici ce que nous obtiendrions si nous supposions que le modèle est correct, et voici ce que nous obtiendrions si nous disons que, non, le modèle est mal spécifié. Parce que vous pouvez voir qu’il existe des risques additionnels dans la supply chain, et des risques supplémentaires liés aux stocks.

Pour moi, le moment où l’on peut dire que la précision ne suffit pas, c’est lorsque je commence à penser : eh bien, le modèle est mal spécifié, qu’est-ce que ce risque supplémentaire implique ? Si l’on réfléchit aux politiques de stocks stochastiques, ce que nous affirmons, c’est qu’il existe, disons, un risque stochastique provenant du processus de demande, ce qui est acceptable. Mais ce n’est pas le seul risque. Et je ne prétends en aucun cas capturer tous les risques de la manière dont je l’envisage, mais la logique exige qu’il faille viser bien plus qu’un simple objectif de précision.

Cela ne signifie pas qu’il faut abandonner cet objectif, il doit y avoir, vous savez, même si cet objectif est délaissé, une certaine corrélation doit subsister entre lui et d’autres objectifs. Parce que si l’on ignore complètement l’obtention d’une prévision précise au sens large, alors, selon mon expérience, on ne fait pas bien son travail.

Vous pouvez complètement changer d’objectif, par exemple, en ce qui concerne la congruence, nous constatons même théoriquement qu’il existe un lien avec la précision. Ce lien n’est pas de 100 %, mais il est faible. Cela ne signifie donc pas, pour moi, qu’il faut jeter la précision par la fenêtre. Mais ce n’est certainement pas la fin de la discussion. Maintenant, si vous pouvez remplacer cette métrique par une meilleure qui possède des propriétés similaires, ou par un ensemble de métriques, tant mieux. Peu importe que nous appelions la métrique ainsi ou autrement, ou qu’elle soit la mienne ou celle de quelqu’un d’autre. Mais je crois vraiment que, lorsqu’on introduit la spécification du modèle et que celle-ci implique des risques dans le processus, nous ne pouvons pas nous contenter des métriques traditionnelles.

Conor Doherty: Merci, Nikos. Et Joannes, je reviendrai vers vous dans un instant, mais je tiens à souligner un point, enfin deux points. D’une part, je pense m’être mal exprimé. J’aurais dû dire que la précision n’est pas l’objectif de la prévision. Je crois l’avoir formulé à l’inverse. Mais pour revenir sur un point que vous venez de soulever, et qui est, je pense, un point clé de l’article, c’est que vous ne préconisez pas—corrigez-moi si je me trompe—la recherche de la prévision la plus congruente. Il s’agit plutôt d’un mélange entre précision et congruence. Est-ce une interprétation juste ? Et si oui, pourriez-vous développer cela pour quelqu’un qui ne comprendrait pas comment poursuivre un tel mélange de métriques ?

Nikos Kourentzes: Je devrais d’abord insister sur le fait qu’il s’agit d’un travail en cours, donc je n’ai pas encore la réponse complète à ce sujet. Mais il semblerait qu’une heuristique simple serait la suivante : une fois que vous avez identifié votre collection de prévisions précises, parmi celles-ci, choisissez la plus congruente. Ne sélectionnez pas directement la prévision la plus congruente, car celle-ci pourrait s’avérer très inexacte, si vous voyez ce que je veux dire.

Donc, je perçois ces deux objectifs comme ayant, en d’autres termes, une zone commune où ils s’améliorent simultanément, avant d’aboutir à un compromis. Lorsque vous atteignez ce compromis, orientez-vous davantage vers la congruence.

Conor Doherty: Eh bien, c’était justement la question. Vous utilisez le terme compromis, et c’est, encore une fois, un aspect sur lequel nous insistons beaucoup, ces compromis. Comment, et je comprends qu’il s’agit d’un travail en cours, comment vous ou une entreprise pesez-vous ces compromis, précision contre congruence ? Je sais également que vous tentez de réduire l’instabilité, la fluctuation entre toutes les prévisions congruentes. Pourtant, la précision des prévisions, si imparfaite soit-elle, reste simple à comprendre : on souhaite simplement une prévision plus précise, un chiffre qui augmente. Mais maintenant, nous introduisons une autre dimension. Donc, encore une fois, comment une entreprise aborde-t-elle cette pondération ?

Nikos Kourentzes: Oui, j’ai du mal à donner ici une réponse claire, car je ne dispose pas encore de la réponse définitive. Mais peut-être puis-je illustrer cela par un exemple de logique.

Plus tôt, j’ai mentionné le cas des séries temporelles saisonnières. Ainsi, lorsqu’il s’agit de définir la congruence en tant que métrique—et c’est une discussion que j’ai eue avec d’autres collègues qui disaient : “oh, mais vous pourriez faire ceci ou cela à la place”—l’idée essentielle repose sur la moyenne conditionnelle de la prévision. Qu’est-ce que cela signifie ? Supposons que la demande soit effectivement saisonnière, il existe alors une structure sous-jacente. Cette structure inconnue est la moyenne conditionnelle.

Si je disais que je souhaite obtenir la prévision la plus stable, ou plutôt la plus congruente, il s’agirait en principe d’une ligne droite, une ligne plate. Or, cette ligne plate ne porterait aucune information sur la saisonnalité. Ainsi, la prévision la plus congruente serait en réalité une prévision déterministe qui suppose l’absence de stochasticité, aucune structure dans la série, rien de tel. Ce qui constitue manifestement une mauvaise prévision.

Le juste équilibre consiste donc à vouloir une prévision la plus congruente possible en termes de moyenne conditionnelle. Nous souhaitons qu’elle tente de refléter la saisonnalité, qu’elle suive cette structure. Mais nous n’allons pas aller jusqu’à capturer chaque détail. On pourrait ainsi dire qu’il existe une certaine similitude avec le surapprentissage et le sous-apprentissage, mais ce n’est pas une corrélation à 100 % puisque nous convenons tous que le surapprentissage est une mauvaise chose.

Mais lorsque nous examinons ce même aspect en termes de sur congruence et de sous congruence, il est aisé de constater que la sous congruence est problématique, comme cette ligne plate évoquée précédemment. Cependant, la sur congruence n’est pas nécessairement négative. Et ce “pas nécessairement” est précisément ce qui rend la situation intéressante et complexe. Ce “pas nécessairement” se lie étroitement aux points que Joannes a déjà soulevés, à savoir qu’il existe d’autres aspects dans la gestion des stocks au sein de la supply chain qui nous intéressent. Ainsi, en intégrant cette congruence supplémentaire dans les prévisions, nous facilitons effectivement la tâche des décideurs. D’un point de vue statistique, cela ne donnera pas la prévision la plus précise, mais cela fournira suffisamment d’informations pour permettre au décideur d’agir. De sorte que les décisions ultérieures seront, financièrement ou selon toute autre métrique de stocks que vous emploierez—comme par exemple, la réduction du gaspillage—plus faciles à mettre en œuvre.

Je reste un peu vague ici car je n’ai pas de meilleure alternative que l’heuristique que j’ai évoquée pour l’instant. Comme je l’ai dit, j’espère que le prochain article fournira l’expression mathématique complète qui démontrera, en substance, que c’est un problème trivial. Je ne l’ai pas encore. Ainsi, en pratique, ce que je suggère aux gens, c’est d’identifier leur collection de prévisions précises puis, parmi ces prévisions, de choisir celle qui maximise la congruence. En quelque sorte, une sélection en deux étapes : d’abord constituer un ensemble de prévisions précises, puis opter pour la prévision congruente.

Ce qui est intéressant, c’est qu’il s’avère que, dans la plupart de nos expériences, le modèle choisi est soit un modèle utilisant certaines astuces issues des estimateurs de rétrécissement, soit un modèle recourant à l’agrégation temporelle, etc., car ces techniques ont tendance à lisser les prévisions. Je tiens à souligner que d’autres collègues ont proposé des idées similaires. Ils peuvent modifier la fonction de perte pour inclure, par exemple, un terme visant également à minimiser la variabilité de la prévision. Là où, selon moi, la métrique de congruence se distingue un peu, c’est parce que nous essayons également de montrer le lien avec la précision, en fournissant des expressions qui indiquent exactement où elles se rejoignent et où elles divergent.

Conor Doherty: Merci, Nikos. Joannes, quelles sont vos remarques ?

Joannes Vermorel: Oui, je veux dire que, chez Lokad, nous abordons cela sous un angle légèrement différent. Nous optons pour la voie radicale qui consiste littéralement à évaluer en termes de dollars d’erreur, d’euros d’erreur, et nous partons du principe que les métriques se découvriront, c’est-à-dire qu’elles sont complètement arbitraires. C’est une manière si directe d’optimiser quelque chose quand la métrique peut être n’importe quoi. Alors, comment abordons-nous cela ? Il s’avère que si la métrique est quelconque, elle équivaut en fait à un programme, vous savez, un programme informatique. Il se peut que certaines métriques ne puissent même pas être représentées sous forme de programme informatique, car en mathématiques on peut inventer des concepts qui échappent aux ordinateurs. Mais, afin d’ancrer la discussion, nous partons du principe que nous n’entrons pas dans des espaces mathématiques super bizarres et hyper abstraits. Ainsi, nous avons quelque chose qui peut au moins être calculé. C’est donc un programme, un programme arbitraire.

Le point positif, c’est que si vous voulez optimiser quoi que ce soit, il vous faut avant tout des gradients. Dès que vous en avez, vous pouvez orienter. Pour le public, dès que vous obtenez la pente, cela signifie que vous pouvez ajuster vos paramètres dans la direction appropriée pour minimiser ce que vous cherchez à diminuer. Ainsi, chaque fois que vous souhaitez optimiser, obtenir quelque chose de plus élevé ou inférieur avec une intention précise, le fait d’avoir accès aux gradients vous indique la direction à suivre, et cela aide énormément.

C’est là qu’intervient réellement le Differentiable Programming, car ce paradigme de programmation, que Lokad utilise de manière intensive, vous permet de prendre n’importe quel programme et d’en extraire les gradients, ce qui est extrêmement puissant. C’est typiquement ainsi que nous relions cette perspective financière. Nous allons découvrir ces éléments financiers. Le processus sera désordonné, très aléatoire, et le résultat sera un programme quelque peu étrange qui reflète simplement les bizarreries, les particularités de la supply chain concernée.

Nous pouvons différencier n’importe quel programme, ainsi nous pouvons différencier celui-ci puis optimiser, en fonction de cela, quel que soit le modèle que nous utilisons, à condition que le modèle soit différentiable. Cela restreint notre approche aux modèles dotés d’une structure différentiable, mais ô surprise, il s’agit en réalité de la majorité. Dans cette compétition, la M5, pour la compétition de Walmart, nous avons essentiellement été classés numéro un au niveau SKU grâce à un modèle différentiable.

Ainsi, imposer la différentiabilité n’est pas un frein à l’obtention de résultats de pointe. Maintenant, pour faire court, c’est l’essence même de ce qui se produit lorsque vous abandonnez vos métriques, car généralement, nous finissons par équilibrer une multitude d’éléments.

Une autre approche consiste en la prévision probabiliste, c’est-à-dire l’idée d’examiner tous les futurs possibles, et pas seulement pour la demande. Par exemple, vous évoquiez les délais de livraison avec des horizons potentiels et ainsi de suite, mais la réalité est que le délai de livraison varie, et vous êtes également confronté à de l’incertitude.

Pire encore, le délai de livraison que vous observerez est lié à la quantité que vous commandez. Si, par exemple, vous commandez 100 unités, cela pourrait être plus rapide que si vous commandez 1000 unités, tout simplement parce que l’usine qui produit les articles aura besoin de plus de temps.

Ainsi, vous vous retrouvez avec des tonnes de corrélations qui façonnent et structurent l’incertitude. Ainsi, la perspective unidimensionnelle sur les séries temporelles est insuffisante, même si nous parlons d’un seul SKU, car nous devons ajouter quelques couches d’incertitude supplémentaire, au moins pour les délais de livraison, au moins pour les retours avec le e-commerce, et ainsi de suite.

J’utiliserai le terme congruence de manière large car vous venez de l’introduire, mais notre observation pratique, lorsque nous sommes passés aux modèles probabilistes, était que ces modèles, d’un point de vue numérique, étaient nettement plus stables.

C’était très intéressant car la plupart de ces instabilités, incongruités, ou quoi que ce soit, reflètent simplement que vous avez beaucoup d’incertitude ambiante. Et vous avez des zones de probabilités relativement plates. Ainsi, selon à peu près n’importe quelle métrique, tant que vous disposez d’une prévision ponctuelle, le modèle peut fluctuer largement.

Et en termes de métriques, peu importe celle que vous choisissez, elles seront pratiquement les mêmes. Ainsi, vous vous retrouvez avec la propriété étrange que, encore une fois, si vous vous contentez de prévisions ponctuelles, c’est que si vous avez une situation de forte incertitude, une incertitude ambiante élevée, vous vous retrouvez avec ce genre de problèmes où vous pouvez obtenir des prévisions très, très différentes qui, selon vos métriques, sont quasi identiques.

Et ainsi, vous vous retrouvez avec ce tremblement, etc. Et c’est lorsque vous passez aux prévisions probabilistes que vous entrez dans un domaine où, eh bien, le bon modèle sera celui qui exprime cette dispersion, qui exprime cette forte incertitude ambiante. Et cela, en soi, est bien plus, je dirais, constant.

C’est très étrange, mais vous vous retrouvez avec – nous avons eu des tonnes de situations où nous peinions énormément à obtenir un semblant de stabilité numérique, et ensuite, lorsque vous passez au domaine des prévisions probabilistes, dès le départ, vous avez quelque chose de nettement plus stable où ces problèmes qui nuisaient vraiment deviennent secondaires.

C’est donc assez intéressant. Et puis nous pouvons relier tout cela à d’autres éléments. Quand nous dépassons la prévision des séries temporelles, nous en avons discuté un peu sur cette chaîne, mais ce serait un hors-sujet : la plupart des problèmes de supply chain s’accompagnent d’un fort couplage entre les SKU, d’un couplage entre les produits.

Et ainsi, nous sommes très souvent amenés à adopter une perspective non centrée sur les séries temporelles, une perspective à plus haute dimension. Mais encore, c’est une digression sur digression.

Nikos Kourentzes : Je suis tout à fait d’accord. La prévision probabiliste est absolument nécessaire. J’en suis arrivé au point où, en consultant certains articles inachevés qui traînent depuis quelques années, et en constatant qu’il n’y a pas de prévision probabiliste, je pense devoir tout remanier. Elle doit intégrer la prévision probabiliste, nous sommes en 2024 maintenant. Mais voilà, j’apprécie la prévision probabiliste, notamment telle que l’a expliquée Joannes, car cela me donne une autre manière de faire valoir le point concernant la spécification du modèle.

Lorsque vous observez l’incertitude entourant votre prévision, nous supposons généralement que cette incertitude provient de la nature stochastique des séries temporelles. Mais une grande partie de cette incertitude résulte de l’incertitude du modèle. Vous avez l’incertitude provenant des données, celle provenant de votre estimation, et l’incertitude propre au modèle. Il se peut qu’il manque certains termes, ou qu’il en comporte davantage, ou qu’il soit tout simplement complètement décalé. Disséquer cette incertitude demeure un problème majeur.

Si vous ne dissociez pas cette incertitude, vous constaterez souvent qu’un grand nombre de modèles différents, à moins qu’ils ne soient substantiellement différents, finiront par masquer l’incertitude par leur incertitude de modèle. Ils vous donneront une incertitude plus élevée, du moins empiriquement, et une grande partie de cette incertitude semblera similaire, car ce qu’ils essaient de vous dire, c’est que tous ces modèles posent problème.

Vous n’atteignez pas la véritable profondeur de cette incertitude due aux éléments stochastiques de la demande. Je n’ai toujours pas réussi à trouver une bonne solution et je n’ai rien vu dans la littérature. Mais au moins, la prévision probabiliste est honnête en affirmant, eh bien, voilà votre incertitude. Elle est un peu plus grande que ce que nous pensions si l’on se basait sur la prévision ponctuelle. C’est un bon pas vers la solution.

Conor Doherty : Merci à vous deux. Il me vient à l’esprit que j’ai ici deux universitaires ainsi que deux praticiens. Je pense qu’à ce stade, il serait opportun de m’orienter vers le côté pratique. Toute la démarche de ce que fait Lokad, et certainement votre article et vos recherches en général, Nikos, consiste à l’appliquer à la prise de décision en matière de stocks. Sur ce point, Joannes, lorsque vous avez évoqué les bizarreries et particularités de la supply chain, les délais de livraison variables et l’effet bullwhip, tous ces concepts, votre position, Nikos, dans le document de travail dont nous parlons, était que viser la congruence des prévisions peut aider à traiter ou atténuer les effets de l’effet bullwhip. Pourriez-vous esquisser cela afin que le public comprenne comment cette idée peut aider à faire face à ce qui est un problème sérieux, l’effet bullwhip ?

Nikos Kourentzes : Je suppose que votre audience en est bien consciente. Le problème que j’ai avec de nombreuses recherches sur l’effet bullwhip, c’est qu’elles se contentent de le décrire plutôt que de proposer concrètement des actions pour y remédier. Du moins, venant surtout du point de vue des séries temporelles où l’on dit : “oh, regardez, voici votre ratio bullwhip.” Mais cela n’est, en de nombreux points, qu’une description du problème. Cela ne vous dit pas comment y faire face une fois qu’il a été mesuré.

C’est ici que je dis, eh bien d’accord, si je veux connecter la prévision à la décision plutôt que de les garder séparées, il me faut nécessairement quelque chose qui puisse me dire, eh bien, si vous prenez cette direction, vous allez réduire votre bullwhip. Il s’avère que sans en avoir compris l’origine dès le départ, si l’on travaille sur les équations, la congruence et le ratio bullwhip semblent, au moins, partager de nombreuses similitudes. Cette imposition de similitude sur les périodes, ou congruence comme nous l’appelons simplement, paraît fortement alignée avec l’idée d’obtenir un faible bullwhip à partir de vos prévisions. Bien sûr, il y a beaucoup d’autres raisons pour lesquelles vous allez rencontrer un bullwhip.

Donc, si nous utilisons une métrique congruente ou quelque chose de similaire pour sélectionner ou spécifier vos modèles de prévision, alors vous pouvez déjà viser une solution qui sera plus favorable en termes de bullwhip. Ici, je pense qu’au moins, puisque je travaille dans le domaine de la prévision, je dois reconnaître que le bullwhip est bien plus vaste que la prévision. La prévision n’en est qu’une partie. D’innombrables autres éléments entrent en jeu. Mais au moins pour la prévision, vous pouvez concevoir, si l’on réfléchit en termes de congruence et de modes de pensée similaires, des prévisions qui lui sont au moins favorables.

Joannes Vermorel : Lorsque nous abordons l’effet bullwhip, quand j’ai dit que nous examinions la décision et optimisions les euros et les dollars, je simplifiais en réalité. Parce que la réalité, c’est que nous nous intéressons en réalité au processus décisionnel séquentiel. Et ici, nous touchons essentiellement à l’optimisation stochastique des processus de prise de décision séquentiels, qui fut un sujet discuté avec le professeur Warren Powell.

Nous n’optimisons pas seulement la décision suivante, mais bien toutes celles qui suivent. Nous devons disposer d’un mécanisme permettant de ramener toutes ces informations du futur, où nous avons simulé les décisions futures qui seront générées via ces prévisions, jusqu’à aujourd’hui. C’est là que la programmation différentiable brille, car en essence, vous avez un programme qui simule, joue un rôle, si vous voulez, les décisions futures et vous devez être en mesure de rétro-propager le gradient pour pouvoir réinjecter ces résultats financiers futurs dans la conception de vos prévisions actuelles.

La manière dont nous envisageons généralement cela, c’est que si nous revenons au bullwhip, ne soyez pas surpris par le bullwhip. Il n’y a rien dans votre cadre d’optimisation qui prenne même en compte les euros de coût qu’il générera dans le temps. Il n’y a rien qui réalise cette analyse du processus décisionnel séquentiel consistant simplement à répéter la décision au fil du temps pour voir si vous allez rencontrer des problèmes de bullwhip.

La solution n’est pas si compliquée. Il suffit d’optimiser non seulement la décision suivante que nous envisageons, mais tout ce qui suit. Implicitement, ce que nous optimisons, c’est en quelque sorte la politique. Mais, en général, les gens considèrent l’optimisation de la politique comme strictement indépendante de la prévision. Ils envisageraient une optimisation de la politique qui se contente de consommer la prévision. La vision de Lokad est que non, ces éléments sont en réalité interconnectés.

La prévision supérieure va de pair avec la politique supérieure. Les deux sont très connectés. Il y a même un article récent d’Amazon, “Deep Stocks Optimization”, où ils suppriment littéralement la distinction. Ils disposent directement de quelque chose qui unifie la modélisation prédictive et la recherche opérationnelle, qui sont généralement séparées. Ils disent : non, nous allons simplement faire les deux choses en même temps, et ils ont un modèle d’optimisation prédictive complet grâce au deep learning.

C’est très intéressant car cela signifie littéralement que la décision est optimisée de manière prédictive, mais que la prévision elle-même devient complètement latente. C’est simplement une autre façon d’aborder le problème, mais c’est très futuriste et cela engendre d’autres problèmes. Mais, en y regardant de plus près, nous avons toujours la partie de modélisation prédictive et la partie d’optimisation stochastique comme deux étapes, deux étapes qui sont étroitement couplées et entre lesquelles il y aura beaucoup d’allers-retours.

Nikos Kourentzes : Je pense en réalité que garder les deux étapes séparées présente des avantages. Cependant, elles ne devraient pas être isolées et il y a une raison à cela. Je suis entièrement d’accord pour dire que l’une devrait guider l’autre. J’ai travaillé par le passé avec l’idée d’avoir une optimisation conjointe à la fois de la politique de stocks et de la prévision. L’article est publié, donc les détails sont disponibles pour ceux qui souhaitent voir ce qui se passe. Mon inquiétude concernant ce travail était que je ne parvenais pas à le rendre évolutif. Je n’avais pas de moyen d’optimiser de manière à pouvoir gérer un grand nombre de SKU. Cela pourrait être dû à mes limites en optimisation plutôt qu’au dispositif lui-même.

Je pense en effet que maintenir les deux étapes séparées contribue à une plus grande transparence dans le processus. Si j’ai une solution conjointe et que, soudain, je déclare que vos stocks pour vos commandes pour la période suivante devraient être de 10 et que quelqu’un dit, eh bien, je pense qu’ils devraient être de 12, il est très difficile de justifier pourquoi 10 a plus de mérite que 12. Si vous comprenez la prévision et la politique découlant de cette prévision, vous pouvez avoir une discussion plus transparente. “D’accord, voici ma prévision, voici les tenants et aboutissants de la prévision, voici ma politique basée sur une bonne prévision ou potentiellement même ajustée en fonction des options de prévision dont je dispose, ou inversement”, vous pouvez dire : “Si je suis coincé avec ces politiques, peut-être que seules ces sortes d’options de prévision devraient être utilisées.” Mais vous conservez la transparence en affirmant : “Je peux voir des éléments de prévision problématique ici, je peux voir des éléments de commande problématiques ici.”

Et l’autre élément avec lequel j’ai un problème, c’est que les gens se lancent complètement dans une optimisation ou une prévision obscure, en accordant une confiance démesurée au deep learning. Quelle que soit la manière dont nous réalisons la modélisation, à un moment donné, les humains interagiront avec le modèle et ses résultats. La recherche et mon expérience suggèrent que si les personnes comprennent ce qui se passe, leur interaction avec le modèle et les chiffres, ainsi que les ajustements qu’elles pourraient effectuer pour intégrer des informations contextuelles, seront plus probants.

Si c’est un chiffre très obscur, cette boîte noire, beaucoup de gens auront tendance à dire qu’ils ne sauront pas quoi faire de ce chiffre ou qu’ils y interviendront de manière destructive. J’aime maintenir la séparation car cela aide à la transparence. Cela décompose le problème en indiquant que telle est la contribution provenant d’ici, telle celle provenant de là. Je suis donc enclin à adhérer assez fortement à l’approche que décrit Johannes. Nous devons d’une manière ou d’une autre relier les tâches, l’une devant mener à l’autre, tout en étant capables de décrire ce que chaque étape accomplit.

Conor Doherty : Merci, Nikos. Je reviendrai vers vous, mais je tiens à revenir sur un point. Vous avez mentionné à plusieurs reprises l’intervention humaine et le fait de passer outre. Quel est le rôle de l’intervention humaine en termes de congruence des prévisions ? La tendance est souvent, si vous ne mesurez que l’exactitude, de dire “le modèle a tort, je sais mieux, laissez-moi intervenir”, et bien sûr dans de nombreux cas, cela augmente le bruit. Comment la congruence des prévisions, en tant que concept, gère-t-elle cela ? Implique-t-elle beaucoup d’interventions ou non ?

Nikos Kourentzes : Cette prévision comportementale ou ces ajustements de jugement, différents noms dans la littérature, je pense que nous n’en savons toujours pas assez, bien que ce soit un domaine de recherche très actif. Certains articles soutiennent que nous devrions éliminer ces ajustements car ils sont contre-productifs, voire destructeurs en termes d’exactitude ou de résultat final. Le problème avec cette approche est qu’il faut disposer d’une métrique. Si j’utilise l’erreur en pourcentage absolu moyen, j’obtiendrai une réponse. Si j’utilise l’erreur quadratique moyenne, j’obtiendrai une autre réponse. Si j’utilise la congruence, j’obtiendrai encore une autre réponse.

Cependant, la question que j’ai, en revenant à notre tout premier point de la discussion, est : pourquoi ne pas se contenter de l’exactitude ? Je veux dire, vous ne vous limitez pas uniquement à l’exactitude. Tant que nous reconnaissons que c’est important, il faut évidemment ajuster ou évaluer les aspects comportementaux du processus de prévision ou du processus de stocks avec une métrique plus pertinente que l’exactitude. Je ne pense pas qu’il faille éliminer l’intervention humaine. Il existe suffisamment de preuves que, lorsque les informations contextuelles à disposition sont riches, ils peuvent faire mieux que la plupart des modèles. Cependant, ils ne peuvent pas ajouter de la valeur de façon constante. Il existe de nombreux cas où ils ressentent simplement le besoin de faire quelque chose ou réagissent de manière excessive à des engouements ou à des informations dont l’impact sur vos stocks est très difficile à saisir. Dans ces cas-là, il s’agit d’une interaction destructrice avec le modèle ou les prévisions.

Nous devons conserver l’élément humain car il peut apporter de la valeur, mais nous devons guider quand il doit le faire. C’est un processus qui prend du temps. Si je peux dire aux analystes de laisser certaines tâches à l’automatisation complète et de concentrer leur attention sur des actions spécifiques, alors je peux également rendre leur travail plus efficace. Ils peuvent consacrer plus de temps et de ressources à faire ce qu’ils font de mieux. La congruence intervient dans cette discussion où nous affirmons que si nous devons aller au-delà de la précision, alors en évaluant quelles étapes ajoutent de la valeur, cela peut aider à discriminer celles relevant du domaine des stocks ou, de façon plus générale, du processus décisionnel.

De même, je ferais une discussion analogue pour les commandes. Les modèles ou politiques vous fourniront probablement une bonne base si vous faites bien votre travail en tant qu’analyste. Cependant, je ne vois pas que cela puisse être universellement le chiffre le plus informatif. Il y aura toujours certains éléments, certaines disruptions qui se sont produites ce matin dans la supply chain par exemple, quelque chose de difficile à évaluer. Cela ne posera pas la question de savoir si cela vieillit bien ou non. Il y a toujours des conflits dans le monde. Parfois, cela affectera votre supply chain, parfois non. Parfois, cela pourra faire peser des pressions, disons, sur l’inflation, et ainsi vos consommateurs commenceront à agir différemment. Ce sont des éléments extrêmement difficiles à modéliser.

C’est donc ici que j’ai confiance dans les experts et les analystes qui ont le temps d’accomplir leur travail correctement. Et peut-être puis-je conclure, en ce qui concerne les ajustements, en disant que la recherche suggère que décomposer vos ajustements, c’est-à-dire si vous déclarez, “D’accord, je vais affiner le chiffre de 100”, en expliquant, “D’accord, pourquoi 100 ? Parce que 20 pour telle raison et 80 pour telle raison”, correspond beaucoup à ce que nous disions auparavant, à savoir décomposer, si vous le souhaitez, ou conserver distinctement les deux étapes de prévision et de stocks, sans les isoler.

Parce que si vous dites, “Très bien, je vais modifier ma commande de x %”, et que nous demandons à la personne qui fait cela : “Pouvez-vous expliquer quelle partie de ce changement découle de votre compréhension du risque issue du modèle de prévision ou des réalités de la supply chain ?”, elle pourra potentiellement proposer un meilleur ajustement.

Conor Doherty: Merci, Nikos. Johannes, je vous passe la parole. Vous êtes un grand partisan de l’intervention humaine, ai-je raison ?

Joannes Vermorel: Non, pendant les cinq premières années chez Lokad, nous laissions les gens ajuster les prévisions et cela fut une terrible erreur. Le jour où nous avons commencé à être un peu dogmatiques et à l’interdire complètement, les résultats se sont améliorés de façon spectaculaire. Ainsi, nous n’autorisons plus vraiment cela.

Commençons donc par considérer le rôle des humains. On pense immédiatement à un SKU, mais ce n’est pas typique. Une supply chain typique comporte des millions de SKUs. Ainsi, lorsque les gens disent vouloir effectuer des ajustements, ils se lancent dans une micro-gestion d’un système incroyablement complexe. C’est un peu comme si vous accédiez à la mémoire aléatoire de votre ordinateur pour réorganiser la façon dont les données y sont stockées, alors que vous disposez de gigaoctets de mémoire et de disque, etc. Vous ne faites que sélectionner quelques éléments qui ont attiré votre attention et ce n’est tout simplement pas une bonne utilisation de votre temps.

Et peu importe la quantité d’informations que vous obtenez, vous ne les recevez presque jamais au niveau du SKU. Oui, il se passe quelque chose dans le monde, mais est-ce que cela se situe au niveau du SKU ? Car si votre interaction avec un système consiste à modifier quelque chose comme un SKU, sur quelle base disposez-vous d’informations de haut niveau qui se traduisent par quelque chose d’à peine pertinent au niveau du SKU ? Nous faisons donc face à un décalage massif.

Les gens pourraient penser qu’en prenant, par exemple, une situation réaliste avec 10 millions de SKUs – ce qui est une base pour une entreprise qui n’est même pas très grande – c’est mon point de vue, et c’est précisément ce que Lokad a constaté comme une amélioration massive : c’est que cela relève en grande partie du non-sens. Vous ne faites que sélectionner environ 0,5 % des SKUs pour intervenir, ce qui n’a pas de sens et crée généralement de nombreux problèmes. De plus, cela engendre énormément de code, car les gens ne réalisent pas que permettre l’interaction implique d’écrire beaucoup de code pour le supporter, code qui peut contenir des bogues. C’est le problème des enterprise software. Les gens considèrent cela comme s’il s’agissait uniquement de propriétés mathématiques, pourtant l’enterprise software contient des bogues, même celui que Lokad développe, malheureusement.

Et quand vous avez une grande entreprise, vous souhaitez avoir une interaction humaine, vous avez besoin d’workflows, d’approbations, de vérifications, d’auditabilité. Vous vous retrouvez alors avec tellement de fonctionnalités que, partant d’un modèle qui compte environ mille lignes de code – le modèle statistique, si vous préférez – vous finissez avec un workflow qui en compte environ un million, rien que pour tout faire respecter.

Donc oui, l’intention est en partie bonne et je crois qu’il y a de la valeur dans l’interaction humaine, mais absolument pas de la manière typique dont elle est réalisée. La façon dont Lokad aborde l’interaction humaine est de dire : d’accord, il se passe quelque chose dans le monde, oui. Revisitions donc la structure même du modèle – vous voyez, encore une fois, le modèle prédictif et l’optimisation. Et encore, la position classique dans la littérature est de considérer les modèles comme quelque chose de donné. Vous avez un article, il est publié, et c’est avec cela que vous opérez. Chez Lokad, nous ne fonctionnons pas ainsi. Nous abordons essentiellement la modélisation prédictive et l’optimisation par le biais de paradigmes de programmation. Lokad ne dispose donc d’aucun modèle préétabli, nous avons une longue série de paradigmes de programmation. En somme, tout est entièrement sur mesure et assemblé sur le moment.

Et donc, en substance, il s’agit de code, assorti des bons paradigmes de programmation. Et lorsque quelque chose se produit, ces paradigmes vous offrent une manière d’exprimer vos modèles prédictifs ou d’optimisation de façon très précise, très concise. C’est littéralement réduire ces 1 000 lignes de code à 20 grâce à une notation appropriée, si vous le souhaitez.

Ensuite, vous pouvez retourner à votre code et penser : d’accord, j’ai quelque chose et je dois intervenir. Ce n’est pas au niveau du SKU, car il est très rare que vous disposiez d’informations à ce niveau. Les informations que vous récoltez du monde extérieur sont typiquement de nature beaucoup plus générale. Vous allez donc plutôt ajuster un aspect de haut niveau de votre modèle. Et c’est là toute la beauté : vous n’avez pas nécessairement besoin d’une multitude d’informations très précises.

Par exemple, si vous travaillez dans l’industrie des semi-conducteurs et que vous vous inquiétez d’une tension accrue entre la Chine et Taïwan, vous diriez alors : “Eh bien, je vais simplement prendre les délais et y ajouter une composante, où il y a, par exemple, 5 % de chances que les délais doublent.” Normalement, les délais dans les semi-conducteurs sont très longs, environ 18 mois, mais ici, vous introduisez de manière inopinée un aspect, disons 5 % de chances annuelles que les délais doublent pour une raison quelconque.

Il n’est pas nécessaire d’être précis, vous savez, au final cela peut être dû à un conflit, une série de confinements, une grippe qui ferme des ports, ou autre chose. Mais c’est là la beauté de cette approche probabiliste : combinée aux paradigmes de programmation, elle vous permet d’injecter une intention de haut niveau dans la structure même de vos modèles. Ce sera très rudimentaire, mais cela vous permettra d’agir de manière directionnelle, plutôt que de microgérer les surcharges au niveau des SKUs.

Et l’aspect intéressant est que si je reviens à cet exemple où nous ajoutons ces 5 % de chances de doubler les délais, l’astuce réside dans le fait que vous pouvez littéralement nommer ce facteur. Vous diriez : “C’est notre Fear Factor.” Et voilà. Vous dites simplement : “D’accord, c’est mon facteur de crainte pour les événements vraiment désastreux”, et cela suffit. La beauté de cette approche réside dans le fait qu’une fois défini, toutes vos décisions seront doucement orientées vers cette probabilité supplémentaire d’un événement rare, sans avoir à microgérer SKU par SKU ou à entreprendre toutes sortes d’actions qui ne résisteront pas au temps.

Et si, six mois plus tard, vous réalisez que votre crainte n’était pas justifiée, il est très facile d’annuler cet ajustement. Pourquoi ? Parce que votre code inclut ce Fear Factor, accompagné d’un commentaire indiquant : “Ceci est mon terme, c’est le Fear Factor.” Vous voyez donc qu’en matière de documentation, de traceabilité, de réversibilité, aborder un problème via des paradigmes de programmation aboutit à quelque chose de très facile à maintenir. Car c’était également l’un des problèmes rencontrés par le passé lorsque les gens intervenaient manuellement, ce qui représentait en grande partie le coût réel, du fait de la mauvaise maintenance des interventions manuelles.

Parfois, les gens, pas toujours, mais parfois, ont la bonne idée d’appliquer une intervention manuelle, puis de l’oublier. Et ensuite, cette intervention persiste et devient radicalement néfaste. C’est là tout le problème, car une fois l’intervention manuelle introduite, on se demande : “Pourquoi l’avoir introduite ?” Le souci avec ces interventions, c’est que lorsqu’on est un fournisseur de logiciels tel que Lokad, on régénère nos prévisions chaque jour. Ainsi, les gens ne peuvent pas simplement surcharger votre prévision, car demain, tout sera régénéré.

Il faut donc enregistrer cette intervention d’une manière ou d’une autre. Le problème est qu’alors vous vous retrouvez avec un paramètre persistant qui reste en place, et qui est chargé de sa maintenance ? Et ensuite, vous obtenez un workflow encore plus complexe pour gérer la maintenance des interventions, leur suppression progressive, etc. Et toutes ces questions ne sont jamais abordées dans la littérature. C’est très intéressant, mais d’un point de vue d’un fournisseur de logiciels d’entreprise, c’est une situation extrêmement pénible, qui finit par multiplier par 20, voire par 100, le nombre de lignes de code à gérer, un aspect fort peu pertinent comparé à l’optimisation prédictive fondamentale.

Nikos Kourentzes: En principe, la position que prend Joannes est une position sur laquelle, je pense, peu de gens seraient en désaccord, du moins parmi ceux qui ont vu des deux côtés. Mon point de vue est que les ajustements n’ont pas à se faire de cette manière. Je n’ai pas encore de solution à ce problème, car c’est un domaine de recherche très actif. Comme je l’ai dit, je sais que beaucoup de personnes ont travaillé sur la question de savoir s’il fallait éliminer ce type d’ajustements ou un autre.

Vous pouvez également aborder le problème d’une manière très différente. Permettez-moi d’essayer de répondre en évoquant une recherche analogue menée avec l’un de mes collègues, Ive Sager. Il est en Belgique. Nous travaillons beaucoup pour essayer de déterminer comment transférer l’information existant au niveau stratégique ou au niveau de l’entreprise vers le niveau des SKUs.

Cela pourrait ainsi offrir une solution qui vous permettrait de dire : “Regardez, je ne vais pas ajuster chaque SKU.” Je suis tout à fait d’accord pour dire que la micro-gestion n’est pas une bonne idée, que ce soit pour vos SKUs ou en général. Mais c’est une autre discussion. Si l’on laisse les gens faire des ajustements à volonté, la plupart du temps, en raison des biais humains, de la propriété et autres, ils finiront par perdre leur temps.

En ce qui concerne le côté logiciel évoqué par Joannes, je dois accepter votre opinion telle quelle. Je ne suis pas du même domaine, bien que je convienne que les bogues sont omniprésents – mon code en témoigne – mais je peux imaginer une autre manière d’envisager les ajustements en tant que processus global.

Je ne pense pas qu’il soit pertinent de dire, “Vous savez, je dois maintenant gérer X nombre de séries temporelles.” Ce serait plutôt, “Stratégiquement, nous changeons de direction ou notre concurrent a fait X.” Ce sont des actions très difficiles à quantifier, donc il vaut peut-être mieux dire que l’inaction est préférable à une quantification aléatoire.

Mais je peux également constater que ces informations ne se trouvent pas dans les modèles. Ainsi, si j’ajoute au modèle un risque supplémentaire que l’utilisateur peut calibrer, ou si je demande à l’utilisateur : “Pouvez-vous proposer une autre manière d’ajuster votre résultat ?”, il subsiste toujours un élément de jugement d’une manière ou d’une autre. Quelle est la meilleure façon d’introduire cet élément de jugement, je pense que c’est une question ouverte.

Je ne trouve pas la méthode habituelle d’ajustement productive. Ce n’est pas seulement le fait que, comme le mentionne Joannes, cela complique le processus, mais aussi que je constate que les gens finissent par perdre leur temps. Ils se disent que leur travail consiste à venir au bureau pour examiner chaque série temporelle une par une, observer les chiffres ou les graphiques. Ce n’est pas ce qu’un analyste devrait faire.

Surtout de nos jours, où les entreprises commencent à avoir des équipes de data science, où l’expertise est présente et où il y a des personnes bien formées sur le marché, nous ne devrions pas leur faire perdre leur temps de cette manière ; nous devrions les mettre à contribution pour améliorer le processus. C’est pourquoi je pense qu’il y a une place pour les ajustements, mais pas de la manière traditionnelle de les réaliser. La recherche est, selon moi, assez concluante en ce sens que, en raison des incohérences et des biais, en moyenne, vous n’en tirerez pas les bénéfices escomptés.

Conor Doherty: Rien dans la recherche de la congruence des prévisions en tant que métrique n’exclut la possibilité d’avoir de l’automatisation. L’automatisation pourrait-elle encore faire partie du processus de prévision dans la quête de la congruence, n’est-ce pas ? Ou ai-je mal compris ?

Nikos Kourentzes: Dans un certain sens, vous avez raison. Ma compréhension de la congruence, telle qu’elle est définie et telle que nous l’avons observée empiriquement dans les données d’entreprise, indiquerait en réalité à l’utilisateur d’éliminer tous les ajustements mineurs. Car ces ajustements entraîneraient des fluctuations supplémentaires qui seraient incongruentes. Naturellement, cela pousserait à éliminer de nombreux ajustements.

Nikos Kourentzes: Mais je reste un peu sceptique, car nous devons comprendre à quel moment nous devenons trop congruents, où l’information dont disposent les experts serait cruciale. C’est toujours une question ouverte. Toutefois, si nous prenons en compte le processus habituel que Joannes et moi avons critiqué, les métriques de congruence vous aideraient à identifier le problème.

Conor Doherty : Donc, aucun de vous n’est d’avis qu’il faudrait, au quotidien, prendre manuellement chaque SKU et ajuster cela. Ce serait tout simplement un gaspillage d’argent ridicule. Il y a donc un accord total à ce sujet.

Joannes Vermorel : Mais c’est une pratique de facto dans la plupart des entreprises. Je suis d’accord quand vous dites vouloir traduire l’intention stratégique. Je suis complètement d’accord. Et quand je dis que j’utilise le terme paradigmes de programmation, je fais simplement référence aux types d’instruments qui vous permettent de faire cela. Vous, en gros, vous ne voulez pas que les gens se retrouvent englués à microgérer les SKU, vous ne voulez pas que quiconque, dans l’équipe data science, qui tente de traduire l’intention stratégique, soit empêtré à écrire du code long et inélégant, qui est plus susceptible, que la plupart, de comporter encore plus de bugs et de problèmes.

Par exemple, vous avez une distribution de probabilité pour la demande, vous avez une distribution de probabilité pour les délais, et vous voulez simplement combiner les deux. Avez-vous un opérateur pour faire cela ? Si vous avez un opérateur, Lokad en possède un, vous pouvez littéralement avoir une ligne de code qui vous donne le lead demand. C’est la demande intégrée sur un délai variable. Sinon, vous pouvez recourir à la méthode Monte Carlo pour sortir de la situation, sans problème. Ce n’est pas très difficile. Vous savez, avec Monte Carlo, vous allez échantillonner votre demande, vous allez échantillonner vos délais, et voilà, vous ferez cela, sans problème. Mais au lieu d’avoir quelque chose qui tient en une ligne, cela prendra du temps, et vous avez une boucle. Donc, si vous avez une boucle, cela signifie que vous pouvez avoir des exceptions d’index hors limite, des erreurs de décalage d’un élément, vous avez toutes sortes de problèmes. Encore une fois, vous pouvez résoudre cela en ayant du pair programming, des tests unitaires, etc., mais cela ajoute du code.

Donc, mon point était, et je vous suis vraiment, je pense qu’ici, vous voyez, c’est l’essence même de ce que vous mentionniez. Ils ont une équipe data science. Le but est de déplacer la solution, et je suis complètement d’accord avec vous, c’est de déplacer la solution de « je modifie un nombre » à « je modifie un morceau de code ». Et je pense que c’est exactement, je pense qu’ici, sur ce point, nous sommes assez alignés. Si nous déplaçons essentiellement l’intervention humaine de « je modifie un nombre et je choisis un constant dans mon système et je le modifie » à « d’accord, je vais m’occuper d’un code et repenser un peu ce qu’est l’intention et faire cet ajustement », alors je peux approuver et cela fonctionne.

Mon point était de déplacer la solution de modifier un nombre à modifier un morceau de code. Si nous déplaçons l’intervention humaine de modifier un nombre à nous occuper du code et repenser un peu ce qu’est l’intention, puis effectuer cet ajustement, alors je peux approuver et cela fonctionne.

Et en effet, si nous revenons au gaspillage de temps, ce qui est intéressant, c’est que lorsque vous modifiez le code, oui, cela prend beaucoup plus de temps pour changer une ligne de code. Cela prendra peut-être une heure, alors que changer un nombre prend environ une minute. Mais cette heure va alors s’appliquer à l’ensemble de l’entreprise. Vous savez, faite au bon niveau, c’est que cette heure de codage vous offre un bénéfice à l’échelle de l’entreprise contrairement à cette minute sur un SKU qui vous donne éventuellement un bénéfice, mais uniquement pour le SKU.

Conor Doherty : Donc, vous parlez de la différence entre modifier manuellement un résultat, ce que la prévision indiquait, et modifier la recette numérique qui produit la prévision ?

Joannes Vermorel : Exactement, il y a une information dans ce monde, la prémisse de base je pense, c’est qu’il y a une information présente dans les actualités ou peut-être une information privée à laquelle vous avez accès via le réseau de l’entreprise elle-même. Vous avez donc un élément d’information supplémentaire qui n’est pas dans le modèle, qui n’est pas dans les données historiques.

Donc, je suis d’accord avec l’énoncé, et je suis d’accord avec l’idée que oui, nous n’avons pas encore la super intelligence, ni l’intelligence générale. Nous ne pouvons pas avoir ChatGPT qui, vous savez, traite tous les emails de l’entreprise et fait cela pour nous. Nous n’avons donc pas ce degré d’intelligence à notre disposition. Il faut donc que ce soient des esprits humains qui fassent ce tri. Et je suis d’accord qu’il y a de la valeur à avoir des personnes qui réfléchissent de manière critique à cette information et essaient de la refléter fidèlement dans la supply chain.

Et je suis vraiment en phase avec Nikos dans le sens où il dit, et puis data science, car oui, en fin de compte, il devrait incomber à l’équipe data science, chaque jour, de se dire : j’ai un modèle. Est-il véritablement fidèle à l’intention stratégique de mon entreprise ? Ce qui est une question de très haut niveau, à savoir : est-ce que je reflète sincèrement la stratégie telle qu’exprimée par celui qui l’élabore dans l’entreprise ? Ce qui est un problème qualitatif, et non quantitatif.

Nikos Kourentzes : Permettez-moi d’ajouter quelque chose ici, car je pense que Joannes a dit quelque chose de très utile pour que les gens comprennent pourquoi nous sommes critiques vis-à-vis des ajustements traditionnels. Il a mentionné que ce n’était pas la prédiction ponctuelle, c’est l’expression probabiliste de celle-ci. Les gens ajustent les prédictions ponctuelles, ce qui n’a aucun sens en termes de stocks. Ce qui nous importe, ce sont les probabilités de l’ensemble de la distribution.

Donc, si quelqu’un pouvait faire cela, peut-être que cela pourrait réellement servir à quelque chose. Mais personne ne le fait, et vous savez, je travaille avec les statistiques depuis, comme je l’ai dit, la majeure partie de 20 ans. Je ne peux pas le faire facilement. Et vous savez, mon incapacité ne veut pas dire que d’autres personnes ne peuvent pas le faire, mais tout ce que je dis, c’est que lorsque l’on pense de manière probabiliste, l’information est tellement abstraite qu’il est très difficile pour quelqu’un d’aller manuellement dire, oui, modifions-le de 10 unités. C’est un processus très difficile. En quelque sorte, beaucoup de gens font tous ces ajustements sur la mauvaise quantité de toute façon.

Joannes Vermorel : Je suis tout à fait d’accord. Lorsque j’ai dit chez Lokad que nous avions cessé de faire des ajustements il y a une décennie, c’était exactement à l’époque où nous étions passés au probabiliste. Les gens disaient qu’il fallait faire des ajustements, puis nous leur montrions les histogrammes des distributions de probabilité.

Nous disions, faites comme bon vous semble, et puis les gens reculaient et disaient, non, nous n’allons pas faire cela. C’était en effet un mécanisme pour empêcher les gens d’intervenir au mauvais niveau. Lorsqu’ils voyaient les distributions de probabilité, ils se rendaient compte qu’il y avait beaucoup de profondeur. Je veux dire, les gens imaginaient ces distributions de parité pour une supply chain comme de douces courbes en cloche, vous savez, gaussiennes et autres. Ce n’est pas le cas.

Par exemple, imaginons que vous ayez un magasin de bricolage. Les gens achèteraient certains produits uniquement par multiples de quatre ou huit ou 12 parce qu’il y a une certaine logique là-dedans. Donc, votre histogramme n’est pas une courbe en cloche, il comporte des pics où les gens achètent soit une unité parce qu’ils ont besoin d’une pièce de rechange, soit quatre ou huit unités, et rien entre les deux. Alors, quand vous commencez à vous demander : « D’accord, dois-je faire passer la moyenne de 2,5 à 3,5 ? » et que vous regardez l’histogramme, et que l’histogramme affiche trois pics : une unité, quatre unités, huit unités.

Soudain, les gens se disent qu’il n’est pas vraiment logique d’essayer de déplacer ces choses. Je ne vais pas déplacer la probabilité actuellement affectée à quatre pour la porter à cinq, parce que cela n’arrivera pas. Ce que je voudrais probablement, si je veux augmenter la moyenne, c’est diminuer la probabilité du zéro et augmenter celle de toutes les autres occurrences.

Les gens se rendent compte qu’il y a beaucoup de profondeur dans ces distributions de probabilité. Il y a plein de subtilités, pour ne citer que ces fameux multiples magiques qui existent. C’était notre constat. Nous sommes complètement d’accord pour dire que lorsque les gens voient ces distributions de probabilité, ils se rendent compte qu’ils ne vont pas ajuster manuellement cet histogramme seau par seau. Ainsi, cette réaction d’impraticabilité est bien réelle.

Conor Doherty : Eh bien, encore une fois, je suis conscient que nous vous avons déjà pris beaucoup de temps, Nikos. Mais j’ai une dernière question. Vous travaillez dans un laboratoire d’intelligence artificielle, il serait dommage de ne pas vous demander comment l’IA pourrait s’inscrire dans l’ensemble du contexte dont nous parlons pour l’avenir. Qu’il s’agisse de l’automatisation de la congruence des prévisions avec l’IA qui effectue les surcharges, je ne sais pas, esquissez ce que vous voyez comme futur, s’il vous plaît.

Nikos Kourentzes : C’est une question à un million de dollars. Je peux répondre de la même manière qu’un des relecteurs du document avait quelques préoccupations. La question était du type : « D’accord, et alors ? Vous savez, voici une autre métrique, et alors ? »

Et je disais : « Regardez, si vous avez un modèle statistique assez simple, vous pouvez effectuer les calculs, tout trouver analytiquement, c’est parfait. Lorsque vous commencez à vous lancer dans le machine learning et surtout avec les énormes modèles AI que nous utilisons maintenant, c’est une tâche très difficile. Il est donc très utile d’avoir des étalons de mesures, quelque chose comme ça, qui peut en réalité simplifier un peu la compréhension de ce que font ces modèles. »

Si, par exemple, j’ai un énorme modèle AI et que nous pouvons dire : « Regardez, celui-ci pousse la prévision vers une congruence accrue », alors j’aurai peut-être un moyen de considérer ce modèle de façon plus simple. Ce moyen plus simple ne consiste pas à réduire la complexité du modèle en aucune manière, mais plutôt à comprendre comment cela affecte mes stocks, comment cela affecte mon processus de prise de décision, comment cela affecte mon hypothèse de bullwhip mentionnée précédemment, dans un processus continu.

C’est essentiellement ainsi que nous concluons le document de travail. Nous disons que l’avantage de cette métrique est de comprendre comment des modèles qui sont des boîtes noires peuvent se comporter. Je ne pense pas que dorénavant nous verrons des modèles qui ne soient pas, d’une certaine manière, inspirés par l’AI. Je suis un peu sceptique quand les gens veulent tout remplacer par l’AI, parce que certaines choses peuvent être tout simplement plus simples, plus efficaces. Ma préoccupation ne vient pas nécessairement des mathématiques du problème ou même de la richesse des données, etc. Je pense que ce sont des problèmes que nous pouvons résoudre. Ma préoccupation vient davantage d’un aspect de processus très simple et de la durabilité du problème.

Si j’ai un énorme modèle AI qui, finalement, une fois que je commence à tout adapter à ce modèle, commence à consommer beaucoup de cloud computing et beaucoup d’électricité, est-ce nécessaire de faire tout cela si je n’obtiens qu’une différence de 1 % par rapport à un lissage exponentiel ? Parfois, j’aurai bien plus qu’une différence de 1 %, allez-y. Mais parfois, je n’ai pas besoin de toute cette complication. Je peux opter pour quelque chose de plus simple qui soit également plus transparent pour les non-experts en AI.

L’AI est une voie d’avenir pour bon nombre des problèmes que nous rencontrons. Je pense que, dans de nombreux cas, les défis de prévision auxquels nous faisons face et surtout les décisions que nous soutenons avec ces prévisions constituent un très bon terrain pour les applications de l’AI. Mais cela ne signifie pas, globalement, qu’il faut oublier tout ce que nous savions et passer à l’AI. Cela se reflète un peu aussi dans le document. Parce que, comme je l’ai mentionné précédemment, ce n’est pas le premier article qui dit : « Oh, modifions un peu l’objectif pour qu’il ne soit pas uniquement basé sur la précision. » D’autres collègues l’ont fait également. La différence est que nous essayons de faire un peu d’algèbre pour montrer : « Eh bien, voilà vraiment ce qui se passe une fois que nous faisons cela. » J’aime donc quand nous sommes capables de faire ce genre d’interprétation ou de saisir l’intuition de cette action.

L’AI est une voie d’avenir pour de nombreuses questions, mais nous ne devons pas oublier qu’il est utile pour nous de comprendre ce que, diable, nous faisons. Nous ne devons pas simplement faire confiance aveuglément et dire que, d’une manière ou d’une autre, le modèle AI fera ce que j’espère qu’il fait. Je ne dis pas que les modèles AI ne peuvent pas faire de très bonnes choses. Je dis simplement : « Ne vous contentez pas de laisser faire ou d’espérer que cela fonctionne. Ça devrait être mieux que de n’espérer simplement. »

Conor Doherty : Quelles sont vos réflexions à ce sujet ?

Joannes Vermorel : Je pense que Nikos a absolument raison. Tout comme je disais que, pour les ajustements, le nombre de lignes de code doit être pris en compte. La surcharge des deep learning models est absolument énorme et complique tout. Peu de gens réalisent que pour beaucoup de cartes GPU, il n’est même pas clair comment rendre les calculs déterministes. Il y a de nombreuses situations où, littéralement, vous lancez le calcul deux fois et vous obtenez deux nombres différents parce que le matériel lui-même n’est pas déterministe.

Cela signifie que vous vous retrouvez avec des Heisenbugs ? Vous savez, les Heisenbugs, c’est quand vous avez un bug, vous essayez de le reproduire, et il disparaît. À un moment donné, vous arrêtez de le chercher parce que vous vous dites : « Bon, j’essaie de reproduire le cas, ça ne se produit pas, donc je suppose que ça marche. » Et puis vous le remettez en production, et le bug réapparaît, et vous ne pouvez pas le reproduire.

Alors, je suis totalement d’accord. La simplicité améliore tout, quand les performances se situent dans une fourchette similaire. Si vous avez quelque chose qui est massivement plus simple, la solution la plus simple l’emporte toujours en pratique. Je n’ai jamais vu de situation où un modèle qui surpasse un autre de quelques pourcentages, selon n’importe quelle métrique, surpasse en réalité l’autre modèle sur le terrain.

C’est valable si l’alternative est d’un ordre de grandeur plus simple pour obtenir à peu près le même résultat dans la même fourchette, même si la métrique est ces fameux dollars ou euros que Lokad a essayé d’optimiser. La raison est un peu étrange, mais c’est que les supply chains changent, comme nous l’avions mentionné, avec l’intervention humaine.

Quand vous voulez intervenir pour changer, le temps est essentiel. Si vous avez un programme, un modèle complexe, des milliers de lignes, cela signifie que rien que pour la logistique, par exemple, il y a quelques années chez Lokad, nous avions des dizaines de clients impactés par le navire Evergreen qui avait bloqué le canal de Suez. Nous avions essentiellement 24 heures pour ajuster tous les délais pour presque tous nos clients européens important d’Asie.

C’est là qu’être capable de répondre en quelques heures, plutôt que d’avoir besoin d’une semaine juste parce que mon modèle est très compliqué, est crucial. Si vous voulez que je vous fournisse la solution sans introduire tellement de bugs dans le processus au point de compromettre ce que je fais, il vous faut un modèle plus simple. Je suis complètement d’accord, il y a une valeur et un coût. Pour ces entreprises qui ont commencé à expérimenter GPT4, le coût est très élevé.

Conor Doherty : Eh bien, Nikos, je n’ai pas d’autres questions, mais il est de coutume de donner la parole finale à l’invité. Alors, s’il vous plaît, avez-vous un appel à l’action ou quelque chose que vous aimeriez partager avec les spectateurs ?

Nikos Kourentzes : Mon appel à l’action, pour moi, c’est que nous devons passer des visions traditionnelles de la prévision isolée de la prise de décision. Dans notre contexte de discussion, des stocks et ainsi de suite, nous devons essayer de voir ces choses de manière plus conjointe.

Je suis universitaire, d’autres collègues auront d’autres opinions, Lokad a également sa perspective. Je pense qu’il y a de la valeur dans toutes ces perspectives car elles vont toutes dans la même direction. Nous devons abandonner ce que nous faisions il y a quelques décennies, actualiser notre façon de penser, mettre à jour notre logiciel, mettre à jour nos manuels. Il y a de la valeur à faire cela. Il ne s’agit pas seulement de changer notre logiciel ou autre, cela conduira réellement à des décisions différentes.

Je me réjouis de l’inclusion dans le domaine de la prévision de nombreuses personnes issues de l’informatique, du deep learning, de la programmation et du côté des stocks, car c’est désormais le moment où nous pouvons réellement aborder ces problèmes de front. Je ne souhaite pas donner l’impression que cela diminue la valeur du domaine de la prévision en tant que champ de recherche. J’appartiens à ce domaine, donc je tiens également à dire que nous ne pouvons pas simplement nous procurer une multitude de bibliothèques, exécuter quelques codes et déclarer que tout va bien.

Bien souvent, lorsque je travaille avec l’industrie ou des instituts, la valeur réside dans l’adoption du bon processus et dans la correction des méthodologies inadéquates, ce qui est précisément ce que le domaine de la prévision peut offrir. J’aime l’idée de conserver les étapes dans le processus, mais nous devons travailler ensemble pour élaborer une solution commune. C’est un bon espace.

Pour revenir au tout début de la question où j’ai dit que j’appréciais travailler avec l’équipe de l’université. Il y a de la polyphonie, il y a de nombreuses idées. Je proposerai ma question sur la prévision et d’autres diront, “Que dites-vous de ceci ? Avez-vous envisagé cette perspective ?” Et je répondrai, “Regardez, je n’y avais jamais pensé.”

Conor Doherty : Merci, Nikos. Je n’ai pas d’autres questions. Joannes, merci pour votre temps. Et encore une fois, Nikos, merci beaucoup de vous être joint à nous et merci à tous pour nous avoir regardés. On se revoit la prochaine fois.