00:00:08 Introduction aux prévisions de la demande et à l’agrégation des données.
00:00:41 Différents types de granularités dans les prévisions de la demande.
00:02:00 Les défis des différents niveaux d’agrégation des données dans les prévisions.
00:05:28 Niveau désagrégé : SKU par jour, et reconstruction des autres niveaux d’agrégation.
00:08:31 Cas particuliers et défis liés aux produits périssables dans les prévisions de la demande.
00:09:42 Importance des informations granulaires dans l’agrégation des données.
00:11:01 Reconstruction du niveau d’agrégation souhaité à partir des données les plus granulaires.
00:13:01 Limitations des techniques de séries temporelles dans les données très désagrégées.
00:15:01 Techniques de séries temporelles et l’hypothèse d’un futur similaire.
00:17:00 La nature séduisante et trompeuse des modèles de séries temporelles.
00:19:03 Discussion sur les inconvénients de l’agrégation dans les prévisions.
00:20:00 Exploration de l’importance de la granularité dans la prise de décision.
00:21:38 Examen des horizons pertinents et de leur impact sur les décisions de la supply chain.
00:23:48 Argumentation contre l’agrégation arbitraire et son impact potentiel sur l’efficacité de la supply chain.
00:26:35 Proposition de se concentrer sur la granularité axée sur la décision et d’éviter l’optimisation prématurée.

Résumé

Joannes Vermorel, fondateur de Lokad, discute de l’importance de choisir le bon niveau d’agrégation des données pour les prévisions de la demande lors d’une interview avec Nicole Zint. Deux dimensions sont prises en compte : temporelle et structurelle, comprenant les intervalles de temps utilisés pour agréger les données et l’organisation de la supply chain. Vermorel note que le niveau quotidien et le niveau SKU sont les plus applicables à la plupart des réseaux de supply chain, mais des cas particuliers peuvent nécessiter des données plus granulaires. Vermorel met en garde contre les limitations des modèles de séries temporelles dans les prévisions de la supply chain, encourageant une perspective plus large qui prend en compte des facteurs tels que la périssabilité, la cannibalisation, la substitution et les délais d’approvisionnement variables. Il souligne l’importance de la granularité axée sur la décision et de l’extension des horizons de prévision au-delà des délais d’approvisionnement.

Résumé étendu

Dans cette interview, l’animatrice Nicole Zint discute des prévisions de la demande et du bon niveau d’agrégation des données avec Joannes Vermorel, fondateur de Lokad, une entreprise spécialisée dans l’optimisation de la supply chain. Ils explorent les différents types de granularités dans les prévisions de la demande et l’impact de ces granularités sur les méthodes de prévision.

Vermorel explique qu’il y a deux dimensions principales à prendre en compte lors du choix de la granularité pour les prévisions de la demande : la dimension temporelle et la dimension structurelle. La dimension temporelle fait référence aux intervalles de temps utilisés pour agréger les données, tels que les heures, les jours, les semaines, les mois ou les années. La dimension structurelle concerne l’organisation de la supply chain, y compris les catégories de produits et les emplacements. Cela peut impliquer d’agréger les données par SKU (Stock Keeping Unit), référence produit, famille de produits, super famille de produits ou catégorie, puis d’agréger par site, région ou pays.

Lorsqu’il discute des types de prévisions associés à ces granularités, Vermorel mentionne que le concept de business intelligence, ou hypercubes, popularisé dans les années 1990, est pertinent. Les données historiques peuvent être représentées sous forme de vecteurs, chaque niveau de granularité créant un vecteur unique. Lorsqu’une dimension temporelle est ajoutée, ces vecteurs peuvent être interprétés comme des données de séries temporelles, qui peuvent ensuite être utilisées pour les prévisions.

Cette approche traite principalement des prévisions de séries temporelles, qui sont la pratique dominante dans l’industrie. Vermorel note qu’il peut y avoir plusieurs prévisions générées à partir des mêmes données en raison de la variété des niveaux d’agrégation potentiels.

L’interview aborde également le terme technique “équispacing” en relation avec les séries temporelles. Les séries temporelles équispacing ont des intervalles réguliers et uniformes entre les points de données. Vermorel reconnaît que la plupart des personnes travaillant dans l’industrie de la supply chain n’ont peut-être pas envisagé de travailler avec des séries temporelles non équispacing, car les séries temporelles équispacing sont plus courantes. Cependant, il souligne que certains intervalles, comme les mois, ne sont pas précisément réguliers au sens physique, car les mois ont des durées variables.

Ce segment d’interview met l’accent sur l’importance de sélectionner la granularité appropriée pour les prévisions de la demande. Il y a deux dimensions principales à prendre en compte : la dimension temporelle et la dimension structurelle. Divers types de prévisions peuvent être générés à partir des mêmes données en fonction de la granularité choisie, les prévisions de séries temporelles étant les plus courantes dans l’industrie. De plus, le concept de séries temporelles équispacing est discuté, mettant en évidence les complexités potentielles liées à la gestion de différents intervalles de temps.

Vermorel parle des horizons temporels de prévision, de la granularité axée sur la prise de décision et de l’importance de ne pas limiter sa réflexion en matière de gestion de la supply chain.

Ils discutent des défis liés aux niveaux d’agrégation des données dans l’optimisation de la supply chain. Vermorel explique que le choix du niveau d’agrégation dépend de la sensibilité de l’industrie, car certaines industries peuvent nécessiter une plus grande désagrégation. Il souligne également que le niveau quotidien et le niveau SKU sont les niveaux de désagrégation les plus pertinents pour la plupart des réseaux de supply chain. Cependant, il note que des cas particuliers, tels que les produits périssables, peuvent nécessiter des points de données plus granulaires. Vermorel insiste sur le fait que chaque décision arbitraire concernant l’agrégation des données comporte des avantages et des inconvénients, et il est crucial de comprendre d’où viennent ces décisions. Lorsqu’on lui demande si un niveau de données plus granulaire pourrait être reconstruit à partir du niveau le plus granulaire, Vermorel explique que chaque fois que l’on agrège des données, on perd de l’information. Ainsi, plus les données sont granulaires, plus les prévisions sont précises. Cependant, les données les plus granulaires ne sont même pas des données agrégées, mais les données transactionnelles brutes. Il explique que la raison pour laquelle les gens s’arrêtent au niveau par SKU par jour est que c’est le dernier niveau auquel ils peuvent encore travailler avec des séries temporelles. S’ils vont au-delà, ils devraient renoncer à la perspective des séries temporelles car les données ne sont pas structurées comme une série temporelle.

Ils ont également discuté des limites des modèles de séries temporelles dans les prévisions de la supply chain avec l’animatrice Nicole Zint. Vermorel note que bien que l’industrie de la supply chain fonctionne généralement avec un modèle mental de séries temporelles, les techniques de séries temporelles ont tendance à donner de mauvais résultats avec des données rares, erratiques et intermittentes. Il soutient qu’il existe une asymétrie fondamentale entre le passé et le futur, et que l’hypothèse selon laquelle le futur est exactement le même que le passé est erronée. Vermorel remet également en question la pratique de l’agrégation des données, qui, selon lui, entraîne une perte de données et des métriques désalignées, et suggère que l’horizon pertinent pour la prise de décision est celui qui est pertinent pour la décision spécifique.

Vermorel commence par expliquer que les horizons temporels pour les prévisions doivent s’étendre au-delà des délais de livraison, car ils ne correspondent pas toujours bien à la perspective traditionnelle des séries temporelles. Il soutient que l’horizon de prise de décision doit prendre en compte non seulement la période entre maintenant et l’arrivée d’un produit, mais aussi le temps nécessaire pour vendre les marchandises reçues. L’horizon applicable dépend de facteurs tels que la vitesse attendue de liquidation des stocks et la variabilité de la demande. Bien qu’il n’y ait pas de limite claire à la durée sur laquelle il faut se pencher, Vermorel reconnaît que les prévisions deviennent plus floues à mesure qu’elles s’éloignent dans le futur. En fin de compte, le compromis réside dans l’équilibre entre le coût des ressources informatiques et les améliorations potentielles de la supply chain.

Lorsqu’il aborde la granularité, Vermorel souligne qu’elle doit être motivée par les décisions que souhaite prendre une entreprise. Il déconseille de confondre le besoin de visualisation avec d’autres exigences prédictives et d’optimisation, car la granularité peut être arbitraire et peut entraîner une perte de données. Au lieu de cela, il recommande de se concentrer sur les décisions qui ont un impact financier tangible sur la supply chain, telles que le réapprovisionnement ou l’ajustement des prix.

Vermorel met en garde contre une fixation excessive sur les niveaux d’agrégation, qu’il considère comme un aspect très technique du problème. Les systèmes informatiques modernes ont une capacité plus que suffisante pour gérer différents niveaux de granularité, et il n’est pas nécessaire d’imposer des contraintes arbitraires à sa réflexion. Dans le passé, l’agrégation des données pour la visualisation était un défi, mais les systèmes modernes peuvent facilement le gérer, même au niveau de la granularité des millisecondes.

L’interviewé met également en garde contre le fait de s’appuyer uniquement sur des approches traditionnelles de cubes de données pour l’optimisation de la supply chain. Il affirme que cela peut imposer des restrictions inutiles et limiter la portée des solutions potentielles. Des facteurs tels que la périssabilité, la cannibalisation, la substitution et les délais de livraison variables doivent être pris en compte pour avoir une vision plus complète de la supply chain. Vermorel encourage une perspective plus large et évite les contraintes arbitraires qui peuvent entraver la résolution de problèmes en gestion de la supply chain.

En résumé, Joannes Vermorel préconise de prendre en compte un plus large éventail de facteurs lors de l’optimisation des supply chains, d’étendre les horizons de prévision au-delà des délais de livraison et d’adopter une granularité axée sur les décisions. Il souligne l’importance de ne pas limiter sa réflexion et de tirer parti des systèmes informatiques modernes pour résoudre efficacement les problèmes complexes de la supply chain.

Transcription complète

Nicole Zint: En ce qui concerne la prévision de la demande, il existe une incroyable diversité de différentes méthodes et de différents niveaux d’agrégation des données qui sont choisis tant entre les entreprises qu’à l’intérieur. Certains prévoient quotidiennement, d’autres hebdomadairement, mensuellement ou annuellement. Certains prévoient au niveau d’un SKU, d’autres au niveau d’une catégorie. Cela soulève la question de savoir quel est le bon niveau d’agrégation des données. C’est le sujet de l’épisode d’aujourd’hui. Avant de nous plonger dans la réponse à cette question, Joannes, quels sont les différents types de granularités à choisir dans la prévision de la demande ?

Joannes Vermorel: Dans la prévision de la demande, vous avez essentiellement deux dimensions principales du problème. La première est temporelle, c’est-à-dire si vous voulez que vos données transactionnelles soient agrégées au niveau horaire, quotidien, hebdomadaire, mensuel ou annuel. L’autre dimension concerne généralement la topologie du produit/chaîne d’approvisionnement, vous pouvez donc choisir d’agréger par SKU, par référence de produit, par famille de produits, super famille, catégorie, etc. Vous avez également vos emplacements où vous pouvez choisir d’agréger par site, par région ou par pays. Les deux dimensions principales sont le temps et la structure de votre catalogue/réseau de chaîne d’approvisionnement, ce qui crée une matrice de possibilités en ce qui concerne le choix de la granularité.

Nicole Zint: Lorsque nous parlons de ces granularités, de quel type de prévisions parlons-nous ? Y a-t-il un type spécifique de prévision ?

Joannes Vermorel: Ce que vous avez, c’est un modèle qui a été popularisé dans les années 90, essentiellement sous le nom de business intelligence ou hypercubes. Ce que vous avez, c’est une façon de représenter vos données historiques sous forme de vecteurs. Vous choisissez un niveau de granularité, disons par SKU par semaine, et ensuite pour chaque SKU au niveau hebdomadaire, vous avez un vecteur de valeurs qui, en raison de la dimension temporelle, peut être interprété comme une série temporelle. Ensuite, vous pouvez prévoir cette série temporelle dans le futur. En raison des nombreux niveaux d’agrégation potentiels, il peut y avoir de nombreuses prévisions qui peuvent être faites sur la base des mêmes données. Donc, nous parlons de prévisions de séries temporelles lorsque nous abordons ce problème, du moins c’est une pratique courante dans l’industrie.

Nicole Zint: Et en ce qui concerne la chronologie dans les séries temporelles, sont-elles toutes équipées de manière égale ou y a-t-il une approche différente ?

Joannes Vermorel: “Equispaced” est un terme très technique, avec lequel la plupart des personnes travaillant dans l’industrie de la supply chain n’ont peut-être jamais travaillé. L’équidistance est une technicité où l’on dit que votre série temporelle est divisée en intervalles réguliers. Cependant, gardez à l’esprit que c’est un peu une abstraction car, par exemple, les mois ne sont pas exactement réguliers au sens physique. Les physiciens diraient qu’il y a des mois qui sont plus longs que d’autres, donc cela n’est régulier que selon notre calendrier.

Nicole Zint: Une autre question concernant un mois : nous avons différents nombres, disons, de vendredis ou de week-ends dans un mois, et si nous constatons des pics de ventes les vendredis, cela ne sera-t-il pas perturbé ?

Joannes Vermorel: Ici, nous en venons à la question : quel niveau d’agrégation choisir ? Vous avez de nombreuses préoccupations qui peuvent surgir. Évidemment, il y a certains niveaux d’agrégation qui ont certains effets. Si vous regardez au niveau horaire, cela peut être, pour la plupart des industries, incroyablement désagrégé et cela peut même ne pas être sensé pendant la nuit car il y a peut-être de nombreuses zones où, disons, le commerce de détail, où rien ne se passe pendant la nuit. Donc, cela peut même ne pas être sensé.

Ensuite, en effet, si vous choisissez l’agrégation mensuelle, c’est toujours délicat car vous avez le fait que certains mois ont cinq jours d’un jour donné de la semaine, et vous pouvez en avoir quatre ou cinq. C’est donc un aspect délicat qui introduira en réalité une sorte de biais dans la façon dont vous regardez cet enregistrement et potentiellement dans la façon dont vous construisez votre prévision. Mais cela est également vrai pour d’autres dimensions, comme regarder par SKU ou par produit ou par catégorie ? Tous ces éléments introduisent leurs propres préoccupations.

Nicole Zint: Donc, en ce qui concerne ces différents niveaux d’agrégation des données, ne pouvons-nous pas simplement choisir, disons, SKU par jour, qui est le niveau le plus désagrégé, et ensuite reconstruire essentiellement tout autre niveau d’agrégation à partir de cela ?

Joannes Vermorel: Tout d’abord, oui, il y a cette tentation d’opter pour des niveaux très désagrégés. Dans la supply chain, le niveau de désagrégation le plus sensé, en termes de temps, est par jour. Cependant, c’est une décision assez arbitraire. Nous aurions pu décider que c’était par minute, et par exemple, si vous gérez un centre d’appels et que vous voulez examiner votre taux d’arrivée des appels entrants, vous allez avoir un niveau d’observation beaucoup plus granulaire pour les appels entrants. Donc, il s’agit vraiment de ce genre de choses qui ont du sens pour la situation courante dans la supply chain.

Maintenant, si nous revenons un peu en arrière, nous devons comprendre d’où nous venons. Jetons un coup d’œil à un magasin typique avec 10 000 SKU dans un réseau de vente au détail typique avec 100 magasins. Donc ce n’est même pas un réseau de vente au détail très important. Nous parlons de 10 000 fois 100, ce qui équivaut à 1 million de SKU, puis des données quotidiennes. Donc, si nous voulons avoir trois ans d’historique, nous parlons de mille jours. Donc, nous parlons d’un milliard de points de données. Pour représenter les données agrégées quotidiennement au niveau SKU dans un réseau de vente au détail modeste, nous parlons déjà de quelque chose qui représente un milliard de points de données.

Dans un ordinateur, cela représenterait déjà quatre gigaoctets de mémoire. Lorsque vous remontez un peu dans le temps, vous verriez que ce genre de capacité mémoire n’était même pas accessible avant les années 90. Au fait, le terme “business intelligence” en tant que classe d’outils logiciels d’entreprise est apparu dans les années 90, précisément lorsque les ordinateurs de la taille d’un gigaoctet sont arrivés sur le marché. Donc, les deux choses allaient de pair. Vous aviez besoin d’ordinateurs capables de représenter de telles quantités de données.

Nicole Zint: Donc, ces gros cubes étaient en fait des logiciels conçus pour le calcul en mémoire, ce qui était simplement un moyen grandiose de dire profitons de cette nouvelle mémoire à accès aléatoire. Et sur cette base, cela devient la norme, bien que nous ne devrions pas oublier que c’était assez arbitraire. Lorsque vous dites que c’est le plus petit niveau qui a du sens pour les supply chains, cette agrégation quotidienne et ce niveau SKU sont-ils précis ?

Joannes Vermorel: Oui, mais il y a beaucoup de cas particuliers. Par exemple, si vous avez un produit périssable, la question est de savoir si l’agrégation par jour par SKU est suffisante pour vous donner une image précise de votre niveau de stock. Si vous regardez un produit périssable, la réponse est non. Vous pouvez avoir 10 unités en stock, mais si 9 des 10 unités vont expirer demain, ce que vous avez vraiment en stock, c’est principalement une unité plus neuf qui sont sur le point de disparaître. Donc, dans ce cas, le niveau de stock n’est pas assez granulaire et le niveau SKU n’est pas assez granulaire. Ce que vous aimeriez avoir, ce serait un niveau de stock avec au moins une semaine de durée de conservation et peut-être un niveau de stock avec au moins un mois de durée de conservation. Donc, vous introduiriez une autre dimension pour vous donner une meilleure intuition.

Nicole Zint: Et qu’en est-il du temps ? Le niveau quotidien est-il suffisant ou devrions-nous envisager un niveau plus granulaire ?

Joannes Vermorel: Le niveau quotidien pourrait être suffisant, sauf qu’il peut y avoir des magasins qui ne sont ouverts, disons, que pendant le week-end ou seulement le matin. Si vous ne savez pas que vous avez un magasin qui n’est ouvert que la moitié de la journée, vous manquez d’informations. Donc, avoir un niveau plus granulaire, comme le matin et le soir, vous donnerait quelque chose de plus précieux. Chaque décision arbitraire concernant votre niveau d’agrégation comporte des avantages et des inconvénients. Mon message ici est que c’est assez arbitraire et qu’il n’y a pas de grande vérité en cela, mais il est très intéressant de comprendre d’où viennent ces décisions.

Nicole Zint: Disons que nous trouvons le niveau le plus granulaire qui soit dans notre budget. Si nous avons accès au niveau le plus granulaire mais que nous voulons quand même regarder une prévision sur une base hebdomadaire, par exemple, pouvons-nous simplement reconstruire le niveau que nous voulons obtenir à partir du niveau le plus granulaire ?

Joannes Vermorel: Absolument. Si nous revenons à l’historique transactionnel brut, chaque fois que vous agrégez, vous perdez des données en termes d’informations. Peu importe le type d’agrégation que vous effectuez, vous pouvez toujours reconstruire un niveau supérieur à partir des données les plus granulaires.

Nicole Zint: En fait, c’est un processus de perte, donc vous perdez de l’information. Donc vous avez moins d’informations, donc il serait logique que la précision diminue, n’est-ce pas ? Plus l’agrégation est élevée, moins elle est précise ?

Joannes Vermorel: Oui, mais ce fut en grande partie la raison pour laquelle nous voulons avoir ce genre de configuration d’agrégation. Je dirais que c’est piloté par le cube car nous avons le genre de logiciel qui fonctionne relativement rapidement. L’idée est que lorsque vous avez un hypercube, les opérations de découpage peuvent être effectuées très efficacement. C’est une raison très technique. Ainsi, si vous voulez passer du quotidien au hebdomadaire, c’est une opération très efficace que vous pouvez effectuer sur le cube.

En effet, en termes de théorie de l’information pure, chaque fois que nous passons à un niveau plus agrégé, nous perdons de l’information. Donc en théorie, si nous voulons avoir quelque chose qui serait une déclaration plus précise sur l’avenir, nous voudrions travailler sur les données les plus désagrégées. Cependant, les gens penseraient que les données les plus désagrégées seraient les données par SKU par jour, et je dirais, attendez, les données les plus désagrégées ne sont même pas des données agrégées du tout. Ce serait les données transactionnelles brutes.

La raison pour laquelle les gens s’arrêtent à la donnée par SKU par jour est essentiellement parce que c’est le dernier niveau auquel vous travaillez encore avec des séries temporelles. Si vous voulez aller plus loin que cela et traiter l’historique des transactions brutes, alors essentiellement, vous devez abandonner la perspective des séries temporelles. Pourquoi ? Parce que les données ne sont pas structurées comme une série temporelle. Ce sont littéralement des données relationnelles, donc vous avez des tables dans votre base de données. Ce n’est plus structuré comme une série temporelle, certainement pas comme une série temporelle équidistante.

Les séries temporelles n’apparaissent que lorsque vous construisez essentiellement des vecteurs où vous dites, par période (la période peut être un jour, une semaine ou un mois), vous avez une quantité, puis vous avez un vecteur de quantités. Vous voulez étendre cela avec un modèle de séries temporelles. Si vous travaillez simplement avec une table avec, disons, 100 colonnes, ce n’est pas une série temporelle ; c’est simplement une table relationnelle dans une base de données. C’est très courant, mais ce n’est pas une série temporelle. C’est la méthode de prévision choisie elle-même qui est maintenant un autre facteur limitant.

La question est, pourquoi est-ce si attrayant ? La réponse est que la plupart des industries de la chaîne d’approvisionnement fonctionnent avec un modèle mental de séries temporelles. Donc évidemment, si vous avez décidé que tout doit correspondre au modèle de séries temporelles, alors l’hypercube est un facteur très attrayant car tout ce que vous regardez, tant qu’une des dimensions est le temps, vous regardez toujours des séries temporelles d’une manière ou d’une autre à différents niveaux d’agrégation.

Mais voici le cœur du problème. Bien que, en théorie, la théorie de l’information nous dirait que plus nous désagrégeons, plus nous avons d’informations, et donc plus nous pouvons potentiellement savoir sur l’avenir. La réalité est que les techniques de séries temporelles, la plupart d’entre elles, pas toutes, ont tendance à très mal fonctionner sur des données très clairsemées, erratiques et intermittentes. Le problème est que lorsque vous passez à des données très désagrégées, les techniques de séries temporelles sont moins efficaces.

Nicole Zint : De votre point de vue de votre technique de séries temporelles, pas du point de vue réel, le point de vue réel est que vous avez plus de données, mais du point de vue de votre technique de séries temporelles, vous avez un vecteur de plus en plus clairsemé, donc plus de zéros. Et les séries temporelles sont basées sur plus de la même chose, n’est-ce pas ? Donc nous supposons que l’avenir est symétrique par rapport au passé. Est-ce de là que ça vient ?

Joannes Vermorel : Oui, mais c’est vrai pour toutes les méthodes basées sur les données. Donc toutes les méthodes basées sur les données reposent, d’une manière ou d’une autre, sur l’idée que l’avenir sera plus ou moins le même. Vous voyez, cela ne dépend pas vraiment, vous pouvez dire que c’est l’apprentissage automatique, l’IA, les séries temporelles, peu importe, c’est toujours la même idée. Toutes nos méthodes statistiques sont basées sur l’idée que l’avenir sera plus ou moins le même par rapport au passé.

Nicole Zint : Mais sûrement, si vous allez plus en détail, vous perdez peut-être des saisons et des choses comme ça, n’est-ce pas ?

Joannes Vermorel : Non, la caractéristique des séries temporelles est très technique. C’est le fait que le modèle de séries temporelles vous donne un modèle très symétrique dans le sens où l’avenir, en termes de structure des données, ressemble exactement au passé. C’est quelque chose de très spécifique aux séries temporelles. Quand vous dites plus ou moins la même chose, oui, mais je fais une déclaration sur l’avenir. Cette déclaration n’a pas besoin d’avoir la forme exacte par rapport à mes enregistrements historiques. Donc cela peut être le cas, mais cela peut ne pas l’être.

Avec les séries temporelles, c’est incroyablement séduisant, mais je pense que cela trompe beaucoup de gens aussi. C’est incroyablement séduisant parce que fondamentalement, l’avenir et le passé sont exactement symétriques. Et quand je dis exactement symétrique, imaginez simplement votre hypercube ou votre cube. Vous avez une dimension pour les SKUs, une dimension pour le jour, une dimension pour autre chose, et fondamentalement, l’avenir consiste simplement à prendre votre dimension pour le jour et à étendre cette dimension de, disons, 100 cellules supplémentaires.

Et voilà, vous avez l’avenir, et vous diriez que la prévision consiste simplement à le remplir, à combler les lacunes. Donc littéralement, vous diriez que ce sont exactement les mêmes données ; il y a des données que j’ai observées et ensuite des données où je vais remplir les blancs avec mon modèle de prévision des séries temporelles. Cependant, il y a une asymétrie très radicale et fondamentale entre le passé et l’avenir.

Si vous adoptez cette perspective classique de prévision moyenne des séries temporelles, vous faites quelque chose qui prétend que l’avenir est exactement le même que le passé, dans sa nature, non seulement le fait qu’il ne s’est pas encore produit. C’est littéralement en termes de format de données, en termes de façon de le penser, vous dites simplement que c’est complètement la même chose. Et ma proposition, qui est plus une déclaration philosophique qu’une déclaration scientifique, est que non, ce n’est pas le cas, c’est très différent.

Nicole Zint : Je vois encore beaucoup de demandes de propositions, et elles demandent aux fournisseurs, pouvez-vous nous donner tous ces niveaux en même temps ? Différents niveaux d’agrégation, pourquoi ?

Joannes Vermorel : Encore une fois, c’est une question standard. Les gens insistent là-dessus parce que c’est ce à quoi ils sont habitués, mais il est important de reconnaître que différents niveaux d’agrégation peuvent conduire à des résultats et des insights très différents.

Nicole Zint : L’erreur ici est que vous commencez avec ce modèle de séries temporelles, et ce modèle de séries temporelles a son équivalent dans l’industrie du logiciel avec la business intelligence, où tout est essentiellement un cube ou une version qui est tranchée ou découpée d’un cube. Maintenant, les gens réalisent qu’ils perdent de l’information quand ils y vont, mais d’une certaine manière, ils ne sont pas vraiment sûrs pourquoi. La métrique leur dit que leur prévision très désagrégée est complètement nulle. La réalité pourrait être que simplement parce qu’ils n’utilisent pas la bonne méthode, c’est en effet très mauvais.

Joannes Vermorel : Donc ils disent : “D’accord, notre prévision est très mauvaise.” Je dis : “Eh bien, nous avons besoin de la possibilité de remonter à un niveau d’agrégation supérieur. Ce sera peut-être par semaine ou peut-être par produit au lieu d’avoir par SKU.” Mais ils ne savent pas lequel choisir. Donc quand ils demandent à un fournisseur, ils veulent garder leurs options ouvertes, et ils se retrouvent avec des RFP semi-ridicules où ils ont plus d’une centaine de questions, et ils veulent avoir tous les niveaux d’agrégation.

Simplement parce que de leur point de vue, ils gardent l’option ouverte quant au niveau auquel ils veulent appliquer le modèle de prévision des séries temporelles. Mais ici, je remets vraiment en question le fait même de savoir pourquoi vous devriez agréger vos données en premier lieu, et pourquoi votre technique de prévision devrait commencer à éliminer des données avant même de commencer à fonctionner ? Vous perdez des données, donc c’est un problème, et agréger davantage ne fait que vous faire perdre plus de données.

Et puis si vous dites : “Mais attendez, nous ne pouvons pas travailler à un niveau très désagrégé car notre métrique, qui est le pourcentage d’erreur, nous dit que c’est très mauvais.” Nous disons : “Oui, mais vous n’optimisez pas le pourcentage d’erreur ; vous voulez optimiser les dollars d’erreur. Mais vous regardez la métrique des pourcentages, donc c’est un peu décalé par rapport aux dollars.”

Nicole Zint : Oui, exactement. Donc si vous suivez cette erreur, vous passeriez du quotidien au hebdomadaire, vous obtenez une meilleure précision ; puis du hebdomadaire au mensuel, une meilleure précision ; puis du hebdomadaire à l’annuel. Et puis les gens disent : “Oh, attendez, une prévision annuelle, qu’est-ce que je vais en faire ? Si vous prenez des décisions sur une base hebdomadaire, comment une prévision mensuelle va-t-elle vous aider ?”

Joannes Vermorel : C’est le problème. La réalité est que le seul horizon pertinent est celui qui est pertinent pour votre décision. Mais regardons une décision très simple, comme le réapprovisionnement des stocks. Donnez-nous un exemple de ce qui est l’horizon pertinent. La réponse est très délicate. D’abord, vous aurez les délais de livraison, mais le délai de livraison n’est pas garanti. Disons que vous avez un fournisseur à l’étranger, donc vos délais de livraison peuvent être - ce n’est pas constant, c’est quelque chose qui varie. Donc votre délai de livraison pourrait être quelque chose qui est d’environ 10 semaines, mais potentiellement avec la possibilité de variations énormes.

Certaines de ces variations, d’ailleurs, sont saisonnières, comme le Nouvel An chinois. Les usines en Chine ferment, donc vous obtenez quatre semaines supplémentaires de délai de livraison. Donc votre horizon, si nous ne regardons que les délais de livraison, est quelque chose de très variable et aurait besoin d’une prévision à part. En passant, l’un des problèmes avec ces modèles de séries temporelles est que nous regardons toujours quelque chose qui est en quelque sorte les ventes. Toutes les autres choses que vous devez prévoir, comme vos délais de livraison, ils sont toujours constants. C’est même pire que ça ; ils n’existent même pas, vous savez.

Nicole Zint: Donc, le cube ne représente même pas le genre de littérature ; c’est un choix arbitraire. Votre horizon serait vos délais de livraison, mais vos délais de livraison mériteraient une zone rouge de prévision qui ne correspond pas vraiment à cette perspective de séries temporelles et de logiciel de cube. Mais, est-ce que votre horizon pour évaluer la validité de votre décision doit s’arrêter uniquement au délai de livraison ?

Joannes Vermorel: Non, parce que évidemment, si vous décidez que vous voulez passer une nouvelle commande maintenant, vous voulez répondre à la demande qui va se produire entre maintenant et la date d’arrivée de votre produit. Mais ensuite, vous devrez vendre ce que vous venez de recevoir. Pour évaluer la pertinence de la commande d’achat, vous devez regarder ce qui se passe ensuite. Et jusqu’à quelle date future devez-vous regarder ? Eh bien, cela dépend. Si la commande que vous passez connaît une augmentation de la demande, alors vous pourriez effectivement recevoir les marchandises et tout vendre en deux jours. Mais que se passe-t-il si c’est le contraire, et que vous avez une baisse de la demande ? Vous pouvez garder le stock pendant toute une année, évidemment pas s’il est périssable, mais je simplifie juste.

Donc, l’horizon qui est applicable est quelque chose qui dépend énormément de la façon dont vous envisagez l’avenir, et c’est une prévision en soi car vous devez prédire les délais de livraison. Et puis, l’horizon que nous devons prendre en compte, même si nous ne regardons que la demande, dépend de la rapidité avec laquelle vous prévoyez de liquider votre stock. Ainsi, en fin de compte, il n’y a pas de limite claire en termes d’horizon applicable pour votre prévision. La seule préoccupation est que plus nous regardons loin dans le futur, plus la prévision devient floue.

Cependant, c’est une technicité, et à un moment donné, il y a un compromis en termes de coût du processeur par rapport à l’amélioration marginale potentielle pour votre supply chain. Mais, vous voyez, d’un point de vue conceptuel, il n’y a pas de limite à la distance à laquelle vous voulez regarder dans le futur.

Nicole Zint: Donc, pour conclure, le niveau de granularité devrait toujours être au niveau des décisions que vous voulez prendre ?

Joannes Vermorel: Oui, je dirais que votre granularité va beaucoup dépendre des décisions que vous prenez. Mais soyez conscient que cette notion d’agrégation fait une hypothèse sur le type de méthode que vous voulez utiliser. Ma suggestion serait de garder les yeux sur la décision même que vous prenez. Les décisions sont les choses qui ont un impact tangible sur votre supply chain, comme votre réapprovisionnement, l’augmentation ou la diminution de votre prix, et d’autres actions qui ont un impact financier réel et tangible sur la supply chain. Mais ensuite, je dirais méfiez-vous de la notion même de granularité. C’est très inventé, très arbitraire, et ne confondez pas votre besoin de visualisation, ce qui est bien - vous voulez pouvoir visualiser - avec la granularité nécessaire à la prise de décision.

Nicole Zint: Les séries temporelles sont un outil incroyablement puissant pour visualiser les données. Cependant, ne confondez pas ce besoin de visualisation avec d’autres exigences prédictives et d’optimisation qui n’ont pas à fonctionner avec une quelconque granularité inventée. Quand je dis granularité inventée, je veux dire tout ce qui n’est pas simplement le reflet des données telles qu’elles existent dans vos systèmes d’entreprise. Toute forme d’agrégation que vous ajoutez va perdre des données.

Joannes Vermorel: Peut-être que cela va être un bon compromis dans le sens où en agrégeant, vous économiserez peut-être du CPU ou de la mémoire, mais peut-être pas. C’est une discussion très technique, et ma suggestion serait de ne pas faire une sorte d’optimisation prématurée. Essayez de ne pas penser immédiatement à ces niveaux d’agrégation comme s’il s’agissait de problèmes complexes ; ce sont surtout des problèmes simples en ce qui concerne la visualisation. Avec les systèmes informatiques modernes, il est très facile d’avoir des capacités excessives par rapport à vos besoins réels.

Dans les années 90, il était difficile d’agrégation des données par jour, mais de nos jours, ce n’est plus le cas. Si un fournisseur vous dit qu’il a une limite de cinq ans d’historique, c’est vraiment étrange. Il n’y a pas de telle limitation. Il existe de nombreuses façons de gérer n’importe quelle granularité, même jusqu’à la milliseconde. Cependant, ce n’est pas nécessairement quelque chose de très sensé, et vous ne voulez pas le faire avec un cube réel où vous utilisez un octet de mémoire pour chaque cellule de votre cube. C’est un aspect très technique.

Les systèmes modernes vous donneront n’importe quelle forme d’agrégation dont vous avez besoin, et même plus. Ce n’est pas une contrainte. Ne raisonnez pas par implication, en essayant de penser à toutes les techniques que vous voulez utiliser en vous basant sur ce cube, comme si c’était la seule façon de regarder le problème. Ce n’est pas le cas. Il y a beaucoup de choses qui se perdent, comme la périssabilité, la cannibalisation, la substitution et les délais de livraison variables. Le fait de tout encadrer dans un cube impose d’énormes restrictions sur ce que vous pouvez même penser de votre supply chain, et c’est quelque chose de mauvais. Ma suggestion est de ne pas enfermer votre esprit. Essayez simplement d’avoir une perspective large car il y a tellement de contraintes arbitraires qui n’aident pas à résoudre les problèmes de votre supply chain.

Nicole Zint: Merci beaucoup, Joannes, d’avoir partagé vos réflexions sur ce sujet. Merci de nous avoir regardés, et nous vous verrons la semaine prochaine.