Depuis la création de Lokad, notre objectif a été d’améliorer sans relâche notre technologie de prévision afin de fournir des formes supérieures de l’optimization de la supply chain. Il y a presque une décennie, je signalais déjà qu’être une entreprise machine learning est étrange : le progrès est constant mais également non linéaire et erratique. De plus, la plupart des approches considérées comme allant de soi dans d’autres domaines se révèlent complètement inappropriées en ce qui concerne le machine learning. Pourtant, cela n’implique pas que ce progrès soit laissé au hasard : il y a une méthode à tout cela.

L’amélioration de notre technologie de prévision commence par l’amélioration des données. Sans une préparation des données adéquate, le processus se résume à un exercice de type “garbage in, garbage out”. S’assurer que les promotions, les ruptures de stock et les délais d’approvisionnement sont correctement représentés dans un jeu de données donné demande beaucoup de temps et d’expertise. En pratique, comme les complications liées aux données tendent à être spécifiques à un domaine, il faut toute une équipe de supply chain scientists chez Lokad pour consolider une variété de jeux de données représentant des secteurs aussi divers que l’aérospatiale, la mode, la distribution alimentaire, etc.

Ensuite, lorsque nous inventons1 une nouvelle méthode statistique, il s’avère généralement que cette méthode affiche une performance supérieure sur un jeu de données donné, et une performance inférieure sur un autre jeu de données. Malheureusement, lorsque cela se produit, la nouvelle méthode statistique tend à être fragile : elle pourrait bénéficier d’un certain coup de chance ou être victime d’un problème de surapprentissage. Ainsi, bien qu’il puisse être tentant de créer un cas particulier pour un client de Lokad, puisque une méthode statistique semble mieux convenir à ce client, nous ne procédons pas de cette manière. Notre décennie d’expérience nous a montré que ces résultats se révèlent invariablement fragiles et que la méthode supposément supérieure peut ne pas le rester très longtemps. Si l’entreprise cliente subit des changements importants – qui peuvent justement être causés par les actions mêmes de Lokad – la performance de la nouvelle méthode peut s’effondrer.

Ainsi, nous nous concentrons plutôt sur la découverte de méthodes statistiques qui offrent des résultats supérieurs pour une grande variété de situations, à travers de nombreux secteurs quelque peu indépendants, en assurant idéalement une amélioration uniforme partout plutôt qu’un mélange d’améliorations et de régressions, même si ce mélange est fortement penché en faveur des améliorations. Cette méthodologie est plus complexe que de simplement appliquer du feature-engineering2 à outrance sur un jeu de données donné, tout en recyclant sans cesse les mêmes algorithmes de machine learning, ce que proposent la plupart des agences d’analyse de données de nos jours.

Cette approche nous oblige à revisiter les fondations mêmes de la prévision statistique. Par exemple, le passage à l’entropie croisée en tant que métrique supérieure pour mesurer la précision des prévisions a été déterminant pour tirer pleinement parti du deep learning. Plus récemment, nous sommes passés aux réseaux de densité de mélange, une approche puissante mais sous-utilisée3 pour capturer des comportements de queue complexes dans les supply chains. Ces réseaux de densité de mélange offrent une solution exploitable pour estimer de manière fiable la probabilité d’événements rares, ce qui est crucial dans des industries telles que l’aérospatiale.

Notre technologie de prévision est toujours en cours de développement. De nombreux défis restent encore imparfaitement résolus. Par exemple, les cannibalisations et la réaction du marché face aux changements de prix demeurent des défis très difficiles. Néanmoins, nous n’abandonnons pas, et même après 10 ans de R&D, nous continuons de progresser.


  1. Nous nous tenons sur les épaules de géants. Les efforts de R&D de Lokad sont généralement des variations d’idées issues de la vaste communauté du machine learning, qui ne travaille typiquement pas sur des problèmes de supply chain, mais plutôt sur des problèmes grand public tels que la détection de motifs, la reconnaissance vocale ou le traitement du langage naturel. ↩︎

  2. Le feature engineering est un processus qui consiste à créer manuellement une représentation du jeu de données adaptée à un algorithme de machine learning donné. Le feature engineering est un moyen puissant de pallier les faiblesses connues des algorithmes de machine learning. ↩︎

  3. L’article original sur les Mixture Density Networks (MDN) par Christopher M. Bishop date de 1994. Pourtant, il a fallu près de deux décennies pour que le matériel rattrape les possibilités offertes par ce travail pionnier. Contrairement à l’article original, qui était appliqué à l’inverse cinématique des robots, nous utilisons les MDN pour fournir des prévisions de demande probabilistes. ↩︎