Il y a quelques jours, un prospect a soulevé plusieurs questions pointues concernant l’applicabilité de la perspective la Supply Chain Quantitative pour répondre aux challenges de la supply chain telles que rencontrées par de nombreuses grandes entreprises manufacturières.

Considérons le cas où de nombreux articles sortent de relativement peu de types de cellules de travail/machines pouvant fabriquer n’importe quel article du cycle de la semaine prochaine, tant qu’il y a la capacité en personnel et les matières premières. À quoi doit ressembler le schéma de demande et la capacité d’approvisionnement d’une entreprise pour que les prévisions probabilistes soient significativement supérieures à un bon APS standard tel que JDA ou SAP APO ? Les prévisions agrégées, qui sont moins erratiques et donc mieux adaptées aux prévisions traditionnelles et aux APS, ne seraient-elles pas suffisantes pour le problème en question ?

Les prévisions probabilistes ne concernent pas seulement la demande, mais impliquent d’embrasser tous les aspects qui restent irrémédiablement incertains : la demande mais aussi les délais d’approvisionnement, les retours, les changements de prix, etc. Plus l’incertitude est grande, plus l’avantage compétitif de toute approche numérique traitant l’incertitude dès le départ, plutôt que de l’ignorer, est important. L’agrégation des prévisions « classiques » est l’équivalent numérique de balayer la saleté sous le tapis. Une prévision mensuelle pourrait être plus précise – lorsqu’elle est mesurée en pourcentages – par rapport à une prévision quotidienne ; toutefois, cette précision supplémentaire se paie par un décalage supplémentaire sur le marché, puisque l’indicateur statistique s’étend – par construction – sur tout un mois.

Ignorer les risques structurels – tels que perdre un gros client et toute la continuité de ses commandes – est la recette pour générer un flux continu de stocks morts au fil du temps, puisque tous les clients finiront par partir – même si c’est pour être regagnés un an plus tard. À un niveau plus banal, ignorer la variabilité des délais d’approvisionnement entraîne une allocation inefficace des stocks, puisque, précisément, le stock est là pour couvrir cette variance. Sans prévisions probabilistes, l’incertitude n’est même pas correctement estimée. En règle générale, les délais d’approvisionnement variables ne suivent jamais une distribution normale.

car manufacturing

Cependant, les prévisions probabilistes ne sont que des artefacts numériques. Au bout du compte, seules les décisions comptent, leur performance étant mesurée en euros, et non les artefacts numériques intermédiaires utilisés pour les produire – qu’il s’agisse de prévisions classiques ou probabilistes. La principale faiblesse des APS est qu’ils n’optimisent tout simplement pas la supply chain d’un point de vue financier. Améliorer le MAPE des prévisions relève de la vanité ; seul le ROI compte. Les prévisions probabilistes l’emportent, non pas parce qu’elles sont plus précises, mais parce qu’elles se transforment de manière bien plus pratique en décisions optimisées selon des critères ROI arbitraires.

Ainsi, à moins que les enjeux financiers de la supply chain ne soient négligeables, les APS ne sont jamais « suffisants » à mon sens, car l’APS ne fait même pas l’effort d’optimiser les décisions supply chain d’un point de vue financier. En pratique, les équipes supply chain finissent par assumer l’entière responsabilité de la performance financière au moyen de leurs feuilles Excel ; aucun crédit ne doit être attribué à l’APS pour cela.

La Supply Chain Quantitative et DDMRP se disputent en tant que recettes numériques respectives pour l’horizon opérationnel. Cependant, la Supply Chain Quantitative ne souffre-t-elle pas de défis similaires concernant les contraintes d’approvisionnement ? Ou les modélisez-vous explicitement ? Comment pilotez-vous l’horizon tactique afin de projeter les points critiques de capacité suffisamment en amont pour donner à la direction la possibilité de les corriger, par exemple en sollicitant de la capacité ?

Contrairement à DDMRP, la Supply Chain Quantitative (QSC) est assortie de recettes numériques « packagées ». QSC est simplement une approche de principe pour élaborer des recettes utiles, destinées à un usage de production direct, et pour les affiner au fil du temps. Rassembler et développer des outils numériques suffisamment polyvalents pour faire face à la diversité ahurissante des contraintes de supply chain (par exemple, MOQs, BOMs, flux de trésorerie, pénalités SLA, etc.) est une préoccupation centrale pour QSC.

Chez Lokad, nous itérons de manière agressive d’une génération technologique à l’autre depuis plus d’une décennie. Nous avons introduit deux algèbres pour aborder cette catégorie de problèmes ainsi que de multiples solveurs non linéaires, la dernière itération à ce jour étant differentiable programming. Le but de ces outils est de permettre à un Supply Chain Scientist – comme cela a été souligné – de modéliser explicitement toutes ces contraintes. Comme les contraintes elles-mêmes sont diverses, il faut une certaine expressivité programmatique pour espérer pouvoir les modéliser adéquatement.

Ensuite, la perspective financière – l’un des principes fondamentaux de QSC – offre des perspectives remarquables en ce qui concerne les contraintes de supply chain. En particulier, il devient possible de valoriser les bénéfices associés à la levée de toute contrainte donnée. En effet, le défi n’est pas tant de soulever le problème de capacité de production que de justifier la rentabilité de tout investissement à réaliser dans ce domaine spécifique.

En pratique, il y a (presque) toujours plusieurs options qui se concurrencent pour résoudre le même problème : peut-être est-il possible de constituer des stocks à l’avance au lieu d’augmenter la capacité de production, peut-être est-il possible d’augmenter les lots de production pour accroître le débit, peut-être que les prix devraient être relevés face à une capacité de production maximale, etc. L’approche QSC se prête à une priorisation basée sur le ROI de toutes ces options ; la liste de priorités étant continuellement actualisée avec les données d’entrée.

En pratique, la seule limite à une projection lointaine dans le futur réside dans l’incertitude statistique qui l’accompagne. La plupart des investissements « data-driven » – stocks supplémentaires, capacité supplémentaire – sont négativement impactés par les fluctuations du marché, ce qui tend à les rendre non pertinents. Ce problème touche toutes les méthodes quantitatives – QSC et DDMRP confondus – la seule atténuation que je connaisse étant la prévision probabiliste explicite.

Certaines des démonstrations de SAP sur IBP montrent des choses très attrayantes, telles que la capacité de projeter et de visualiser l’impact d’une expédition en retard, ainsi que la possibilité de gérer un horizon tactique. Voyez-vous Lokad intervenir ici, éliminant ainsi le besoin de tels outils ? Ou considérez-vous APO/IBP comme une couche intermédiaire relativement simple, dont les points forts seraient utilisés, tandis que Lokad se positionnerait comme un système de différenciation/innovation imposant les décisions à exécuter (achats, production, ordres de transfert) et les poussant via APO/IBP ?

Lokad est conçu comme une couche d’analyse qui s’appuie sur une couche transactionnelle, typiquement un ERP ou un WMS. L’objectif est de générer des décisions finalisées qui soient déjà conformes à toutes les contraintes applicables, supprimant ainsi le besoin de traitements de données « intelligents » supplémentaires. À cet égard, Lokad occupe le même créneau fonctionnel que SAP APO et SAP IBP.

En ce qui concerne l’expérience utilisateur, je pense que les tableaux de bord web de Lokad sont fluides et réactifs. Cependant, de nos jours, produire des tableaux de bord attrayants et des fonctionnalités de simulation est relativement simple pour les éditeurs de logiciels. Visualiser l’impact d’une expédition en retard est appréciable, mais j’estime que ce n’est pas une manière très capitaliste de valoriser le temps du personnel supply chain. Les logiciels supply chain consomment trop souvent une quantité excessive de main-d’œuvre simplement pour continuer à fonctionner.

Nous adoptons l’angle opposé: chaque heure passée sur Lokad devrait être investie dans l’amélioration de la solution, dont l’exécution est entièrement automatisée. Ainsi, pour revenir à l’exemple d’une expédition en retard, j’observerais que cette expédition n’est que le symptôme de décisions antérieures incorrectes : peut-être un reapprovisionnement un peu insuffisant et un peu tardif, peut-être le choix d’un fournisseur ou d’un transporteur peu fiable, peut-être une mauvaise priorisation des expéditions entre des clients en concurrence pour le même stock, etc.

Se concentrer sur la recette numérique qui génère toutes les décisions supply chain banales n’est pas très attractif visuellement – certainement pas autant que les fonctionnalités de simulation. Lokad peut également offrir des fonctionnalités de simulation, cependant, à moins qu’il n’existe de voie claire pour transformer ces efforts en un flux de meilleures décisions automatiquement générées par la solution, je ne conseille pas à mes équipes d’emprunter cette voie.

Lors de l’examen des configurations supply chain (unités de production ouvertes/fermées et entrepôts; quels clients allouer à quel centre de distribution, etc.), la valeur d’investir dans l’agilité et la réduction des délais d’approvisionnement d’un fournisseur ou d’une cellule de production interne, c’est-à-dire la conception supply chain de Llamasoft – généralement basée sur des scénarios impossibles à reconstituer à partir de l’historique – se pose. Est-ce le type de question pour lequel on pourrait utiliser Lokad ?

À la fin des années 90, de nombreux experts avaient préfiguré que l’avenir de la photographie serait numérique et que la photographie argentique était condamnée, mais 20 ans plus tard, nous sommes encore à des décennies de posséder une technologie de machine learning capable de produire des insights de haut niveau simplement en « analysant » des bases de données de brevets.

La Supply Chain Quantitative – et Lokad – repose fondamentalement sur la statistique. Lorsqu’il s’agit d’optimiser des décisions supply chain qui se révèlent être de véritables valeurs aberrantes statistiques tant par leur ampleur que par leur fréquence, par exemple décider d’ouvrir une nouvelle usine, la perspective statistique est tout au plus faible et souvent trompeuse.

Compte tenu des délais d’approvisionnement, Lokad est bien plus adapté pour décider si le fret aérien doit être utilisé – ou non – pour chaque expédition, plutôt que de décider si des fournisseurs stratégiques devraient être rapatriés de l’Asie vers l’Amérique du Nord.

En règle générale, dès qu’une décision supply chain peut être réexaminée quotidiennement, elle constitue une bonne candidate pour Lokad. Les données historiques n’ont pas besoin d’offrir une correspondance stricte avec les scénarios envisagés. Explorer des affinités alternatives entre clients et centres de distribution est précisément le type de problème qu’Envision a été conçu pour résoudre.