Il y a quelques jours, un prospect a soulevé plusieurs questions pertinentes concernant l’applicabilité de la perspective de la Supply Chain Quantitative pour relever les défis de la gestion de la supply chain auxquels sont confrontées de nombreuses grandes entreprises manufacturières.

Prenons le cas où de nombreux articles sortent de quelques types de postes de travail/machines qui peuvent fabriquer n’importe quel article dans le cycle de la semaine prochaine, tant qu’il y a une capacité de personnel et des matières premières. À quoi doit ressembler le modèle de demande et la capacité d’approvisionnement d’une entreprise pour que les prévisions probabilistes soient significativement supérieures à un bon APS standard comme JDA ou SAP APO ? Les prévisions agrégées, qui sont moins erratiques et donc mieux adaptées aux prévisions traditionnelles et aux APS, ne seraient-elles pas suffisantes pour résoudre le problème ?

Les prévisions probabilistes ne concernent pas seulement la demande, mais englobent tous les aspects qui restent irréductiblement incertains : la demande, mais aussi les délais d’approvisionnement, les retours, les changements de prix, etc. Plus l’incertitude est grande, plus l’avantage concurrentiel de toute approche numérique qui aborde l’incertitude dès le départ est important, plutôt que d’ignorer le problème. L’agrégation des prévisions “classiques” revient à balayer la saleté sous le tapis. Une prévision mensuelle peut être plus précise - en termes de pourcentage - par rapport à une prévision quotidienne ; cependant, la précision supplémentaire se traduit par un retard de marché supplémentaire, car l’indicateur statistique couvre - par construction - un mois entier.

Ignorer les risques structurels - tels que la perte d’un client important et de tout son flux de commandes en cours - est la recette pour générer un flux continu de stocks morts au fil du temps, car tous les clients finiront par partir à un moment donné - même s’il s’agit de les récupérer un an plus tard. À un niveau plus banal, ignorer la variabilité des délais d’approvisionnement entraîne une allocation inefficace des stocks, car précisément, le stock est là pour couvrir la variance des délais d’approvisionnement. Sans prévision probabiliste, l’incertitude n’est même pas correctement estimée. En règle générale, les délais d’approvisionnement variables ne suivent jamais une distribution normale.

fabrication automobile

Cependant, les prévisions probabilistes ne sont que des artefacts numériques. En fin de compte, seules les décisions comptent, leur performance étant mesurée en euros, et non les artefacts numériques intermédiaires utilisés pour les produire - tels que les prévisions classiques ou probabilistes. La principale faiblesse des APS est qu’ils n’optimisent tout simplement pas la supply chain d’un point de vue financier. Améliorer le MAPE des prévisions est de la vanité ; seul le ROI compte. Les prévisions probabilistes l’emportent, non pas parce qu’elles sont plus précises, mais parce qu’elles sont beaucoup plus pratiques à transformer en décisions optimisées selon des critères de ROI arbitraires.

Ainsi, à moins que les enjeux financiers de la supply chain soient insignifiants, les APS ne sont jamais “suffisamment bons” selon moi, car les APS ne font même pas d’effort pour optimiser les décisions de la supply chain d’un point de vue financier. En pratique, les équipes de la supply chain se retrouvent à assumer toute la responsabilité de la performance financière grâce à leurs feuilles Excel ; aucun mérite n’est à attribuer aux APS pour cela.

La Supply Chain Quantitative et DDMRP sont en concurrence en tant que recettes numériques respectives pour l’horizon opérationnel. Cependant, la Supply Chain Quantitative ne rencontre-t-elle pas des défis similaires en termes de contraintes d’approvisionnement ? Ou les modélisez-vous explicitement ? Comment conduisez-vous l’horizon tactique pour projeter les points de capacité tendus suffisamment loin pour donner à la direction une chance de les résoudre, par exemple en demandant des capacités supplémentaires ?

Contrairement à DDMRP, la Supply Chain Quantitative (QSC) est accompagnée de recettes numériques “prêtes à l’emploi”. La QSC est simplement une approche fondée sur des principes visant à élaborer des recettes utiles, destinées à une utilisation de production simple, et à les affiner au fil du temps. Rassembler et nourrir des outils numériques suffisamment polyvalents pour faire face à la diversité déconcertante des contraintes de la supply chain (par exemple, les MOQs, les BOMs, les flux de trésorerie, les pénalités de niveau de service, etc.) est une préoccupation centrale de la QSC.

Chez Lokad, nous avons itéré de manière agressive d’une génération technologique à l’autre depuis plus d’une décennie maintenant. Nous avons introduit deux algèbres pour résoudre cette classe de problèmes ainsi que plusieurs solveurs non linéaires, la dernière itération à ce jour étant la programmation différentiable. L’objectif de ces outils est de permettre à un Supply Chain Scientist - comme mentionné précédemment - de modéliser explicitement toutes ces contraintes. Étant donné que les contraintes elles-mêmes sont diverses, il faut une certaine expressivité programmatique pour avoir une chance de les modéliser de manière adéquate.

Ensuite, la perspective financière - l’un des principes fondamentaux de la QSC - offre des aperçus remarquables en ce qui concerne les contraintes de la supply chain. En particulier, il devient possible de tarifer les avantages associés à la levée de toute contrainte donnée. En effet, le défi n’est pas tant de demander de résoudre le problème de capacité de production, mais plutôt de justifier la rentabilité de tout investissement à réaliser dans ce domaine spécifique.

En pratique, il existe (presque) toujours plusieurs options qui rivalisent pour résoudre le même problème : il est peut-être possible de constituer des stocks à l’avance au lieu d’augmenter la capacité de production, il est peut-être possible d’augmenter les lots de production pour augmenter le débit, peut-être que les prix devraient être augmentés en cas de pic de capacité de production, etc. L’approche de la QSC se prête à une priorisation basée sur le retour sur investissement de toutes ces options ; la liste des priorités étant continuellement actualisée avec les données d’entrée.

En pratique, la seule limite pour anticiper l’avenir lointain est l’incertitude statistique qui l’accompagne. La plupart des investissements “basés sur les données” - stocks supplémentaires, capacité supplémentaire - sont impactés négativement par les fluctuations du marché, ce qui tend à les rendre non pertinents. Ce problème affecte toutes les méthodes quantitatives - QSC et DDMRP incluses - la seule atténuation connue étant la prévision probabiliste explicite.

Certaines démonstrations de SAP sur IBP montrent beaucoup de choses intéressantes en permettant de projeter et de visualiser l’impact d’une livraison tardive, ainsi que la capacité à exécuter un horizon tactique. Pensez-vous que Lokad joue dans cette catégorie, éliminant ainsi le besoin de tels outils ? Ou considérez-vous APO/IBP comme une couche intermédiaire relativement simple avec ces forces utilisées, mais Lokad comme un système de différenciation/innovation qui tire les décisions à exécuter (achats, production, ordres de transfert) et les pousse à travers APO/IBP ?

Lokad est conçu comme une couche d’analyse qui se situe au-dessus d’une couche transactionnelle, généralement un ERP ou un WMS. L’objectif est de générer des décisions finalisées qui sont déjà conformes à toutes les contraintes applicables, éliminant ainsi le besoin de tout traitement de données “intelligent” supplémentaire. À cet égard, Lokad occupe la même niche fonctionnelle que SAP APO et SAP IBP.

En ce qui concerne l’expérience utilisateur, je pense que les tableaux de bord web de Lokad sont également fluides et réactifs. Cependant, de nos jours, il est relativement facile pour les éditeurs de logiciels de produire des tableaux de bord attrayants et des capacités de simulation. Visualiser l’impact d’une livraison tardive est intéressant, mais je suis enclin à penser que ce n’est pas une façon très capitaliste d’exploiter le temps du personnel de la supply chain. Les logiciels de gestion de la supply chain consomment trop souvent une quantité démesurée de main-d’œuvre simplement pour rester opérationnels.

Nous adoptons l’angle opposé : chaque heure passée sur Lokad devrait être investie dans l’amélioration de la solution, dont l’exécution est entièrement automatisée. Ainsi, en revenant à l’exemple d’une livraison tardive, je constate que la livraison tardive n’est que le symptôme de décisions incorrectes précédentes : peut-être une réapprovisionnement un peu trop tardif, peut-être le choix d’un fournisseur ou d’un transporteur peu fiable, peut-être la mauvaise priorisation des livraisons entre des clients concurrents pour le même stock, etc.

Se concentrer sur la recette numérique qui génère toutes les décisions routinières de la supply chain n’est pas très attrayant visuellement - certainement pas autant que les capacités de simulation. Lokad peut également fournir des capacités de simulation, cependant, à moins qu’il n’y ait un chemin clair pour transformer ces efforts en une série de meilleures décisions générées automatiquement par la solution, je ne conseille pas à mes équipes de suivre cette voie.

Lorsqu’on considère les configurations de la supply chain (unités de production ouvertes/fermées et entrepôts ; quels clients allouer à quel centre de distribution, etc.), la valeur de l’investissement dans l’agilité et les délais de livraison plus courts d’un fournisseur ou d’une cellule de fabrication propre, c’est-à-dire la conception de la supply chain Llamasoft - généralement basée sur des scénarios impossibles à construire à partir de l’historique : est-ce le type de questions pour lesquelles on pourrait utiliser Lokad ?

À la fin des années 90, de nombreux experts avaient prévu que l’avenir de la photographie était numérique et que la photographie argentique était condamnée, mais 20 ans plus tard, nous sommes encore à des décennies d’avoir une technologie de machine learning capable de produire de telles informations de haut niveau en “croquant” simplement des bases de données de brevets.

La Supply Chain Quantitative - et Lokad - est avant tout statistique. Lorsqu’il s’agit d’optimiser des décisions de supply chain qui se révèlent être des valeurs aberrantes statistiques tant par leur ampleur que par leur fréquence, par exemple décider d’ouvrir une nouvelle usine, la perspective statistique est au mieux faible et souvent trompeuse.

En ce qui concerne les délais de livraison, Lokad est beaucoup mieux adapté pour décider si le fret aérien doit être utilisé - ou non - pour chaque expédition, plutôt que de décider si les fournisseurs stratégiques doivent être rapatriés de l’Asie vers l’Amérique du Nord.

En règle générale, chaque fois qu’une décision de supply chain peut être réexaminée quotidiennement, elle est un bon candidat pour Lokad. Les données historiques ne doivent pas nécessairement correspondre exactement aux scénarios envisagés. Explorer les affinités alternatives entre les clients et les centres de distribution est précisément le type de problèmes pour lesquels Envision a été conçu.