Supply Chain en tant que paris économiques dans un monde guidé par le marché
Au cours des deux dernières décennies, j’ai vu la gestion de la supply chain accumuler des buzzwords plus rapidement que des résultats. Nous parlons de digital twins, control towers, integrated business planning, demand sensing, resilience, sustainability. Pourtant, si l’on examine attentivement les bilans et les comptes de résultat, de nombreuses entreprises n’ont pas beaucoup progressé quant à la manière de convertir le fonds de roulement, la capacité et la complexité en retours économiques.
Dans mon livre Introduction to Supply Chain, j’ai tenté de recadrer la gestion de la supply chain comme une discipline économique rigoureuse, axée sur la manière dont les entreprises allouent des ressources rares en situation d’incertitude. Le livre entre dans plus de détails que ce que je peux exposer ici, mais l’idée centrale est simple : chaque fois que nous décidons d’acheter, de fabriquer, de déplacer ou de fixer un prix, nous plaçons de petits paris économiques aux résultats incertains. Une supply chain moderne devrait être jugée par la qualité de ces paris, ainsi que par les conséquences financières à long terme qu’ils engendrent.
Cet essai expose cette perspective des « paris » et explore ce qui en découle : comment nous définissons la performance, comment nous traitons les prévisions et les plans, quel type de technologie nous nécessite réellement, et quels rôles les humains devraient jouer une fois le calme revenu.
Supply chain en tant que portefeuille de paris
La vie quotidienne d’une supply chain est étonnamment banale. Quelqu’un décide d’acheter une unité supplémentaire de cet article pour cet entrepôt, à recevoir à cette date. Quelqu’un avance une série de production, la reporte ou l’annule. Quelqu’un ajuste le prix d’un SKU donné dans un canal spécifique pour demain.
Chacune de ces décisions consomme une ressource rare : liquidités, capacité, espace d’étagère, attention humaine, et bonne volonté auprès des clients ou des fournisseurs. Chaque décision crée également une exposition à une gamme de futurs possibles. L’unité peut se vendre à temps au prix fort, se vendre en retard à prix réduit, ou ne jamais se vendre et devenir obsolète. Une série de production peut combler un créneau rentable, ou immobiliser une capacité qui aurait pu être plus précieuse ailleurs.
Pris isolément, la plupart de ces paris sont petits. Pris dans leur ensemble, ils définissent le profil de risque de l’entreprise et son résultat économique. Ce que nous appelons « performance de la supply chain » n’est rien d’autre que le résultat financier à long terme de millions de ces paris effectués dans l’incertitude.
C’est pourquoi, à mon avis, la supply chain est fondamentalement une discipline économique. Son objet est l’allocation de ressources rares en situation d’incertitude. Sa monnaie de compte, que cela nous plaise ou non, est l’argent. L’argent n’est pas tout, mais c’est l’unité avec laquelle l’entreprise règle ses obligations et mesure sa survie. Si nous sommes sérieux quant à l’amélioration des supply chains, nous devons l’être quant à l’économie de ces paris.
Qu’essayons-nous exactement d’optimiser ?
Si nous ôtons le jargon, la plupart des entreprises prétendent optimiser la « performance ». Mais la performance est un terme fuyant.
Un regard naturel est comparatif et à long terme. Vous pouvez examiner un groupe de pairs sur une décennie et vous demander : quelles entreprises ont réellement amélioré leur position en termes de croissance, de marge opérationnelle, de rotations de stocks, et de retour sur capital ? Certains analystes appellent cela la « frontière efficace » : une courbe multidimensionnelle au-delà de laquelle les pairs ne peuvent être facilement dépassés. Une entreprise qui croît rapidement mais perd en marge n’est pas excellente. Une entreprise qui réduit ses stocks mais aussi sa part de marché n’est pas excellente. L’excellence se situe là où ces indicateurs sont conjointement améliorés ou du moins bien équilibrés.
Ce point de vue est utile parce qu’il nous oblige à confronter des compromis. Il ne suffit pas d’atteindre un KPI interne de taux de service si, dans le processus, l’on érode silencieusement la marge ou fait gonfler les stocks. Avec le temps, le tableau de bord se montre impitoyable.
Mon propre point de vue est basé sur l’unité et marginal. Je me concentre sur le rendement ajusté du risque de la décision marginale. Si j’achète une unité supplémentaire du produit X à placer dans l’emplacement Y pour la semaine Z, compte tenu de ce que je sais actuellement, quel est le rendement financier attendu ? Combien de profit cette unité additionnelle apporte-t-elle en moyenne, une fois que nous prenons en compte :
- la probabilité qu’elle se vende à temps au prix fort,
- la probabilité qu’elle se vende en retard à prix réduit,
- la chance qu’il ne se vende jamais et devienne obsolète?
Comment cela se compare-t-il au fait de placer cette même unité de fonds de roulement dans un autre produit, un autre emplacement, ou tout simplement de ne pas l’investir ?
Pour raisonner à ce sujet, nous avons besoin d’une échelle commune. Tous les compromis qui encombrent les discussions supply chain—taux de service, utilisation, coûts de transport, obsolescence, promotions—doivent être exprimés en termes financiers cohérents. Une pénurie n’est pas « mauvaise » à l’abstrait ; elle coûte cher en termes de marge perdue, d’affaires futures perdues et de dommages à la réputation. Un excès de stocks n’est pas simplement du « gaspillage » ; c’est une option qui pourrait encore s’avérer payante, ou pourrir. Une capacité qui apparaît comme inactive sur un tableau de bord pourrait s’avérer précieuse en tant que tampon contre une volatilité qui ne figure pas encore dans les données historiques.
La frontière effective et le rendement marginal ajusté au risque sont deux manières de parler du même phénomène sous-jacent. L’une examine l’intégrale : la trajectoire à long terme, sur plusieurs années, de l’entreprise par rapport à ses pairs. L’autre s’intéresse à la dérivée : l’effet incrémental de la prochaine décision. En pratique, il est impossible d’avoir une bonne intégrale avec une mauvaise dérivée pendant longtemps. L’excellence persistante sur la frontière exige en fin de compte que les décisions quotidiennes, parmi des milliers d’articles et d’emplacements, soient économiquement sensées compte tenu de l’incertitude.
Prévisions, plans, et l’illusion de certitude
Les processus de planification traditionnels commencent généralement par une prévision. Dans de nombreuses organisations, cette prévision est un nombre unique par période et par article : la quantité « la plus probable » à vendre. Ce nombre devient alors l’ancre pour les plans de production, les plans d’achat, les plans de transfert, les réservations de capacité, etc. Les écarts sont traités comme des erreurs à expliquer rétrospectivement.
Cette pratique impose une confortable illusion de certitude. Nous prenons un avenir chaotique et incertain et le compressons en un nombre unique — la « demande attendue » pour une période donnée. Nous construisons ensuite des stocks de sécurité et des plans déterministes autour de ce chiffre, comme si l’erreur n’était qu’une nuisance marginale plutôt que l’événement principal.
En réalité, l’information dont nous avons le plus besoin est précisément ce que cette approche écarte : l’éventail des futurs plausibles et leurs probabilités. Pour chaque article, les questions qui comptent sont :
- Quelle est la probabilité que les ventes du mois prochain soient à moitié du niveau habituel ?
- Deux fois le niveau habituel ? Trois fois ?
- À quoi ressemblent les queues ? Sont-elles épaisses, asymétriques, multimodales ?
Une fois cela accepté, l’idée d’un « plan consensuel » unique devient moins convaincante. Plutôt que de demander « Quelle est la prévision ? » puis de négocier un plan autour de celle-ci, nous devrions demander :
“Étant donné cette distribution de futurs possibles et ces conséquences financières des ruptures de stocks, de l’excès et du retard, quelles décisions ont du sens?”
La même distribution de la demande peut justifier des choix de stocks ou de production très différents en fonction de :
- la structure de marge,
- la disponibilité de substituts,
- les délais impliqués,
- le coût de la capacité et des changements,
- les contraintes contractuelles et les pénalités.
Dans mon propre travail, je soutiens que les prévisions devraient être des distributions, et non des points. La question n’est pas « Quelle est la prévision des ventes pour le mois prochain ? » mais « À quoi ressemble la distribution de probabilité des ventes possibles ? » Une fois que nous disposons de telles distributions, le plan cesse d’être un « nombre consensuel » unique négocié lors des réunions et devient une série de décisions calculées par des algorithmes qui évaluent les coûts et les opportunités en fonction de ces distributions.
Technologie : architecture versus engine
La plupart des entreprises ont hérité d’une pile technologique qui a été construite principalement pour l’efficacité transactionnelle : l’enregistrement des commandes, des expéditions, des factures, des mouvements de stocks. Ces systèmes intègrent les données entre les fonctions, mais ils n’aident pas forcément les entreprises à prendre de meilleures décisions. Ajouter plus de tableaux de bord par-dessus une telle pile ne résout pas le problème sous-jacent. Cela vous donne plus de moyens pour voir ce qui se passe, mais pas beaucoup d’aide pour décider quoi faire.
Il y a beaucoup de discussion aujourd’hui au sujet des architectures plus “outside-in” : intégrer des signaux de demande externes, construire des taxonomies plus riches, offrir une visibilité quasi en temps réel des stocks et des capacités, et proposer des outils analytiques plus flexibles. Tout cela est utile. Cependant, je crois qu’il manque la capacité centrale.
Ce qui manque, ce n’est pas simplement une autre couche d’intégration ou un autre tableau de bord, mais un moteur de décision.
Par là, j’entends un logiciel qui, de manière récurrente :
-
prend en compte toutes les données pertinentes et les contraintes actuelles,
-
applique un modèle économique explicite des coûts et des opportunités, et
-
propose ou émet directement des décisions concrètes :
- quels bons de commande passer,
- quels ordres de production planifier,
- quels transferts exécuter,
- quels prix ajuster.
Un tel moteur doit être :
- Programmable par des personnes qui comprennent le métier.
- Auditable, dans le sens où il peut expliquer, a posteriori, pourquoi une décision particulière a été prise compte tenu des données et des évaluations de l’époque.
- Rapide et évolutif au point de gérer des millions de décisions dans les créneaux de temps imposés par les délais physiques.
- Probabiliste, capable de travailler avec des distributions plutôt qu’avec des prévisions ponctuelles.
Les architectures “outside-in” sont utiles car elles fournissent de meilleures données d’entrée à un tel moteur. Sans ce moteur, cependant, elles risquent de se transformer en systèmes de reporting plus sophistiqués. Vous verrez le problème de manière plus claire, avec plus de nuances et de métriques de latence, mais vous dépendrez toujours d’armées de planificateurs qui manipulent des chiffres dans des tableurs, cherchant à concilier manuellement des objectifs conflictuels.
Mon accent, par conséquent, est mis sur le moteur de décision au centre, avec une architecture à son service.
Organisation, gouvernance et le rôle du S&OP
Une grande partie de la réflexion organisationnelle autour de la supply chain s’est cristallisée autour du sales and operations planning (S&OP) et de ses dérivés. Ces processus sont censés rompre les silos et aligner les fonctions. C’est là que les compromis sont négociés et que la finance, les ventes, les opérations et la supply chain convergent supposément vers un plan unique.
Je partage le constat que les silos sont une source majeure de destruction de valeur. Lorsque chaque fonction optimise ses propres indicateurs—taux de service ici, utilisation là, la précision des prévisions ailleurs—le système global en pâtit. Les gens consacrent énormément d’efforts à résoudre des conflits entre des plans qui n’étaient jamais conçus pour être compatibles.
Là où je diverge de la pensée traditionnelle du S&OP, c’est sur l’importance que doit conserver à long terme la réunion de planification.
À mon avis, si nous faisons correctement notre travail du côté technologique, l’essentiel de la planification opérationnelle devrait être délégué au moteur de décision décrit ci-dessus. Ce moteur est alimenté par les données les plus récentes et les évaluations économiques actuelles (par exemple, le coût relatif d’une rupture de stock par rapport à un excès pour un article donné, ou la valeur d’une journée de réduction de délai pour une voie donnée). Il recalcule les décisions optimales à mesure que les conditions changent, bien plus fréquemment et de manière plus cohérente que ne pourrait le faire un processus humain.
Ce qui reste pour le S&OP ou la planification d’entreprise intégrée, ce n’est pas la planification, mais la gouvernance.
Au lieu de passer leur temps à ajuster des quantités dans un tableur, les dirigeants devraient consacrer leur temps à ajuster les règles du jeu :
- les évaluations financières,
- les contraintes,
- l’appétit pour le risque,
- les hypothèses structurelles incarnées dans la logique décisionnelle.
Ils devraient examiner comment les décisions du moteur se traduisent en résultats réalisés et utiliser ce retour pour affiner les paramètres économiques ainsi que les hypothèses structurelles. Les questions principales deviennent :
- Sommes-nous satisfaits du compromis actuel entre le taux de service et les stocks pour cette famille de produits ?
- Attribuons-nous un prix approprié au risque sur ce marché ?
- Nos hypothèses sur les délais sont-elles réalistes, compte tenu des perturbations récentes ?
Il s’agit d’un changement subtil mais profond. Cela transforme le S&OP, qui était une tentative collective de concevoir manuellement un plan “parfait”, en une révision périodique de la performance d’un système de décision automatisé, compte tenu des objectifs de l’entreprise. L’attention humaine passe de la micro-gestion des quantités à la calibration des incitations et des contraintes.
Comment savons-nous ce que nous savons ?
La supply chain est un domaine délicat d’un point de vue épistémologique. Les expériences sont coûteuses, les environnements sont bruyants et le nombre de variables est intimidant. Il est facile de confondre récits plausibles et connaissances robustes.
Historiquement, de nombreuses techniques qui sont encore largement enseignées et mises en œuvre doivent leur survie moins à leur performance empirique qu’à leur commodité computationnelle. Les formules de stock de sécurité basées sur des hypothèses héroïques, les modèles linéarisés de phénomènes manifestement non linéaires, et les hiérarchies de planification simplifiées qui reflètent davantage les organigrammes que la réalité économique—ces artefacts étaient compréhensibles quand le calcul était rare et coûteux. Il est désormais plus difficile de les justifier.
Je m’inquiète également des structures d’incitation. Les éditeurs de logiciels, consultants, universitaires et parties prenantes internes ont tous des raisons de privilégier des récits qui justifient de grands projets, des cadres complexes ou des ajustements progressifs. L’incitation à prouver qu’une méthode appréciée perd systématiquement de l’argent en pratique est relativement faible.
La réponse, à mon avis, est de rapprocher la supply chain de l’économie appliquée avec une forte composante empirique et computationnelle. Nous devrions :
- formuler nos hypothèses de manière explicite,
- les encoder dans des algorithmes,
- les confronter à la réalité à travers les résultats financiers de l’entreprise, et
- être prêts à abandonner des politiques qui détruisent de la valeur, peu importe leur élégance ou leur large diffusion.
Il n’existe pas de “meilleures pratiques” intemporelles qui attendent d’être mises en œuvre. Il n’existe que des pratiques qui fonctionnent dans leur contexte, pendant un certain temps, jusqu’à ce que l’environnement ou le paysage concurrentiel change.
Vers une pratique plus honnête
Si vous êtes un cadre ou un praticien essayant de naviguer parmi ces idées, il peut être utile de penser en termes de couches:
- À la couche stratégique et diagnostique, vous vous souciez de votre trajectoire par rapport à vos pairs sur la croissance, la marge, les rotations de stocks, et le retour sur capital. Êtes-vous réellement en train de vous diriger vers une frontière efficace, ou simplement en train de réarranger les KPI internes?
- À la couche opérationnelle et computationnelle, vous vous interrogez sur le fait que les millions de décisions quotidiennes—acheter, fabriquer, déplacer, fixer les prix—soient de bons paris, compte tenu de l’incertitude à laquelle vous faites face et des compromis financiers que vous avez acceptés.
- À la couche de gouvernance, vous vous demandez si les règles du jeu encodées dans votre moteur de décision reflètent réellement votre stratégie et votre appétit pour le risque, et si elles sont mises à jour au fur et à mesure que le monde change.
Ces couches ne sont pas alternatives. Ce sont différentes perspectives sur le même sujet.
D’après moi, le cœur du problème peut se résumer en une phrase:
La Supply chain est, au fond, une discipline économique qui devrait être pratiquée via le logiciel en tant qu’art de faire de bons paris face à l’incertitude.
Tout le reste—processus, architectures, tableaux de bord, même les modèles de maturité—devrait être évalué en fonction de la mesure dans laquelle ils facilitent ou entravent cette tâche centrale.