De plans en mises : pourquoi les supply chains ont besoin de décisions non supervisées
Lorsque j’ai publié Introduction to Supply Chain, de nombreux lecteurs m’ont demandé de développer une idée qui traverse discrètement le livre : l’orientation vers une prise de décision non supervisée dans les supply chains. Pas “plus de tableaux de bord”, pas “plus d’alertes”, mais un logiciel qui prend et exécute des décisions quotidiennes sans attendre qu’un humain clique sur “approuver”.
Dans cet essai, je souhaite clarifier ce que j’entends par décisions non supervisées, pourquoi je pense qu’elles sont économiquement inévitables, et comment cette approche heurte le mode opératoire traditionnel des supply chain fondé sur les plans, les prévisions et les réunions.
Le véritable métier d’une supply chain : faire des paris toute la journée
Si l’on débarrasse les choses du jargon, une supply chain est une machine à faire des paris.
Chaque bon de commande, chaque répartition entre entrepôts, chaque modification de prix est une petite mise : nous sacrifions une option pour en poursuivre une autre, dans l’incertitude, dans l’espoir d’améliorer le profit sur le long terme. Nous ne connaissons jamais l’avenir ; nous engageons les ressources de toute façon.
Vu sous cet angle, le travail quotidien d’une supply chain n’est pas de “maintenir un plan”, il s’agit de choisir parmi les options. Plus vous avez de SKU, de lanes et de clients, plus ces choix se multiplient. Même les détaillants modestes se retrouvent à faire des dizaines de milliers de micro-mises chaque jour ; les grands réseaux en font des millions.
Lorsque ces décisions sont prises une par une par des personnes penchées sur des tableurs, le facteur limitant n’est plus constitué par les camions, les navires ou l’espace en entrepôt. C’est l’attention humaine. C’est le nombre d’heures dans la semaine d’un planificateur.
La prise de décision non supervisée est ma tentative de prendre ce goulot d’étranglement au sérieux.
Ce que j’entends par “décisions non supervisées”
Par décisions non supervisées, j’entends quelque chose de très concret :
Un logiciel ingère les enregistrements de l’entreprise et les signaux externes pertinents ; il calcule des actions proposées ; et ces actions sont exécutées automatiquement dans des circonstances normales. Aucun planificateur n’a à retaper la quantité. Aucun gestionnaire n’a à signer la demande. Le logiciel inscrit directement la commande dans le système d’enregistrements.
Si les conditions dépassent les limites — corruption des données, choc de marché étrange, contraintes contradictoires — le logiciel s’arrête et lève la main. Mais s’arrêter est l’exception, pas la règle. Par défaut, les décisions sont prises sans intervention humaine.
L’ambition ici n’est pas d’“aider les planificateurs à décider plus rapidement”. L’ambition est de réduire le nombre de décisions qui nécessitent la présence d’un humain.
Cela nécessite que deux choses soient rendues douloureusement explicites.
Premièrement, nous devons décider ce que signifie “bien” en termes monétaires. Une unité supplémentaire en stock procure une certaine protection contre les ruptures de stocks, mais immobilise le fonds de roulement, occupe de l’espace sur les étagères et peut augmenter les radiations par la suite. Chacun de ces effets a un impact financier. Si nous ne pouvons pas exprimer le compromis en argent, il est déraisonnable d’attendre de la machine qu’elle choisisse judicieusement.
Deuxièmement, nous devons définir l’espace des mouvements admissibles : quels fournisseurs, quels délais, quels modes de transport, quelles routes, quels minimums et maximums, quelles limites réglementaires et physiques. La machine ne peut pas respecter des contraintes que nous n’avons jamais pris la peine d’énoncer.
Une fois que nous disposons d’un critère économique clair et d’une description précise de ce qui est autorisé, l’argument en faveur des décisions non supervisées devient limpide. Les décisions récurrentes qui partagent la même structure devraient être codifiées une fois en tant que calcul, puis exécutées par le logiciel, à grande échelle, chaque jour.
Autrement dit : si une décision est fréquente, structurée et régie par une économie stable, confier sa redécision à un humain chaque matin est du gaspillage.
Une expérience de pensée simple
Imaginez un système unique qui observe chaque signal de demande, chaque position de stocks, chaque mise à jour de délai, chaque coût ; et qui émet ensuite — sans intervention humaine — chaque bon de commande, ordre de transfert, vague de prélèvement et modification de prix.
Dans un tel monde, il ne reste plus rien à “aligner” lors des réunions de Sales & Operations Planning ; la réunion disparaît parce que la machine réconcilie déjà la demande, l’offre et la finance dans chaque choix qu’elle fait. Il n’est pas non plus nécessaire d’avoir des “politiques de stocks” séparées ou des “taux de service” cibles ; ces notions sont implicites dans le calcul économique.
Cette expérience de pensée n’est pas de la science-fiction. De nombreuses entreprises digitales se comportent déjà ainsi dans des domaines spécifiques : enchères publicitaires, scoring de crédit, tarification en temps réel. Dans ces domaines, les moteurs de décision entièrement automatisés sont standards depuis des années, car les temps de réaction et la mémoire humaine ne peuvent tout simplement pas suivre.
La supply chain accuse un retard, principalement pour des raisons historiques, et non parce qu’elle soit intrinsèquement moins automatisable.
Comment le courant dominant perçoit la supply chain
Pour comprendre ce choc, nous devons examiner brièvement comment la discipline se décrit elle-même.
Des organismes professionnels tels que le CSCMP définissent la gestion de la supply chain comme la planification et la gestion de toutes les activités impliquées dans la recherche de fournisseurs, l’approvisionnement, la conversion et la logistique, ainsi que la coordination et la collaboration avec les partenaires de canal. L’ASCM utilise un langage similaire et fournit un dictionnaire dans le but de standardiser ce vocabulaire.
Des cadres tels que le modèle SCOR organisent cette activité en une série de processus : Planifier, Approvisionner, Fabriquer (ou Transformer), Livrer (parfois décomposé en Commander et Exécuter), Retour et Activer ou Orchestrer. Ces processus s’accompagnent d’importantes bibliothèques de métriques et de bonnes pratiques.
De plus, le rituel de gestion dominant est le Sales & Operations Planning ainsi que son cousin ultérieur, l’Integrated Business Planning. L’idée, en bref, est de construire une prévision unique et consensuelle de la demande et de l’utiliser comme colonne vertébrale pour aligner la production, l’approvisionnement, la logistique et la finance sur un horizon roulant.
Si vous assistez à une réunion S&OP dans une grande entreprise aujourd’hui, vous verrez presque certainement :
- Des diapositives remplies de prévisions des séries temporelles par famille, région ou SKU.
- Des taux de service cibles et des rotations de stocks.
- Des analyses d’écart par rapport au budget.
- Un calendrier de pré‑réunions et de revues exécutives destinées à faire converger tout le monde vers “une seule série de chiffres”.
Ces pratiques ne sont pas insensées. Elles tentent d’imposer de l’ordre dans une organisation complexe. Mais elles incarnent une vision particulière de ce qu’est le problème.
Dans cette vision, l’artefact central est le plan : un ensemble de séries temporelles projetées dans le futur. Le rôle des gestionnaires est de mettre la réalité “en phase” avec ce plan ou de continuer à le réviser jusqu’à ce que les chiffres semblent à nouveau acceptables. L’automatisation, dans ce contexte, se traduit principalement par des tableaux de bord plus attractifs, des flux de travail plus fluides et une paramétrisation plus cohérente des formules traditionnelles.
Mon point de vue diverge nettement à ce stade précis.
Des plans aux mises
La vision dominante part du plan et procède à rebours. Ma vision part de la mise et progresse.
Dans le monde centré sur le plan, la question est : “Comment amener toutes les fonctions à s’accorder sur le même avenir ?” Dans le monde centré sur la mise, la question est : “Étant donné ce que nous savons, où devrions-nous investir le prochain euro marginal, la prochaine palette ou la prochaine heure de capacité ?”
Un plan est, tout au plus, un effet de seconde ordre de la réponse à cette seconde question ; il n’est pas l’objet principal. Si les options de demain changent, le plan devrait changer avec elles. L’objectif n’est pas de respecter le plan ; l’objectif est de réaliser des paris rentables dans l’incertitude, jour après jour.
Cela peut paraître abstrait, alors laissez-moi opposer ces deux visions selon quelques axes.
1. Le rôle de la prévision
Dans la pratique courante, la prévision constitue le principal signal de contrôle. Le S&OP et l’IBP accordent une importance considérable à l’élaboration d’une prévision unique des séries temporelles, par mois ou par semaine, puis à la réconciliation de tout le monde sur cette courbe. Des indicateurs de performance tels que le MAPE et le biais deviennent des références centrales.
D’après mon expérience, cela pose deux problèmes.
Premièrement, agréger la demande en de jolis intervalles temporels masque précisément les comportements qui importent le plus : ventes irrégulières, promotions, cannibalisation entre produits, délais erratiques, chocs corrélés. Une courbe lisse procure du réconfort, pas la vérité.
Deuxièmement, la prévision se substitue silencieusement à la décision. Au lieu de se demander “Devons-nous importer un autre conteneur de cet article à ce prix, compte tenu de nos contraintes ?”, nous demandons “Quelle sera la demande le mois prochain ?” puis laissons une ancienne formule de réapprovisionnement transformer cette réponse en commandes. Si la formule est économiquement naïve — et la plupart le sont — le fait d’avoir amélioré la précision de la prévision de deux points ne nous apprend rien sur le profit.
Dans un monde non supervisé et centré sur la mise, j’ai toujours besoin de visions du futur, mais elles ne se limitent pas aux séries temporelles de la demande. J’ai besoin d’estimations probabilistes de nombreuses choses : composition du panier, délais, retours, répartition par canal, l’impact des modifications de prix. Et j’en ai besoin seulement dans la mesure où elles m’aident à comparer les options en termes monétaires.
L’attention passe de “Ma prévision de la demande est-elle précise ?” à “Étant donné toutes les incertitudes, quelle option offre le meilleur résultat financier attendu ?”
2. Ce que nous automatisons
Les outils conventionnels sont généralement décrits comme des “supports de décision”. Les systèmes de planification, les tours de contrôle et les plateformes IBP agrègent des données, affichent des indicateurs clés, mettent en évidence des exceptions et suggèrent parfois des actions, mais ils exécutent rarement quoi que ce soit sans confirmation humaine.
L’humain est délibérément maintenu “dans la boucle” pour presque chaque décision. D’un point de vue de gouvernance, cela paraît sûr, mais économiquement, c’est coûteux. Un planificateur qui doit approuver une centaine de suggestions de réapprovisionnement par jour ne sera pas en mesure d’examiner en profondeur chacune d’elles ; il se contentera de survoler, d’accepter la plupart, de modifier quelques-unes et espérera que rien n’explose.
En revanche, la prise de décision non supervisée vise à éliminer l’humain de la boucle chaque fois que la logique est répétitive et que l’économie est bien comprise.
Le logiciel lit les enregistrements, évalue les options et s’engage. En cas d’égalité ou de situation anormale, il s’arrête et demande de l’aide. Le fait qu’une décision soit automatisée ne signifie pas qu’elle soit arbitraire ; cela signifie simplement que le raisonnement a été consigné une fois plutôt qu’improvisé chaque jour à nouveau.
L’analogie avec l’aviation est utile. Pour un avion moderne, le réglage par défaut est le pilote automatique en croisière, et non le contrôle manuel. Le pilote est là pour gérer le décollage, l’atterrissage et les situations anormales. Personne ne considère cela comme une perte de prestige pour le pilote ; c’est la reconnaissance qu’une machine est meilleure pour maintenir une trajectoire stable pendant des heures.
La supply chain a sa propre “phase de croisière” : d’innombrables choix récurrents qui sont ennuyeux précisément parce qu’ils suivent des schémas familiers. Ce sont ceux qui devraient être non supervisés.
3. Architecture : où se situe la décision ?
Le modèle SCOR et la plupart des suites ERP supposent que la planification et l’exécution résident dans le même noyau transactionnel et ses environs. Les commandes y sont stockées, les paramètres y sont conservés, et une logique intégrée transforme les deux en actions recommandées.
Le résultat, en pratique, est que la logique métier se retrouve éparse dans des tables de configuration, des traitements par lots, des rapports personnalisés et des exportations de tableurs. Lorsqu’un problème survient, il est difficile de comprendre pourquoi une décision donnée a été prise. Lorsque vous souhaitez améliorer la logique, vous devez retrouver tous les endroits où se cachent les anciennes règles.
Pour que la prise de décision non supervisée fonctionne, je préfère une séparation plus nette.
Le système d’enregistrements reste la seule source de vérité pour les transactions et les données de référence. Les systèmes analytiques peuvent continuer à raconter l’histoire du passé. Mais la logique décisionnelle — la partie qui transforme les données en engagements concrets — réside dans une couche dédiée, plus facile à expliquer, à versionner, à tester et à rétracter.
J’appelle parfois cette couche un “moteur de décision”, mais l’étiquette importe moins que la discipline. L’essentiel est de traiter la logique qui engage de l’argent, de l’espace et du temps comme un artefact de premier ordre, et non comme un brouillard de paramètres tourbillonnant à l’intérieur de divers outils.
Lorsque cela est réalisé correctement, chaque décision automatisée peut être retracée jusqu’à un morceau de logique lisible et un instantané spécifique des données. C’est le contraire d’une boîte noire.
4. Gouvernance et incitations
La gouvernance traditionnelle assimile souvent l’importance au nombre d’employés et aux calendriers de réunions. Un gestionnaire qui dirige une grande équipe de planification et préside un processus S&OP majeur est considéré comme stratégiquement central. Les fournisseurs renforcent cela en vendant des licences par utilisateur et en célébrant l’“adoption par les utilisateurs” comme indicateur clé de succès.
La prise de décision non supervisée renverse la hiérarchie du prestige. Le meilleur compliment que vous puissiez adresser à une équipe est que des millions de décisions correctes sont prises chaque semaine alors que presque personne ne les observe. L’attention de la gouvernance se porte alors sur la qualité de la logique décisionnelle et son impact sur le profit et le risque, plutôt que sur le nombre de personnes interagissant avec le système.
Ce n’est pas seulement une question de philosophie ; cela affecte les contrats. Si un fournisseur est payé par siège, il a peu d’incitation à automatiser ces sièges. Si une équipe est récompensée pour le maintien d’un rituel étendu de réunions, elle protégera ce rituel de manière inconsciente.
Si, en revanche, nous récompensons l’amélioration de la qualité des décisions non supervisées — moins de ruptures de stocks pour le même niveau de stocks, une meilleure utilisation de la capacité, de meilleures marges pour le même risque —, alors les acteurs internes et externes seront incités dans la bonne direction.
“N’est-ce pas dangereux ?” – Objections courantes
Chaque fois que je défends les décisions non supervisées, trois objections surgissent.
La première est la peur de perdre le contrôle. Les gestionnaires s’inquiètent de déléguer les décisions à un logiciel. Ma réponse est que la plupart des grandes organisations délèguent déjà les décisions à un logiciel ; elles le font simplement de manière implicite à travers les formules et les paramètres intégrés dans les outils existants. Lorsqu’un planificateur se fie à une règle de réapprovisionnement qu’il comprend à peine, il n’est pas réellement “aux commandes”. Il n’est qu’une interface humaine sur un algorithme hérité.
En mettant en lumière la logique, en exprimant explicitement l’économie, et en versionnant le code, nous regagnons en réalité le contrôle. Nous pouvons tester des politiques alternatives côte à côte. Nous pouvons rejouer l’année dernière sous un ensemble de règles différent. Nous pouvons voir exactement quel changement a entraîné quel résultat.
La deuxième objection est la peur de la fragilité. Que se passe-t-il si le modèle se trompe ? Ici encore, la comparaison avec le courant dominant est instructive. Une entreprise qui s’appuie sur des formules fixes de stock de sécurité et des objectifs approximatifs de taux de service est déjà exposée à l’erreur de modèle ; celle-ci est simplement dissimulée sous des couches d’habitude. La prise de décision non supervisée doit être associée à des mécanismes permettant de détecter rapidement les dysfonctionnements : règles d’arrêt, suivi des résultats économiques et la capacité de revenir à une politique plus simple pendant que nous enquêtons.
La troisième objection concerne les personnes. Cette vision rend-elle les planificateurs obsolètes ?
Cela change assurément le travail. Dans un monde non supervisé, on a moins besoin de personnes pour ajuster manuellement les commandes et davantage besoin de celles qui peuvent aider à encoder la bonne économie et les contraintes, qui peuvent remettre en question les données, mener des expériences et interpréter les résultats. Le centre de gravité se déplace des micro-décisions répétitives vers la conception et la maintenance du cadre décisionnel lui-même.
Pour les organisations prêtes à opérer ce changement, le travail humain devient plus intéressant, et non moins.
À quoi ressemble une journée non supervisée
Permettez-moi de dresser un portrait modeste.
Chez un détaillant, pendant la nuit, un moteur de décision lit les ventes d’hier, les stocks actuels, les arrivages et les délais de livraison mis à jour des fournisseurs. Il connaît le coût du capital, les pénalités pour livraisons tardives, ainsi que les schémas de rabais en fin de saison. Il propose les commandes d’achat et les ordres de transfert du jour. Pour la vaste majorité des SKU et des emplacements, l’analyse économique est routinière ; les commandes sont automatiquement intégrées dans l’ERP.
Une petite fraction de cas semble étrange : un fournisseur qui a soudainement doublé son délai de livraison, un produit dont la demande a explosé au-delà de tout schéma historique, un conflit de contrainte sur un entrepôt clé. Le moteur ne cherche pas à être ingénieux dans ces situations ; il s’arrête et enregistre un dossier. Des experts humains examinent ces cas le matin, décident de la marche à suivre et, si nécessaire, ajustent la logique pour la prochaine fois.
Dans un réseau de pièces détachées, le moteur réévalue en continu quelles pièces valent la peine d’être stockées à tel ou tel endroit, en tenant compte des taux de défaillance, des temps de réparation, de la criticité des équipements et des coûts de détention. Il modifie les politiques de stocks sans cérémonie à mesure que les conditions évoluent, car le calcul économique sous-jacent a changé. Personne ne convoque une revue trimestrielle pour ajuster manuellement les « classes ABC ».
Dans le transport, l’acheminement et la consolidation sont traités de la même manière. Le système connaît les courbes de coût pour différents transporteurs, modes et taux de service. Il alloue les expéditions aux voies en se basant sur le coût total et l’impact sur le service, et non sur une hiérarchie de règles rédigées il y a cinq ans lors d’un atelier.
Rien de tout cela ne nécessite une intelligence artificielle mystique. Il faut des données précises, une économie honnête et la volonté de laisser le logiciel placer les paris quotidiens.
Pourquoi cette confrontation est importante
Il pourrait être tentant de voir la prise de décision non supervisée comme une préférence de niche en architecture logicielle, ou comme « une approche » de plus parmi tant d’autres. Je ne la perçois pas ainsi.
La vision dominante centrée sur les plans et la vision axée sur les paris répondent à des questions différentes.
La vision centrée sur les plans se demande : « Comment aligner les personnes autour d’une vision du futur ? » Elle est, à juste titre, obsédée par le consensus, les réunions et la maturité des processus.
La vision axée sur les paris se demande : « Compte tenu de l’incertitude à laquelle nous sommes confrontés, comment pouvons-nous allouer dès aujourd’hui des ressources rares de manière à améliorer le profit à long terme ? » Elle est obsédée par l’économie, par la circulation des pièces dans le grand livre, et par l’encodage de ce raisonnement dans le logiciel.
Les deux visions tiennent compte des taux de service, des coûts et des risques. Les deux s’intéressent à la collaboration. Mais une seule est conçue pour survivre dans un monde où le volume et la rapidité des décisions continueront de croître, tandis que l’attention humaine demeure limitée.
Dans mon livre, j’affirme que la supply chain est mieux considérée comme une branche de l’économie appliquée : une discipline dont le rôle est d’allouer des ressources rares face à la variabilité. Si cela est vrai, alors l’issue naturelle est évidente. Partout où les principes économiques sont bien compris et les schémas sont stables, nous devrions laisser les machines décider sans intervention humaine. Là où l’économie est incertaine ou le monde vient de changer, nous devons investir l’effort humain pour clarifier les compromis et mettre à jour la logique.
L’avenir n’appartient pas à ceux qui possèdent les plans les plus esthétiques. Il appartient à ceux qui savent transformer un meilleur raisonnement en de meilleures décisions, à grande échelle, sans qu’il soit nécessaire d’avoir une salle entière de personnes pour ressaisir les chiffres chaque matin.