Initiative de la Supply Chain Quantitative

learn menu

la Supply Chain Quantitative d’optimisation, ou la Supply Chain Quantitative en abrégé, est une perspective large sur les supply chains qui, en d’autres termes, vise à tirer le meilleur parti de l’intelligence humaine, complétée par les capacités des ressources informatiques modernes. Pourtant, cette perspective n’est pas exhaustive. Elle ne prétend pas être la solution ultime aux supply chain challenges, mais plutôt constituer une approche complémentaire qui peut presque toujours être utilisée pour améliorer la situation.

L’initiative

La Supply Chain Quantitative aide votre entreprise à améliorer le taux de service, à réduire l’excès de stocks et les dépréciations, à stimuler la productivité, à baisser les prix d’achat et les coûts opérationnels… et la liste continue. Les supply chain challenges varient énormément selon les situations. La Supply Chain Quantitative accueille cette diversité et s’efforce, tout en affrontant la complexité qui en découle. Cependant, pour les praticiens de la supply chain habitués aux approches plus classiques pour optimiser leurs supply chains, la Supply Chain Quantitative peut sembler quelque peu déconcertante.

Dans ce qui suit, nous passons en revue les éléments nécessaires pour tirer le meilleur parti de la perspective quantitative sur la supply chain. Nous examinons et clarifions les ambitions d’une initiative de la Supply Chain Quantitative. Nous passons en revue les rôles et les compétences de l’équipe chargée de l’exécution de l’initiative. Enfin, nous donnons un bref aperçu de la méthodologie associée à la Supply Chain Quantitative.

L’ambition

Excepté pour les très petites entreprises, une supply chain implique des millions de décisions par jour. Pour chaque unité de stock, chaque jour, l’entreprise décide de conserver l’unité là où elle se trouve, plutôt que de la déplacer ailleurs. De plus, la même logique s’applique aux unités de stock inexistantes qui pourraient être produites ou achetées. Ne rien faire est déjà une décision en soi.

La Supply Chain Quantitative consiste à optimiser les millions de décisions que l’entreprise doit prendre chaque jour, et puisque nous parlons de millions, voire de milliards de décisions par jour, les ordinateurs jouent un rôle central dans cette démarche. Cela n’est guère surprenant puisqu’historiquement, les supply chains furent l’une des premières fonctions d’entreprise, après la comptabilité, à être digitalisée à la fin des années 1970. Pourtant, la Supply Chain Quantitative consiste à pousser la digitalisation un cran plus loin.

Il faut reconnaître qu’au cours des deux dernières décennies, des tentatives malavisées de déployer le « supply chain system of the future » ont été fréquentes. Bien trop souvent, ces systèmes n’ont fait qu’engendrer le chaos dans les supply chains, combinant des effets de boîte noire et une automatisation défaillante, générant ainsi tellement de mauvaises décisions que les problèmes ne pouvaient plus être résolus par l’intervention humaine.

Dans une certaine mesure, la Supply Chain Quantitative est née de ces erreurs : au lieu de prétendre que le système connaît mieux l’entreprise que sa propre direction, l’accent doit être mis sur l’exécution des insights générés par la direction, mais avec un degré de fiabilité, de clarté et d’agilité supérieur. Une technologie logicielle bien conçue est un catalyseur efficace, mais, compte tenu des capacités actuelles des logiciels, éliminer complètement l’humain de la solution n’est pas une option réaliste.

Cette ambition a une conséquence immédiate : le logiciel que l’entreprise utilise pour suivre ses produits, matériaux et autres ressources ne sera pas le même que celui dont l’entreprise a besoin pour optimiser ses décisions. En effet, qu’il s’agisse d’un ERP, d’un WMS, d’un MRP ou d’un OMS, tous ces logiciels se concentrent principalement sur l’exploitation des processus de l’entreprise et le flux de ses saisies de données. Ne vous méprenez pas, il y a d’énormes avantages à rationaliser les saisies de données et à automatiser toutes les tâches administratives. Pourtant, notre propos reste que ces tâches ne traitent en rien le défi posé, qui est d’augmenter la capacité de votre entreprise à exécuter des insights humains, et ce, à l’échelle requise par votre supply chain.

Ensuite, il n’y a pas d’optimisation sans mesure. Par conséquent, la Supply Chain Quantitative repose énormément sur la mesure - comme son nom l’indique. Les supply chain decisions - acheter des stocks, déplacer des stocks - ont des conséquences, et la qualité de ces décisions devrait être évaluée financièrement (par exemple en dollars) avec des perspectives commerciales solides. Cependant, disposer de métriques bonnes et robustes demande un effort conséquent. L’un des objectifs de la Supply Chain Quantitative est d’aider l’entreprise à établir ces métriques, qui jouent également un rôle crucial lors des phases ultérieures d’un projet, pour évaluer le retour sur investissement (ROI) de l’initiative globale supply chain.

Enfin, comme mentionné précédemment, la Supply Chain Quantitative n’est pas un paradigme exhaustif. Elle n’a pas l’ambition de réparer ou d’améliorer tout dans la supply chain de l’entreprise. Elle ne prétend pas vous aider à trouver des fournisseurs de confiance ou des partenaires logistiques fiables. Elle ne promet pas de vous aider à recruter d’excellentes équipes et à maintenir leur moral élevé. Pourtant, grâce à son focus très spécifique, la Supply Chain Quantitative est tout à fait capable de fournir des résultats tangibles.

Les rôles du projet

La Supply Chain Quantitative nécessite une quantité étonnamment faible de ressources humaines, même lorsqu’il s’agit de gérer des supply chains d’envergure importante. Cependant, une telle initiative requiert des ressources spécifiques, dont nous détaillerons les aspects dans cette section. Mais avant de nous pencher sur les différents rôles et leurs spécificités, mentionnons un principe fondamental de la Supply Chain Quantitative : l’entreprise doit capitaliser sur chaque intervention humaine.

Ce principe s’oppose à ce qui se passe en pratique avec les solutions supply chain traditionnelles : les efforts humains sont absorbés par la solution, non capitalisés. Pour continuer à produire un flux ininterrompu de décisions, la solution nécessite un flux constant de saisies manuelles. Ces saisies peuvent revêtir plusieurs formes : ajuster les profils saisonniers, gérer les exceptions et alertes, corriger des valeurs de prévision aberrantes, etc.

La Supply Chain Quantitative cherche à inverser cette perspective. Ce n’est pas seulement que le travail humain est coûteux, c’est que l’expertise supply chain combinée à des insights commerciaux pointus est trop rare et précieuse pour être gaspillée dans des tâches répétitives. La cause première de l’intervention manuelle doit être corrigée : si les valeurs de prévision sont erronées, il ne sert à rien de modifier les valeurs elles-mêmes, c’est plutôt les données d’entrée ou l’algorithme de prévision qui doivent être ajustés. Corriger les symptômes garantit une confrontation sans fin aux mêmes problèmes.

La taille de l’équipe nécessaire pour exécuter une initiative de supply chain quantitative varie en fonction de l’ampleur de la supply chain elle-même. Dans la tranche basse, cela peut représenter moins d’un ETP (équivalent temps plein), typiquement pour les entreprises ayant un chiffre d’affaires inférieur à 20 millions de dollars. Dans la tranche haute, cela peut impliquer une douzaine de personnes ; mais dans ce cas, des stocks d’une valeur de plusieurs milliards de dollars sont généralement en jeu.

Le Supply Chain Leader : la Supply Chain Quantitative est un changement de paradigme. Pour impulser le changement, il faut du leadership et le soutien de la haute direction. Trop souvent, les dirigeants supply chain estiment ne pas avoir le temps de s’impliquer directement dans ce qui est perçu comme les « technicités » d’une solution. Pourtant, la Supply Chain Quantitative vise à exécuter des insights stratégiques à grande échelle. Ne pas partager ces insights stratégiques avec l’équipe en charge de l’initiative est une recette pour l’échec. On n’attend pas de la direction qu’elle élabore toutes les métriques et KPI pertinents – cela demande beaucoup d’efforts – mais on attend certainement d’elle qu’elle les remette en question.

Le Supply Chain Coordinator : bien que l’initiative de la Supply Chain Quantitative se veuille très légère en effectifs, la plupart des supply chains ne le sont pas, ou du moins, pas aussi légères. Ne pas impliquer tout le monde peut entraîner de la confusion et un ralentissement de l’initiative. Ainsi, la mission du Coordinateur est de recueillir tous les retours internes nécessaires à l’initiative et de communiquer avec toutes les parties impliquées. Le Coordinateur clarifie les processus et les décisions à prendre, et recueille des avis sur les métriques et les KPI qui seront utilisés pour optimiser ces décisions. Il s’assure également que la solution intègre les workflows de l’entreprise tels qu’ils sont, tout en préservant la possibilité de les réviser ultérieurement dans le cadre de l’initiative.

Le Data Officer : la Supply Chain Quantitative dépend de manière cruciale des données, et chaque initiative doit disposer d’un accès fiable aux données dans une perspective de traitement par lots. En fait, l’initiative n’implique pas simplement la lecture de quelques lignes dans le système de l’entreprise, mais bien la lecture de l’intégralité de l’historique des ventes, de l’intégralité de l’historique des achats, du catalogue de produits complet, etc. Le Data Officer est généralement mandaté par le service informatique pour soutenir l’initiative. Il est chargé d’automatiser toute la logique d’extraction de données et de programmer cette logique pour des extractions quotidiennes. En pratique, les efforts du Data Officer se concentrent principalement au tout début de l’initiative.

Le Supply Chain Scientist : il utilise la technologie - plus d’informations à ce sujet ci-après - pour combiner les insights recueillis par le Coordinateur avec les données extraites par le Data Officer afin d’automatiser la production de décisions. Le scientifique commence par préparer les données, ce qui est une tâche étonnamment difficile et requiert beaucoup de soutien de la part du Coordinateur, qui devra interagir avec les nombreuses personnes à l’origine de ces données, pour clarifier tout ce qui pourrait être incertain. Il formalise la stratégie de manière à pouvoir générer des décisions - par exemple, les quantités suggérées de réapprovisionnement. Enfin, le Supply Chain Scientist équipe l’ensemble du pipeline de données de dashboards et de KPI pour garantir clarté, transparence et contrôle.

Pour les entreprises de taille moyenne, le fait que la même personne cumule les rôles de Coordinateur et de Data Officer peut s’avérer extrêmement efficace. Cela nécessite un éventail de compétences qu’il n’est pas toujours facile de trouver chez un seul employé. Toutefois, si une telle personne existe au sein de l’organisation, elle constitue un atout pour accélérer l’initiative. Ensuite, pour les plus grandes entreprises, même si le Coordinateur n’est pas très familier avec les bases de données de l’entreprise au début de l’initiative, il est fortement avantageux qu’il puisse acquérir un certain niveau de familiarité avec celles-ci au fur et à mesure de l’initiative. En effet, le paysage informatique évolue constamment, et anticiper l’impact de ces changements sur l’initiative contribue grandement à assurer une exécution fluide.

Plans d’abonnement gérés de Lokad. Pourvoir le poste de Supply Chain Scientist peut représenter un défi pour les entreprises qui n’ont pas cultivé d’expertise en data science depuis des années. Lokad soutient les initiatives de supply chain quantitative de ces entreprises en offrant un « expert-as-a-service » via son plan d’abonnement Premier. En plus de fournir le coaching nécessaire pour la mise en œuvre de l’initiative, Lokad consacre également le temps et la dédication requis pour mettre en place la logique qui calcule les décisions et les dashboards qui apportent la clarté et le contrôle exigés par la direction afin de gagner leur confiance et leur compréhension de l’initiative elle-même.

La technologie

Jusqu’à présent, nous sommes restés assez vagues concernant la technologie logicielle requise pour soutenir la Supply Chain Quantitative. Pourtant, la Supply Chain Quantitative dépend de manière cruciale de l’ensemble technologique utilisé pour sa mise en œuvre. Tandis que, conceptuellement, chaque logiciel pourrait être ré-implémenté à partir de zéro, le Supply Chain Scientist requiert un soutien incroyable de la part de son stack pour être même raisonnablement productif. Ensuite, certaines capacités telles que la prévision et l’optimisation numérique nécessitent des efforts de R&D préalables significatifs qui dépassent largement ce que le Supply Chain Scientist peut apporter au cours de l’initiative.

La première exigence de la Supply Chain Quantitative est une plateforme de données avec des capacités programmatiques, et, naturellement, avoir accès à une plateforme de données spécialement adaptée pour traiter les données et les problèmes supply chain est un avantage certain. Nous parlons ici d’une plateforme de données, car bien qu’une station de travail de bureau puisse désormais stocker plusieurs téraoctets, cela ne signifie pas que cette station offre toutes les propriétés désirables pour mener à bien l’initiative : fiabilité face aux pannes matérielles, traçabilité de tous les accès, compatibilité avec les exportations de données, etc. De plus, puisque les ensembles de données supply chain ont tendance à être volumineux, la plateforme de données doit être plus évolutive, c’est-à-dire capable de traiter de grandes quantités de données en un temps réduit.

La plateforme de données exige des capacités programmatiques, ce qui fait référence à la possibilité d’implémenter et d’exécuter pratiquement toute logique de traitement de données arbitraire. Ces capacités sont fournies par un langage de programmation. La programmation est perçue à juste titre comme une compétence très technique, et de nombreux fournisseurs tirent parti de la crainte inspirée par l’idée de devoir se confronter à une solution nécessitant de la « programmation » pour proposer aux utilisateurs des interfaces simples avec des boutons et des menus. Cependant, dès que les équipes supply chain se voient refuser les capacités programmatiques, les feuilles Excel prennent le relais, justement parce qu’Excel offre des capacités programmatiques avec la possibilité d’écrire des formules pouvant être arbitrairement complexes. Loin d’être un gadget, les capacités programmatiques sont une exigence essentielle.

Enfin, il existe des avantages significatifs à disposer d’une plateforme de données adaptée à la supply chain. En fait, le besoin d’une plateforme de données d’une certaine sorte n’est guère spécifique à la supply chain : le trading quantitatif, tel qu’effectué par les banques et les fonds, présente des besoins similaires. Cependant, les décisions en supply chain ne nécessitent pas des latences sub-millisecondes comme c’est le cas pour le trading haute fréquence. La conception d’une plateforme de données relève de compromis d’ingénierie ainsi que d’un écosystème logiciel, qui commence par les formats de données supportés. Ces compromis d’ingénierie et cet écosystème logiciel doivent être alignés avec les défis de la supply chain eux-mêmes.

La deuxième exigence de la Supply Chain Quantitative est un moteur de prévision probabiliste. Ce logiciel est chargé d’assigner une probabilité à chaque futur possible. Bien que ce type de prévision soit un peu déconcertant au début car il va à l’encontre de l’intuition de prévoir l’avenir, le « piège » réside en réalité dans l’incertitude : l’avenir n’est pas certain et une prévision unique est vouée à être erronée. La perspective classique de prévision nie l’incertitude et la variabilité, et par conséquent, l’entreprise se retrouve à lutter avec une prévision qui était censée être précise, mais ne l’est pas. Un moteur de prévision probabiliste traite ce problème de front en résolvant le problème avec des probabilités.

La prévision probabiliste en supply chain est généralement un processus en deux étapes commençant par une prévision de lead time suivie d’une prévision de la demande. La prévision de lead time est une prévision probabiliste : une probabilité est attribuée à toutes les durées de lead time possibles, généralement exprimées en jours. Ensuite, la prévision de la demande est également probabiliste et cette prévision est construite sur la base de la prévision de lead time fournie en entrée. De cette manière, l’horizon à couvrir par la prévision de la demande doit correspondre aux lead times, qui sont eux-mêmes incertains.

Comme le moteur de prévision probabiliste fournit des ensembles de distributions de probabilités, ses résultats de prévision impliquent beaucoup plus de données que ceux d’un moteur de prévision classique. Ce n’est pas un problème bloquant en soi, mais afin d’éviter trop de frictions lors du traitement d’un ensemble massif de probabilités, un haut degré de coopération est requis entre la plateforme de données et le moteur de prévision.

La pile technologique de Lokad. On pourrait dire que la technologie de Lokad a été conçue pour adopter la perspective de la Supply Chain Quantitative, mais en réalité, c’est le contraire qui s’est produit. Les équipes R&D de Lokad ont réalisé une percée dans la prévision probabiliste et la découverte de modèles de traitement de données qui correspondaient beaucoup mieux aux défis de la supply chain que les approches traditionnelles. Nous avons pris conscience de l’ampleur de cette avancée, car nous avons pu observer des niveaux de performance supérieurs une fois ces éléments mis en production. Cela a conduit Lokad à adopter la perspective de la Supply Chain Quantitative comme moyen de clarifier ce que les équipes de Lokad faisaient réellement. Lokad dispose à la fois d’une plateforme de données – nom de code Envision – et d’un moteur de prévision probabiliste. Comme vous pouvez le constater, la Supply Chain Quantitative a des racines très empiriques.

Les phases du projet

La Supply Chain Quantitative s’inspire fortement de la R&D en ingénierie logicielle et des meilleures pratiques connues en data science. La méthodologie est fortement itérative, avec peu d’emphase sur une spécification préalable, et une forte emphase sur l’agilité et la capacité à se remettre d’issues et/ou de résultats inattendus. En conséquence, cette méthodologie tend à être perçue comme plutôt surprenante pour les entreprises qui ne sont pas elles-mêmes profondément impliquées dans l’industrie du logiciel.

La première phase est la phase de cadrage, qui définit quelles décisions de supply chain l’initiative envisage de couvrir. Cette phase est également utilisée pour diagnostiquer la complexité attendue du processus de prise de décision et les données pertinentes.

La deuxième phase est la phase de préparation des données. Il s’agit de mettre en place un système automatisé qui copie toutes les données pertinentes des systèmes de l’entreprise vers une plateforme analytique distincte. Il s’agit également de préparer ces données pour une analyse quantitative.

La troisième phase est la phase pilote et consiste à mettre en œuvre une logique initiale de prise de décision qui génère des décisions, par exemple les quantités d’achat suggérées, qui en elles-mêmes surpassent déjà les processus antérieurs de l’entreprise. On s’attend à ce que cette logique soit entièrement automatisée.

La quatrième phase est la phase de production, qui amène l’initiative à sa vitesse de croisière où la performance est surveillée et maintenue, et où un consensus est atteint sur le degré de raffinement souhaitable pour les modèles de supply chain eux-mêmes.

La phase de cadrage est la plus simple et identifie les décisions de routine que l’initiative de Supply Chain Quantitative envisage de couvrir. Ces décisions peuvent impliquer de nombreuses contraintes : MOQ (quantités minimales de commande), full containers, capacité maximale d’entrepôt, … et ces contraintes doivent être examinées de près. Ensuite, les décisions sont également associées à des facteurs économiques : coûts de détention, coût des ruptures de stock, marge brute, … et ces facteurs économiques doivent également être étudiés. Enfin, les données historiques pertinentes doivent être identifiées, ainsi que les systèmes à partir desquels les données seront extraites.

La phase de préparation des données est la plus difficile ; la plupart des échecs ont tendance à se produire à ce stade. Accéder aux données et leur donner un sens est presque toujours un défi sous-estimé. Les systèmes opérationnels (par ex. ERP / MRP / WMS / OMS) ont été conçus pour faire fonctionner l’entreprise, pour permettre à l’entreprise de continuer à fonctionner. Les données historiques sont un sous-produit de tels systèmes, puisque l’enregistrement des données n’était pas la raison pour laquelle ces systèmes ont été mis en place en premier lieu. Ainsi, de nombreuses difficultés doivent être prévues dans cette phase. Face aux difficultés, la plupart des entreprises ont un réflexe malheureux : prenons du recul et rédigeons une spécification complète. Malheureusement, une spécification ne peut couvrir que les difficultés connues ou attendues. Pourtant, presque tous les problèmes majeurs rencontrés dans cette phase sont des éléments imprévisibles.

En réalité, les problèmes tendent généralement à se révéler uniquement lorsqu’une personne commence réellement à mettre les données à l’épreuve pour générer des décisions basées sur les données. Si des décisions s’avèrent erronées alors que la logique est considérée comme solide, c’est probablement qu’il y a un problème avec les données. Les décisions basées sur les données tendent à être quelque peu sensibles aux problèmes de données, et représentent donc en réalité un excellent moyen de remettre en question le contrôle que l’entreprise exerce sur ses propres données. De plus, ce processus met les données à l’épreuve de manière significative pour l’entreprise. La qualité des données et la compréhension des données ne sont que des moyens pour atteindre un but : fournir quelque chose de valeur pour l’entreprise. Il est tout à fait raisonnable de concentrer les efforts sur les problèmes de données qui ont un impact significatif sur les décisions basées sur les données.

La phase pilote est la phase qui met la gestion de la supply chain à l’épreuve. Adopter l’incertitude avec des prévisions probabilistes peut sembler contre-intuitif. Par ailleurs, de nombreuses pratiques traditionnelles telles que les prévisions hebdomadaires ou mensuelles, les stocks de sécurité, les couvertures de stocks, les alertes de stocks ou l’analyse ABC font en réalité plus de mal que de bien. Cela ne signifie pas que l’initiative de Supply Chain Quantitative doit fonctionner de manière débridée. En fait, c’est tout le contraire, car la Supply Chain Quantitative concerne avant tout la performance mesurable. Cependant, de nombreuses pratiques traditionnelles de la supply chain ont tendance à encadrer les problèmes de manière défavorable à leur résolution. Par conséquent, durant la phase pilote, un défi clé pour la direction de la supply chain est de rester ouverte d’esprit et de ne pas réintroduire dans l’initiative les ingrédients mêmes qui généreront des inefficiences à un stade ultérieur. On ne peut pas chérir la cause tout en maudissant la conséquence.

Ensuite, le Supply Chain Scientist et la technologie sont également mis à l’épreuve, étant donné que la logique doit être implémentée afin de générer les décisions dans un délai relativement court. L’objectif initial est simplement de générer ce qui est perçu par les praticiens comme des décisions raisonnables, des décisions qui ne nécessitent pas nécessairement de correction manuelle. Nous suggérons de ne pas sous-estimer l’ampleur du défi que représente la génération de décisions automatisées « solides ». Les systèmes traditionnels de supply chain requièrent de nombreuses corrections manuelles pour fonctionner : nouveaux produits, promotions, ruptures de stocks… La Supply Chain Quantitative établit une nouvelle règle : plus aucune saisie manuelle n’est autorisée pour les opérations banales, tous les facteurs doivent être intégrés dans la logique.

Le Supply Chain Coordinator est là pour rassembler tous les facteurs, flux de travail et spécificités qui doivent être intégrés dans la logique de prise de décision. Par la suite, le Supply Chain Scientist implémente le premier ensemble de KPI associés aux décisions. Ces KPI sont introduits afin d’éviter les effets de boîte noire qui tendent à apparaître lorsque des méthodes numériques avancées sont utilisées. Il est important de noter que les KPI sont conçus en collaboration avec le Supply Chain Leader qui veille à ce que les mesures soient alignées avec la stratégie de l’entreprise.

La phase de production stabilise l’initiative et l’amène à sa vitesse de croisière. Les décisions générées par la logique sont activement utilisées et leurs résultats associés sont étroitement surveillés. Il faut généralement de quelques semaines à quelques mois pour évaluer l’impact d’une décision de supply chain donnée en raison des lead times impliqués. Ainsi, le changement de rythme de l’initiative en phase de production est ralenti, de manière à pouvoir effectuer des évaluations fiables sur la performance des décisions automatisées. L’initiative entre dans une phase d’amélioration continue. Bien que des améliorations supplémentaires soient toujours souhaitables, un équilibre entre les bénéfices de possibles raffinements de la logique et la complexité correspondante de ces raffinements doit être atteint, afin de garder l’ensemble de la solution maintenable.

Le Supply Chain Coordinator, libéré de ses tâches banales de saisie de données, peut désormais se concentrer sur les insights stratégiques proposés par la gestion de la supply chain. Habituellement, les changements souhaitables dans les processus supply chain qui ont pu être identifiés durant la phase pilote ont été suspendus afin d’éviter de perturber les opérations en changeant tout d’un coup. Cependant, maintenant que le rythme de changement de la logique de prise de décision a ralenti, il devient possible de réviser progressivement les processus, afin de débloquer des améliorations de performance qui nécessitent plus que de meilleures décisions de routine.

Le Supply Chain Scientist continue de peaufiner la logique en mettant toujours plus l’accent sur les KPI et la qualité des données. Il est également responsable de la révision de la logique car des défauts subtils ou des limitations subtiles, généralement liés à des situations peu fréquentes, se révèlent avec le temps. Ensuite, à mesure que les processus évoluent, la logique de prise de décision est également révisée, afin de rester pleinement alignée avec les flux de travail et la stratégie. De plus, même lorsque les processus internes ne changent pas, les environnements informatique et commercial évoluent de toute façon : le Supply Chain Scientist doit s’assurer que la logique de prise de décision reste à jour dans cet état de flux constant.

Les livrables

L’objectif de la Supply Chain Quantitative est de fournir des décisions exploitables – les quantités suggérées pour les bons de commande étant un exemple archetypal. Ci-dessous, nous précisons davantage la forme spécifique et le mécanisme de livraison de ces décisions. Établir des attentes claires pour les livrables est une étape importante dans le parcours que représente la Supply Chain Quantitative. De plus, les résultats numériques optimisés ne sont pas le seul résultat souhaitable : plusieurs autres sorties, notamment la surveillance de la santé des données et les KPI de gestion, devraient également figurer dans le livrable. En pratique, les livrables d’une initiative de Supply Chain Quantitative dépendent de la flexibilité de la solution logicielle utilisée pour soutenir l’initiative elle-même. Néanmoins, ils sont principalement définis par leur intention, qui est indépendante de la technologie utilisée.

Scripts comme livrable

La Supply Chain Quantitative met l’accent sur des pipelines de données entièrement automatisés. Cela n’implique pas que l’installation logicielle soit censée fonctionner de manière autonome. Un haut degré de supervision étroite est naturellement souhaitable chaque fois qu’une supply chain de grande envergure est envisagée. Néanmoins, le pipeline de données est censé être entièrement automatisé dans le sens où aucune étape du pipeline ne dépend réellement d’une opération manuelle. En effet, comme le stipule le manifeste, chaque fois que des opérations manuelles interviennent dans le traitement des données de la supply chain, la solution ne peut tout simplement pas monter en charge en pratique.

En conséquence directe de cette observation, les livrables d’une initiative de Supply Chain Quantitative sont invariablement des morceaux entiers de logiciel. Cela n’implique pas que l’équipe en charge soit censée tout réimplémenter : une solution logicielle dédiée à la Supply Chain Quantitative offre la possibilité de se concentrer strictement sur les aspects pertinents des défis de la supply chain. Toutes les subtilités techniques de bas niveau, telles que l’exploitation des ressources informatiques distribuées auto-allouées au sein d’une plateforme de cloud computing, sont censées être abstraites. L’équipe n’a pas besoin de se plonger dans ces questions, car ces aspects sont supposés être gérés de manière appropriée par les outils eux-mêmes.

Les livrables se matérialisent sous forme de scripts généralement écrits dans un langage de programmation capable de répondre aux exigences de la supply chain, tout en offrant un haut niveau de productivité. Le terme “script” est utilisé ici plutôt que “code source”, mais les deux termes sont étroitement liés : un “script” met en avant l’idée d’un haut degré d’abstraction et d’une focalisation sur la tâche elle-même, tandis qu’un “code source” met l’accent sur une perspective de bas niveau, destinée à être le reflet exact du matériel informatique lui-même. Pour la Supply Chain Quantitative, c’est évidemment la perspective supply chain qui importe le plus, et non le matériel informatique, qui est un aspect technique de moindre importance.

Au cours de la dernière décennie, le succès des interfaces utilisateur WYSIWYG (what-you-see-is-what-you-get) pour les applications destinées aux clients finaux a poussé de nombreux software vendors de supply chain à tenter d’imiter cette approche avec une solution WYSIWYG pour la planification et l’optimization de supply chain. Cependant, la leçon de l’échec quasi systématique de ce type d’interfaces est que les supply chains sont complexes et ne peuvent pas contourner le besoin d’outils programmatiques. D’après notre expérience, s’attendre à ce qu’un outil en glisser-déposer puisse refléter correctement les non-linéarités complexes impliquées dans, par exemple, des MOQ (minimum ordering quantities) qui se chevauchent, relève, pour le mieux, du délire. Une expressivité programmatique est requise car, sans cela, le défi de la supply chain ne peut même pas être exprimé au sein de l’outil.

Naturellement, du point de vue de l’utilisateur final, les scripts ne sont pas ce que les praticiens de la supply chain s’attendraient à voir comme résultat tangible de l’initiative Supply Chain Quantitative. Les utilisateurs interagiront avec des tableaux de bord contenant des KPI consolidés et des tableaux rassemblant les décisions suggérées. Cependant, ces tableaux de bord sont éphémères et jetables. Ils ne sont obtenus qu’en relançant les scripts sur les données pertinentes de la supply chain. Bien que la distinction soit un peu subtile, il est important de ne pas confondre le script, qui représente le véritable livrable, avec son expression numérique, qui est généralement ce que l’on peut voir en tant qu’utilisateur final de la solution.

Tableaux de bord de la santé des données

Avant d’envisager de livrer des décisions optimisées pour la supply chain, nous devons nous assurer que les données traitées par le système supportant l’initiative Supply Chain Quantitative sont à la fois numériquement et sémantiquement correctes. Le but des tableaux de bord de surveillance de la santé des données, ou simplement tableaux de bord de la santé des données, est de garantir un haut degré de confiance dans l’exactitude des données, ce qui est naturellement une exigence essentielle pour la précision de tous les résultats numériques renvoyés par la solution. Ces tableaux de bord aident également l’équipe supply chain à améliorer la qualité des données existantes.

Les erreurs numériques sont simples : le fichier CSV exporté de l’ERP indique que le produit ABC possède 42 unités en stock, tandis que la console web de l’ERP n’en rapporte que 13. Il est évident ici que nous obtenons des chiffres divergents alors qu’ils devraient être identiques. Les tableaux de bord de la santé des données traitent ces problèmes relativement évidents en vérifiant simplement que les agrégats de données se situent dans les plages numériques attendues.

Les erreurs sémantiques sont plus subtiles et, en pratique, bien plus difficiles à identifier précisément. La majeure partie du travail effectué lors de la préparation des données consiste en effet à identifier et corriger toutes les erreurs sémantiques. Par exemple : le champ stockinv dans l’ERP pourrait être documenté comme étant le stock on hand. Ainsi, l’équipe supply chain part du principe que cette quantité ne peut jamais être négative, car, évidemment, si ces unités se trouvent à portée physique sur l’étagère, il s’agit forcément d’une quantité positive. Pourtant, la documentation de l’ERP peut également se révéler légèrement trompeuse, et cette quantité aurait été plus judicieusement nommée stock available car, chaque fois qu’une rupture de stock se produit et que le client émet un backorder, la quantité peut devenir négative pour refléter qu’un certain nombre d’unités sont déjà dues à un client. Ce cas illustre une erreur sémantique : le nombre n’est pas faux per se – c’est la compréhension du nombre qui est approximative. En pratique, les approximations sémantiques peuvent générer de nombreux comportements incohérents, lesquels entraînent à leur tour des coûts de friction continus au sein de la supply chain.

Les tableaux de bord de la santé des données consolident des chiffres qui permettent à l’entreprise de décider immédiatement si les données peuvent être jugées suffisamment fiables ou non. En effet, puisque la solution sera utilisée quotidiennement à des fins de production, il est impératif qu’un problème de données important soit détecté par une inspection quasi-instantanée. Dans le cas contraire, il est fort probable que la supply chain finisse par fonctionner pendant des jours, voire des semaines, sur la base de données défectueuses. À cet égard, le tableau de bord de la santé des données est semblable à un feu de circulation : au vert, vous passez, au rouge, vous arrêtez.

De plus, lorsqu’on considère une supply chain de grande envergure, il existe généralement une quantité irréductible de données corrompues ou autrement incorrectes. Ces données proviennent d’entrées manuelles défectueuses ou de cas limites rares dans les systèmes de l’entreprise eux-mêmes. En pratique, pour toute supply chain de grande taille, il est déraisonnable de s’attendre à ce que les données de la supply chain soient 100 % exactes. Il faut plutôt s’assurer que les données sont suffisamment précises pour que les coûts de friction engendrés par ces erreurs restent quasi négligeables.

Ainsi, on s’attend également à ce que les tableaux de bord de la santé des données collectent des statistiques sur les erreurs identifiées. Ces statistiques sont déterminantes pour établir que les données peuvent être considérées comme fiables. À cette fin, un Supply Chain Scientist est fréquemment appelé à établir des seuils d’alerte judicieusement choisis, généralement associés à un arrêt brutal de la solution. Il convient de faire preuve de prudence dans la détermination de ces seuils car, s’ils sont trop bas, la solution devient inutilisable, étant arrêtée trop fréquemment pour des « problèmes de données identifiés » ; cependant, s’ils sont trop élevés, les coûts de friction générés par les erreurs de données peuvent devenir significatifs et compromettre les bénéfices apportés par l’initiative elle-même.

Au-delà du signalement rouge-vert, les tableaux de bord de la santé des données visent également à offrir des aperçus priorisés sur les efforts d’amélioration des données. En effet, de nombreux points de données peuvent être incorrects tout en étant sans conséquence. Par exemple, il importe peu que le prix d’achat d’un produit soit erroné si la demande du marché pour ce produit a disparu depuis des années, car il n’y aura plus aucune commande d’achat pour ce produit.

La Supply Chain Quantitative met l’accent sur le fait que la résolution fine des erreurs de données, qui peut impliquer une quantité considérable de travail manuel, doit être priorisée en fonction de l’impact financier estimé de l’erreur elle-même par rapport au coût de la main-d’œuvre associé à sa correction. En effet, selon la situation, le coût de correction d’un seul point de donnée erroné varie énormément et doit être pris en compte dans la priorisation suggérée. Enfin, lorsque le coût des corrections est jugé supérieur aux coûts de la supply chain générés par ces erreurs, le processus d’amélioration des données peut s’arrêter.

Tableaux de bord de décisions priorisées

Comme nous l’avons vu, seules les décisions de supply chain peuvent être véritablement évaluées d’un point de vue quantitatif. Il n’est donc pas surprenant que l’un des principaux livrables opérationnels d’une initiative Supply Chain Quantitative soit les tableaux de bord qui consolident les décisions obtenues comme résultat numérique final de l’ensemble du pipeline de données. Un tel tableau de bord peut être aussi simple qu’un tableau listant, pour chaque produit, la quantité exacte en unités à reconstituer immédiatement. Si les MOQ (minimum order quantities) sont présentes – ou si d’autres contraintes de commande existent – les quantités suggérées pourraient être nulles la plupart du temps, jusqu’à ce que les seuils appropriés soient atteints.

Pour des raisons de simplicité, nous partons ici du principe que ces résultats numériques sont regroupés dans un tableau de bord, qui est une forme spécifique d’interface utilisateur. Cependant, le tableau de bord lui-même n’est qu’une option, qui peut ou non être pertinente. En pratique, il est attendu que le logiciel supportant l’initiative Supply Chain Quantitative soit hautement flexible, c’est-à-dire programmatiquement flexible, offrant de multiples façons de présenter ces résultats dans divers formats de données. Par exemple, les résultats numériques peuvent être consolidés dans des fichiers texte plats, destinés à être importés automatiquement dans l’ERP principal utilisé pour gérer les actifs de l’entreprise.

Bien que le format des décisions dépende fortement de la tâche supply chain concernée, la plupart des tâches nécessitent de prioriser ces décisions. Par exemple, le calcul des quantités suggérées pour une commande d’achat peut être décomposé en une liste priorisée d’unités à acquérir. L’unité la plus rentable est classée en première position. Comme le stock présente des rendements décroissants, la deuxième unité acquise pour le même produit ne couvre qu’une fraction décroissante de la demande du marché. Ainsi, la deuxième unité pour ce même produit n’est pas nécessairement la deuxième entrée de la liste globale. Au contraire, la deuxième unité la plus rentable peut être associée à un autre produit, etc. La liste priorisée des unités à acquérir est conceptuellement sans fin : il est toujours possible d’acheter une unité de plus. Étant donné que la demande du marché est finie, toutes les unités achetées deviendraient du dead stock après un certain point. Transformer cette liste de priorités en quantités finales à acheter ne nécessite qu’introduire un critère d’arrêt et sommer les quantités par produit. En pratique, les contraintes d’ordonnancement non linéaires compliquent encore cette tâche, mais, pour des raisons de simplicité, nous écarterons ces contraintes à ce stade de la discussion.

Prioriser les décisions est une opération tout à fait naturelle du point de vue de la Supply Chain Quantitative. Comme chaque décision est associée à un résultat financier exprimé en dollars, classer les décisions de la plus rentable à la moins rentable est évident. Ainsi, on peut s’attendre, en pratique, à ce que bon nombre – sinon la plupart – des tableaux de bord compilant les décisions supply chain suggérées soient des listes de décisions priorisées. Ces tableaux de bord présentent des décisions très rentables en haut de liste et des décisions très peu rentables en bas. Alternativement, les praticiens de la supply chain peuvent décider de tronquer les listes lorsque les décisions se révèlent non rentables. Cependant, il est souvent instructif de pouvoir examiner les décisions se trouvant juste en dessous du seuil de rentabilité – même si l’on ne s’attend évidemment pas à ce que l’entreprise agisse sur ces entrées non rentables.

Pour fournir ce type de tableaux de bord axés sur les décisions, la solution logicielle supportant la Supply Chain Quantitative doit explorer numériquement une vaste quantité de décisions possibles. Par exemple, la solution devrait être capable de considérer l’impact financier de l’achat de chaque unité, une par une, pour chaque produit dans chaque localisation. Sans surprise, cette opération peut nécessiter des ressources de calcul considérables. Heureusement, de nos jours, le matériel informatique est capable de gérer même les supply chains globales les plus importantes. En supposant que la solution logicielle sous-jacente soit architecturée de manière appropriée pour la Supply Chain Quantitative, la scalabilité du traitement des données ne devrait pas poser de problème aux équipes supply chain.

Whiteboxing des résultats numériques

Les systèmes qualifiés de boîtes noires de manière condescendante en supply chain – et dans d’autres domaines également – sont des systèmes qui génèrent des résultats que les praticiens ne peuvent expliquer. La Supply Chain Quantitative, avec son accent particulier sur un pipeline de données automatisé, fait également face au risque de produire ce que les équipes supply chain qualifieraient de « boîtes noires ». En effet, les implications financières des décisions de supply chain sont très importantes pour une entreprise et, bien qu’un système plus récent puisse améliorer la situation, il peut également potentiellement créer des catastrophes. Bien que l’automatisation soit très souhaitable, cela ne signifie pas que l’équipe supply chain ne soit pas censée avoir une compréhension approfondie de ce qui est délivré par le pipeline de données supportant l’initiative Supply Chain Quantitative.

Le terme whiteboxing désigne l’effort nécessaire pour rendre la solution entièrement transparente au bénéfice des équipes supply chain. Cette approche souligne qu’aucune technologie n’est transparente par conception. La transparence est le résultat final d’un effort spécifique, qui fait partie intégrante de l’initiative. Même une régression linéaire simple peut produire des résultats déconcertants en pratique. Mis à part quelques individus exceptionnels, la plupart des gens n’ont pas une compréhension intuitive de ce que devrait être la sortie « attendue » du modèle linéaire dès lors que 4 dimensions ou plus sont impliquées. Pourtant, les problèmes de supply chain impliquent souvent des dizaines, voire des centaines, de variables. Ainsi, même des modèles statistiques simplistes sont de facto des boîtes noires pour les praticiens de la supply chain. Naturellement, lorsque des algorithmes de deep learning sont utilisés, comme le recommande la Supply Chain Quantitative, ils plongent encore plus les praticiens dans l’obscurité.

Bien que l’effet de boîte noire soit un problème réel, une solution réaliste ne réside pas dans la simplification du traitement des données en des calculs immédiatement intuitifs pour l’esprit humain. Cette approche est une recette pour une inefficacité extrême, qui démolit entièrement tous les bénéfices des ressources informatiques modernes, capables de s’attaquer à la complexité brute des supply chains modernes. Simplifier le processus n’est pas la solution. Le whiteboxing l’est.

Même les recommandations supply chain les plus complexes peuvent être rendues largement transparentes pour les praticiens, simplement en décomposant les calculs internes à l’aide d’indicateurs financiers judicieusement choisis, qui représentent les Facteurs Economiques soutenant la recommandation elle-même. Par exemple, au lieu de se contenter d’afficher un tableau nu comportant deux colonnes, produit et quantité, en tant que commande d’achat suggérée, le tableau devrait inclure quelques colonnes supplémentaires facilitant la prise de décision. Ces colonnes supplémentaires peuvent inclure le stock actuel, la demande totale du mois dernier, le délai d’exécution prévu, le coût financier attendu d’une rupture de stock (si aucune commande n’est passée), le coût financier attendu du surstock (risque associé à la commande suggérée), etc. Ces colonnes sont conçues pour permettre à l’équipe supply chain de vérifier rapidement la cohérence des quantités suggérées. Grâce à ces colonnes, l’équipe peut rapidement instaurer la confiance dans le résultat numérique et identifier certaines faiblesses d’une solution nécessitant des améliorations supplémentaires.

Étendre les tableaux de bord à des fins de whiteboxing relève en partie de l’art. Générer des millions de chiffres est facile, même en n’ayant accès qu’aux ressources informatiques disponibles sur un smartphone. Pourtant, générer 10 chiffres dignes d’être examinés quotidiennement est très difficile. Ainsi, le défi principal est d’identifier une douzaine, ou moins, de KPI suffisants pour éclairer les décisions supply chain recommandées. De bons KPI nécessitent généralement beaucoup de travail ; ils ne doivent pas être des définitions naïves, qui sont habituellement trompeuses en supply chain. Par exemple, même une colonne aussi simple que le “unit purchase price” peut être très trompeuse si le fournisseur propose des remises sur volume, rendant ainsi le prix d’achat dépendant de la quantité achetée.

Tableaux de bord stratégiques

Bien qu’il soit nécessaire de se concentrer sur les décisions à petite échelle - car c’est l’une des rares approches qui se prête à des évaluations quantitatives de performance - la supply chain peut également devoir être ajustée de manière plus grande et perturbatrice, afin d’amener ses performances à un niveau supérieur. Par exemple, l’achat d’unités de stock judicieusement choisies augmente marginalement le taux de service. Cependant, à un certain moment, l’entrepôt est plein et aucune unité supplémentaire ne peut être achetée. Dans cette situation, il faut envisager un entrepôt plus grand. Pour évaluer l’impact de la levée de cette limitation, nous pouvons supprimer la contrainte de capacité de l’entrepôt des calculs et évaluer le potentiel financier global d’une opération avec un entrepôt arbitrairement grand. La gestion de la supply chain peut alors surveiller l’indicateur financier associé au coût de friction imposé par la capacité même de l’entrepôt, et décider quand il est temps d’envisager d’accroître cette capacité.

Typiquement, les supply chains fonctionnent en s’appuyant sur de nombreuses contraintes qui ne peuvent être modifiées quotidiennement. Ces contraintes peuvent inclure le fonds de roulement, la capacité d’entrepôt, les retards de transport, le débit de production, etc. Chaque contrainte est associée à un coût d’opportunité implicite pour la supply chain, ce qui se traduit généralement par plus de stocks, plus de retards ou plus de ruptures de stocks. Le coût d’opportunité peut être évalué grâce aux gains de performance obtenus en supprimant ou en affaiblissant la contrainte elle-même. Bien que certaines de ces simulations puissent s’avérer difficiles à mettre en œuvre, elles ne sont souvent pas plus complexes que l’optimisation des décisions de routine, c’est-à-dire l’établissement des quantités des commandes d’achat.

La Supply Chain Quantitative souligne que les coûts d’opportunité associés à ces contraintes devraient faire partie du pipeline de données de production et, généralement, être matérialisés par des tableaux de bord dédiés, spécifiquement conçus pour aider la gestion de la supply chain à décider quand il est temps d’apporter des changements plus importants à leur supply chain. Ces types de tableaux de bord sont appelés tableaux de bord stratégiques. Cette approche diffère de la pratique traditionnelle de la supply chain qui privilégie les initiatives ad hoc lorsqu’elle estime que la supply chain est sur le point d’atteindre une limite de fonctionnement. En effet, les KPI fournis par les tableaux de bord stratégiques sont actualisés quotidiennement, ou plus fréquemment si nécessaire, tout comme le reste du pipeline de données. Ils n’ont pas besoin de faire un effort de dernière minute parce qu’ils sont à jour et prêts à capitaliser sur les enseignements tirés d’une initiative de longue durée.

Les tableaux de bord stratégiques soutiennent le processus de prise de décision de la gestion de la supply chain. Puisqu’ils font partie du pipeline de données, dès que le marché commence à évoluer plus rapidement que d’habitude, les KPI restent à jour quant à la situation actuelle de l’entreprise. Cette approche évite les écueils traditionnels associés aux investigations ad hoc qui ne font qu’ajouter des retards supplémentaires aux problèmes déjà tardifs. Elle atténue également en grande partie le problème contraire, à savoir des décisions stratégiques précipitées qui s’avèrent non rentables - une condition regrettable qui aurait pu être anticipée dès le départ.

Inspector dashboards

Les supply chains sont à la fois complexes et erratiques. Ces caractéristiques rendent le débogage du pipeline de données une tâche redoutablement difficile. Pourtant, ce pipeline de données constitue la moelle épinière de l’initiative de la Supply Chain Quantitative. Des erreurs de traitement des données, ou bugs, peuvent survenir n’importe où dans le pipeline. Pire encore, le type de problème le plus fréquent n’est pas une formule incorrecte, mais une sémantique ambiguë. Par exemple, au début du pipeline, la variable stockinv pourrait désigner le stock disponible (où des valeurs négatives sont possibles), alors que plus tard, la même variable est utilisée avec l’interprétation d’un stock en main (où les valeurs sont censées être positives). L’interprétation ambiguë de la variable stockinv peut engendrer une grande variété de comportements erronés, allant des crashs système - qui sont évidents et donc seulement modérément nuisibles - à une corruption silencieuse et généralisée des décisions de la supply chain.

Comme les supply chains sont presque toujours construites à partir d’un mélange unique de solutions logicielles mis en place au fil des années, il n’y a aucun espoir d’accéder à une solution logicielle « éprouvée » exempte de bugs. En effet, la majorité des problèmes survient aux frontières du système, lors de la réconciliation des données provenant de systèmes différents, ou même simplement entre des modules différents au sein du même système. Ainsi, quelle que soit la robustesse de la solution logicielle, les outils doivent être en mesure de soutenir aisément le processus de débogage, car ce type de problème est inévitable.

Le but des tableaux de bord inspecteurs est de fournir des vues détaillées pour une inspection minutieuse des jeux de données de la supply chain. Pourtant, ces tableaux de bord ne sont pas de simples drill-downs destinés à examiner les tables de données d’entrée. Une telle approche de drill-down, ou des solutions similaires de découpage et d’analyse des données, manquerait l’essentiel. Les supply chains reposent avant tout sur des flux : flux de matériaux, flux de paiements, etc. Certains des problèmes de données les plus sérieux surviennent lorsque la continuité du flux est « logiquement » rompue. Par exemple, lors du transfert de marchandises de l’entrepôt A vers l’entrepôt B, la base de données de l’entrepôt B peut manquer quelques entrées de produits, entraînant ainsi des corruptions subtiles des données, car des unités provenant de l’entrepôt A sont reçues dans l’entrepôt B sans être correctement associées à leur produit. Lorsque les résultats numériques semblent étranges, ces tableaux de bord inspecteurs constituent l’option incontournable pour le Supply Chain Scientist afin de procéder à une rapide investigation d’échantillons de données.

En pratique, un tableau de bord inspecteur fournit un point d’entrée de bas niveau tel qu’un code produit ou un SKU, et il consolide toutes les données associées à ce point d’entrée en une seule vue. Lorsque les marchandises circulent à travers de nombreux emplacements, comme c’est le cas dans les supply chains aérospatiales par exemple, le tableau de bord inspecteur tente généralement de reconstituer les trajectoires des marchandises, qui peuvent avoir transité non seulement par plusieurs sites physiques, mais aussi par plusieurs systèmes. En rassemblant toutes ces données en un seul endroit, il devient possible pour le Supply Chain Scientist d’évaluer si les données ont du sens : est-il possible d’identifier l’origine des marchandises expédiées ? Les mouvements de stocks sont-ils alignés avec les politiques officielles de la supply chain, etc. ? Le tableau de bord inspecteur est un outil de « débogage » car il est conçu pour rassembler les données étroitement liées, non pas d’un point de vue informatique, mais d’un point de vue supply chain.

Un des problèmes les plus insolites auxquels Lokad a été confronté lors de l’analyse des jeux de données de la supply chain fut le cas des pièces téléportées. L’entreprise - dans ce cas une compagnie aérienne - détenait des pièces d’avion stockées en Europe continentale ainsi qu’en Asie du Sud. Comme la sécurité des avions est une exigence absolue pour fonctionner, l’entreprise tenait des registres impeccables des mouvements de stocks pour toutes ses pièces. Pourtant, en utilisant un tableau de bord inspecteur récemment conçu, l’équipe de Lokad a constaté que certaines pièces se déplaçaient de l’Asie vers l’Europe et vice-versa, supposément en seulement 2 ou 3 minutes. Puisque les pièces d’avion sont transportées par avion, le temps de transport aurait dû être d’au moins une dizaine d’heures - certainement pas quelques minutes. Nous avons immédiatement suspecté un problème de fuseau horaire ou un autre souci lié à l’horodatage informatique, mais les enregistrements de temps se sont avérés impeccables. Ensuite, en examinant plus en profondeur les données, il est apparu que les pièces téléportées étaient en réalité utilisées et montées sur les avions à leur lieu d’atterrissage, une constatation d’autant plus déconcertante. En laissant les équipes de la supply chain consulter elles-mêmes les tableaux de bord inspecteurs, le mystère a finalement été élucidé. Les pièces téléportées étaient des roues d’avion constituées de deux demi-roues plus un pneu. La roue pouvait être démontée en séparant les deux demi-roues et le pneu. Dans le cas extrême où les deux demi-roues et le pneu étaient retirés, il ne restait rien de matériel. Ainsi, la roue entièrement démontée pouvait être remontée librement n’importe où, en ignorant totalement son emplacement d’origine.

Les tableaux de bord inspecteurs sont le pendant de bas niveau du tableau de bord de la santé des données. Ils se concentrent sur des données entièrement désagrégées, tandis que les tableaux de bord de santé des données adoptent généralement une approche plus globale. De plus, les tableaux de bord inspecteurs font typiquement partie intégrante de l’effort de whiteboxing. Lorsqu’une recommandation déroutante se présente, les praticiens de la supply chain doivent examiner de près un SKU ou un produit afin de déterminer si la décision recommandée est raisonnable ou non. Le tableau de bord inspecteur est généralement ajusté dans ce but précis, en incluant de nombreux résultats intermédiaires qui contribuent au calcul de la recommandation finale.

Assessing success

Il peut sembler paradoxal que, si la Supply Chain Quantitative met tant l’accent sur les méthodes numériques et les mesures, notre expérience montre que les métriques tendent à en révéler trop peu, et souvent trop tard, quant à savoir si une initiative est sur la bonne voie. Presque toutes les métriques peuvent être manipulées, et cela se fait généralement au détriment de la durabilité de l’approche choisie. Ainsi, la Supply Chain Quantitative recherche des améliorations évidentes : si les améliorations sont si subtiles qu’il faut des mesures avancées pour les détecter, alors l’initiative ne valait probablement pas l’effort consenti et doit être considérée comme un échec. Au contraire, si les améliorations sont notables et cohérentes sur de nombreuses métriques, et que la supply chain dans son ensemble semble plus agile et réactive que jamais, l’initiative aura très probablement réussi.

Metrics can be gamed

Il y a une raison pour laquelle les ingénieurs sont rarement évalués sur la base de métriques : ils excellent dans l’art de manipuler ces métriques, c’est-à-dire de les exploiter à leur avantage plutôt que de servir les intérêts de l’entreprise. Les supply chains sont complexes et presque toutes les métriques simples peuvent être détournées de manière susceptible d’être complètement destructrice pour l’entreprise. On pourrait penser que ce problème se résume à fermer les failles qui se cachent dans les métriques. Pourtant, notre expérience indique qu’il y a toujours une faille de plus à découvrir.

A tale of metric reverse engineering

Prenons comme exemple un e-commerce fictif. La direction décide que les taux de service doivent être améliorés et ainsi le taux de service devient la métrique phare. L’équipe de la supply chain commence à travailler selon cette métrique et propose une solution qui consiste à augmenter considérablement les niveaux de stocks, entraînant ainsi des coûts massifs pour l’entreprise.

En conséquence, la direction change les règles, un montant maximum de stocks est défini, et l’équipe doit opérer dans cette limite. L’équipe révise ses chiffres et se rend compte que le moyen le plus simple de réduire les niveaux de stocks est de qualifier de « obsolètes » de grandes quantités de stocks, ce qui déclenche des promotions agressives. Les niveaux de stocks sont effectivement réduits, mais les marges brutes sont également considérablement diminuées dans le processus.

Une fois de plus, le problème n’est pas passé inaperçu, et les règles changent à nouveau. Une nouvelle limite est introduite concernant la quantité de stocks pouvant être étiquetés comme « obsolètes ». La mise en œuvre de cette nouvelle règle demande beaucoup d’efforts car la supply chain se retrouve soudainement aux prises avec des stocks « anciens » qui devront être vendus à prix cassé. Afin de faire face à cette nouvelle règle, l’équipe augmente la part du transport aérien par rapport au transport maritime. Les délais sont réduits, les stocks diminuent, mais les coûts opérationnels grimpent rapidement.

Pour faire face aux coûts opérationnels devenus incontrôlables, la direction modifie de nouveau les règles et impose un plafond quant au pourcentage de marchandises pouvant être transportées par avion. Une fois de plus, cette nouvelle règle cause le chaos, car elle déclenche une série de ruptures de stocks qui auraient pu être évitées en recourant au transport aérien. Contrainte à opérer sous des limitations de plus en plus sévères, l’équipe finit par renoncer à tirer parti des remises de prix offertes par les fournisseurs. L’achat de quantités plus faibles est également un moyen de réduire les délais. Pourtant, une fois encore, les marges brutes se voient réduites dans le processus.

Ramener les prix d’achat sur la bonne voie s’avère être un objectif bien plus difficile à atteindre pour la direction. Aucune règle simple ne peut relever ce défi, et une myriade d’objectifs de prix pour chaque sous-catégorie de produit est introduite à la place. De nombreux objectifs se révèlent irréalistes et conduisent à des erreurs. Dans l’ensemble, le tableau de bord de la supply chain devient de moins en moins clair. Sous la pression de multiples directions, l’équipe de la supply chain commence à modifier une caractéristique obscure du processus de planification de la demande : la liste de substitution des produits.

En effet, la direction s’est rapidement rendu compte que certaines ruptures de stocks n’avaient pas autant d’impact que d’autres, car certains des produits manquants disposaient de multiples substituts quasi-parfaits. Par conséquent, tout le monde a convenu que les ruptures de stocks sur ces produits pouvaient être largement déduites lors du calcul du taux de service global. Cependant, l’équipe de la supply chain, qui opère désormais sous une énorme pression, commence à étendre l’objet de cette liste d’un ou deux échelons au-delà de son intention initiale : des produits qui ne sont pas si similaires se retrouvent répertoriés comme des substituts quasi-parfaits. Les métriques de taux de service s’améliorent, mais l’activité ne progresse pas.

The pitfall of success

Les métriques peuvent être manipulées et si les équipes se voient attribuer des incitations toxiques, les métriques seront très probablement exploitées de manière trompeuse. Toutefois, la situation n’est pas aussi grave qu’il n’y paraît. En fait, notre expérience indique qu’à l’exception de cultures d’entreprise véritablement dysfonctionnelles, les employés n’ont généralement pas tendance à saboter leur travail. Bien au contraire, nous avons observé que la plupart des employés sont fiers de faire ce qu’il faut, même si cela signifie que les politiques de l’entreprise doivent être quelque peu étirées.

Par conséquent, au lieu de retirer toute liberté à l’équipe chargée de mettre en œuvre la stratégie d’optimisation de la supply chain, il est important d’encourager cette équipe à élaborer un ensemble de métriques qui éclaire l’initiative de la supply chain dans sa globalité. Le rôle de la direction n’est pas d’imposer des règles fondées sur ces métriques, mais plutôt de remettre en question la réflexion stratégique qui sous-tend ces métriques. Souvent, l’objectif immédiat ne devrait même pas être d’améliorer les valeurs des métriques, mais bien d’améliorer leur définition même.

En réalité, toutes les métriques ne sont pas également précieuses pour une entreprise. Il faut généralement un effort considérable pour élaborer des métriques offrant une perspective significative sur l’entreprise. Ce travail nécessite non seulement une bonne compréhension de la stratégie d’entreprise, mais également une connaissance approfondie des données sous-jacentes, lesquelles s’accompagnent d’une myriade d’artefacts et d’autres bizarreries numériques. Ainsi, les métriques doivent avant tout être considérées comme une œuvre en cours.

Nous avons constaté qu’un indicateur fort de succès dans tout projet supply chain est la qualité des métriques qui sont établies tout au long de l’initiative. Pourtant, c’est un peu paradoxal, car il n’existe aucune métrique raisonnable permettant d’évaluer réellement la pertinence de ces métriques. Voici quelques éléments pouvant aider à évaluer la qualité des métriques:

  • Y a-t-il un consensus au sein des différentes équipes supply chain que les métriques capturent l’essence de l’entreprise ? Ou que les perspectives d’affaires implicitement promues par ces métriques ne soient ni myopes ni déconnectées de la réalité ?
  • Les métriques ont-elles une véritable profondeur lorsqu’il s’agit de concilier les chiffres avec les Facteurs Economiques ? La simplicité est souhaitable, mais pas au détriment d’une mauvaise compréhension du tableau d’ensemble.
  • Les artefacts de données sont-ils correctement pris en charge ? En général, il existe des dizaines de pièges subtils qu’il faut prévoir lors du traitement des données extraites des systèmes de l’entreprise. Notre expérience nous enseigne qu’il faut se méfier lorsque les données brutes semblent assez bonnes, car cela signifie généralement que les problèmes n’ont même pas encore été identifiés comme tels.
  • Les décisions générées à partir des métriques choisies ont-elles du sens ? Si une décision, qui est par ailleurs alignée sur les métriques, ne semble pas avoir de sens, alors, très probablement, il en est ainsi ; et le problème réside souvent dans la métrique elle-même.

De bien des manières, élaborer de bonnes métriques revient à orienter la gravité vers la fosse du succès : à moins qu’une intervention ne survienne, le cours naturel des choses est de rouler le long de la pente jusqu’au fond, qui se trouve précisément là où réside le succès. Connaître la profondeur exacte du fond n’est même pas strictement nécessaire, tant que chaque étape vers le bas améliore la situation de l’entreprise.

Des décisions sensées conduisent à de meilleures performances

Dans la supply chain, même les meilleures métriques présentent un inconvénient majeur : les chiffres arrivent généralement en retard. Les délais d’exécution peuvent être longs et les décisions prises aujourd’hui pourraient ne pas avoir d’impact visible pendant des semaines, voire des mois. De plus, la Supply Chain Quantitative, qui met un accent significatif sur les améliorations itératives et incrémentales, complique encore davantage cette situation. Pourtant, l’utilisation de méthodes non incrémentales serait encore pire, quoique pour d’autres raisons. Par conséquent, les métriques ne peuvent pas être les seuls signaux utilisés pour évaluer si l’initiative est sur la bonne voie.

La prise de décisions sensées est un signal simple, mais sous-estimé, d’une performance supérieure. En effet, à moins que votre entreprise ne réussisse déjà de façon exceptionnelle avec sa supply chain, il est fort probable que les systèmes continuent de produire des décisions « insensées » qui sont détectées et corrigées manuellement par les équipes supply chain. Le but de toutes les « alertes », ou mécanismes réactifs similaires, est précisément d’atténuer les problèmes en cours grâce à des efforts correctifs manuels continus.

Amener l’initiative de la Supply Chain Quantitative à un point où toutes les décisions - générées de manière entièrement robotisée - soient considérées comme sensées ou sûres représente un accomplissement bien plus important que ce que réalisent la plupart des praticiens. L’accent mis sur les décisions « robotisées » est important ici : pour respecter les règles, aucune intervention humaine ne devrait être nécessaire. Par « sensées », nous entendons des décisions qui restent pertinentes pour les praticiens, même après avoir passé quelques heures à enquêter sur le cas ; ce qui, naturellement, ne peut pas être effectué régulièrement en raison du nombre considérable de décisions similaires à prendre chaque jour.

Notre expérience indique que, dès que les décisions automatisées sont jugées fiables, la performance se matérialise plus tard lorsque ces décisions sont réellement mises à l’épreuve en production. En effet, le test de « rationalité » est un test très strict pour la logique décisionnelle. À moins que votre entreprise n’utilise déjà quelque chose de très similaire à la Supply Chain Quantitative, il est fort probable que les systèmes existants en place ne soient pas du tout en mesure de réussir ce test. Par conséquent, des erreurs non détectées se produisent en permanence, et l’entreprise finit par payer cher ce flux constant de problèmes.

Ensuite, d’un point de vue opérationnel, dès que les décisions supply chain deviennent automatisées, les équipes supply chain se libèrent de l’obligation d’alimenter leur propre système avec un flux incessant de saisies manuelles. Ces gains de productivité peuvent être réinvestis là où cela compte vraiment : affiner les détails de la stratégie de la supply chain elle-même, ou surveiller de plus près les fournisseurs afin de résoudre les problèmes de supply chain qui proviennent de leur côté. L’augmentation de la performance, obtenue grâce à une optimisation purement quantitative de la supply chain, est intensifiée par les gains réalisés par les équipes supply chain qui peuvent enfin trouver le temps d’améliorer les processus et les flux de travail.