Logiciels de planification et de prévision pour la Supply Chain, février 2025
Les logiciels de supply chain planning sont conçus pour optimiser les décisions (quoi produire, stocker ou déplacer, et quand) en situation d’incertitude – et non pas uniquement pour enregistrer des transactions. Comme le définit une source, la supply chain est « la maîtrise quantitative mais pragmatique de l’optionalité face à la variabilité et aux contraintes… en se concentrant sur la valorisation et la sélection des options, plutôt que sur la gestion directe des opérations sous-jacentes. » 1 En d’autres termes, les meilleurs outils de planning se concentrent sur l’optimisation (par exemple, déterminer des niveaux optimaux de stocks ou de production) plutôt que sur la simple gestion transactionnelle (suivi des commandes et des stocks). Cette étude compare les principaux fournisseurs de logiciels de supply chain planning et forecasting dans le monde, en mettant en avant des preuves techniques tangibles plutôt que le marketing. Nous évaluons chaque fournisseur selon des critères clés:
- Probabilistic Forecasting – Va-t-on au-delà des prévisions ponctuelles pour fournir des distributions complètes ou des modèles avancés ? Si une prévision « AI/ML » est revendiquée, existe-t-il des preuves (comme des performances remarquables lors de compétitions mondiales de prévision telles que le M5) pour l’appuyer ?
- Degree of Automation – Le système peut-il exécuter les prévisions et la planification en mode autonome (entièrement robotisé) sans intervention humaine constante ? Quel est le niveau d’autonomie dans la prise de décision ?
- Scalability & Performance – La technologie gère-t-elle efficacement les données à grande échelle ? (Attention aux architectures in-memory qui ne se scalent pas bien à mesure que les données augmentent et que les coûts de mémoire stagnent.)
- Technology Integration & Acquisitions – La solution est-elle construite sur une pile technologique cohérente ou sur un assemblage de modules acquis ? De longues histoires de M&A peuvent conduire à une technologie fragmentée et incohérente.
- Technical Credibility – Les affirmations technologiques du fournisseur sont-elles étayées par des principes scientifiques ou des preuves d’ingénierie ? Nous dépassons le battage médiatique (« AI/ML », « demand sensing ») à la recherche d’explications concrètes ou d’une validation par les pairs.
- Consistency & Contradictions – Les messages du fournisseur sont-ils cohérents ? (par exemple, revendiquer des prévisions probabilistes tout en vantant des métriques de précision déterministes comme le MAPE constituerait un signal d’alarme.)
- Obsolete Practices – Nous dénonçons les méthodes dépassées (telles que les formules simplistes de stock de sécurité) qui sont en contradiction avec l’optimisation probabiliste moderne.
- Decision-Oriented Output – Le logiciel se contente-t-il de produire des prévisions, ou fournit-il des décisions optimisées (plans de commande, objectifs de stocks) basées sur ces prévisions ? Le véritable objectif est de guider les décisions, et non pas seulement de fournir des chiffres.
Approche : Pour chaque fournisseur, nous nous appuyons sur la documentation technique publiée, des analyses réputées et (lorsqu’elles sont disponibles) des benchmarks ouverts ou des compétitions pour évaluer les capacités. Le battage médiatique, les rapports d’analystes rémunérés et les études de cas brillamment présentées sont ignorés à moins d’être vérifiés par des preuves tangibles. Le ton est délibérément sceptique – les affirmations doivent être étayées par des données ou des preuves techniques. Les incohérences ou le manque de transparence sont considérés comme des faiblesses sérieuses.
Ci-dessous, nous classons d’abord les principaux fournisseurs de logiciels de supply chain planning par excellence technologique, avec un bref raisonnement pour chacun. Après ce résumé de classement, une comparaison détaillée suit, organisée selon les critères techniques ci-dessus. Toutes les affirmations sont étayées par des citations de sources crédibles (au format【source†line】).
Principaux Fournisseurs Classés par Excellence Technologique
-
Lokad – Optimisation probabiliste de pointe Lokad est leader en innovation technologique, pionnier de la prévision probabiliste et véritablement centré sur la prise de décision. Dès 2012, Lokad défendait les prévisions probabilistes (avec près d’une décennie d’avance sur les autres) et a construit toute sa solution autour de ce concept 2. Contrairement aux fournisseurs qui considèrent la prévision et la planification comme des étapes séparées, le système de Lokad (construit sur un langage spécifique, appelé Envision) produit directement des décisions optimisées (commandes, niveaux de stocks) à partir de modèles probabilistes. La crédibilité technique de Lokad est exceptionnelle – elle documente ouvertement ses méthodes, et son équipe a obtenu la meilleure précision au niveau SKU dans la prestigieuse compétition de prévision M5 (parmi 909 équipes) 3. Cette victoire concrète en prévision granulaire souligne la puissance prédictive de pointe de Lokad. La plateforme est native cloud et entièrement automatisée (les prévisions et optimisations s’exécutent en mode non supervisé selon un calendrier), et elle évite les limitations des conceptions in-memory en tirant parti du cloud computing scalable. En résumé, Lokad établit la référence avec son approche probabiliste, axée sur l’automatisation et fondée sur des preuves pour l’optimization de la supply chain.
-
Kinaxis – Planification rapide en in-memory avec une IA émergente Kinaxis est un leader bien établi, connu pour son moteur de « planification concurrente » ultra-rapide. Sa plateforme RapidResponse utilise une architecture in-memory pour permettre des simulations de scénarios en temps réel couvrant l’offre, la demande et les stocks. Cette conception offre aux planificateurs une capacité d’analyse instantanée des scénarios hypothétiques, un atout majeur pour la réactivité. Cependant, la forte dépendance au calcul in-memory peut signifier des coûts matériels élevés et des limites de scalabilité à mesure que les données augmentent (les grands déploiements nécessitent une RAM massive) 4. Traditionnellement, Kinaxis se focalisait sur la planification déterministe (s’appuyant sur des règles définies par l’utilisateur et des ajustements manuels). Conscient du changement dans l’industrie, Kinaxis a récemment adopté des techniques probabilistes en intégrant des acquisitions/partenaires : par exemple, il a ajouté un moteur d’optimisation probabiliste multi-échelons de stocks (MEIO) (provenant du partenaire Wahupa) et a acquis une société d’IA pour la prévision de la demande (Rubikloud). Ces modules complémentaires apportent une prévision avancée et une modélisation des incertitudes à Kinaxis, bien que, en tant que modules additionnels, ils soulèvent des questions sur la cohérence de la pile technologique. La communication de Kinaxis autour de l’« IA » et du machine learning est prudente comparée à celle de certains concurrents – elle met l’accent sur la combinaison de l’intelligence humaine et machine. En pratique, Kinaxis excelle dans l’automatisation du recalcul des plans (chaque fois que les données changent, le système peut rééquilibrer de façon autonome les plans offre-demande), mais il a historiquement encore dépendu des planificateurs pour définir les paramètres et n’a pas entièrement automatisé les décisions finales. Avec ses nouveaux modules probabilistes, Kinaxis évolue vers une automatisation décisionnelle accrue en situation d’incertitude, bien qu’héritant d’une approche déterministe. En résumé, Kinaxis offre une plateforme de planification en temps réel puissante et rattrape son retard en prévision pilotée par l’IA, mais doit prouver que ses nouvelles fonctionnalités probabilistes sont profondément intégrées plutôt que superficielles.
-
o9 Solutions – Grandes ambitions et Big Data o9 Solutions est un nouvel acteur (fondé en 2009) souvent présenté comme un « cerveau digital » pour la supply chain. Techniquement, o9 est extrêmement ambitieux – il a construit une plateforme étendue avec un modèle de données basé sur les graphes (Enterprise Knowledge Graph, « EKG ») et traite d’énormes ensembles de données complexes (ce qui le rend populaire auprès des grandes entreprises recherchant un outil de planning de bout en bout). Cependant, l’approche d’o9 comporte des compromis. Le système utilise apparemment une conception in-memory, qui, tout en permettant une analyse rapide, « garantit des coûts matériels élevés » pour une utilisation à grande échelle 4. Cela soulève des inquiétudes en termes de scalabilité, car ajouter plus de RAM au problème devient coûteux et atteint finalement des limites (d’autant plus que les prix de la mémoire ne baissent plus rapidement). o9 fait un lourd marketing autour de l’AI/ML, mais il faut distinguer le contenu réel du battage médiatique : bon nombre de ses affirmations (par exemple, que son knowledge graph améliore de manière unique la prévision) sont douteuses sans fondement scientifique 5. En fait, des analyses des éléments technologiques publics d’o9 sur GitHub suggèrent qu’il utilise principalement des techniques standard (rien de fondamentalement nouveau pour justifier l’étiquette grandiose d’« AI ») 6. o9 prend en charge la planification probabiliste de scénarios dans une certaine mesure – il peut modéliser plusieurs scénarios de demande et exécuter des simulations – mais il n’est pas clair s’il fournit de véritables distributions de prévisions probabilistes ou simplement une analyse de scénarios. La plateforme peut automatiser certaines tâches de planning, mais o9 se positionne souvent comme un support à la décision, laissant en fin de compte le contrôle du « cerveau digital » aux humains. Dans l’ensemble, o9 est une plateforme technologique lourde dotée de vastes capacités, mais sa dépendance à l’informatique in-memory et le manque de clarté autour de ses affirmations en matière d’AI atténuent sa réputation en termes de leadership technologique perçu. Il est davantage un leader pour sa vision intégrée et sa gestion du big data que pour une précision de prévision unique et éprouvée.
-
Relex Solutions – Automatisation axée sur le commerce de détail (avec limites) Relex Solutions (fondé en 2005) se spécialise dans la prévision de la demande en commerce de détail, le réapprovisionnement et l’aménagement des espaces. Il s’est fait une réputation pour permettre un réapprovisionnement en magasin hautement automatisé – plusieurs grandes chaînes de supermarchés utilisent Relex pour prévoir automatiquement la demande au niveau des magasins et générer des commandes avec une intervention humaine minimale. Cette automatisation de bout en bout dans un environnement retail difficile est un atout notable. Relex vante également des techniques modernes de prévision par machine learning adaptées au commerce de détail (tenant compte des promotions, des événements locaux, etc.). Cela dit, un coup d’œil en coulisses révèle certaines limitations architecturales et méthodologiques. Le système de Relex utilise une conception de cube de données de style OLAP en in-memory 7 pour fournir des analyses et des rapports très rapides. Bien que cela produise des tableaux de bord réactifs, cela fait grimper les coûts matériels et ne résout pas intrinsèquement des problèmes d’optimisation complexes. En effet, l’approche en temps réel et granulaire de Relex peut entrer en conflit avec l’optimization du réseau entier – il pourrait avoir des difficultés à coordonner de manière optimale les décisions à travers un large réseau de supply chain face à des phénomènes tels que la cannibalisation de produits ou les substitutions 8. Il y a également des signes que les modèles de prévision de Relex ne sont pas aussi « next-gen » que vantés – des preuves suggèrent qu’une grande partie de leur approche repose sur des méthodes d’avant 2000 (par exemple, la régression, le lissage des séries temporelles) 9, bien qu’appliquées à grande échelle. Ils se vantent souvent d’une disponibilité en stocks à 99%+ pour les détaillants, mais les enquêtes sectorielles (par exemple, par les associations ECR) montrent qu’en général, la disponibilité sur les étagères est inférieure, remettant en question de telles affirmations globales 10. Relex dispose d’une pile technologique majoritairement cohérente (développée en interne pour le retail) et n’a pas crû par de grandes acquisitions, ce qui est positif pour la cohérence. En résumé, Relex est un leader de l’automatisation en retail et peut piloter des opérations impressionnantes sans intervention manuelle, mais sa profondeur technique en science de la prévision est discutable, et une architecture in-memory signifie qu’il partage les préoccupations de scalabilité des autres.
-
ToolsGroup – Premier innovateur vantant désormais « AI » ToolsGroup (fondé en 1993) propose le logiciel SO99+, historiquement connu pour la prévision axée sur le taux de service et l’optimisation de stocks. Des années avant que « AI » ne devienne un mot à la mode, ToolsGroup a contribué à populariser les concepts probabilistes dans la supply chain – par exemple, en modélisant la variabilité de la demande pour déterminer les stocks de sécurité nécessaires afin d’atteindre un taux de service désiré. En pratique, leur outil peut produire une distribution de probabilité de la demande (surtout pour les articles à faible rotation) et calculer des objectifs de stocks pour atteindre un taux de remplissage cible. Cependant, ces dernières années, le message de ToolsGroup a évolué pour rejoindre le battage médiatique autour de l’AI/ML, et c’est là que les fissures de crédibilité apparaissent. Ils font fortement la promotion d’une planification « propulsée par l’AI », mais les indices publics suggèrent que leurs algorithmes de base sont toujours essentiellement des modèles statistiques legacy (d’avant 2000) 11. Notamment, depuis environ 2018, ils ont commencé à qualifier leurs résultats de « prévisions probabilistes » tout en se targuant simultanément d’améliorations du MAPE 12 – une incohérence flagrante, car le MAPE (une métrique d’erreur de prévision déterministe) « ne s’applique pas aux prévisions probabilistes. » 13 Cela suggère soit une incompréhension, soit une astuce marketing (par exemple, peut-être génèrent-ils des prévisions probabilistes mais les évaluent toujours en comparant la médiane aux valeurs réelles avec le MAPE – ce qui manque le but des méthodes probabilistes). ToolsGroup met également en avant le « demand sensing » pour des ajustements de prévisions à court terme, mais de telles affirmations sont non étayées par la littérature scientifique 13 et équivalent souvent à de simples moyennes mobiles reconditionnées. Sur le plan positif, la solution de ToolsGroup est assez complète en termes de fonctionnalités pour la supply chain planning (couvrant la prévision de la demande, l’optimisation de stocks, le S&OP, etc.) et peut être exécutée en mode lights-out (générant automatiquement des propositions de réapprovisionnement chaque nuit). Son focus sur l’optimisation (atteindre les taux de service avec un stock minimal) est en phase avec la prévision orientée décision. Mais la posture récente de ToolsGroup en matière d’AI, sans preuves techniques claires, ainsi qu’une architecture qui pourrait ne pas être moderne et native cloud (probablement plus orientée serveur unique), le font un peu reculer en termes de leadership technologique. En bref, ToolsGroup est un acteur éprouvé dans la modélisation probabiliste de stocks, mais il a besoin de plus de transparence pour étayer ses nouvelles affirmations en matière d’AI et s’assurer que ses méthodes ne sont pas restées figées.
-
Blue Yonder – Héritage puissant, technologie patchwork Blue Yonder (fondée en 1985 sous le nom de JDA Software, renommée après avoir acquis une petite entreprise d’IA nommée Blue Yonder) est un géant dans la planification de supply chain. Elle offre des solutions couvrant la planification de la demande, la planification de l’offre, le retail, et plus encore. Au fil des décennies, Blue Yonder (BY) a constitué un large portefeuille via de nombreuses acquisitions – de Manugistics (optimisation de supply chain) aux composants d’i2 Technologies, et plus récemment la startup Blue Yonder AI. Le résultat est « une collection hétéroclite de produits, dont la plupart datent », même si c’est sous une seule marque 14. Techniquement, les modules hérités de Blue Yonder (comme la Prévision de la Demande ou l’Exécution) utilisent souvent des techniques plus anciennes (par exemple, prévisions heuristiques, planification basée sur des règles avec des stocks de sécurité). L’entreprise met maintenant en avant « AI/ML » dans son marketing, mais les affirmations tendent à être vagues et peu substantielles 15. Un indice révélateur : Blue Yonder ne possède que quelques projets open-source sur son GitHub (par exemple, tsfresh, PyDSE, Vikos), qui suggèrent les approches de prévision sous-jacentes – il s’agit principalement de méthodes traditionnelles comme l’extraction de caractéristiques + des modèles ARIMA/régression linéaire 16, plutôt que de deep learning de pointe ou de modèles probabilistes. En d’autres termes, l’« IA » de BY est probablement plus du battage médiatique qu’une avancée réelle. La cohésion du système est préoccupante – la planification, le réapprovisionnement et l’optimisation de stocks peuvent exister comme des moteurs séparés qui ne travaillent pas ensemble de manière fluide (l’intégration repose sur un lourd effort de mise en œuvre). Blue Yonder dispose néanmoins de capacités d’optimisation très solides dans certains domaines (par exemple, leurs anciens algorithmes i2 pour l’optimisation du réseau de supply chain, modernisés, peuvent être puissants). Et de nombreuses grandes entreprises utilisent Blue Yonder pour automatiser les tâches de planification (par exemple, générer des prévisions qui pilotent un processus MRP, fixer des niveaux de stock de sécurité, etc., les planificateurs intervenant par exception). Pourtant, comparé aux leaders technologiques plus récents, Blue Yonder semble techniquement stagnant : il se limite largement aux prévisions déterministes (souvent mesurées par d’anciens indicateurs comme le MAPE ou le biais), utilise des pratiques obsolètes comme les formules de stock de sécurité en tant qu’élément central de planification, et ne fait qu’effleurer la terminologie de l’IA. Compte tenu de ses ressources, Blue Yonder pourrait évoluer, mais pour l’instant il incarne le compromis d’un grand fournisseur : fonctionnalité étendue mais une pile technologique fragmentée et vieillissante 14. Nous le classons en dessous des concurrents plus tournés vers l’avenir d’un point de vue technologique.
(D’autres fournisseurs notables : SAP IBP et Oracle SCM Cloud offrent également des suites de planification de supply chain, mais il s’agit en grande partie d’extensions de leurs systèmes ERP transactionnels. Ils héritent d’une dette technique importante et de la complexité des systèmes hérités et des acquisitions. Par exemple, l’offre de planification de SAP est un amalgame de composants tels que SAP APO, SAP HANA, ainsi que des outils acquis (SAF pour les prévisions, SmartOps pour les stocks) – essentiellement « une collection de produits » nécessitant beaucoup d’efforts d’intégration 17. Ces solutions liées aux ERP, bien que puissantes à certains égards, ne sont généralement pas des leaders en matière de science de la prévision ou d’automatisation, elles sont donc exclues des meilleurs rangs.)
Après avoir présenté les principaux fournisseurs, nous nous penchons maintenant sur une analyse critère par critère, mettant en lumière la performance de chaque fournisseur en matière de prévisions probabilistes, automatisation, scalabilité, etc., avec un accent sur les preuves et les exemples. Cette vue comparative révèle en profondeur les forces et les faiblesses de chaque solution.
Prévision probabiliste : Au-delà des modèles déterministes
L’optimisation de la supply chain moderne bénéficie énormément de la prévision probabiliste – estimer une plage ou une distribution de résultats possibles (avec des probabilités), plutôt que d’un seul nombre « le plus probable ». Les prévisions probabilistes capturent mieux la variabilité de la demande, permettant des décisions plus robustes (par exemple, connaître la probabilité d’une rupture de stock si vous stockez X unités). Nous avons examiné quels fournisseurs adoptent véritablement les méthodes probabilistes par rapport à ceux qui se limitent aux prévisions déterministes. Constatations clés :
-
Lokad se distingue par l’intégration profonde de la prévision probabiliste. Il a été précurseur dans la promotion de modèles probabilistes (depuis 2012) 2 et n’a cessé de faire progresser cette capacité. L’approche de Lokad utilise des distributions de demande probabilistes comme base pour toutes les optimisations – par exemple, en calculant le profit attendu de différentes quantités de stocks en intégrant sur la distribution de la demande. La crédibilité de la technologie de prévision de Lokad est confirmée par des compétitions mondiales : une équipe de Lokad a obtenu la meilleure précision au niveau SKU dans le M5 Forecasting Competition 3, un challenge de référence très apprécié. Il est important de noter que le M5 portait entièrement sur la prévision probabiliste (les classements étaient basés sur des métriques d’erreur distributionnelle pondérées), et la performance de Lokad indique que ses méthodes sont vraiment à la pointe pour générer des distributions de probabilité précises à un niveau granulaire. En pratique, Lokad ne produit pas seulement un nombre, mais une distribution complète de probabilités (ou des scénarios) pour la demande de chaque article, qui alimente directement les scripts d’optimisation des décisions.
-
ToolsGroup, à son crédit, offre des fonctionnalités probabilistes depuis des années dans le contexte de l’optimisation du taux de service. Leur logiciel peut créer une distribution explicite de la demande (souvent via un modèle de demande intermittente ou autre ajustement statistique) puis calculer des cibles de stocks afin d’atteindre un taux de service désiré. Cependant, il existe une différence entre disposer d’un modèle probabiliste en interne et l’adopter pleinement dans l’esprit. Le marketing de ToolsGroup à partir de 2018 suggère une tentative de se rebrander en tant que leader de la prévision probabiliste, pourtant ils se contredisent en évoquant simultanément des améliorations du MAPE parallèlement aux prévisions probabilistes 13. C’est une contradiction – si l’on prévoit réellement une distribution, on ne mesurerait pas principalement le succès par le MAPE (qui suppose un seul nombre « juste »). Le fait qu’ils s’appuient encore sur des indicateurs déterministes indique qu’ils pourraient toujours générer des prévisions ponctuelles et n’utiliser les distributions que pour simuler les besoins en stocks. Ainsi, bien que ToolsGroup dispose de capacités probabilistes, la sophistication de ces méthodes n’est peut-être pas de pointe, et leur véritable engagement envers le probabiliste par rapport à une simple fonctionnalité additionnelle reste flou.
-
Kinaxis, historiquement, ne fournissait pas de prévisions probabilistes dans son offre principale (il se reposait sur des prévisions ponctuelles saisies par les utilisateurs ou générées via des statistiques simples). Conscient de cette lacune, Kinaxis s’est associé à Wahupa pour intégrer un moteur MEIO probabiliste (Optimisation Multi-Échelon des Stocks) 18. De plus, Kinaxis a acquis une entreprise d’IA (Rubikloud) spécialisée dans la prévision de la demande par machine-learning (probablement de nature probabiliste, par exemple en produisant des intervalles de prédiction). À partir de 2023, Kinaxis a commencé à commercialiser « Planning.AI » ou des capacités similaires, reconnaissant explicitement la nécessité de « tirer parti de l’incertitude » et d’utiliser la science de la probabilité dans la prise de décisions 19. C’est une évolution positive, mais comme c’est relativement nouveau, la maturité des prévisions probabilistes de Kinaxis est encore en évolution. Nous n’avons pas vu Kinaxis ou ses associés participer à des compétitions publiques de prévisions ou publier une méthodologie détaillée, de sorte que la preuve technique de leur savoir-faire probabiliste se limite à ce qu’ils affirment.
-
o9 Solutions met également en avant la modélisation de l’incertitude en théorie – leur graphe de connaissances peut stocker de nombreux facteurs causals, et ils affirment générer de meilleures prévisions en liant les données. Mais encore une fois, nous ne trouvons aucune preuve publique qu’o9 fournisse des prévisions probabilistes en pratique (aucun benchmark de précision publié ni algorithmes open-source). La mention de réseaux bayésiens ou de Monte Carlo dans leurs documents est rare. Les éléments découverts dans les dépôts de code d’o9 semblent se concentrer sur des techniques de prévision typiques plutôt que sur des algorithmes probabilistes innovants 6. Jusqu’à ce qu’o9 démontre le contraire, nous devons supposer qu’il fournit principalement des prévisions déterministes améliorées (peut-être avec une analyse de scénarios), et toute étiquette « probabiliste » pourrait relever davantage du marketing.
-
Relex Solutions s’occupe du retail où la variabilité (notamment lors des promotions ou pour les produits frais) est élevée. Ils utilisent vraisemblablement certaines approches probabilistes en interne (par exemple, pour estimer la distribution de la demande pour les produits en promotion, ou pour calculer les besoins en stock de sécurité par magasin avec un taux de service cible). Cependant, les documents destinés au public de Relex ne mettent pas explicitement en avant la « prévision probabiliste » ; ils parlent davantage de machine learning pour améliorer la précision des prévisions (impliquant généralement de meilleures prévisions ponctuelles). La revue par les pairs de Relex indique que leur technologie de prévision semble pré-2000 9, ce qui suggère probablement des méthodes principalement déterministes comme l’exponential smoothing, peut-être avec saisonnalité et tendance – des techniques qui génèrent des prévisions ponctuelles et éventuellement un écart-type pour les stocks de sécurité. Ainsi, Relex peut encore s’appuyer sur l’ancien paradigme : prévoir puis ajouter une marge, plutôt que de fournir une courbe de probabilité complète à l’utilisateur.
-
Blue Yonder dans sa planification traditionnelle de la demande utilise une variété de modèles statistiques (ARIMA, exponential smoothing, peut-être du ML pour les facteurs causals) pour produire des prévisions, généralement agrégées et avec un processus de consensus – fondamentalement déterministes. Blue Yonder a commencé à mentionner des termes probabilistes dans certains contextes (puisque tout le monde le fait), mais étant donné que leurs contributions open-source montrent une dépendance à ARIMA et à la régression 16, il est sûr de dire que la prévision probabiliste n’est pas une force. Ils continuent également à favoriser des indicateurs comme le MAPE, le biais, etc., qui sont déterministes. Nous n’avons pas vu Blue Yonder participer aux benchmarks de prévisions connus non plus.
-
Autres fournisseurs : John Galt Solutions commercialise un algorithme nommé « Procast » revendiquant une précision supérieure, mais une analyse a noté que cette affirmation est douteuse puisque Procast était absent des meilleurs rangs des grandes compétitions de prévisions comme le M5 20. En fait, les outils de prévision open-source facilement disponibles (par exemple, Prophet ou les packages R de Hyndman) fonctionnent probablement aussi bien voire mieux 21. Cela met en évidence un thème récurrent : la véritable innovation se manifeste là où il y a une évaluation ouverte. L’absence de la plupart des fournisseurs (à l’exception de Lokad) dans les compétitions publiques suggère que beaucoup ne sont pas réellement en avance sur le milieu académique ou l’open-source en matière de prévisions – sinon, ils le prouveraient dans ces forums.
En résumé, la prévision probabiliste est un facteur différenciateur : Lokad est clairement en tête avec une maîtrise démontrée et une intégration complète des décisions probabilistes. ToolsGroup et Kinaxis reconnaissent son importance mais ne l’ont intégré que récemment (et doivent aligner leurs métriques et processus avec celle-ci pour être convaincants). Les autres restent en grande partie dans un monde déterministe, même s’ils glissent des termes comme « stochastique » dans leurs brochures. Cette distinction est importante, car sans véritables prévisions probabilistes, un système de planification se contentera de stocks de sécurité rudimentaires et ne pourra pas équilibrer de manière optimale risques et coûts.
Degré d’automatisation : planification sans intervention vs. intervention humaine
L’automatisation dans la prévision et la planification désigne la capacité du système à exécuter l’ensemble du processus – ingestion des données, génération de prévisions, optimisation du plan, et même exécution des décisions – sans intervention manuelle, à l’exception de la surveillance et d’un réglage occasionnel des paramètres. Une haute automatisation est cruciale pour les opérations à grande échelle (où ajuster manuellement des milliers de prévisions est impossible) et pour réagir rapidement aux changements (les robots réagissent plus vite que les humains). Nous avons évalué dans quelle mesure chaque solution peut être automatisée et si elle supporte des exécutions de planification « sans surveillance » (et si les clients l’utilisent réellement de cette manière). Observations :
-
Lokad est conçu en pensant à l’automatisation. Son environnement de script Envision permet de coder et de programmer toute la logique de prévision et de réapprovisionnement. De nombreux déploiements de Lokad fonctionnent sur une base entièrement robotisée, où chaque jour ou chaque semaine le système récupère automatiquement de nouvelles données, recalcule les prévisions, optimise les décisions (par exemple, génère des quantités de commande ou des plans d’allocation), et les transmet à l’ERP ou au système d’exécution – le tout sans ajustement manuel. La philosophie est que si les modèles sont correctement configurés, les interventions manuelles devraient être minimales, et les planificateurs peuvent se concentrer sur les exceptions ou l’amélioration des modèles plutôt que sur des ajustements de routine. Les cas de réussite de Lokad soulignent souvent la réduction drastique de la charge de travail des planificateurs grâce à cette automatisation. Essentiellement, Lokad considère les planificateurs davantage comme des data scientists ou des superviseurs du processus, et non comme des personnes ajustant manuellement les paramètres de planification quotidiennement.
-
Relex Solutions permet également un haut degré d’automatisation, en particulier dans le réapprovisionnement. Par exemple, pour les distributeurs alimentaires, Relex peut générer automatiquement des commandes de magasin chaque jour en tenant compte des prévisions, des stocks disponibles, et des délais. Certains distributeurs utilisant Relex lui accorderaient suffisamment confiance pour que la grande majorité des commandes soient exécutées automatiquement, les planificateurs se contentant de vérifier les suggestions anormales. Le système de Relex supporte des flux de travail pour les exceptions (par exemple, il peut signaler si une prévision est fortement différente de la normale, puis un humain intervient pour revoir), mais sinon il est conçu pour exécuter automatiquement la planification de la demande et la commande. C’est un argument clé dans le retail où l’échelle (des millions de combinaisons SKU-magasin) rend la planification manuelle impossible. Cependant, il convient de noter que la réalisation de cette automatisation nécessite souvent des modèles stables et matures ainsi qu’un focus étroit (par exemple, sur les produits de base de l’alimentation). Dans une planification manufacturière multi-échelon plus complexe, Relex est moins présent. Néanmoins, dans son domaine, Relex démontre que la prévision et le réapprovisionnement sans surveillance sont réalisables, quoique dans le cadre des contraintes de son architecture en mémoire.
-
Kinaxis offre l’automatisation du recalcul – sa simultanéité signifie que, dès que les données changent, elles peuvent être propagées dans le modèle de supply chain (bill-of-materials, stocks, capacités) afin de mettre automatiquement à jour tous les plans dépendants. Ceci est une forme d’automatisation (éliminant la nécessité de relancer manuellement des cycles de planification séparés pour chaque niveau). Cependant, Kinaxis s’attend traditionnellement à ce que les planificateurs soient impliqués dans une certaine mesure : ils configurent des scénarios, examinent les résultats et décident quel scénario adopter. Kinaxis peut automatiser les décisions routinières via son système d’alerte (par exemple, approuver automatiquement un plan si les stocks sont supérieurs à un seuil), mais il est généralement utilisé comme un outil d’aide à la décision plutôt que comme un pilote automatique “dark”. Cela dit, avec l’intégration de l’IA et des prévisions plus avancées, Kinaxis se dirige vers une prise de décision plus automatisée. Par exemple, son nouveau MEIO peut rééquilibrer automatiquement les tampons de stocks entre les échelons à chaque exécution de planification, et l’utilisateur peut l’approuver sauf si quelque chose semble anormal. L’entreprise investit également dans ce qu’elle appelle des “supply chains auto-réparatrices”, impliquant une plus grande autonomie. Pourtant, compte tenu de sa clientèle (souvent aérospatiale, automobile, etc., où les planificateurs font preuve de prudence), une planification entièrement sans intervention humaine n’est pas la norme pour les déploiements de Kinaxis.
-
o9 Solutions est généralement déployé en tant que plateforme de planification dans laquelle les utilisateurs (planificateurs, responsables de la demande, etc.) interagissent fortement – en ajustant les prévisions, en collaborant sur les plans S&OP, en exécutant des scénarios. Il possède certes la capacité technique d’automatiser les calculs (vous pouvez, par exemple, mettre en place des mises à jour récurrentes des prévisions), mais la philosophie d’o9 tend à renforcer les planificateurs humains grâce aux insights d’IA plutôt que de les remplacer. Le terme marketing “digital twin of the organization” suggère qu’il reflète votre supply chain en logiciel ; or, un miroir reflète généralement ce que vous faites – il ne décide pas de manière autonome. Nous n’avons trouvé aucune preuve d’une utilisation totalement autonome d’o9 par une entreprise ; c’est plutôt un outil qui fournit un modèle de données unique et des analyses pour faciliter la planification interfonctionnelle. L’automatisation est axée sur l’intégration (automatisant les flux de données entre les modules) plutôt que sur l’automatisation des décisions.
-
ToolsGroup a traditionnellement mis en avant une approche de planification « low-touch ». Leur outil SO99+ peut être configuré pour générer automatiquement des prévisions statistiques pour chaque SKU, calculer des objectifs de stocks et même suggérer des commandes de réapprovisionnement. De nombreuses entreprises de taille moyenne l’ont effectivement utilisé pour auto-générer des bons de commande ou des propositions de production, les planificateurs se contentant de passer en revue les exceptions (par exemple, lorsque le système est incertain en raison de circonstances inhabituelles). Le niveau d’automatisation obtenu dépend de la confiance accordée aux recommandations du système. ToolsGroup souligne souvent que leur approche probabiliste conduit à des recommandations de stocks plus fiables, ce qui rend les entreprises plus à l’aise quant à l’automatisation des commandes. Cependant, si les modèles de ToolsGroup ne sont pas correctement ajustés, les utilisateurs pourraient avoir à intervenir fréquemment. D’un point de vue technique, ToolsGroup peut certainement fonctionner en mode batch non supervisé pour la prévision et la planification initiale. Mais il pourrait ne pas gérer la re-planification en temps réel aussi bien qu’une solution comme Kinaxis (c’est plutôt une planification nocturne orientée batch).
-
Blue Yonder (JDA) propose des composants tels que ESP (Enterprise Supply Planning) et Fulfillment qui peuvent, de manière automatique, déclencher des commandes d’approvisionnement ou des recommandations de transferts de stocks basées sur les prévisions et les politiques d’inventaire. De nombreux utilisateurs de Blue Yonder comptent sur des résultats auto-générés : par exemple, le système pourrait créer automatiquement des commandes de distribution pour réapprovisionner des entrepôts régionaux afin d’atteindre des niveaux de stocks cibles. Le module Demand de Blue Yonder peut générer automatiquement des prévisions de base chaque semaine ou chaque mois. Cependant, historiquement, les déploiements de JDA/Blue Yonder impliquent beaucoup de flux de travail humains : les planificateurs de la demande ajustent les prévisions, les planificateurs de l’approvisionnement examinent les commandes recommandées par le système, etc. Le logiciel prend en charge l’automatisation mais n’encourage pas nécessairement une approche « sans intervention » – il s’agit davantage d’un bureau de travail pour planificateurs. De plus, compte tenu du caractère patchwork de la suite BY, parvenir à une automatisation de bout en bout peut nécessiter un effort d’intégration significatif (s’assurer que le plan de demande s’alimente dans le module de planification de supply chain, qui lui-même alimente l’exécution sans intervention manuelle, peut être complexe). Ainsi, bien que techniquement réalisable, en pratique, les sites Blue Yonder bénéficient souvent d’une importante supervision humaine des plans. En résumé, la capacité d’automatisation est présente dans tous les outils leaders à des degrés divers, mais la philosophie et l’utilisation pratique diffèrent. Lokad et Relex se distinguent par leur capacité à repousser les limites de la planification véritablement autonome dans leurs niches respectives (Lokad permettant des pilotes automatiques de supply chain entièrement scriptés pour diverses industries, et Relex le réalisant dans le commerce de détail). Les grands fournisseurs traditionnels abordent l’automatisation avec plus de prudence, laissant souvent le planificateur décider en dernier lieu. Cela est parfois dû à des problèmes de confiance – si les prévisions d’un système ne sont pas très fiables, les utilisateurs ne le laisseront pas fonctionner en pilote automatique. Cela souligne que l’automatisation n’est aussi bonne que l’intelligence qui la sous-tend : une raison clé pour laquelle des outils probabilistes et orientés vers la décision sont nécessaires est de rendre l’automatisation viable (le système doit prendre de bonnes décisions par lui-même). Lors de l’évaluation des fournisseurs, les entreprises devraient se demander : Ce système peut-il fonctionner seul pendant un mois tout en maintenant ou en améliorant notre performance ? Les meilleures technologies tendent à répondre “oui” à cette question, tandis que d’autres nécessitent encore fondamentalement une supervision manuelle.
En résumé, la capacité d’automatisation est présente dans tous les outils leaders à des degrés divers, mais la philosophie et l’utilisation pratique diffèrent. Lokad et Relex se distinguent par leur capacité à repousser les limites de la planification véritablement autonome dans leurs niches respectives (Lokad permettant des pilotes automatiques de supply chain entièrement scriptés pour diverses industries, et Relex le réalisant dans le commerce de détail). Les grands fournisseurs traditionnels abordent l’automatisation avec plus de prudence, laissant souvent le planificateur décider en dernier lieu. Cela est parfois dû à des problèmes de confiance – si les prévisions d’un système ne sont pas très fiables, les utilisateurs ne le laisseront pas fonctionner en pilote automatique. Cela souligne que l’automatisation n’est aussi bonne que l’intelligence qui la sous-tend : une raison clé pour laquelle des outils probabilistes et orientés vers la décision sont nécessaires est de rendre l’automatisation viable (le système doit prendre de bonnes décisions par lui-même). Lors de l’évaluation des fournisseurs, les entreprises devraient se demander : Ce système peut-il fonctionner seul pendant un mois tout en maintenant ou en améliorant notre performance ? Les meilleures technologies tendent à répondre “oui” à cette question, tandis que d’autres nécessitent encore fondamentalement une supervision manuelle.
Scalabilité & Performance : L’architecture compte
La planification de la supply chain doit souvent gérer du big data (un grand nombre de SKUs, de magasins, de commandes, de signaux IoT, etc.) et des calculs complexes (l’optimisation sur de nombreuses variables). L’architecture sous-jacente de chaque solution – qu’elle soit en mémoire ou distribuée, et sa manière de gérer l’augmentation des volumes de données – impacte directement sa scalabilité et sa performance. De mauvais choix architecturaux peuvent conduire soit à des performances lentes, soit à des coûts matériels exorbitants (voire les deux), surtout à mesure qu’une entreprise se développe. Points clés sur la scalabilité pour les fournisseurs :
-
In-Memory vs. Distributed : Un thème majeur est la différence entre les solutions qui chargent la majeure partie des données en RAM pour un calcul rapide et celles qui utilisent un calcul distribué à la demande (style cloud). Kinaxis, o9, Relex et SAP IBP disposent tous d’une forte composante en mémoire. Le moteur de Kinaxis a été conçu sur l’idée que toutes les données pertinentes de la planification résident en mémoire pour un recalcul instantané – ce qui fonctionne bien jusqu’à un certain point, mais passer au-delà de quelques téraoctets de données en mémoire devient extrêmement coûteux et techniquement difficile. O9 et Relex garantissent également des coûts matériels élevés en raison de la conception en mémoire 4 7 – en effet, l’utilisateur paie pour des serveurs ou clusters très volumineux dotés d’une RAM massive. Cette approche avait du mérite il y a 10–20 ans, lorsque la mémoire était bon marché et les volumes de données plus modestes, mais les prix de la mémoire se sont stabilisés et la complexité des données a augmenté, rendant cette stratégie moins pérenne. En revanche, Lokad est entièrement basé sur le cloud et ne nécessite pas de conserver toutes les données en RAM. Il exploite le calcul à la demande (par exemple, effectuer des calculs en parallèle sur plusieurs machines lorsque nécessaire, puis les libérer). Cela signifie qu’il peut évoluer vers des problèmes très importants en ajoutant des nœuds de calcul au lieu de se heurter à la limite de RAM d’une seule machine. La conception native cloud de Lokad fait également un usage intensif du disque et du réseau lorsque cela est approprié, s’inscrivant dans les tendances modernes du big data (où le stockage et le calcul distribués, tels que les paradigmes map-reduce, gèrent l’échelle).
-
Performance à grande échelle : Les modules plus anciens de Blue Yonder (comme APO de SAP ou l’ancien système de JDA) rencontraient parfois des difficultés sur de grands problèmes, nécessitant une agrégation ou une segmentation des données pour fonctionner. Les versions cloud plus récentes (BY Luminate) ont probablement amélioré ce point grâce à une meilleure gestion de la mémoire et peut-être à une mise à l’échelle élastique, mais les preuves restent rares. SAP IBP utilise HANA (base de données en colonnes en mémoire) ; il peut gérer un grand volume de données, mais à un coût d’infrastructure très élevé et nécessite souvent que les données soient agrégées à certains niveaux pour que les exécutions de planification se terminent dans les temps. La solution de planification d’Oracle utilise une base de données relationnelle en back-end qui peut décharger une partie sur le disque, mais pourrait être plus lente par calcul (cependant, Oracle optimise le réglage de sa base de données). ToolsGroup s’occupait généralement d’ensembles de données de taille moyenne (de quelques milliers à plusieurs dizaines de milliers de SKUs) sur des serveurs uniques ; la performance pouvait se dégrader avec un nombre très élevé de SKUs, à moins que le calcul ne soit soigneusement limité (par exemple, en se concentrant sur les articles d’intérêt). Ils sont passés récemment à des offres cloud qui peuvent vraisemblablement s’adapter à l’échelle, mais il n’est pas clair si les algorithmes de base ont été refactorisés pour le calcul distribué ou simplement hébergés sur de grosses VM.
-
Approches défaillantes : La faille de conception « in-memory design » mérite d’être soulignée. Plusieurs fournisseurs ont opté pour modéliser l’intégralité de la supply chain dans un gigantesque modèle résidant en mémoire (semblable à un cube OLAP ou à un gigantesque tableur en mémoire). Cela offre une grande rapidité pour des cas de petite à moyenne envergure, mais ne s’échelonne pas de manière linéaire – vous ne pouvez pas le distribuer facilement, et ajouter davantage de données peut provoquer une explosion combinatoire des besoins en mémoire. L’étude fournisseur de Lokad pointe explicitement ce problème pour o9 et Relex : leur conception « fournit des rapports en temps réel impressionnants » mais entraîne inévitablement une hausse des coûts matériels et ne s’accorde pas bien avec les problèmes d’optimisation globale 7. De même, la documentation de Kinaxis reconnaît indirectement certaines limites : par exemple, une documentation plus ancienne de Kinaxis indiquait que les systèmes 32 bits avec environ 4 GB de RAM constituaient une limite à l’époque, et même si le 64 bits permettait davantage, ce n’est pas infini 22. Le problème fondamental est que les données ont augmenté plus rapidement que les capacités de RAM. Si un détaillant souhaite planifier au niveau magasin–SKU–jour pour 2 000 magasins et 50 000 SKUs, cela représente 100 millions de séries temporelles – un cube en mémoire de cette taille (avec l’historique et les périodes futures) pourrait atteindre des dizaines de milliards de cellules, ce qui est impraticable. Une approche distribuée qui traite magasin par magasin ou partitionne intelligemment est plus scalable.
-
Concurrence vs. Batch : Le point fort de Kinaxis est la concurrence (tout est recalculé simultanément en mémoire). Cela est excellent pour une utilisation interactive, mais cela signifie que vous devez avoir l’intégralité du modèle disponible en mémoire. Les systèmes orientés batch (comme une exécution nocturne de Lokad, ou même l’approche de ToolsGroup) peuvent évoluer en divisant la tâche (par exemple, en prévoyant chaque SKU séparément, ce qui est facilement parallélisable). L’Envision de Lokad, par exemple, peut diviser les problèmes en sous-problèmes qui s’exécutent en parallèle sur le cloud – vous échangez l’interactivité en temps réel contre l’évolutivité et la puissance brute. Selon les besoins de l’entreprise, l’un ou l’autre est préférable. Mais si l’objectif est d’obtenir le meilleur plan possible, un processus batch qui passe au crible d’énormes espaces de scénarios pendant la nuit pourrait surpasser un calcul en temps réel simplifié.
Conclusion : Des solutions telles que la plateforme cloud de Lokad sont conçues pour se scaler horizontalement et gérer des volumes de big data sans se heurter à une barrière, tandis que les solutions centrées sur la mémoire (Kinaxis, o9, Relex, SAP) risquent des goulots d’étranglement en scalabilité et des coûts en spirale à mesure que la complexité des données augmente. Les entreprises qui évaluent ces solutions devraient examiner attentivement la taille de leurs données de supply chain et leur trajectoire de croissance. Il est révélateur que certaines startups plus récentes en planification « AI » évitent consciemment les monolithes en mémoire, préférant utiliser des microservices ou des frameworks big data. De plus, une mise en garde : l’optimisation des performances revient souvent à l’équipe d’implémentation – si un fournisseur requiert une agrégation massive ou une réduction des données pour adapter le modèle en mémoire, c’est un signal d’alarme en matière de scalabilité. La technologie véritablement scalable gérera des données granulaires sans vous contraindre à les simplifier.
Intégration Technologique et Acquisitions : Plateformes Unifiées vs. Franken-suites
L’historique d’un fournisseur – qu’il ait développé sa solution de manière organique ou qu’il se soit agrandi par acquisitions – affecte grandement la constance et l’intégration de la technologie. Lorsqu’une suite de planification est composée de nombreuses pièces acquises, cela aboutit souvent à ce que différents modules utilisent des bases de données, des interfaces utilisateur ou même des langages de programmation différents, rendant le produit global moins cohérent. Nous avons examiné l’historique de chaque fournisseur :
-
Blue Yonder (JDA) est l’un des exemples les plus clairs de croissance par acquisition. Au fil des années, JDA a acquis Manugistics (pour les algorithmes de planification de supply chain), i2 (bien que cet accord n’ait pas abouti en 2008), Intactix (pour la planification de l’espace de vente au détail), RedPrairie (pour la gestion des entrepôts) et la startup Blue Yonder (pour les prévisions AI/ML), entre autres. Cela signifie que la suite actuelle de Blue Yonder est un patchwork : par exemple, la planification de la demande peut reposer sur l’ancien moteur de Manugistics, le fulfillment peut être assuré par une autre solution, l’optimisation des prix provenir d’une autre acquisition, etc. L’étude de Lokad a noté que « les logiciels d’entreprise ne se mélangent pas aisément via les fusions et acquisitions… sous la bannière BY se cache une collection décousue de produits » 14. Ils tentent de les unifier sous la plateforme “Luminate” avec une interface utilisateur commune et, peut-être, une couche de données partagée dans Azure, mais au fond, il est difficile de fusionner le tout en un système homogène. Les clients n’implémentent souvent que certaines parties, et les faire interagir peut nécessiter une intégration sur mesure. Des incohérences surgissent inévitablement (par exemple, un module pourrait supporter une logique probabiliste alors qu’un autre ne le fait pas ; l’un utilise un solveur d’optimisation, un autre en utilise un différent). La pile technologique fragmentée signifie également que des pratiques contradictoires peuvent coexister dans la même suite (par exemple, une partie de BY pourrait vanter un ML avancé, tandis qu’une autre utilise encore des formules de stocks de sécurité datant de 20 ans).
-
SAP a également développé et acheté des solutions. Notamment, SAP a acquis SAF (un fournisseur de prévisions) en 2009, SmartOps (un fournisseur d’optimisation de stocks) en 2013 17, et avait auparavant développé en interne APO. Toutes ces solutions ont été intégrées dans l’offre cloud SAP Integrated Business Planning (IBP). Le résultat : SAP IBP comporte différents modules (Forecasting, Inventory, Supply) qui, bien qu’étant sous une même bannière, semblent parfois être des produits distincts. La prévision pourrait utiliser des algorithmes issus de SAF, tandis que l’optimisation de stocks exploite la logique de SmartOps. La revue par les pairs qualifie la suite SAP de « collection de produits » et avertit que la complexité est élevée, nécessitant souvent « les meilleurs intégrateurs – plus quelques années – pour réussir » 23. En d’autres termes, l’intégration est laissée à l’équipe d’implémentation et il peut s’avérer long de faire fonctionner toutes les pièces ensemble de manière homogène.
-
Kinaxis, jusqu’à récemment, était principalement basé sur une construction organique – leur produit principal RapidResponse a été développé en interne sur des décennies. Cela lui conférait une impression d’unité (un modèle de données, une interface utilisateur). Cependant, au cours des 3-4 dernières années, Kinaxis a réalisé certaines acquisitions/partenariats stratégiques pour combler des lacunes : par exemple, un partenariat avec Wahupa pour l’optimisation probabiliste de stocks 18, l’acquisition de Rubikloud pour la prévision AI, et l’acquisition de Prana (un fournisseur d’analyses supply chain) en 2021. Kinaxis intègre ces éléments via sa plateforme extensible (ils vantent une intégration « no-code » via leur interface utilisateur pour ces nouvelles capacités), mais en réalité, ce sont des moteurs séparés qui sont connectés. Par exemple, le MEIO de Wahupa pourrait fonctionner comme un service attaché à RapidResponse plutôt que comme du code natif intégré. Avec le temps, Kinaxis les fusionnera probablement de manière plus étroite, mais il existe toujours un risque qu’il devienne un add-on faiblement couplé (par exemple, vous fournissez des données de variabilité de prévision au moteur de Wahupa et obtenez en retour des niveaux de stocks de sécurité – un peu bricolé). Comparé aux fournisseurs ayant des dizaines d’acquisitions, Kinaxis reste relativement cohérent, mais il convient de surveiller qu’il ne s’engage pas sur la voie d’une franken-suite.
-
o9 Solutions est principalement développé en interne par ses fondateurs (qui étaient ex-i2). C’est une plateforme unique avec des modules développés sur la même base. o9 a réalisé très peu d’acquisitions (une acquisition mineure fut une entreprise de mise en réseau supply chain, et une acquisition récente fut une startup AI/ML appelée Processium, mais rien de majeur en algorithmes de planification à ce qu’on sache). Par conséquent, la pile technologique d’o9 est plus unifiée que celle des concurrents plus anciens – tout repose sur l’o9 Enterprise Knowledge Graph et utilise le même cadre d’interface utilisateur. C’est un atout pour la cohérence (aucune duplication de schémas de bases de données, etc.). L’inconvénient est que si une partie de leur technologie est faible, ils n’ont pas de solution facile par acquisition – ils doivent la développer. Jusqu’à présent, ils ont réussi grâce au développement interne, quoique avec les limitations que nous avons évoquées (comme des techniques de prévision peut-être banales en coulisses).
-
ToolsGroup s’est largement développé de manière organique autour de son produit SO99+. Ils n’ont pas réalisé, à notre connaissance, de grosses acquisitions d’autres fournisseurs de planification. Ainsi, leurs modules de prévision de la demande et d’optimisation et de réapprovisionnement des stocks ont été conçus ensemble. Cela donne une application cohérente, quoique quelque peu monolithique. Le défi pour ToolsGroup était de se moderniser – leur architecture et leur interface étaient datées des années 2010, mais ils ont depuis fait des efforts pour passer au cloud et mettre à jour l’interface. Néanmoins, cette cohésion est une des raisons pour lesquelles ToolsGroup est relativement simple : il réalise une seule chose (l’optimisation du taux de service) de bout en bout sans nécessiter d’intégrer d’autres outils.
-
Relex Solutions a également construit sa plateforme de A à Z spécifiquement pour le retail. Ils ont acquis quelques entreprises dans des domaines adjacents (récemment, une solution de gestion de la main-d’œuvre et une solution de planification d’espace de magasin), mais leur moteur central de prévision et de réapprovisionnement est développé en interne. Ce noyau est unifié (ce qui leur permet, par exemple, d’afficher à un utilisateur n’importe quelle métrique en temps réel, puisque toutes les données se trouvent dans la même base de données en mémoire). Les acquisitions dans de nouveaux domaines pourraient introduire quelques failles d’intégration, mais Relex est encore loin de la frénésie d’acquisitions des fournisseurs plus anciens.
Le problème clé des suites fragmentées n’est pas seulement la surcharge technique, mais aussi un désalignement fonctionnel : si un module a été conçu pour une approche (par exemple, une planification déterministe avec des stocks de sécurité) et qu’un autre module part du principe d’entrées probabilistes, ils peuvent entrer en conflit. Par exemple, un module d’optimisation de stocks issu d’une acquisition pourrait calculer des stocks de sécurité qu’un module de planification de la demande d’une autre acquisition ne sait pas gérer dans son interface utilisateur, ce qui conduit à la confusion ou à des saisies de données en double. En effet, nous avons constaté des cas où des fournisseurs promeuvent la prévision probabiliste dans leur marketing, tandis que leur module de planification des ventes & ops continue de suivre le MAPE et d’utiliser des prévisions consensuelles à une seule valeur – une contradiction interne probablement due à des lignées de produits différentes.
En revanche, un fournisseur doté d’une plateforme cohérente peut implémenter des changements (comme passer à des méthodes probabilistes) de manière plus aisée à l’échelle globale. Il est révélateur que Lokad, qui est entièrement unifié (ils ont tout construit autour de leur langage Envision et de leur backend cloud), puisse concentrer son message clairement sur l’optimisation probabiliste sans incohérence interne. De même, Anaplan (une plateforme de planification générale) est très unifiée techniquement (un moteur Hyperblock), bien qu’il manque d’algorithmes spécialisés en supply chain ; la cohérence d’Anaplan est excellente, mais sa spécialisation est limitée 24.
Ainsi, d’un point de vue technologique, les acheteurs devraient se méfier des suites nées de nombreuses fusions – il faut se demander si la partie prévision et la partie planification partagent réellement le même moteur ou modèle de données. Sinon, le résultat pourrait être des douleurs d’intégration et des sorties potentiellement contradictoires.
Crédibilité Technique : Décortiquer l’engouement AI/ML
À une époque où chaque fournisseur affirme proposer une « supply chain pilotée par l’AI » et des « prévisions basées sur le machine learning », il est essentiel d’examiner comment ils étayent ces affirmations. Nous recherchons des preuves techniques tangibles d’approches avancées – telles que des recherches évaluées par des pairs, des algorithmes propriétaires documentés, des contributions open-source, ou des performances dans des benchmarks neutres. Nous vérifions également le mauvais usage des buzzwords – appeler quelque chose AI alors qu’il ne s’agit que d’une règle if-else, par exemple. Voici comment se comportent les fournisseurs :
-
Lokad démontre une grande crédibilité technique. Il ne se contente pas d’affirmer utiliser l’AI ; il publie des contenus expliquant ses algorithmes (par exemple, une conférence détaillant comment fonctionnait leur modèle de prévision primé au M5 25). Le PDG et l’équipe de l’entreprise engagent des discussions techniques (via des blogs, conférences) sur les raisons pour lesquelles certaines approches (comme l’assemblage de prévisions par quantiles ou l’utilisation du pinball loss pour l’entraînement) sont choisies. Ils admettent ouvertement les limites des compétitions telles que le M5 et en quoi les véritables problèmes de supply chain diffèrent 26 27 – cette nuance indique un véritable état d’esprit ingénieur plutôt qu’un simple verbiage marketing. De plus, l’innovation centrale de Lokad, le langage de programmation Envision, est un artefact technique unique – ce n’est pas juste un ML générique, mais un langage spécifique conçu pour l’optimisation de la supply chain 28. C’est une pièce technologique concrète que des personnes extérieures peuvent évaluer (et certaines parties sont documentées publiquement). Lokad ne s’appuie pas sur des citations d’analystes rémunérés ; il invite plutôt à une revue par les pairs de ses méthodes. Cette transparence et cette focalisation sur la science plutôt que sur des slogans établissent une référence en matière de crédibilité.
-
Blue Yonder, en revanche, a tendance à utiliser un langage vague concernant l’AI, tel que « intégrer l’AI/ML dans notre plateforme Luminate » sans détailler les techniques ou modèles utilisés. L’étude fournisseur de Lokad signale explicitement que les affirmations AI de Blue Yonder ont « peu ou pas de substance », et les quelques artefacts disponibles suggèrent un recours aux méthodes de prévision à l’ancienne (ARMA, régression) 15. Par exemple, BY pourrait dire « nous utilisons l’AI pour détecter les changements de demande », mais si en réalité il utilise une régression linéaire sur les ventes récentes (une technique vieille de plusieurs décennies), cela revient à étirer le terme AI. La présence de projets open-source comme tsfresh (extraction de caractéristiques de séries temporelles) est en réalité un point en faveur de la transparence de BY, mais ces projets sont eux-mêmes des outils génériques bien connus, et non des percées propriétaires. L’absence de résultats publiés ou de compétitions de la part des équipes data science de BY implique en outre que leurs affirmations relèvent davantage du marketing. En bref, Blue Yonder n’a pas fourni de preuves techniques convaincantes pour justifier son branding lourd en AI – un signal d’alarme pour la crédibilité.
-
o9 Solutions suscite également la méfiance. Ils commercialisent le concept d’un Enterprise Knowledge Graph (EKG) comme élément différenciateur, sous-entendant qu’il s’agit d’une forme d’AI qui capture les relations dans les données. Bien que les bases de données graphiques soient utiles, il n’y a rien d’intrinsèquement « génial en prévision » à stocker des données sous forme de graphe – ce sont les algorithmes qui priment. L’étude de Lokad note que les affirmations de prévision d’o9 concernant le graphe sont non étayées par la littérature scientifique 29. De plus, le GitHub d’o9 (si l’on creuse un peu) n’a pas révélé d’algorithmes révolutionnaires, et leur discours sur l’AI se résume souvent à des capacités génériques (comme « analytics avancées » ou « prévision ML ») que beaucoup d’autres possèdent également. Ils utilisent des termes à la mode (« digital brain », « AI/ML », « knowledge graph ») mais sans validation externe. Jusqu’à ce que o9 publie, par exemple, un livre blanc sur la supériorité de ses modèles ML par rapport aux autres, ou qu’un cas client soit documenté avec des données rigoureuses, il est plus prudent de supposer que l’AI d’o9 relève principalement du battage – probablement des modèles ML standards (réseaux de neurones, gradient boosting, etc.) enveloppés dans un bon marketing. Nous notons également que dans la communauté supply chain, les concepts d’AI véritablement révolutionnaires (comme le deep reinforcement learning pour l’optimisation de supply chain, ou des modèles probabilistes novateurs) sont généralement discutés dans des forums académiques ou ouverts – nous n’avons pas vu o9 se présenter dans ces contextes, ce qui suggère un manque de technologie unique.
-
Kinaxis a été relativement mesuré dans son marketing – il n’abuse pas du terme « AI » à chaque phrase, ce qui est en quelque sorte positif (moins de sur-promesses). Cependant, à mesure qu’ils intègrent des partenaires AI, ils ont commencé à le mettre davantage en avant. Un signe encourageant : le billet de blog co-écrit avec le PDG de Wahupa 30 31, qui discute des méthodes probabilistes versus statistiques, montre que Kinaxis est prêt à plonger dans la science (en mentionnant la théorie des probabilités, la prise de décision en situation d’incertitude, etc.). Cela indique qu’ils s’efforcent d’ancrer leurs offres dans une méthodologie solide. Mais Kinaxis doit encore faire ses preuves quant aux résultats de ces méthodes. Par exemple, ils n’ont pas publié « notre nouvelle prévision ML a amélioré la précision de X% par rapport à notre ancienne approche » avec des détails – probablement parce qu’ils sont encore en phase d’intégration. Ainsi, la crédibilité de Kinaxis est en transition : historiquement, ils n’affirmaient pas être un leader technologique en prévision (ils ne se déformaient donc pas), et maintenant qu’ils revendiquent des analyses avancées, nous devons attendre des preuves. Le partenariat avec Wahupa montre au moins la reconnaissance qu’une expertise extérieure était nécessaire – ce qui est crédible (ils n’ont pas prétendu maîtriser la probabilistique ; ils ont fait appel à un spécialiste).
-
ToolsGroup a malheureusement sapé sa crédibilité en sautant dans le train des buzzwords AI sans les étayer. Le commentaire de l’étude indiquant que leurs affirmations AI sont « douteuses » et que les matériaux publics laissent encore entrevoir des modèles datant d’avant 2000 est révélateur 11. Cela suggère que ToolsGroup ne fait guère plus que reconditionner des fonctionnalités existantes sous le label « AI ». Par exemple, ToolsGroup pourrait promouvoir « l’AI pour la détection de la demande » – et, après enquête, il s’avérerait qu’il s’agit simplement d’une règle qui accorde plus de poids aux ventes récentes (ce qui n’est pas de l’AI, mais juste un ajustement algorithmique). Sans détails publiés, il est difficile de leur accorder le bénéfice du doute. Leur crédibilité était plus forte au début des années 2000 lorsqu’ils étaient véritablement en avance avec des modèles probabilistes d’optimisation de stocks ; aujourd’hui, elle souffre d’une possible stagnation.
-
SAS (que nous n’avons pas classé en tête mais qui fait partie du groupe) est un cas où la crédibilité technique est globalement élevée (SAS a une longue histoire en statistique), mais l’inconvénient est que leur technologie de base est ancienne. Les méthodes de prévision de SAS sont bien documentées (ils ont littéralement écrit le manuel sur de nombreuses méthodes statistiques), mais cela signifie également qu’ils n’intègrent peut-être pas les techniques de machine learning les plus récentes, sauf si l’on réalise un travail sur mesure dans SAS. L’étude de Lokad reconnaît SAS comme un pionnier, bien qu’il soit désormais supplanté par des outils open-source comme les notebooks Python 32. SAS ne fait généralement pas de survente – ils comptent sur leur réputation – mais en tant que solution supply chain, ils sont moins souvent utilisés prêts à l’emploi (une entreprise utilise plus fréquemment SAS pour construire une solution sur mesure).
-
Observation générale : Un moyen rapide de tester la sincérité technique d’un fournisseur est de voir s’il reconnaît parfois des limites ou des cas d’usage appropriés de sa technologie. Les fournisseurs fortement axés sur le marketing prétendront que leur AI résout tout. Ceux dotés d’une véritable technologie diront « voici ce qu’elle fait et voici où elle pourrait être moins performante ». Par exemple, Lokad discute fréquemment de la façon dont certains modèles ne fonctionnent pas pour certains types de demande (comme pourquoi certaines approches échouent pour la demande intermittente, etc.), faisant preuve d’une honnêteté intellectuelle 27 33. Nous trouvons peu de fournisseurs, mis à part Lokad, prêts à avoir cette conversation publique nuancée. La plupart se contentent de généralités embellies, ce qui devrait inciter un client avisé à la prudence.
En conclusion, les preuves tangibles de la force technique – telles que les classements en compétition, des blogs techniques détaillés, ou même des discussions au sein de la communauté des utilisateurs – se font rares chez de nombreux fournisseurs de renom. Lokad est en tête en fournissant des preuves (victoire au M5, explications ouvertes). D’autres, comme Blue Yonder et o9, présentent du battage mêlé à des indices d’une technologie dépassée, ce qui remet en question leur prétendue « révolution AI » 16. Un acheteur potentiel devrait exiger que les fournisseurs expliquent en termes concrets comment fonctionnent leurs algorithmes et pourquoi ils sont supérieurs – et se méfier si la réponse se résume à un mélange de buzzwords. La véritable valeur de l’AI/ML dans la supply chain doit être démontrable (par exemple, « nous utilisons des gradient boosted trees pour capturer les facteurs non linéaires de la demande tels que la météo et avons prouvé une amélioration de 5% par rapport à la référence sur 1000 SKUs » – une telle affirmation est plus convaincante que « notre AI trouve des schémas cachés dans vos données »).
Cohérence & Contradictions dans les approches des fournisseurs
Avertissement d’innovation superficielle, un signe révélateur est lorsque le message ou la méthodologie d’un fournisseur contient des incohérences internes. Nous avons recherché de telles contradictions – par exemple, prôner l’incertitude tout en mesurant le succès avec des métriques déterministes, ou prétendre éliminer les anciennes pratiques tout en continuant à les utiliser en coulisses. Quelques constatations notables :
-
Métriques Probabilistes vs Déterministes: Comme mentionné, ToolsGroup en est coupable – il fait la promotion d’une capacité de prévision probabiliste tout en exhibant des résultats en termes de réduction du MAPE (Mean Absolute Percentage Error) 13. Le MAPE est une métrique d’erreur de prévision ponctuelle ; si vous faites réellement de la prévision probabiliste, vous aborderiez la calibration, la log-vraisemblance probabiliste, le pinball loss (pour les quantiles), ou au moins le taux de service atteint. En s’accrochant au MAPE, ToolsGroup contredit en essence son discours probabiliste. Cette incohérence suggère soit que leur production « probabiliste » n’est qu’une prévision déterministe transformée, soit qu’il s’agit d’un rebranding marketing qui n’est pas véritablement adopté par leur R&D.
-
Battage médiatique autour du Demand Sensing: De nombreux fournisseurs utilisent le terme “demand sensing” pour laisser entendre qu’ils disposent d’une prévision à court terme spéciale qui capture les dernières tendances (comme l’utilisation de ventes très récentes ou de signaux externes). ToolsGroup, SAP, et GAINSystems ont tous utilisé ce terme. L’étude souligne que ces affirmations de “demand sensing” sont souvent du “vaporware” non étayé par la littérature 34. Si un fournisseur affirme “notre IA détecte les changements de demande 3 mois à l’avance,” mais n’arrive pas à expliquer comment (et qu’aucune recherche évaluée par des pairs ne soutient que cela est même possible de manière fiable), c’est un signal d’alarme. Une incohérence apparaît lorsque le même fournisseur utilise toujours un modèle de séries temporelles basique en arrière-plan. Essentiellement, ils prennent une prévision par lissage exponentiel standard, ajoutent ensuite un ajustement basé sur la semaine précédente et appellent cela “sensing.” La contradiction : présenter un léger ajustement comme une percée.
-
Utilisation d’indicateurs déterministes: Observez si les études de cas ou l’interface d’un fournisseur tournent encore autour d’indicateurs déterministes comme le MAPE, le biais, ou le signal de suivi, même s’il prétend être centré sur l’IA/ML. Par exemple, si un fournisseur vante le machine learning mais que sa démo montre des planificateurs travaillant à améliorer le MAPE de prévision ou utilisant la segmentation ABC pour fixer les stocks de sécurité, c’est incohérent. Une véritable planification probabiliste pilotée par le ML mettrait l’accent sur des mesures telles que le coût attendu, la probabilité de rupture de stock, ou d’autres mesures stochastiques – et non sur le MAPE traditionnel ou les classifications ABC (qui supposent une catégorisation de la demande prévisible et statique). Nous avons observé ce genre de double personnalité dans certains manuels d’utilisation de grands fournisseurs : un chapitre traite du nouveau module d’IA, mais un autre chapitre demande encore à l’utilisateur de régler les paramètres ARIMA ou les règles de stock de sécurité.
-
Philosophie des stocks de sécurité: Une contradiction philosophique importante réside dans le fait que certains fournisseurs parlent de gestion de l’incertitude tout en centrant leur processus sur le “stock de sécurité.” Le concept de stock de sécurité est fondé sur une prévision déterministe + une marge tampon. Dans un cadre entièrement probabiliste, on calculerait plutôt un niveau de stock optimal directement à partir de la distribution de la demande et des objectifs de service (ce qui fusionne en une seule décision la base et le stock de sécurité). Si un fournisseur dit “nous optimisons les stocks avec l’IA,” demandez-vous s’il oblige encore l’utilisateur à saisir le “taux de service souhaité” pour calculer le stock de sécurité en utilisant des hypothèses de distribution normale. Si c’est le cas, ils ne sont pas réellement passés à autre chose – ils ne font que réemballer l’ancienne méthode de calcul du stock de sécurité dans un nouveau langage. Par exemple, l’optimisation des stocks de Blue Yonder (historiquement) calculait le stock de sécurité en fonction de la variance et des objectifs de service – ce n’est pas fondamentalement de l’optimisation probabiliste ; c’est l’application d’une formule. Des fournisseurs comme Lokad rejettent explicitement le terme “stock de sécurité” comme étant obsolète, car dans une véritable optimisation stochastique, vous traitez tout le stock comme servant la distribution de probabilité de la demande, et non une portion désignée “sécurité.” Ainsi, si un fournisseur fait la promotion d’une “planification next-gen” mais que son guide de solution vous fait maintenir des paramètres de stock de sécurité, c’est un problème de cohérence.
-
Magie de l’IA vs. contrôle utilisateur: Certains fournisseurs affirment simultanément “notre IA pilotera de manière autonome votre supply chain” et “nous offrons aux utilisateurs un contrôle total et une visibilité complète sur le processus de planification.” Il faut trouver un équilibre, mais des affirmations trop larges peuvent être contradictoires. Si l’IA est vraiment autonome, l’utilisateur ne devrait pas avoir à la surveiller constamment ; si l’utilisateur doit constamment ajuster, alors elle n’est pas réellement autonome. Le marketing veut souvent promettre les deux (“pilote automatique ET intervention manuelle !”) mais en réalité, une solution tend à pencher d’un côté ou de l’autre. Sans cibler un fournisseur en particulier, nous avons néanmoins remarqué des promesses génériques d’automatisation totale accompagnées de captures d’écran montrant des dizaines de paramètres de planification que les utilisateurs doivent configurer – un message un peu confus.
Dans nos recherches, un exemple clair de prise en compte des contradictions est la manière dont Lokad se positionne par rapport au courant dominant. Lokad critique explicitement des mesures telles que le MAPE et des concepts comme le stock de sécurité dans son contenu pédagogique, alignant ainsi sa méthodologie (en utilisant des métriques probabilistes et en calculant directement les décisions) 13 33. En revanche, des fournisseurs comme GAINSystems prétendent être orientés vers l’optimisation tout en mettant en avant des éléments tels que le demand sensing et des algorithmes de matching issus d’époques antérieures 34 – chevauchant ainsi deux chevaux. John Galt Solutions prétend qu’un algorithme de prévision propriétaire dépasse tous les autres, pourtant il est absent des classements indépendants et probablement pas meilleur que l’open-source selon la revue par les pairs 20, ce qui constitue une contradiction entre l’affirmation et les preuves.
Pour résumer, lors de l’évaluation des fournisseurs, il est important de vérifier la cohérence interne : est-ce qu’ils pratiquent ce qu’ils prêchent ? Si un fournisseur parle grandement d’incertitude et d’optimisation, ses documents ne devraient pas simultanément glorifier des métriques déterministes ou des méthodes simplistes. Les incohérences indiquent souvent que le “nouveau paradigme” n’est qu’apparence.
Pratiques Obsolètes : Signaux d’alerte d’une planification dépassée
La planification de la supply chain a évolué, et certaines pratiques autrefois standard sont désormais considérées comme dépassées ou sous-optimales compte tenu des capacités modernes. Identifier si un fournisseur s’appuie encore sur de telles pratiques peut être révélateur. Voici quelques pratiques obsolètes (ou du moins « old school ») et la manière dont les fournisseurs se positionnent :
-
Le stock de sécurité comme béquille: Comme discuté, traiter le stock de sécurité comme un coussin séparé ajouté à une prévision est une approche ancienne. Ce n’est pas que le stock de sécurité est “mauvais” – on a toujours besoin d’une marge pour la variabilité – mais les méthodes modernes intègrent directement la variabilité. Si la méthode centrale d’un fournisseur est “prévoir à l’aide du lissage, puis calculer le stock de sécurité = z-score * sigma * racine carrée du délai”, cela relève d’une théorie des années 1960 encore en vigueur. Slimstock’s Slim4, par exemple, utilise fièrement de telles formules grand public (stock de sécurité, EOQ) et l’affirme ouvertement 35. Slimstock est d’ailleurs reconnu pour son honnêteté : il se concentre sur des “praticités banales mais essentielles” plutôt que de prétendre utiliser l’IA 36. Mais du point de vue du leadership technologique, ces pratiques sont dépassées. Lokad et Wahupa (le partenaire de Kinaxis) plaideraient pour un passage au calcul direct des points/quantités de réapprovisionnement optimaux à partir de modèles probabilistes, éliminant la séparation artificielle entre “stock cyclique” et “stock de sécurité.” De nombreux outils hérités (SAP, Oracle, anciens JDA) s’appuient encore sur des paramètres de stock de sécurité partout. C’est un signal d’alerte indiquant que leurs mathématiques sous-jacentes n’ont pas beaucoup évolué. Un système véritablement basé sur l’optimisation vous permettrait de saisir le coût du stock contre le coût de la rupture, puis de résoudre la politique – sans jamais appeler explicitement quoi que ce soit “stock de sécurité,” se contentant de fournir un niveau de stock optimal par article.
-
MAPE et métriques déterministes: Se concentrer sur le MAPE, le biais, etc., comme principal indicateur de succès peut être considéré comme démodé, car ces métriques ne corrèlent pas directement aux résultats commerciaux (vous pouvez avoir un MAPE faible mais un faible taux de service, par exemple) et elles ignorent l’incertitude. Les approches plus récentes privilégient des métriques comme la pinball loss (quantile loss) pour les prévisions ou des métriques de coût attendu pour les plans. Si le critère de succès d’un fournisseur dans les études de cas est “nous avons amélioré la précision de prévision de 70% à 80% MAPE,” il semble quelque peu coincé dans le passé. L’accent mis par John Galt sur les affirmations de précision de prévision s’inscrit dans cette logique (et a été remis en question par des pairs) 20. Une approche moderne serait “nous avons réduit les ruptures de stock de X% ou les stocks de Y% pour le même taux de service” – c’est basé sur les résultats, pas seulement sur le MAPE.
-
Segmentation heuristique (ABC, XYZ): Les processus de planification plus anciens segmentent souvent les articles selon le volume (ABC) ou la variabilité (XYZ) et appliquent différents paramètres de planification à chaque groupe. Il s’agit d’une heuristique pour faire face à une puissance de calcul limitée ou à des modèles simplistes – traiter les articles de catégorie A avec une approche (peut-être plus manuelle) et ceux de catégorie C avec une autre (peut-être des règles min-max). Bien que la segmentation puisse encore être utile, elle devient quelque peu obsolète si vous disposez de la puissance de calcul nécessaire pour optimiser chaque SKU individuellement et en continu. Un système qui met fortement l’accent sur une classification ABC manuelle ou qui exige que vous classifiiez la demande comme “lumpy vs smooth” etc., pourrait utiliser cela comme béquille pour compenser l’absence d’algorithmes capables de gérer automatiquement de façon robuste différents schémas de demande. De nombreux systèmes hérités (et même certains plus récents) font encore cela. Idéalement, un système piloté par l’IA apprendrait automatiquement le schéma par SKU sans qu’un humain ait besoin de le catégoriser.
-
Ajustements manuels des prévisions de façon routinière: La planification de la demande traditionnelle s’attend à ce que les utilisateurs modifient régulièrement les prévisions statistiques en se basant sur leur jugement (intelligence marketing, etc.). Bien que l’apport humain soit précieux, si la précision d’un système est si faible que les planificateurs doivent revoir de nombreuses prévisions à chaque cycle, ce système est essentiellement une approche héritée. Les systèmes modernes visent à minimiser ces ajustements en intégrant davantage de données (de sorte que le modèle soit déjà au courant, par exemple, qu’une promotion est en cours chez le marketing). Un fournisseur qui met encore en avant la facilité avec laquelle les utilisateurs peuvent ajuster manuellement les prévisions pourrait indiquer que leur algorithme ne peut pas être fiable dès la sortie de la boîte. La tendance est à des ajustements basés sur les exceptions uniquement.
-
Dépendance aux tableurs: Si vous constatez que la solution d’un fournisseur incite souvent les utilisateurs à exporter les données vers Excel pour une analyse finale ou utilise Excel comme interface (certains outils destinés au marché intermédiaire le font), c’est un signe d’une solution immature. Les outils de pointe fournissent toutes les analyses et le support décisionnel nécessaires au sein de la plateforme. (Anaplan est intéressant ici : c’est essentiellement un tableur cloud dopé, ce qui, d’une certaine manière, adopte le paradigme du tableur mais dans un environnement contrôlé et multi-utilisateurs – c’est à la fois moderne et old-school).
D’après les données recueillies : Slimstock utilise intentionnellement des méthodes anciennes mais éprouvées (stock de sécurité, EOQ) 35 – ils sont transparents, ce qui est louable, mais ces méthodes sont sans doute obsolètes face à l’optimisation probabiliste. GAINSystems (un fournisseur moins connu mais de longue date) semble également s’en tenir aux modèles de prévision classiques et même ses fonctionnalités ML vantées (comme le “matching and clustering”) sont des techniques pré-2000 34, ce qui suggère qu’il n’y a pas grand-chose de nouveau sous le capot. La revue de Lokad sur GAINSystems qualifie explicitement ces méthodes de vaporware, indiquant qu’ils considèrent ces méthodes comme dépassées ou inefficaces en pratique 34.
Blue Yonder et SAP perpétuent un lourd héritage – par exemple, la configuration par défaut de SAP dans de nombreuses implémentations consiste encore à utiliser l’ABC pour définir différents niveaux de stock de sécurité ou à recourir à des prévisions basées sur la moyenne mobile simple pour les faibles valeurs. Si leur nouveau “IBP with machine learning” ne réforme pas ces fondamentaux, alors c’est en gros du vin vieux dans une nouvelle bouteille.
La présence de métriques contradictoires (comme parler d’innovation tout en utilisant le MAPE) a déjà été citée comme incohérence, mais c’est également la preuve d’une attache aux anciennes métriques.
En conclusion, si une entreprise recherche la solution la plus avancée, elle devrait se méfier de tout fournisseur dont la solution tourne encore autour des paramètres de stock de sécurité, des règles de segmentation ABC, et de l’exactitude des prévisions en % comme principal KPI. Ce sont des signes que la solution est ancrée dans les pratiques du siècle dernier. Au contraire, recherchez des fournisseurs qui mettent l’accent sur les taux de service, les coûts, et les probabilités – le langage de la science moderne de la supply chain.
Prévision axée sur la décision : Des prédictions aux actions
Enfin, nous évaluons si chaque fournisseur se contente de produire des prévisions ou s’il aide réellement les utilisateurs à prendre des décisions optimisées basées sur ces prévisions. L’objectif final dans la supply chain n’est pas d’obtenir une belle prévision – il s’agit de prendre les bonnes actions (passer commande, constituer des stocks, programmer) pour maximiser le service et minimiser les coûts. Nous qualifions une solution de “decision-oriented” si elle génère directement des recommandations telles que des quantités de commande, des plans de production ou des cibles de stocks et si ces résultats sont optimisés compte tenu de la prévision et des contraintes/coûts pertinents. Voici comment se comparent les fournisseurs :
-
Lokad est extrêmement axé sur la décision. En fait, ils minimisent souvent l’importance de la prévision elle-même, affirmant que ce qui compte, c’est la décision (une philosophie implicite selon laquelle “la prévision n’est bonne que si elle conduit à une bonne décision”). Avec Lokad’s Envision, on ne s’arrête pas à prévoir la demande ; le workflow typique de Lokad va calculer, par exemple, le profit ou la pénalité attendus pour diverses décisions candidates (comme passer commande de 100 unités contre 200 unités) dans le cadre de la prévision probabiliste, puis choisir la décision qui maximise le résultat attendu. Le résultat présenté à l’utilisateur n’est pas “la demande sera de 120” mais plutôt “commandez 130 unités” (par exemple), accompagné de la justification (par exemple, cette quantité équilibre le risque de rupture de stock vs surstock compte tenu de la distribution de la prévision et de vos paramètres de coût). Il s’agit d’une véritable analyse prescriptive ou axée sur la décision. Lokad s’assure ainsi que la prévision alimente directement l’exécution. Elle prend même en compte les contraintes (comme les MOQs, la durée de conservation, les limites budgétaires) dans l’optimisation. Donc, Lokad répond clairement au critère qui est de transformer les prédictions en actions.
-
ToolsGroup est également orienté vers la décision, spécifiquement pour les décisions concernant les stocks et le réapprovisionnement. Son outil SO99+ ne se contente pas de prévoir ; il recommande des niveaux de stock et des points de commande permettant d’atteindre les objectifs de taux de service. En pratique, une implémentation de ToolsGroup affichera pour chaque SKU : “vous devriez conserver X unités de stock de sécurité et reconstituer lorsque les stocks tombent à Y, ce qui implique une commande de Z unités maintenant.” Cela constitue une décision (la quantité de réapprovisionnement) dérivée de la prévision. Ainsi, ToolsGroup a toujours été axé sur un résultat prescriptif, et non simplement prévisionnel. La limite réside dans le type de décision : il s’agit principalement de politiques de stocks (ils disposent de quelques optimisations de la planification de la production, mais leur forté est la distribution). De plus, les recommandations de ToolsGroup ne sont aussi bonnes que la modélisation de l’incertitude de la prévision (ce que nous avons critiqué). Mais il faut reconnaître que : ToolsGroup ne s’attend pas à ce que l’utilisateur prenne une prévision pour décider manuellement une commande ; il automatise ce calcul.
-
Blue Yonder et d’autres suites legacy séparent souvent la prévision des modules de planification. Par exemple, BY Demand fournit une prévision, puis BY Supply (ou Fulfillment) prend cette prévision et calcule des plans. Dans une mise en œuvre intégrée, oui, le résultat final est une recommandation décisionnelle (comme un planning directeur ou un plan de déploiement). Blue Yonder propose en effet des modules complets d’optimisation de planification – par exemple, leur module Fulfillment recommandera comment réapprovisionner les DCs depuis un entrepôt central (il s’agit en effet d’un moteur DRP qui utilise la prévision et les données disponibles pour créer des ordres planifiés). Leur module Production planning peut créer une séquence ou un planning de production optimisé. Ainsi, BY en tant que suite couvre les décisions, mais le degré d’optimalité ou d’intégration de ces décisions dépend de la mise en œuvre et du réglage de toutes les pièces. Historiquement, une critique était que la sortie d’un module n’était pas toujours optimale pour le suivant (par exemple, si la prévision ne prend pas en compte les contraintes que la planification de l’approvisionnement rencontrera, on obtient des plans non réalisables). Une véritable approche orientée décision considérerait ces contraintes lors de la prévision ou dans une optimisation unifiée. Le nouveau message de Blue Yonder d’« autonomous supply chain » implique qu’ils veulent boucler la boucle (de la prévision à la décision automatiquement), mais compte tenu du mélange technologique, il n’est pas clair à quel point cela est fluide.
-
Kinaxis est très orienté vers la décision et les résultats dans la mesure où son objectif principal est de générer des plans exploitables (plans d’approvisionnement, projections de stocks, etc.) rapidement. L’utilisateur travaille généralement avec ces plans et peut confirmer ou ajuster les décisions (comme accélérer une commande ou réallouer l’approvisionnement). Avec la nouvelle fonctionnalité MEIO de Kinaxis, il optimise désormais explicitement un ensemble de décisions : les buffers de stocks (c’est-à-dire, Kinaxis peut désormais recommander des niveaux de stock de sécurité en équilibrant la trésorerie vs taux de service 37). Auparavant, Kinaxis vous permettait de simuler différents stocks de sécurité et d’en observer les résultats, sans nécessairement indiquer le meilleur ; avec le MEIO probabiliste, il essaie de trouver mathématiquement le meilleur. Pour d’autres domaines (comme la planification de la production et de la distribution), Kinaxis utilise des heuristiques ou une optimisation en arrière-plan (il dispose de quelques solveurs d’optimisation pour l’ordonnancement et l’allocation) – mais une grande partie de la puissance de Kinaxis réside dans la simulation plutôt que dans une optimisation stricte. Autrement dit, il peut simuler le résultat d’une décision d’utilisateur extrêmement rapidement, tout en laissant souvent le choix du scénario à privilégier à l’humain. En résumé, Kinaxis produit un ensemble complet d’actions recommandées (comme des ordres planifiés, des reprogrammations) en quasi temps réel – assurément un support à la décision – mais il ne choisit pas toujours automatiquement le plan « optimal » sans intervention humaine, sauf dans certaines fonctionnalités telles que le MEIO ou lorsque le plan est évident (par exemple, il propagera de manière déterministe la demande aux exigences d’approvisionnement).
-
o9 Solutions est également conçu pour produire des plans (qui sont des ensembles de décisions) couvrant la demande, l’approvisionnement, les stocks, etc. o9 dispose de moteurs d’optimisation pour certains problèmes – par exemple, la planification de l’approvisionnement avec la programmation linéaire pour minimiser les coûts ou maximiser le profit compte tenu des contraintes. Cela fait partie de leur concept de « digital brain » selon lequel il déterminera une allocation optimale des ressources. Cependant, tous les clients d’o9 ne l’utilisent pas de manière optimisée ; certains pourraient simplement utiliser sa platforme pour réaliser une planification collaborative (qui pourrait être essentiellement des décisions manuelles mais avec une meilleure visibilité des données). La question est : o9 supporte-t-il nativement l’optimisation décisionnelle probabiliste ? Probablement pas de manière forte ; il pourrait effectuer une analyse de scénarios (« si nous produisons 10 % en plus, quel est le résultat ? ») mais pas nécessairement calculer une valeur espérée sur les scénarios. Ainsi, orienté décision oui (il vous fournit des plans supply chain recommandés), mais optimal en incertitude, ce n’est pas clairement le cas.
-
Relex Solutions, axé sur le retail, a pour principal résultat des ordres de magasin ou de DC et des objectifs de stocks. Relex réalise un bon travail en produisant directement ces décisions (il fonctionne essentiellement comme un système de réapprovisionnement automatisé compte tenu de la prévision et des paramètres). Il peut également optimiser des éléments tels que l’allocation de l’espace rayonnage vs stocks (grâce à sa nouvelle approche de planification unifiée et de planification de l’espace), ce qui constitue un compromis décisionnel unique au retail (par exemple, si l’espace est limité, comment équilibrer stocks vs assortiment). Les décisions de Relex sont principalement guidées par des règles définies par l’utilisateur (comme les objectifs de taux de service ou les jours de stocks), mais le système effectue les calculs nécessaires pour produire les commandes réelles qui respectent ces règles. Il est assurément orienté décision (il ne se contente pas de dire « la prévision de cette semaine est de 100 unités » – il indique au détaillant de commander 50 unités supplémentaires dès maintenant parce que le stock actuel est de 50, que la prévision est de 100 et que le délai de livraison est tel ou tel, etc.). Le cas échéant, Relex pourrait pencher du côté du trop tactique (il réapprovisionnera efficacement, mais peut-être sans prendre en compte les implications à long terme du réseau – chaque nœud est optimisé localement pour son taux de service).
Pour résumer, la prévision orientée décision est ce qui différencie un simple outil d’analyse d’une véritable solution d’optimisation de la supply chain. Tous les fournisseurs de premier rang visent au moins à fournir des résultats décisionnels, et pas seulement des prévisions : c’est pourquoi nous les avons considérés dans le champ d’étude (le cahier des charges de l’étude précisait même que nous excluions les outils purement transactionnels ou de prévision pure qui n’optimisent pas les décisions). Le degré d’optimalité et d’intégration de l’incertitude dans ces décisions, cependant, varie :
- Lokad et ToolsGroup lient explicitement les prévisions aux décisions en utilisant des objectifs de coût/taux de service (Lokad via ses scripts personnalisés optimisant le coût attendu, ToolsGroup via des objectifs de taux de service produisant des décisions de stocks).
- Kinaxis et o9 génèrent des plans complets et permettent d’explorer les décisions, Kinaxis ajoutant récemment une optimisation plus formelle (optimisation de stocks, etc.).
- Blue Yonder dispose de modules d’optimisation séparés qui peuvent produire des décisions (si utilisés pleinement, on obtient un plan pour tout – mais les aligner demande du travail).
- Relex automatise très bien un ensemble spécifique de décisions (réapprovisionnement), moins d’autres (comme la planification de la capacité à long terme).
Lors de l’évaluation des solutions, les entreprises devraient insister sur ce point : « Après que votre système a effectué une prévision, quelles décisions recommanderait-il, et comment s’assure-t-il que ce sont les meilleures décisions ? » Si un fournisseur ne peut répondre clairement, ou si cela laisse entendre que l’utilisateur devra interpréter les prévisions manuellement, ce fournisseur n’est probablement pas véritablement axé sur l’optimisation. Cette question permet, par exemple, de déterminer si une prévision sophistiquée basée sur le ML se traduira réellement par une réduction des stocks ou si ce ne sera qu’un joli chiffre sur un graphique.
Conclusion
Dans cette étude comparative, nous avons classé et analysé les principaux fournisseurs de logiciels de planification et de prévision de supply chain à travers une lentille technique, en privilégiant les capacités réelles plutôt que les promesses marketing. L’évaluation a mis en évidence que le leadership technologique dans ce domaine nécessite : une prévision avancée (de préférence probabiliste) étayée par des preuves, une architecture évolutive et moderne, un haut degré d’automatisation, une pile technologique unifiée et bien conçue, et surtout, un accent sur la prise de décision prescriptive plutôt que sur une simple analyse prédictive.
Lokad s’est imposé comme un leader majeur grâce à son travail pionnier en prévision probabiliste et à son accent radical sur l’optimisation décisionnelle – des attributs validés par des benchmarks externes (comme la victoire au concours M5) et une communication technique transparente 3 2. Il illustre comment le scepticisme envers les approches conventionnelles (par exemple, remettre en question la valeur de métriques comme le MAPE ou des concepts tels que le stock de sécurité) peut mener à une solution plus robuste, alignée avec une économie saine 13 33.
D’autres fournisseurs tels que Kinaxis et o9 Solutions investissent massivement dans l’IA/ML et ont construit des plateformes remarquablement larges, mais ils doivent encore convaincre le marché que leur « AI » va bien au-delà d’une superficialité et que leurs architectures évolueront sans coûts exorbitants 4. Des acteurs de longue date tels que Blue Yonder (JDA) et SAP possèdent une grande expérience et un riche ensemble de fonctionnalités dans le domaine de la supply chain, pourtant leur héritage (systèmes fragmentés issus de nombreuses acquisitions et algorithmes datés) transparaît, entraînant des contradictions et une progression plus lente en matière d’innovation technologique 14 17. Des spécialistes de niche comme ToolsGroup et Relex offrent des solutions puissantes dans leurs domaines (l’optimisation de stocks et le réapprovisionnement retail, respectivement), mais chacun présente des limites – ToolsGroup doit étayer ses affirmations en matière d’IA avec une technologie plus récente 11, et l’approche in-memory de Relex pourrait faiblir en dehors de son domaine d’excellence 7.
Un schéma clair ressort de l’analyse : les fournisseurs qui fournissent ouvertement des détails techniques et des résultats inspirent plus de confiance que ceux qui se fient aux mots à la mode. Dans un domaine saturé de battage médiatique, il est crucial pour les décideurs d’exiger des preuves tangibles et de la cohérence. Par exemple, si un fournisseur prétend utiliser le machine learning, demandez à voir l’exactitude ou l’impact sur les coûts avant et après. Si la prévision probabiliste est mise en avant, demandez une preuve de la manière dont elle est mesurée et utilisée dans la planification (et soyez méfiant si la réponse est embrouillée avec des métriques déterministes).
De plus, à mesure que la complexité de la supply chain augmente, l’évolutivité et l’automatisation ne sont pas de simples atouts – elles sont essentielles. Les solutions encore figées dans des pratiques manuelles de l’ère Excel ou celles qui ne peuvent pas gérer le big data sans matériel surdimensionné ne serviront pas les entreprises à long terme. Le scepticisme de l’étude envers les architectures in-memory universelles se confirme par les données – des approches plus distribuées et cloud-native montrent des avantages tant en termes de coût que de capacité.
Enfin, le benchmark ultime pour tout logiciel d’optimisation de la supply chain réside dans les résultats qu’il génère : des coûts de stocks réduits, des taux de service plus élevés, une réactivité accrue et des flux de travail des planificateurs plus efficaces. Pour y parvenir, il faut plus que des maths astucieuses – il faut intégrer ces mathématiques dans un processus décisionnel cohérent et automatisé, en phase avec la réalité de l’entreprise. Les meilleurs fournisseurs sont ceux qui bouclent la boucle entre prévision -> optimisation -> décision -> résultat de manière transparente et scientifiquement rigoureuse. Ceux qui s’accrochent à des boucles défaillantes (prévision isolée, ou règles décisionnelles déconnectées de l’incertitude) se font dépasser.
En conclusion, les entreprises qui évaluent des solutions de planification de supply chain devraient examiner chaque candidat avec un regard technique pointu. Foncez à travers les brochures attrayantes et posez les questions difficiles que nous avons abordées : Le fournisseur fournit-il des prévisions probabilistes ou simplement des chiffres uniques ? Son système peut-il fonctionner de manière autonome, et a-t-il fait ses preuves à grande échelle ? La technologie est-elle unifiée ou un amalgame de vieilles pièces ? Expliquent-ils leur « AI » dans des termes compréhensibles et factuels ? En insistant sur ce niveau de rigueur, il est possible d’identifier de véritables leaders technologiques en optimisation de la supply chain – ceux capables de livrer des décisions supérieures et non simplement de jolis tableaux de bord. Les classements et analyses présentés ici servent de point de départ, identifiant Lokad, Kinaxis, o9, Relex, ToolsGroup et Blue Yonder (entre autres) comme acteurs clés, chacun avec ses forces et ses limites. La responsabilité incombe aux fournisseurs de substancier leurs affirmations et aux utilisateurs de rester sains d’esprit critique et fondés sur des preuves lors du choix du cerveau qui pilotera leur supply chain.
Footnotes
-
Market Study, Supply Chain Optimization Vendors ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
Kinaxis and Wahupa Partner to Help Companies Navigate Inventory … ↩︎ ↩︎
-
Planning under uncertainty: Statistical vs. probabilistic approaches and what each offers to your business | Kinaxis Blog ↩︎
-
Historique de l’in-memory computing et de la planification de la supply chain - Kinaxis ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
No1 au niveau SKU dans la compétition de prévision M5 - Cours 5.0 ↩︎
-
No1 au niveau SKU dans la compétition de prévision M5 - Cours 5.0 ↩︎
-
No1 au niveau SKU dans la compétition de prévision M5 - Cours 5.0 ↩︎ ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
Planification en situation d’incertitude: approches statistiques vs. probabilistes et ce que chacune offre à votre entreprise | Kinaxis Blog ↩︎
-
Planification en situation d’incertitude: approches statistiques vs. probabilistes et ce que chacune offre à votre entreprise | Kinaxis Blog ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
Sur la connaissance, le temps et le travail pour les supply chains - Cours 1.7 ↩︎ ↩︎ ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎ ↩︎ ↩︎ ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎ ↩︎
-
Étude de marché, fournisseurs d’optimization de la supply chain ↩︎
-
Kinaxis & Wahupa s’associent pour aider les entreprises à naviguer dans les stocks … ↩︎