00:00:00 Intro; Bamboo Rose et le périmètre PLM retail
00:02:21 Problèmes du PLM retail : cycle de vie, coordination et échelle
00:04:15 Profondeur aérospatiale vs assortiments massifs mais superficiels du retail
00:09:45 Des silos aux processus adaptatifs à contexte partagé
00:12:56 La classification tarifaire en zero-shot remplace la charge de travail manuelle
00:16:42 GenAI traite des documents PLM non structurés à grande échelle
00:21:38 Les LLM orchestrent ; émergence d’écosystèmes agent-à-agent
00:24:26 Pragmatiques du partage des données ; minimiser les responsabilités en matière de PII
00:28:53 Les couches de logique/UI s’amincissent ; les données et métadonnées se centralisent
00:34:23 L’automatisation fait s’effondrer les workflows issus de la division du travail
00:37:48 Configurer les réseaux d’agents : objectifs, contraintes, permissions
00:44:30 Vers des collections générées automatiquement et des échanges avec les fournisseurs
00:49:55 Impact de l’IA : défendre, étendre, ajouter
00:55:04 L’optimisation quantitative décide ; les LLM gèrent les documents et les communications
00:59:08 Avantages : rapidité, précision ; l’automatisation du back-office accélère
Résumé
Rupert Schiessl (Chief AI Officer de Bamboo Rose) rejoint Joannes Vermorel (CEO) de Lokad et Conor Doherty (Directeur Marketing) pour une discussion sur la manière dont l’IA générative transforme la gestion du cycle de vie produit (PLM). Schiessl explique les modules classiques en silos du PLM retail (de la planification à la distribution) et soutient que les systèmes AI/agentiques peuvent dissoudre les silos, adapter dynamiquement les processus, et automatiser les tâches textuelles, lourdes et non structurées (p. ex. la classification tarifaire, la création de tech-packs). Vermorel oppose le PLM profond, s’étalant sur des décennies (p. ex. l’aérospatial) aux assortiments massifs mais superficiels du retail, notant que les LLM excellent dans l’orchestration, la génération de documents, et les workflows pré et post-décisionnels, tandis que l’optimisation quantitative gère encore la tarification et l’assortiment. Tous deux prévoient un amincissement des couches de logique/UI à mesure que les données et les métadonnées deviennent centrales, avec l’émergence d’écosystèmes agent-à-agent et une automatisation de larges pans du back-office.
Résumé Étendu
Conor Doherty (Directeur Marketing de Lokad) encadre la conversation autour du « repenser le PLM à l’ère de l’IA », en demandant à Rupert Schiessl, Chief Strategy & AI Officer de Bamboo Rose, de définir le PLM dans le retail et comment l’IA le transforme. Schiessl décrit le PLM comme la coordination du parcours produit — de l’idéation et la conception jusqu’à l’approvisionnement et la distribution — sur des milliers à des centaines de milliers d’articles et de nombreux rôles (designers, développeurs, analystes sourcing, supply chain). Historiquement, les vendeurs ont décomposé la complexité en modules en silos (planification, conception, développement, sourcing, bons de commande, logistique). Cela fonctionnait lorsque les processus étaient stables, mais la volatilité récente (pandémie, évolutions commerciales) rend les workflows rigides et pré-définis fragiles. L’IA offre un moyen de dissoudre les silos, de faire communiquer les modules et d’adapter les processus de manière dynamique.
Joannes Vermorel (CEO de Lokad) élargit la perspective : le PLM varie selon les secteurs. Dans l’aérospatial, chaque produit est profond (avec des téraoctets de données de test/conformité) et de longue durée ; dans le retail, chaque produit est superficiel mais les assortiments sont vastes et à rotation rapide. Le défi du retail réside dans la complexité des assortiments, le multi-sourcing et l’agilité. Vermorel soutient que les silos limitent l’optimisation ; l’IA moderne permet l’automatisation des décisions et élimine de nombreuses tâches banales qui nécessitaient autrefois des armées de coordinateurs (p. ex. l’élaboration d’étiquettes en magasin avec des limites strictes de caractères). Les LLM ne sont pas idéaux pour l’optimisation numérique (p. ex. la tarification), mais ils excellent dans le travail intensif en texte et en tant que couche d’orchestration autour d’autres algorithmes.
Un succès concret : la classification tarifaire (HTS). Schiessl explique que la sélection des codes de droits à partir de réglementations tentaculaires et fréquemment mises à jour se faisait manuellement ; avec l’IA, les modèles ingèrent les manuels de règles les plus récents et effectuent une « classification zero-shot », remplaçant des workflows qui nécessitaient auparavant des ensembles de données étiquetées et des réentraînements constants. Vermorel note que le zero-shot modifie l’économie : vous encodez des règles et un contexte plutôt que de collecter des exemples. Des gains similaires s’appliquent aux entrées non structurées — PDFs des fournisseurs, fichiers de conception Illustrator/SVG, catalogues et réponses aux appels d’offres — où l’IA peut extraire, réconcilier et acheminer l’information.
En regardant vers l’avenir, Schiessl et Vermorel prévoient l’émergence d’écosystèmes agent-à-agent : les fournisseurs exposent des agents avec des catalogues partageables ; les agents des retailers les interrogent. Cela promet moins de pipelines PDF fragiles, mais soulève des questions de gouvernance : qu’est-ce qu’un agent peut partager, et comment prévenir les fuites ou les erreurs ? Vermorel minimise le cliché du « data as crown jewels » pour la plupart des retailers (les catalogues produits sont souvent publics ; les données personnelles représentent une responsabilité à minimiser), tout en insistant sur une hygiène de données rigoureuse.
Sur l’architecture logicielle, Schiessl avance une provocation : « L’IA tue la couche logique. » Dans la pile classique — données (en bas), logique métier (au milieu), UI (en haut) — les LLM peuvent désormais générer à la demande une logique contextuelle et des UIs adaptatives. La valeur se concentre dans les données et les métadonnées qui la décrivent ; les fournisseurs doivent renforcer la robustesse des données, l’enrichir avec des couches sémantiques/métadonnées, et laisser les LLM/agents composer des flux de manière dynamique. Vermorel est d’accord, ajoutant qu’une grande partie de la « logique » d’entreprise ne fait qu’orchestrer la division du travail. Lorsque l’automatisation prend le relais, les couches de workflows, KPI et permissions se réduisent aux indicateurs de santé des automatisations. L’évolution de l’anti-spam — passant de jungles de paramètres à un service de fond invisible — illustre cet effondrement.
Pratiquement, Schiessl identifie trois niveaux d’impact de l’IA : (1) Défendre — automatiser les étapes existantes pour la rapidité et la précision (p. ex. les tarifs) ; (2) Étendre — remodeler les processus (connecter la conception et le costing en temps réel ; fusionner les étapes) ; (3) Ajouter — créer de nouvelles capacités (p. ex. la génération quasi automatique de tech-packs pour les BOMs, la conformité, et les tailles). Vermorel répartit la charge de travail du PLM : utiliser l’optimisation quantitative/stochastique pour la composition des assortiments, puis déployer des LLM pour générer la documentation étendue et automatiser les interactions avec les fournisseurs avant et après les décisions clés.
Pour les parties prenantes non techniques, Schiessl présente l’IA comme un soulagement systématique de la douleur : moins de retards, une meilleure disponibilité et conformité, des relations fournisseurs améliorées, ainsi que des économies de coûts et de temps — livrées pas à pas, et non en une seule fois. La prédiction finale de Vermorel est tranchante : l’IA automatisera une grande part du travail PLM de back-office, de col blanc, au cours de la prochaine décennie, en particulier les tâches qui se contentent de transférer des informations d’un format à un autre.
Transcription complète
Conor Doherty: Bon retour. Aujourd’hui, nous accueillons en studio Rupert Schiessl. Il est le Chief Strategy and AI Officer chez Bamboo Rose. Aujourd’hui, il va discuter avec Joannes et moi de la réflexion sur le PLM à l’ère de l’IA. Avant d’entrer dans le vif du sujet, vous connaissez la procédure : abonnez-vous à notre chaîne LokadTV ici sur YouTube et envisagez de nous suivre sur LinkedIn. Nous avons récemment dépassé 25 000 abonnés, et j’aimerais bien atteindre les 30 000 dès que possible. Plus sérieusement, nous essayons de construire une communauté — votre soutien compte pour nous. Cela étant dit, je vous présente la conversation d’aujourd’hui avec Rupert Schiessl.
Conor Doherty: Première question. Dans mon introduction, je vous ai présenté en tant que Chief Strategy and AI Officer chez Bamboo Rose. Qui est Bamboo Rose, et que faites-vous là-bas ?
Rupert Schiessl: Bamboo Rose est un fournisseur de logiciels. Nous vendons une solution appelée total PLM, qui aide nos clients — principalement des retailers — à gérer l’ensemble du cycle de vie des produits, de la planification et la conception jusqu’à la distribution. C’est ce que fait Bamboo Rose depuis 25 ans. Nous faisons cela pour de grandes marques telles qu’American Eagle, Urban Outfitters, Wolf, Walmart, etc. Mon rôle consiste, de manière globale, à intégrer l’IA dans l’ensemble de cette infrastructure, car comme nous allons le discuter, l’IA est en train de transformer énormément ce que font les fournisseurs de PLM, mais plus généralement ce que font les entreprises de logiciels et de logiciels en tant que service.
Il existe de nombreuses opportunités pour améliorer nos solutions pour nos clients avec l’IA, avec GenAI, avec des agents. C’est mon travail : rassembler l’infrastructure existante — l’ensemble des connaissances et de l’intelligence intégrées dans notre solution — avec l’IA et rendre notre logiciel utilisable par l’IA.
Conor Doherty: Vous avez mentionné le retail spécifiquement. Lorsque vous vendez le concept de gestion du cycle de vie des produits, quels sont les problèmes que les gens essaient de résoudre, ou comment leur expliquez-vous en quoi consistent exactement ces problèmes ?
Rupert Schiessl: Comme son nom l’indique, vous gérez l’ensemble du cycle de vie d’un produit — de sa conception et sa création, et même avant, « Dois-je créer un produit ? » — jusqu’au point de distribution, voire le recyclage ou le moment où les produits deviennent des déchets. De nombreuses choses se passent au cours de ce cycle : beaucoup de personnes travaillant ensemble, de nombreux clients, vendeurs, fournisseurs se réunissant, et notre logiciel a pour mission de coordonner tout cela. Surtout pour les grandes entreprises avec beaucoup de produits — des milliers, des dizaines de milliers, ou pour des entreprises comme Walmart, des centaines de milliers — vous ne pouvez pas faire cela manuellement avec une feuille Excel.
Vous devez donc créer des processus, organiser ces processus, établir des droits d’accès, et rassembler toutes ces personnes — les designers avec les développeurs de produits, les analystes sourcing, les supply chain managers — pour qu’ils travaillent ensemble sur ce processus complexe de manière coordonnée et collaborative.
Conor Doherty: Joannes, ajouteriez-vous quelque chose à la définition du problème du PLM dans le retail ?
Joannes Vermorel: Pour le retail, il est tout à fait logique de le présenter ainsi. Le PLM est un marché énorme et, selon le secteur, il peut signifier des choses très différentes. Par exemple, dans l’aérospatial : chaque produit est potentiellement un téraoctet d’informations, avec des milliers d’expériences menées pour prouver que l’objet est sûr dans toutes les conditions de vol possibles. Vous disposez de tous les enregistrements des expériences, de toutes les preuves, voire de simulations réalisées sur ordinateur pour prouver que votre conception est sûre, fiable, conforme, et tout le reste. Le phénomène est extrêmement récursif : un module possède une liste de sous-modules, eux-mêmes contenant des sous-modules, et chacun dispose d’une preuve de conformité et d’ingénierie. Ces éléments sont extrêmement durables, sur des décennies.
À l’autre extrémité du spectre, le défi est différent : la connaissance par produit est relativement mince. Pour un retailer — même Walmart — je doute que pour la plupart des produits ils disposent de plus de quelques dizaines de pages de documentation. Peut-être quelques supports médiatiques, mais dans l’ensemble c’est relativement superficiel, et des dizaines de milliers de produits se renouvellent en permanence. Le défi n’est donc pas un produit avec un cycle de vie immensément complexe s’étalant sur des décennies ; il s’agit de dizaines de milliers de produits qui se renouvellent rapidement, et vous souhaitez garder une extrême agilité. Le même produit peut être approvisionné par une demi-douzaine d’entreprises ; vous pouvez souhaiter changer de fournisseur et assurer la continuité, même si vous continuez à vous approvisionner auprès d’une autre personne.
Selon moi, le PLM dépend fortement du secteur, et le défi pour le retail est de gérer une complexité d’assortiment hors norme — Walmart compte clairement des centaines de milliers de produits si l’on se fie à son portefeuille.
Rupert Schiessl: Je suis tout à fait d’accord sur l’aspect sectoriel. C’est vraiment notre approche chez Bamboo Rose : très centrée sur le retail, très forte en mode, et de plus en plus sur l’alimentation où de nombreux ingrédients et contraintes juridiques interviennent, puis les produits de grande consommation. Dans la mode, ce n’est pas l’aéronautique, mais les produits peuvent devenir complexes : différentes tailles, différents composants, et des produits plus complexes tels que les vêtements, chaussures ou articles de sport peuvent s’avérer assez compliqués et nécessitent une conception collaborative ainsi que toutes ces différentes étapes que nous intégrons dans notre logiciel.
Conor Doherty: Avant d’aborder comment l’IA perturbe le PLM, comment les entreprises du retail ont-elles géré historiquement les problèmes que vous venez de décrire ? Qu’est-ce qui fonctionnait avec cette approche, et qu’est-ce qui n’allait pas trop ?
Rupert Schiessl: Historiquement, la réaction intuitive à un processus complexe est de le décomposer en de nombreux processus — ce qui a donné lieu aux silos. C’est ce qui s’est produit dans le PLM au cours des 20–30 dernières années. Dans le PLM, vous aurez la planification, la conception, le développement, le sourcing, les bons de commande, la logistique, etc. C’est généralement ainsi que la plupart des fournisseurs de logiciels sur le marché du PLM fonctionnent aujourd’hui : différents modules, les clients achètent tel ou tel, les modules fonctionnent ensemble, et différentes équipes utilisent les modules. Ce qui a fonctionné, c’est que c’était une très bonne approche pour les processus complexes, car le processus est préalablement défini, et une fois la solution mise en place — parfois avec des projets de déploiement très longs —, elle fonctionne très bien pour reproduire le processus pour lequel elle a été conçue.
Or, ces dernières années avec les disruptions de la supply chain, les processus et les produits changent très souvent, très rapidement. Les produits pour lesquels le logiciel a été conçu ne correspondent plus à ces processus, et les produits en silos et pré-définis sont difficiles à adapter ou peuvent devenir obsolètes parce qu’ils ont été conçus pour des processus qui n’existent plus. Ça représente l’une des meilleures opportunités que nous voyons chez Bamboo Rose : intégrer l’IA comme solution pour adapter les processus plus rapidement, perturber les silos, faire communiquer les éléments entre eux, partager l’information en amont et en aval, et rendre les processus plus flexibles.
Conor Doherty: Joannes, vous êtes un grand adepte des silos en supply chain, n’est-ce pas ?
Joannes Vermorel: Grand fan. Les silos définissent les limites de ce que vous pouvez optimiser. Lorsque vous avez des silos, cela signifie que certaines catégories d’optimisation ou de voies ne vous sont même pas ouvertes. Si vous voulez garder les choses gérables avec un haut degré de division du travail parmi des dizaines de personnes, vous avez en quelque sorte besoin de ces silos ; l’alternative — tout le monde parlant à tout le monde — ne fonctionne pas pour une équipe de plus de cinq ou dix personnes.
Mais avec des technologies plus modernes, il existe une opportunité de repenser le support pour la décision, l’automatisation de décisions, ou une simple automatisation. Beaucoup d’étapes étaient extrêmement banales mais chronophages, et il n’y avait aucun moyen de les automatiser. Par là je veux dire tout ce qui impliquait du texte jusqu’à très récemment — comme choisir une étiquette qui s’adapte bien en 80 caractères pour les étiquettes en magasin. Il fallait choisir soigneusement un nom qui respecte la limite. Ce n’était pas une valeur ajoutée massive, mais il n’y avait pas d’alternative, et vous brûliez des centaines ou des milliers d’heures-homme par an sur un problème banal. Maintenant, une grande partie de cela a disparu, et les gens peuvent se concentrer sur les problèmes plus stratégiques.
Rupert Schiessl: Nous avons un cas d’utilisation très similaire avec nos clients concernant les tarifs — sélectionner le bon numéro HTS aux États-Unis. Beaucoup de nos clients sont basés aux États-Unis. C’est le numéro tarifaire que vous utilisez pour importer un produit aux États-Unis ; c’est le système global universel qui existe toujours. Ils doivent sélectionner le bon numéro en fonction des caractéristiques du produit, et ils ont une certaine flexibilité pour choisir un meilleur taux de droit lorsque différentes options sont possibles. Jusqu’à aujourd’hui, c’était, et c’est toujours, un processus entièrement manuel. Maintenant, l’IA peut intervenir, lire les règlements les plus récents, comprendre à quoi sont destinés les numéros HTS, et rassembler le tout. Un processus complet de base a été entièrement remplacé grâce à GenAI, ce qui n’était pas possible auparavant.
Joannes Vermorel: Cela s’appelle une zero-shot classification. Le terme technique signifie que vous construisez un classificateur machine learning sans aucun exemple préalable. Vous avez la spécification de la loi compilée et intégrée dans l’invite, puis un prétraitement raisonnable pour convertir en markdown les PDF et toutes les autres sources dont vous disposez concernant les produits. Ensuite, votre classificateur — un LLM — opère sans formation spécifique.
Le concept est intéressant avec GenAI : vous pouvez soudainement construire des classificateurs sans avoir à collecter d’abord une base de données d’exemples, ce qui était fait il y a cinq ans. À l’époque, on disait, « Nous utiliserons une forêt aléatoire : d’abord classer manuellement, disons, 1 000 exemples, puis utiliser ce classificateur pour classifier le reste. » Mais ces 1 000 exemples étaient coûteux et lents. La beauté de GenAI, c’est que vous pouvez avoir une zero-shot classification : exposer les règles et la logique — qui peuvent être vagues et subjectives — et obtenir ensuite un classificateur assez correct qui fonctionne sans données préalables.
Cela débloque de nombreux cas d’utilisation qui auparavant n’étaient pas économiquement viables. Vous pourriez construire votre base de données pour un millier de produits pour les tarifs, mais les tarifs évoluent rapidement, et cela se transformerait en, « Faisons-le manuellement de toute façon ; c’est plus rapide. » Donc oui, absolument.
Conor Doherty: L’exemple des tarifs est facile à comprendre car il est immédiat. Mais la logique sous-jacente — l’introduction de l’IA dans le flux de travail — existe indépendamment d’un énorme événement macro. Si vous parlez de maximiser le retour sur un investissement pour une décision, cela reste vrai avec des tarifs fluctuants et sans eux. Rupert, comment expliquez-vous la proposition de valeur d’intégrer l’IA dans le PLM en général ?
Rupert Schiessl: Il y a probablement deux classes. L’une est l’exemple des tarifs : nous gardons le même processus, mais comme l’a expliqué Joannes, nous pouvons adapter les données et travailler plus facilement sans collecter de sources de données, car nous disposons de modèles pré-entraînés capables de comprendre les sources de données comme le ferait un humain. Pour le cas d’utilisation des tarifs, nous envoyons simplement le PDF contenant les 4 000 pages de réglementation — si celui-ci change chaque jour, il suffit de télécharger la nouvelle version — et le modèle peut le lire, ce que aucun humain ne serait capable de faire. C’est transformateur non seulement pour les tarifs, mais pour tant de sources de données non structurées : PDF, images, designs, constamment mis à jour.
Les designers créent des fichiers SVG Adobe Illustrator et les modifient — déplacer des boutons sur les épaules un peu vers la gauche crée une nouvelle version qui doit être examinée et validée par un chef de produit. De nombreux PDF proviennent des fournisseurs lorsqu’ils répondent aux appels d’offres (RFP) et aux demandes d’informations (RFI) ; ils ne veulent pas remplir de formulaires, ils veulent envoyer les informations déjà disponibles : catalogues, brochures. Jusqu’à aujourd’hui, les responsables des achats devaient tout examiner. Maintenant, cela peut être remplacé par GenAI.
La deuxième transformation concerne l’organisation — la manière dont les processus et les décisions sont prises au sein du logiciel. Désormais, nous sommes capables de nous adapter au sein des différents silos et modules en fonction de ce qui s’est passé auparavant. Supposons qu’un fournisseur fasse faillite ou ne puisse plus livrer : il faut adapter le plan ou votre assortiment, ou adapter le design — peut-être s’agit-il d’un fournisseur de boutons ou d’un matériau spécifique. Ce processus complet prenait beaucoup de temps ; peut-être que dans la mode, cela n’était tout simplement pas fait car le cycle de vie est trop court. Désormais, cela est possible avec l’IA : vous pouvez surveiller la base de données en permanence, disposer de processus qui s’adaptent, replanifier automatiquement, recréer un assortiment, modifier la tarification, changer les designs, et interconnecter le processus de manière dynamique.
Joannes Vermorel: Les LLMs ne sont pas super performants pour mener des activités très structurées. Si vous voulez parcourir une liste de 10 000 produits, vous avez besoin d’une boucle, et cela sera lent avec un LLM. Les LLMs sont bons chaque fois que du texte est impliqué. Par exemple, l’optimisation de tarification : un LLM est adapté pour vous aider à écrire le code pour une stratégie de tarification, mais pas pour saisir des caractéristiques et dire, « Donnez-moi le prix. » Ce n’est pas un bon outil pour cela.
Ce que je vois pour l’avenir, c’est l’agent-à-agent. Google vient de publier il y a quelques semaines une spécification de protocole pour l’agent-à-agent. L’idée est que, tout comme les entreprises exposent un site web, elles pourraient exposer publiquement un agent. Ce que vous fournissez à l’agent est tout ce que vous êtes prêt à partager avec le grand monde. Si vous êtes un fournisseur, vous auriez votre catalogue immédiatement accessible ; cet agent pourrait être interrogé par vos clients pour obtenir des informations, et vous maintenez la base de données qui alimente l’agent. Vos clients pourraient interroger ces agents — conçus pour d’autres agents — éliminant ainsi le problème de devoir parcourir des PDF et des médias pas vraiment adaptés au traitement par LLM. Chaque fois que vous avez des PDF, vous devez d’abord les convertir en texte ; cela supprime plusieurs obstacles.
Rupert Schiessl: C’est définitivement intéressant : la conformité des différents réseaux d’agents entre clients et fournisseurs. Ce qui est très lié — et c’est déjà une question que nous recevons — c’est : « Je suis le fournisseur et je partage mes données avec vous, le client. Comment puis-je être sûr que vous ne prendrez pas toutes les informations ? Comment puis-je garantir que vous ne prendrez que ce que je souhaite partager ? » Cela deviendra l’une des questions les plus importantes dans les années à venir. Comment pouvons-nous contrôler ce que les agents partagent ? Comment pouvons-nous nous assurer qu’ils ne font pas d’erreurs ? Les agents communiqueront entre eux, c’est certain, mais comment pouvons-nous contrôler quelles données sortent, surtout en dehors de l’entreprise ? Il y aura d’énormes opportunités, d’énormes défis, et probablement d’énormes incidents dans ces domaines — espérons-le sans impliquer aucune de nos entreprises.
Joannes Vermorel: Il existe de nombreux problèmes informatiques en ce moment — le ransomware, par exemple — bien plus critiques et graves. Je pense que, pour la plupart des entreprises, les données ne sont pas aussi critiques que les gens le pensent, à moins que vous ne soyez ASML avec des processus physiques ultra-avancés, ou SpaceX avec des moteurs de fusée — dans ce cas, vous disposez d’actifs extrêmement sensibles. Mais 99 % des entreprises disposent de très peu de données véritablement critiques. Les données qui sont un peu critiques sont davantage des passifs que des actifs. Si vous êtes un détaillant, vous ne voulez probablement pas les informations personnelles de vos clients ; c’est un passif. Si vous les divulguez, c’est un gros problème médiatique ; cela ne stimulera pas fondamentalement votre activité.
Ainsi, le catalogue de produits — n’importe qui peut le récupérer depuis le e-commerce. Il est utile de l’avoir bien organisé en interne ; je ne dis pas le contraire. Je dis que si ces données sont partagées un peu trop avec des pairs, ce n’est pas la fin du monde. Les données que vous ne souhaitez pas partager — les données personnelles de vos clients — constituent un passif. Chez Lokad, pour presque tous nos clients, nous nous assurons de ne détenir aucune donnée personnelle, car c’est un passif. Même dans le cas où Lokad serait compromis — ce qui n’est jamais arrivé mais pourrait arriver — l’idée est que nous ne possédons que des informations qui ne seraient pas dommageables d’un point de vue relationnel : des informations commerciales, une liste de produits, une liste de flux, les stocks. Vous ne souhaitez pas que vos niveaux de stocks soient partagés avec des concurrents, mais s’ils étaient publiés sur Reddit, ce ne serait pas la fin du monde pour votre entreprise.
Conor Doherty: Cela ne serait peut-être pas la fin du monde, mais dans “The End of Software as We Know It”, cet article LinkedIn que vous avez écrit, Rupert, vous avez dit que l’IA tue la couche logique. Quel était l’argument clé que vous avançiez, et comment l’IA tue-t-elle la couche logique du PLM ?
Rupert Schiessl: Le titre est un peu provocateur, mais c’est probablement ce qui se passe. Je travaille dans le logiciel depuis 17 ans ; en tant qu’éditeur de logiciels, ce dont nous sommes le plus fiers, c’est la logique et la logique métier que nous construisons — reproduisant les processus métier des clients de manière élégante et générique afin que vous puissiez résoudre de nombreux problèmes avec un minimum de code. En plus de cela, vous bénéficiez d’une interface utilisateur magnifiquement conçue pour interagir avec cette logique. Au bas de l’empilement se trouvent les données, interconnectées pour refléter les processus et la logique métier des clients utilisant le logiciel. C’était la méthode traditionnelle.
Désormais, comme l’a dit Joannes, les LLMs ne vont pas produire des algorithmes de tarification, d’optimisation, ou de prévision — ceux-ci sont optimisés mathématiquement — mais ils sont capables de générer du code et de décrire des flux logiques. Ces algorithmes peuvent adapter la logique et les processus prédéfinis par les éditeurs de logiciels de manière plus dynamique, interactive et contextuelle — en fonction de l’environnement économique actuel, du fournisseur qui répond, ou de l’utilisateur qui utilise le logiciel. Le processus pourrait ne pas être le même et peut être adapté dynamiquement par le LLM, sans qu’un programmeur n’anticipe chaque processus. C’est un changement majeur.
Cela a également un impact sur l’interface utilisateur. Les UIs étaient conçues de manière solide et stable, tout comme la logique, pour anticiper les cas et les besoins des utilisateurs. Les designers ne voient pas la même chose que la finance. Désormais, avec des agents générateurs de code et des agents logiques — ces algorithmes GenAI — vous pouvez générer l’UI en fonction de ce qui ressort de la base de données, du processus, et de la personne qui se trouve devant moi. Mettez tout cela ensemble et la logique est en quelque sorte en train de disparaître ; les interfaces utilisateur disparaissent. La seule chose qui demeure est les données et la logique métier contenue dans ces données. La valeur de la couche de données augmente. Nous devons améliorer les moyens de protéger ces données et créer des couches de métadonnées qui expliquent nos données afin que le LLM comprenne ce qui se passe et puisse les rendre accessibles aux agents internes et aux agents d’autres entreprises — clients et fournisseurs.
Joannes Vermorel: Si vous regardez les systèmes d’enregistrement — des logiciels d’entreprise conçus pour avoir un pendant électronique de quelque chose dans votre entreprise : produits et leurs cycles de vie, niveaux de stocks, commandes, etc. — la grande majorité de la logique existe pour supporter la division du travail. Si vous parvenez à automatiser, vous n’avez plus à gérer cette division du travail. Soudainement, vous n’avez plus besoin de couches d’interfaces utilisateur, de logique, de workflows, etc. pour quelque chose d’automatisé. Dans de nombreux logiciels d’entreprise, la division du travail représente bien plus de 90 % de la logique.
Vous créez des étapes, des workflows, une supervision, des KPIs, des appels à l’action, etc. Si vous êtes capable d’automatiser, avez-vous besoin de ces étapes granulaires, de ces workflows, de ces KPIs ? Tout cela disparaît. Peut-être le réduisez-vous à un indicateur technique indiquant si votre automatisation fonctionne dans de bonnes conditions — en vert ou non — et c’est tout. Pour comprendre l’effet de l’automatisation, pensez à l’anti-spam. Dans les années 90, les logiciels anti-spam d’entreprise étaient extrêmement complexes : des tonnes de règles, de supervision, des centaines de paramètres. De nos jours, que se passe-t-il avec votre anti-spam ? Rien. Il existe, il fonctionne, vous n’y prêtez pas attention. Il y a un dossier spam que vous ne consultez jamais. La logique disparaît en libérant l’automatisation pour des choses qui n’étaient pas possibles auparavant.
Oui, avec les LLMs, vous pouvez autocomposer des requêtes SQL pour produire des rapports, économisant ainsi un peu de logique, mais cela est minime comparé à la suppression d’artéfacts qui étaient là uniquement pour gérer la présence de nombreuses personnes. Si vous avez beaucoup de monde, vous avez besoin d’administrateurs avec différents droits, de managers, de portées de visibilité, etc. Les éditeurs de logiciels d’entreprise adorent introduire des fonctionnalités destinées à un grand nombre de personnes, mais si vous éliminez le besoin d’avoir beaucoup de personnes, l’utilité de ces fonctionnalités disparaît.
Rupert Schiessl: Ce qui change aussi, c’est que l’ensemble du processus devient plus orienté vers l’entrée. Au lieu de mettre en place l’ensemble du processus, des workflows et des responsabilités partagées, vous définissez des limites, des contraintes, et des objectifs. Ensuite, le nouveau type de logiciel s’auto-organise — comme le ferait une organisation humaine — avec un orchestrateur et des équipes travaillant ensemble parce que vous l’avez ordonné. C’est nécessaire dans les organisations humaines : des règles et des hiérarchies.
C’est le mouvement principal : changer la manière dont nous, éditeurs de logiciels, devons travailler. Nous devons construire des logiciels qui permettent aux clients de définir des règles et des organisations pour ces outils d’automatisation, au lieu de construire l’ensemble des processus.
Conor Doherty: Dans l’article, vous avez parlé de l’IA et du fait que de nouvelles règles ou procédures orientées vers des objectifs émergeront — que l’IA s’auto-apprendra. Pourriez-vous expliquer un peu plus ?
Rupert Schiessl: Au lieu d’anticiper chaque étape, vous mettez en place une organisation de différents agents travaillant ensemble — des outils d’IA basés sur LLM — décrivant comment ils collaborent, qui peut parler à qui, les limites de ce qu’ils peuvent faire, quels outils ils peuvent accéder, internes ou non, leurs droits d’utilisateur, et quelles données ils peuvent consulter. Une fois cela mis en place, vous les laissez agir — toujours sur des tâches très basiques pour le moment, mais de plus en plus complexes — et vous les laissez travailler ensemble pour résoudre les tâches ou atteindre les objectifs que vous avez définis au départ.
Conor Doherty: Nous avons opposé la vision actuelle du PLM à l’ancien monde des silos centrés sur les personnes. Comment briser ces silos et se rapprocher de ce que vous venez de décrire ?
Rupert Schiessl: Chez Bamboo Rose, nous avons six éléments — les six silos allant de la planification à la distribution — et par-dessus, nous intégrons ce que nous appelons l’intelligence décisionnelle. Nous pourrions appeler cela l’IA ; c’est la manière dont nous prenons des décisions compatibles en amont et en aval, prises de manière collaborative à travers les silos. Dans le cadre de l’intelligence décisionnelle, nous permettons aux clients de définir des règles et des objectifs qu’ils souhaitent atteindre, puis les différents processus s’exécutent automatiquement.
Pour le moment, nous effectuons cela sur des tâches spécifiques. Nous avons évoqué la recherche du bon numéro de tarif : auparavant, il s’agissait d’un processus intégrant quelques étapes ; maintenant, il suffit de dire « Trouvez le bon numéro de tarif pour ce produit », et l’agent parcourt les éléments, récupère les informations nécessaires, obtient les informations légales les plus récentes, exécute le classificateur pour assembler le tout, valide et explique, puis renseigne le bon numéro HTS dans le champ pour l’utilisateur avec une explication.
Cela évolue vers des processus plus complexes comme la création de tech-pack — une partie très importante du PLM : décrire techniquement la nomenclature (bill of materials) et les points de mesure dans la mode et l’habillement. Parfois, il s’agit de 50 à 100 pages pour un seul produit : toutes les contraintes de conformité et légales, coton biologique ou non, toutes les tailles, puis vous envoyez cela à un fournisseur. Aujourd’hui, lorsque les clients veulent un nouveau pull, ils copient soit à partir d’un produit similaire et l’adaptent — ce qui prend quand même du temps —, soit créent un nouveau produit et repartent de zéro. C’est très chronophage : ces 50 à 100 pages d’informations techniques doivent être produites.
Un réseau d’agents peut explorer les produits récents — certains clients disposent de centaines de milliers d’articles dans la base de données —, trouver des informations sur des produits similaires, récupérer les contraintes légales les plus récentes et les rassembler pour rédiger le tech pack. Il s’agit de l’automatisation d’un processus complexe réalisé entièrement ou presque entièrement par un réseau d’agents — par l’IA. Notre étoile polaire est la suivante : le client souhaite mettre les produits sur le marché et dans les centres de distribution. Ce qui se passe entre toutes ces étapes représente un travail qui doit être accompli, mais un travail que les clients délégueront à une IA si celle-ci en était capable. La vision finale du PLM est : « Générer la collection pour l’année prochaine et la mettre sur le marché », et cela fonctionne de manière automatisée. Peut-être verrons-nous des startups créer la licorne à un employé — peut-être que la distribution de mode pourra en faire partie.
Conor Doherty : Joannes, des idées ?
Joannes Vermorel : Pour ce qui concerne l’applicabilité, nous devons distinguer la composition d’un assortiment — quels vêtements, quelles gammes de tailles, couleurs, motifs, styles — de la documentation qui l’accompagne. Les LLM ne sont pas faits pour composer des assortiments : on ne peut pas fournir à un LLM un catalogue de 20 000 variantes et s’attendre à un rééquilibrage significatif de la profondeur des couleurs entre les types de produits. Il vous faut d’autres classes d’algorithmes — optimisation classique ou stochastique — pour composer l’assortiment lui-même. Une fois que vous disposez de la description de haut niveau de votre assortiment idéal, le processus de collecte des exigences et de compilation des documents commence pour chaque produit. C’est là que les LLM excellent vraiment.
Les LLM sont très efficaces pour traiter des éléments non structurés — principalement du texte, un peu d’images —, mais pas pour les calculs. Ils peuvent être utilisés pour effectuer des calculs en générant du code que vous exécutez ensuite — sur différentes couches. Ainsi, les LLM peuvent vous aider à écrire le code pour analyser et rééquilibrer l’assortiment, puis contribuer à générer les milliers de pages de documentation pour de nombreux produits — un gain de temps énorme. Pensez à une logique de pré-modélisation très intelligente qui adapte automatiquement les éléments simples ; ensuite, les humains interviennent pour apporter des ajustements là où le modèle manque d’information. Parfois, rendre toutes les informations pertinentes disponibles pour le modèle coûte plus cher qu’une intervention humaine, il existe donc des compromis. Mais pour l’essentiel du travail et pour automatiser la majeure partie de l’échange entre ce que l’entreprise souhaite et ce que le fournisseur peut proposer, il y a une quantité énorme de paperasse que les LLM peuvent automatiser afin que tout le monde soit sur la même longueur d’onde.
Rupert Schiessl : Merci pour cette formulation précise. Les LLM doivent être considérés comme des orchestrateurs pour d’autres outils et algorithmes déjà existants. Au sein de Bamboo Rose ou des PLM, il existe des algorithmes pour créer une BOM, analyser ou rechercher au sein d’une BOM. Les LLM ne sont pas conçus pour cela, mais ils peuvent être conscients de l’existence de ces algorithmes, décider quand les utiliser en tant qu’outils, et mettre en avant des informations pour faire avancer le processus vers l’étape suivante.
Conor Doherty : Si je commence à résumer l’ensemble des étapes du PLM, Rupert, où voyez-vous l’impact positif le plus significatif de l’IA — LLM, generative AI ou tout autre algorithme ?
Rupert Schiessl : Je dirais trois niveaux. Premièrement, l’IA défensive : prendre un processus et automatiser le même processus avec l’IA, le rendant plus rapide, plus robuste, économisant du temps aux employés — sans modifier les processus globaux, simplement plus rapide, plus précis et avec de meilleures performances. Deuxièmement, l’extension : transformer les processus, les adapter dynamiquement comme nous l’avons décrit — fusionner les processus et les automatiser, repenser les processus en utilisant l’IA. Cela est plus complexe à mettre en place, mais apporte plus de valeur.
Troisièmement, l’ajout : créer quelque chose de nouveau grâce à l’IA — ce qui n’était pas possible auparavant — par-dessus votre processus. Les entreprises peuvent inventer de nouveaux produits, offres, services avec l’IA. On peut penser immédiatement aux produits pharmaceutiques : leur processus complet de transformation et de création de produits peut désormais être automatisé, permettant la création de nouveaux produits avec le GenAI en des délais beaucoup plus courts. Pour nous chez Bamboo Rose, nous disposons de nombreuses fonctionnalités d’automatisation de premier niveau à déployer, offrant des économies de temps et de coûts immédiates. Nous avons des processus qui peuvent être fusionnés et transformés — la création de tech-pack est un exemple typique d’un processus impliquant plusieurs personnes. Un autre que nous avons lancé récemment : permettre aux designers de mode d’accéder immédiatement à l’estimation des coûts. Auparavant, les designers envoyaient aux développeurs produit les demandes de coût, recevaient une réponse, apportaient des modifications, et renvoyaient le tout. Désormais, ces processus sont connectés, et nous recalculons l’estimation des coûts en fonction des changements de conception.
Bien sûr, le dernier niveau—append—nous permet de transformer la manière dont les clients conçoivent et déploient des produits et leur offrir peut-être la possibilité de créer de nouveaux produits ou de meilleurs services.
Conor Doherty: Merci, Rupert. Joannes, comment l’IA aide-t-elle les clients de Lokad ?
Joannes Vermorel: Nous avons une approche légèrement différente car la robotisation complète des décisions de supply chain a commencé il y a plus d’une décennie pour nous, et la majeure partie n’implique pas du tout GenAI. L’optimisation prédictive pour les flux de biens physiques — c’est ce que nous faisons : décider quand acheter, où envoyer, où stocker, quoi produire, où expédier, et ajuster les prix. Ces décisions sont hautement quantitatives et reposent sur des formules numériques depuis plus d’une décennie. Elles étaient déjà robotisées sans l’IA générative.
GenAI facilite la maintenance du code et simplifie des tâches telles que le nettoyage du catalogue de produits lorsque les gens n’ont pas un PLM bien organisé et que les données sont un peu en désordre. Mais pour nous, l’automatisation complète a commencé il y a longtemps. Avec GenAI maintenant, les processus avant et après les décisions quantitatives peuvent être automatisés. Avant : disons que le MOQ que vous avez d’un fournisseur est obsolète — vous voulez des informations actualisées. Par le passé, le processus était manuel : écrire des e-mails ou utiliser des modèles pour collecter des informations, et les réponses n’étaient pas très claires. Avec les LLM, cela peut être entièrement automatisé.
Une fois la décision prise : supposons que vous décidiez d’essayer d’accélérer une commande déjà passée auprès d’un fournisseur. Cela signifie engager une communication avec le fournisseur et peut-être aller-retour — “Oui, nous pouvons, mais il y a une surcharge.” La réponse n’est ni simple ni binaire. Les interactions postérieures au processus avec des tiers peuvent être automatisées avec GenAI, même si la décision centrale — identifier les candidats à l’accélération — n’implique pas GenAI et repose sur un calcul très analytique.
Conor Doherty: Je suis conscient du temps qui passe. En guise de conclusion pour les non-techniciens : comment présentez-vous la proposition de valeur de l’introduction de l’IA dans un workflow PLM afin que 100% des auditeurs puissent en saisir la valeur ?
Rupert Schiessl: Pour nos clients, le processus PLM est souvent long, pénible à différentes étapes, et pas optimal. Les clients perdent des opportunités car certains fournisseurs ne sont plus disponibles et ne peuvent pas expédier de produits. Il y a de nombreux points douloureux à travers tout le parcours produit. L’IA ne résoudra pas tout dès demain, mais c’est une énorme opportunité pour résoudre ces problèmes un par un : générer plus de précision, une meilleure disponibilité des produits, une meilleure qualité des produits, une meilleure conformité des produits, et une meilleure relation avec les fournisseurs car les détaillants seront moins exigeants en termes de temps pour ces derniers. Il y a des avantages pour toutes les parties participant à l’ensemble de la chaîne, et plus rapidement qu’auparavant. Tout fonctionnera plus harmonieusement. Cela prendra du temps ; notre travail en tant que fournisseur de logiciels est d’apporter cette technologie à nos clients au sein de la stack qu’ils connaissent déjà, qui décrit comment le cycle de vie des produits devrait être géré. Nos clients bénéficieront de réductions de coûts, de gains de temps, et d’une meilleure qualité de produit qu’ils pourront développer avec notre logiciel.
Conor Doherty: Joannes, avant de conclure, quelque chose à ajouter ?
Joannes Vermorel: L’IA arrive probablement pour 90 % des employés de bureau en back-office. De nombreuses opérations banales dans le PLM seront automatisées au cours de la prochaine décennie. Si une tâche n’apporte pas une réelle valeur ajoutée — principalement du simple déplacement ou réarrangement d’informations d’un format à un autre — elle sera automatisée dans les décennies à venir. Ce sera une transformation majeure car, pour ces entreprises, il s’agit de hordes de cols blancs qui vont être automatisés — juste un exemple pour aujourd’hui.
Conor Doherty: Eh bien, messieurs, je n’ai plus de questions. Rupert, merci beaucoup pour votre temps et pour nous avoir rejoints en studio pour cette conversation. Et pour vous tous, je dis : retournez travailler.