00:00:00 Introduzione; Bamboo Rose e l’ambito del PLM nel retail
00:02:21 Problemi del PLM nel retail: ciclo di vita, coordinamento, scala
00:04:15 Profondità aerospaziale contro gli assortimenti ampi e superficiali del retail
00:09:45 Dai silos a processi adattivi con contesto condiviso
00:12:56 La classificazione tariffaria zero-shot sostituisce il carico manuale
00:16:42 GenAI elabora documenti PLM non strutturati su larga scala
00:21:38 Gli LLM orchestrano; emergono ecosistemi agente-ad-agente
00:24:26 Pragmatismi nella condivisione dei dati; ridurre al minimo le passività legate ai PII
00:28:53 Lo strato logico/UI si assottiglia; dati e metadata si centralizzano
00:34:23 L’automazione fa collassare i flussi di lavoro nati dalla divisione del lavoro
00:37:48 Configurare reti di agenti: obiettivi, vincoli, permessi
00:44:30 Verso collezioni autogenerate e scambi con i fornitori
00:49:55 Impatto dell’AI: difendere, estendere, aggiungere
00:55:04 L’ottimizzazione quantitativa decide; gli LLM gestiscono documenti e comunicazioni
00:59:08 Benefici: velocità, precisione; l’automazione del back-office accelera

Sommario

Rupert Schiessl (Chief AI Officer di Bamboo Rose) si unisce a Joannes Vermorel (CEO di Lokad) e a Conor Doherty (Direttore Marketing) per una discussione su come la generative AI rimodelli il Product Lifecycle Management (PLM). Schiessl spiega i moduli compartimentalizzati classici del PLM nel retail (dalla pianificazione alla distribuzione) e sostiene che sistemi AI/agentici possono dissolvere i silos, adattare i processi in modo dinamico e automatizzare compiti pesanti di testo e non strutturati (ad es., classificazione tariffaria, creazione di tech-pack). Vermorel confronta il PLM profondo, decennale (ad es., nel settore aerospaziale), con gli assortimenti del retail, superficiali ma massivi, osservando che gli LLM eccellono nell’orchestrazione, nella generazione di documenti e nei workflow pre/post-decisione, mentre l’ottimizzazione quantitativa gestisce ancora prezzi e assortimenti. Entrambi prevedono un assottigliamento degli strati logico/UI mentre dati e metadata diventano centrali, con l’emergere di ecosistemi agente-ad-agente e l’automazione di vaste porzioni di lavoro di back-office.

Sommario Esteso

Conor Doherty (Direttore Marketing di Lokad) inquadra la conversazione intorno al “riplasmare il PLM nell’era dell’AI”, chiedendo a Rupert Schiessl, Chief Strategy & AI Officer di Bamboo Rose, di definire il PLM nel retail e come l’AI lo modifichi. Schiessl descrive il PLM come la coordinazione del percorso del prodotto — dall’ideazione e design fino all’approvvigionamento e distribuzione — per migliaia fino a centinaia di migliaia di articoli e numerosi ruoli (designer, sviluppatori, analisti di sourcing, supply chain). Storicamente, i vendor hanno scomposto la complessità in moduli compartimentalizzati (pianificazione, design, sviluppo, approvvigionamento, ordini d’acquisto, logistica). Questo metodo funzionava quando i processi erano stabili, ma la recente volatilità (pandemia, variazioni commerciali) rende i workflow rigidi e predefiniti fragili. L’AI offre un modo per dissolvere i silos, fare in modo che i moduli “parlino” tra loro e adattare i processi in modo dinamico.

Joannes Vermorel (CEO di Lokad) amplia il discorso: il PLM varia a seconda del settore. Nell’aerospaziale, ogni prodotto è profondo (con terabyte di dati di test e conformità) e a lunga durata; nel retail, ogni prodotto è superficiale ma gli assortimenti sono vasti e con rotazione rapida. La sfida del retail è la complessità degli assortimenti, il multi-sourcing e l’agilità. Vermorel sostiene che i silos limitano l’ottimizzazione; l’AI moderna consente l’automazione delle decisioni e rimuove molte attività monotone che una volta richiedevano eserciti di coordinatori (ad es., la creazione di etichette per i negozi sotto stringenti limiti di caratteri). Gli LLM non sono ideali per l’ottimizzazione numerica (ad es., per il pricing), ma eccellono nelle attività testuali e come strati di orchestrazione attorno ad altri algoritmi.

Un successo concreto: la classificazione tariffaria (HTS). Schiessl spiega che la selezione dei codici doganali da regolamenti estesi e frequentemente aggiornati è stata svolta manualmente; con l’AI, i modelli assimilano i manuali più recenti ed effettuano la “classificazione zero-shot”, sostituendo i workflow che in precedenza richiedevano set di dati etichettati e un costante riaddestramento. Vermorel osserva che lo zero-shot cambia l’economia: si codificano regole e contesti invece di accumulare esempi. Simili vantaggi si applicano agli input non strutturati — PDF dei fornitori, file di design Illustrator/SVG, cataloghi e risposte agli RFP — dove l’AI può estrarre, riconciliare e instradare le informazioni.

Guardando al futuro, sia Schiessl che Vermorel prevedono ecosistemi agente-ad-agente: i fornitori espongono agenti con cataloghi condivisibili; gli agenti dei retailer li interrogano. Questo promette pipeline PDF meno fragili, ma solleva questioni di governance: cosa può condividere un agente e come prevenire fughe o errori? Vermorel minimizza il concetto di “i dati come gioielli di famiglia” per la maggior parte dei retailer (i cataloghi dei prodotti sono spesso pubblici; i dati personali rappresentano una passività da minimizzare), pur insistendo su una rigorosa igiene dei dati.

Sull’architettura del software, Schiessl lancia una provocazione: “L’AI uccide lo strato logico.” Nella classica pila — dati (in basso), logica aziendale (al centro), UI (in alto) — gli LLM possono ora generare logica contestuale e interfacce utente adattive su richiesta. Il valore si concentra nei dati e nei metadata che lo descrivono; i vendor devono rafforzare i dati, arricchirli con strati semantici/di metadata e lasciare che gli LLM/agenti compongano i flussi in modo dinamico. Vermorel concorda, aggiungendo che gran parte della “logica” aziendale si limita a coordinare la divisione del lavoro. Quando l’automazione prende il sopravvento, gli strati di workflow, KPI e permessi si riducono agli indicatori di salute delle automazioni. L’evoluzione dell’anti-spam — dalle giungle dei parametri a un servizio in background invisibile — illustra questo collasso.

Concretamente, Schiessl individua tre livelli di impatto dell’AI: (1) Difendere — automatizzare le fasi esistenti per velocità e precisione (ad es., tariffe); (2) Estendere — rimodellare i processi (collegare design e costing in tempo reale; unire le fasi); (3) Aggiungere — creare nuove capacità (ad es., la generazione quasi automatica di tech-pack attraverso BOMs, conformità e taglie). Vermorel ripartisce il carico di lavoro del PLM: utilizzare l’ottimizzazione quantitativa/stocastica per la composizione degli assortimenti, quindi impiegare gli LLM per generare la documentazione estesa e automatizzare le interazioni con i fornitori prima/dopo le decisioni principali.

Per gli stakeholder non tecnici, Schiessl presenta l’AI come un sollievo sistematico: meno ritardi, migliore disponibilità e conformità, relazioni migliorate con i fornitori e risparmi in termini di costi e tempo — forniti gradualmente, non tutti in una volta. La previsione finale di Vermorel è schietta: l’AI automatizzerà una larga fetta del lavoro di back-office e d’ufficio del PLM nei prossimi dieci anni, soprattutto le attività che si limitano a spostare informazioni tra formati.

Trascrizione completa

Conor Doherty: Bentornati. Oggi in studio ho con me Rupert Schiessl. Lui è il Chief Strategy and AI Officer di Bamboo Rose. Oggi parlerà con Joannes e me su come ripensare il Product Lifecycle Management nell’era dell’AI. Prima di iniziare, sapete la formula: iscrivetevi al nostro canale LokadTV qui su YouTube e considerate di seguirci su LinkedIn. Abbiamo recentemente superato i 25.000 follower, e mi piacerebbe raggiungere i 30.000 il prima possibile. Scherzi a parte, stiamo cercando di costruire una community — il vostro supporto è importante per noi. Detto ciò, vi propongo la conversazione di oggi con Rupert Schiessl.

Conor Doherty: Prima domanda. Nell’introduzione ti ho presentato come il Chief Strategy and AI Officer di Bamboo Rose. Chi è Bamboo Rose e cosa fai lì?

Rupert Schiessl: Bamboo Rose è un fornitore software. Vendiamo una soluzione chiamata total PLM, che aiuta i nostri clienti — principalmente retailer — a gestire l’intero ciclo di vita dei prodotti, dalla pianificazione e design alla distribuzione. È ciò che Bamboo Rose fa da 25 anni. Lo facciamo per grandi marchi come American Eagle, Urban Outfitters, Wolf, Walmart, ecc. Il mio ruolo è integrare l’AI in questo intero sistema, perché, come discuteremo, l’AI sta trasformando gran parte di ciò che fanno i vendor del PLM, ma in generale anche ciò che fanno le aziende di software e software-as-a-service.

Ci sono molte opportunità per migliorare le soluzioni per i nostri clienti con l’AI, con la GenAI, con gli agenti. Questo è il mio compito: unire l’attuale stack — tutta la conoscenza e l’intelligenza racchiusa nella nostra soluzione — con l’AI e rendere il nostro software utilizzabile dall’AI.

Conor Doherty: Hai menzionato in particolare il retail. Quando vendi il concetto di Product Lifecycle Management, quali sono i problemi che le persone cercano di risolvere, o come spieghi esattamente quali siano i problemi?

Rupert Schiessl: Come dice il nome, gestisci l’intero ciclo di vita di un prodotto — dalla sua progettazione e creazione, e anche prima, “Dovrei creare un prodotto?” — fino al punto di distribuzione, o anche al riciclo o al momento in cui i prodotti diventano rifiuti. Durante questo intero ciclo succedono molte cose diverse: molte persone lavorano insieme, molti clienti, vendor e fornitori si uniscono, e il nostro software ha il compito di coordinare tutto ciò. Soprattutto per le grandi aziende con molti prodotti — migliaia, decine di migliaia, o, in casi come Walmart, centinaia di migliaia — non è possibile farlo manualmente con un foglio Excel.

Quindi bisogna creare processi, organizzare questi processi, definire i diritti d’accesso e mettere insieme tutte queste persone — i designer con gli sviluppatori del prodotto, gli analisti di sourcing, i supply chain managers — per farle lavorare insieme in modo coordinato e collaborativo.

Conor Doherty: Joannes, aggiungeresti qualcosa alla definizione del problema del PLM nel retail?

Joannes Vermorel: Per il retail, ha molto senso presentarlo in questo modo. Il PLM è un mercato enorme e, a seconda del settore, può significare cose molto diverse. Ad esempio, nel settore aerospaziale: ogni singolo prodotto è potenzialmente un terabyte di informazioni, con migliaia di esperimenti condotti per dimostrare che il prodotto è sicuro in ogni condizione di volo possibile. Si hanno tutti i record degli esperimenti, tutte le prove, persino simulazioni eseguite al computer per dimostrare che il design è sicuro, valido e conforme, e così via. La cosa è estremamente ricorsiva: un modulo ha una lista di sottomoduli con ulteriori sottomoduli, e ciascuno ha le prove di conformità e l’ingegneria. Questi elementi hanno una durata estremamente lunga, per decenni.

All’altro estremo, la sfida è diversa: la conoscenza per prodotto è relativamente scarsa. Per un retailer — anche Walmart — dubito che per la maggior parte dei prodotti ci siano più di qualche decina di pagine di documentazione. Forse alcuni asset multimediali, ma in generale è relativamente superficiale, e decine di migliaia di prodotti continuano a ruotare. Quindi la sfida non consiste in un prodotto con un ciclo di vita immensamente complesso che si estende per decenni; si tratta di decine di migliaia di prodotti che ruotano rapidamente, e si vuole mantenere un’elevata agilità. Lo stesso prodotto può essere fornito da mezza dozzina di aziende; potresti voler cambiare fornitore e garantire la continuità anche se mantieni il prodotto fornito da qualcun altro.

La mia opinione è che il PLM dipenda fortemente dal settore, e la sfida per il retail è gestire una complessità degli assortimenti alle stelle — Walmart conta chiaramente centinaia di migliaia di prodotti se consideriamo il loro portfolio.

Rupert Schiessl: Concordo pienamente sul fatto che sia verticale. Questo è davvero il nostro approccio in Bamboo Rose: molto focalizzato sul retail, molto forte sulla moda e sempre più forte sul food, dove entrano in gioco numerosi ingredienti e vincoli legali, e poi il merchandise generale. Nel settore della moda, non si tratta di aeronautica, ma i prodotti possono diventare complessi: diverse taglie, differenti componenti, e prodotti più articolati come abbigliamento, scarpe o prodotti sportivi possono diventare piuttosto complessi e richiedere un design collaborativo e tutti quei diversi passaggi che integriamo nel nostro software.

Conor Doherty: Prima di approfondire come l’AI stia rivoluzionando il PLM, storicamente come hanno gestito le aziende del retail i problemi che hai appena descritto? Cosa ha funzionato con quell’approccio e cosa non è andato così bene?

Rupert Schiessl: Storicamente, la reazione intuitiva a un processo complesso è suddividerlo in molti processi — quello che sono diventati dei silos. Questo è ciò che è accaduto nel PLM negli ultimi 20–30 anni. All’interno del PLM si trovano pianificazione, design, sviluppo, approvvigionamento, ordini d’acquisto, logistica e così via. Questo è tipicamente il modo in cui operano la maggior parte degli software vendors nel mercato del PLM oggi: moduli diversi, i clienti ne acquistano uno o l’altro, i moduli lavorano insieme e diversi team utilizzano i moduli. Ciò che ha funzionato è che è un approccio molto valido per processi complessi, perché il processo è predefinito, e una volta che la soluzione è implementata — a volte con progetti di deployment molto lunghi — funziona molto bene nel riprodurre il processo per cui è stata progettata.

Ora, negli ultimi anni, con le disruptions della supply chain e così via, i processi e i prodotti cambiano molto spesso, molto rapidamente. I prodotti per cui il software è stato progettato non sono più adatti a questi processi, e i prodotti compartimentalizzati e predefiniti sono difficili da adattare o possono diventare obsoleti perché sono stati progettati per processi che non esistono più. Questa è una delle migliori opportunità che vediamo in Bamboo Rose: integrare l’AI come soluzione per adattare i processi più velocemente, rompere i silos, far comunicare gli elementi tra loro, condividere informazioni a monte e a valle, e rendere i processi più flessibili.

Conor Doherty: Joannes, sei un grande fan dei silos nella supply chain, vero?

Joannes Vermorel: Grande fan. I silos definiscono i confini di ciò che puoi ottimizzare. Quando ci sono dei silos, significa che intere classi di ottimizzazione o percorsi non ti sono nemmeno accessibili. Se vuoi mantenere le cose gestibili con un alto grado di divisione del lavoro tra decine di persone, in qualche modo hai bisogno di quei silos; l’alternativa — tutti che parlano con tutti — non scala oltre una squadra di cinque o forse dieci.

Ma con tecnologie più moderne, c’è l’opportunità di ripensare il supporto per le decisioni, l’automazione delle decisioni o l’automazione pura. Molti passaggi erano estremamente banali ma richiedevano molto tempo, e non esisteva alcun modo per automatizzarli. Con ciò intendo tutto ciò che riguardava il testo fino a molto recentemente—come ad esempio scegliere un’etichetta che rientrasse perfettamente nei 80 caratteri per le etichette in negozio. Bisognava scegliere con cura un nome che rispettasse il limite. Non rappresentava un enorme valore aggiunto, ma non c’era alternativa, e si consumavano centinaia o migliaia di ore uomo all’anno per un problema banale. Ora, molto di ciò è scomparso e le persone possono concentrarsi su problematiche più strategiche.

Rupert Schiessl: Abbiamo un caso d’uso molto simile con i nostri clienti riguardo alle tariffe—selezionare il numero HTS giusto negli USA. Molti dei nostri clienti hanno sede negli USA. Quel numero tariffario è quello che si usa per importare un prodotto negli USA; è il sistema globale universale che ancora esiste. Devono selezionare il numero giusto in base alle caratteristiche del prodotto, e hanno una certa flessibilità per scegliere un tasso di dazio migliore quando sono possibili opzioni diverse. Fino ad oggi era, ed è ancora, un processo completamente manuale. Ora l’IA può intervenire, leggere le normative più recenti, capire a cosa servono i numeri HTS e mettere insieme il tutto. C’è un intero processo di base completamente sostituito grazie a GenAI, cosa che prima non era possibile.

Joannes Vermorel: Questo si chiama classificazione zero-shot. Il termine tecnico significa che stai costruendo un classificatore machine learning senza alcun esempio precedente. Hai la specifica della legge compilata e integrata come parte del prompt, poi un ragionevole pre-processamento per trasformare in markdown i PDF e qualunque altra fonte tu abbia sui prodotti. Successivamente, il tuo classificatore—un LLM—funziona senza un addestramento specifico.

Il concetto è interessante con GenAI: puoi improvvisamente costruire dei classificatori senza dover prima raccogliere un database di esempi, cosa che veniva fatta cinque anni fa. All’epoca si diceva: “Useremo una random forest: prima classificheremo manualmente, diciamo, 1.000 esempi, e poi useremo questo classificatore per classificare il resto.” Ma quei 1.000 esempi erano costosi e lenti. La bellezza con GenAI è che puoi ottenere una classificazione zero-shot: enunciare le regole e la logica—che possono essere vaghe e giudiziarie—e poi ottenere un classificatore abbastanza decente che funziona senza dati pregressi.

Questo sblocca molti casi d’uso che prima non erano economicamente sostenibili. Potevi costruire il tuo database per mille prodotti relativi alle tariffe, ma le tariffe evolvono rapidamente, e alla fine si finiva per dire: “Facciamolo manualmente lo stesso; è più veloce.” Quindi sì, assolutamente.

Conor Doherty: L’esempio delle tariffe è facile da comprendere perché è immediato. Ma la logica sottostante—l’inserimento dell’IA nel flusso di lavoro—esiste indipendentemente da un enorme evento macroeconomico. Se parli di massimizzare il ritorno su un investimento decisionale, ciò vale sia con tariffe fluttuanti che senza. Rupert, come spieghi la proposta di valore di introdurre l’IA nel PLM in generale?

Rupert Schiessl: Probabilmente ci sono due categorie. Una è l’esempio delle tariffe: manteniamo lo stesso processo, ma come ha spiegato Joannes, possiamo adattare i dati e lavorare più facilmente senza dover raccogliere fonti di dati, perché abbiamo modelli pre-addestrati in grado di comprendere le fonti di dati come fanno gli esseri umani. Per il caso d’uso delle tariffe, basta caricare il PDF con le 4.000 pagine di regolamentazione—se cambia ogni giorno, basta caricare la nuova versione—e il modello può leggerlo, cosa che nessun umano sarebbe in grado di fare. Questo è trasformativo non solo per le tariffe, ma per così tante fonti di dati non strutturati: PDF, immagini, design, aggiornati costantemente.

I designer creano file SVG in Adobe Illustrator e li modificano—spostare i pulsanti sulle “shoulders” un po’ verso sinistra crea una nuova versione che deve essere visionata e revisionata da un product developer. Molti PDF provengono dai fornitori quando rispondono a RFP e RFI; non vogliono compilare moduli, vogliono inviare le informazioni già disponibili: cataloghi, brochure. Fino ad oggi, i responsabili degli acquisti dovevano esaminare tutto ciò. Ora questo può essere sostituito da GenAI.

La seconda trasformazione riguarda l’organizzazione—il modo in cui i processi e le decisioni vengono prese all’interno del software. Ora siamo in grado di adattarci, nei diversi silos e moduli, a quanto avvenuto in precedenza. Supponiamo che un fornitore fallisca o non riesca più a consegnare: devi adattare il piano o il tuo assortimento, o modificare il design—magari si tratta di un fornitore di pulsanti o di un materiale specifico. Questo intero processo richiedeva molto tempo; forse nella moda semplicemente non veniva fatto perché il ciclo di vita è troppo breve. Ora ciò è possibile con l’IA: puoi monitorare il database costantemente, avere processi che si adattano, ripianificare automaticamente, ricreare un assortimento, cambiare i prezzi, modificare i design e interconnettere il processo in modo dinamico.

Joannes Vermorel: Gli LLM non sono molto adatti a svolgere attività altamente strutturate. Se vuoi scorrere una lista di 10.000 prodotti, hai bisogno di un ciclo, e con un LLM sarà lento. Gli LLM sono ottimi ogni volta che è coinvolto del testo. Ad esempio, nell’ottimizzazione dei prezzi: un LLM è adatto per aiutarti a scrivere il codice per una strategia di pricing, ma non per inserire caratteristiche e dire, “Dammi il prezzo.” Non è uno strumento adatto a questo scopo.

Quello che vedo all’orizzonte è l’interazione agente-agente. Google ha appena rilasciato, poche settimane fa, una specifica di protocollo per l’agente-agente. L’idea è che, proprio come le aziende espongono un sito web, potrebbero esporre pubblicamente un agente. Quello che alimenti l’agente è qualunque cosa tu sia disposto a condividere con il mondo. Se sei un fornitore, avrai il tuo catalogo prontamente disponibile; questo agente potrebbe essere interrogato dai tuoi clienti per ottenere informazioni, e tu manterresti il database che alimenta l’agente. I tuoi clienti potrebbero interrogare questi agenti—progettati per altri agenti—eliminando il problema di dover passare attraverso PDF e media non particolarmente adatti al processamento degli LLM. Ogni volta che hai dei PDF, devi prima convertirli in testo; questo elimina molti ostacoli.

Rupert Schiessl: Questo è decisamente interessante: la conformità tra le diverse reti di agenti di clienti e fornitori. Ciò che è molto correlato—ed è già una domanda che riceviamo—è: “Sono il fornitore e condivido i miei dati con voi, il cliente. Come faccio a fare in modo che non prendiate tutte le informazioni? Come posso assicurarmi che prendiate solo ciò che desidero condividere?” Questo diventerà uno dei problemi più importanti nei prossimi anni. Come possiamo controllare ciò che gli agenti condividono? Come possiamo assicurarci che non commettano errori? Gli agenti parleranno tra loro, ne sono certo, ma come possiamo controllare quali dati fuoriescono, specialmente all’esterno dell’azienda? Ci saranno enormi opportunità, enormi sfide e probabilmente enormi incidenti in questi ambiti—si spera che non coinvolgano nessuna delle nostre aziende.

Joannes Vermorel: Attualmente ci sono molti problemi IT—il ransomware, per esempio—molto più critici e gravi. La mia convinzione: per la maggior parte delle aziende, i dati non sono nemmeno lontanamente critici quanto si pensa, a meno che tu non sia ASML con processi fisici super-avanzati, o SpaceX con motori per razzi—allora hai asset estremamente sensibili. Ma il 99% delle aziende possiede pochissimi dati davvero critici. I dati che sono in qualche modo critici sono più simili a passività che a asset. Se sei un rivenditore, probabilmente non vuoi le informazioni personali dei tuoi clienti; è una passività. Se le diffondi, diventa un grosso problema mediatico; non incrementerà fondamentalmente il tuo business. Quindi, il catalogo dei prodotti—chiunque può prelevarlo dall’e-commerce. C’è valore nel mantenerlo internamente ben organizzato; non sto dicendo il contrario. Sto dicendo che se questi dati vengono condivisi un po’ troppo con i pari, non è la fine del mondo. I dati che non vuoi condividere—le informazioni personali dei tuoi clienti—sono una passività.

Da Lokad, per quasi tutti i nostri clienti, ci assicuriamo di non avere alcun dato personale, perché è una passività. Anche nel caso in cui Lokad venisse violato—cosa che non è mai successa ma potrebbe accadere—l’idea è che abbiamo solo informazioni che non sarebbero dannose dal punto di vista delle pubbliche relazioni: informazioni commerciali, elenco dei prodotti, elenco dei flussi, stock levels. Non vuoi che i tuoi stock levels vengano condivisi con i concorrenti, ma se venissero pubblicati su Reddit, non sarebbe la fine del mondo per la tua azienda.

Conor Doherty: Potrebbe non essere la fine del mondo, ma in “The End of Software as We Know It”, quell’articolo su LinkedIn che hai scritto, Rupert, hai affermato che l’IA uccide lo strato logico. Qual era l’argomentazione chiave che sostenevi, e come fa l’IA a uccidere lo strato logico del PLM?

Rupert Schiessl: Il titolo è un po’ provocatorio, ma probabilmente è ciò che sta accadendo. Sono nel settore del software da 17 anni; come fornitore di software, ciò di cui siamo più orgogliosi è la logica e la business logic che costruiamo—riproducendo i processi aziendali dei clienti in modo elegante e generico, in modo da risolvere molti problemi con un minimo di codice. In aggiunta, hai un’interfaccia utente splendidamente progettata per interagire con questa logica. Alla base della struttura ci sono i dati, interconnessi per riflettere i processi e la business logic dei clienti che utilizzano il software. Quella era la modalità tradizionale.

Ora, come ha detto Joannes, gli LLM non produrranno algoritmi di pricing, ottimizzazione o previsione—questi sono ottimizzati matematicamente—ma sono in grado di produrre codice e descrivere flussi logici. Questi algoritmi possono adattare la logica e i processi predefiniti dai fornitori di software in modo più dinamico, interattivo e contestualmente consapevole—basandosi sull’attuale contesto economico, su quale fornitore sta rispondendo o su quale utente sta utilizzando il software. Il processo potrebbe non essere lo stesso e può essere adattato dinamicamente dall’LLM, senza che un programmatore debba prevedere ogni passaggio. È un cambiamento significativo.

Influisce anche sull’interfaccia utente. Le interfacce utente erano progettate in modo solido e stabile, come la logica, per anticipare i casi e le esigenze degli utenti. I designer non percepiscono le cose allo stesso modo della finanza. Ora, con agenti che scrivono codice e agenti logici—questi algoritmi GenAI—puoi generare l’interfaccia utente in base a ciò che esce dal database, quale sia il processo e chi è la persona di fronte a te. Mettendo tutto insieme, la logica sta in qualche modo scomparendo; le interfacce utente stanno scomparendo. L’unica cosa che rimane sono i dati e la business logic contenuta in essi. Il valore dello strato dei dati aumenta. Dobbiamo migliorare i modi in cui proteggiamo questi dati e creare strati di metadati che spieghino i nostri dati affinché l’LLM capisca cosa sta succedendo e possa renderli accessibili agli agenti interni e agli agenti di altre aziende—clienti e fornitori.

Joannes Vermorel: Se guardi ai sistemi di record—software aziendale progettato per avere una controparte elettronica di qualcosa nella tua azienda: prodotti e i loro cicli di vita, stock levels, ordini, ecc.—la stragrande maggioranza della logica esiste per supportare la divisione del lavoro. Se riesci ad automatizzare, non devi gestire questa divisione del lavoro. Improvvisamente non hai più bisogno di strati di interfacce, logica, flussi di lavoro e simili per qualcosa di automatizzato. In molti software aziendali, la divisione del lavoro rappresenta ben oltre il 90% della logica.

Crei fasi, flussi di lavoro, supervisione, KPI, call to action, ecc. Se riesci ad automatizzare, hai davvero bisogno di quelle fasi granulari, flussi di lavoro, KPI? Tutto ciò scompare. Forse lo riassumi in un indicatore tecnico che segnala se la tua automazione sta funzionando in buone condizioni—verde o meno—e basta. Per capire l’effetto dell’automazione, pensa all’anti-spam. Negli anni ‘90, il software anti-spam aziendale era estremamente complesso: tonnellate di regole, supervisione, centinaia di parametri. Oggi, cosa succede con il tuo anti-spam? Niente. Esiste, funziona e non te ne curi. Esiste una cartella spam che non controlli mai. La logica scompare grazie all’automazione di cose che prima non erano possibili.

Sì, con gli LLM puoi autocomporre query SQL per produrre report, risparmiando parte della logica, ma ciò è poco se paragonato alla rimozione di artefatti creati solo per gestire la presenza di molte persone. Se hai molte persone, hai bisogno di amministratori con diritti diversi, manager, ambiti di visibilità, ecc. I fornitori di software aziendale amano introdurre funzionalità rivolte a molti, ma se elimini la necessità di avere molte persone, la maggior parte dell’utilità di quelle funzionalità scompare.

Rupert Schiessl: Un altro cambiamento è che l’intero processo diventa più orientato all’input. Invece di impostare l’intero processo, i flussi di lavoro e le responsabilità condivise, stabilisci confini, limiti, restrizioni e obiettivi. Successivamente, il nuovo tipo di software si auto-organizza—come farebbe un’organizzazione umana—con un orchestratore e team che lavorano insieme perché gliene hai detto. Questo è necessario nelle organizzazioni umane: regole e gerarchie.

Questo è il movimento principale: cambiare il modo in cui noi fornitori di software dobbiamo lavorare. Dobbiamo costruire software che permettano ai clienti di impostare regole e organizzazioni per questi strumenti di automazione, invece di costruire l’intero processo.

Conor Doherty: Nell’articolo hai parlato dell’IA e di come emergeranno nuove regole o procedure orientate agli obiettivi—cioè che l’IA si insegnerà da sola. Potresti spiegare un po’ meglio?

Rupert Schiessl: Invece di anticipare ogni passaggio, imposti un’organizzazione di diversi agenti che lavorano insieme—strumenti di IA basati su LLM—descrivendo come collaborano, chi può comunicare con chi, i confini di ciò che possono fare, quali strumenti possono utilizzare, siano essi interni o meno, i loro diritti utente e quali dati possono accedere. Una volta stabilito tutto ciò, li lasci agire—per ora per compiti ancora molto basilari, ma che diventeranno più complessi—e li fai lavorare insieme per risolvere i compiti o raggiungere gli obiettivi che hai definito all’inizio.

Conor Doherty: Abbiamo contrapposto la visione attuale del PLM con il vecchio mondo dei silos centrati sulle persone. Come si rompono quei silos e ci si avvicina a quanto hai appena descritto?

Rupert Schiessl: Da Bamboo Rose, abbiamo sei elementi—i sei silos dalla pianificazione alla distribuzione—e sopra di essi introduciamo quella che chiamiamo decision intelligence. Potremmo chiamarla IA; è il modo in cui prendiamo decisioni compatibili a monte e a valle, realizzate in maniera collaborativa attraverso i silos. All’interno della decision intelligence permettiamo ai clienti di impostare le regole e gli obiettivi che desiderano fissare, e poi i vari processi funzionano automaticamente.

Per il momento lo stiamo facendo su compiti specifici. Abbiamo parlato di trovare il giusto numero tariffario: prima, un processo integrato con alcuni passaggi; ora basta dire, “Find the right tariff number for this product,” e l’agente attraversa le varie componenti, recupera le informazioni necessarie, prende le informazioni legali più recenti, esegue il classificatore per metterle insieme, le valida e le spiega, e poi popola il campo dell’utente con il numero HTS corretto insieme a una spiegazione.

Questo si sposta verso processi più complessi come la creazione del tech-pack—a una parte molto importante del PLM: descrivere tecnicamente la distinta base e i punti di misurazione nella moda e nell’abbigliamento. A volte 50–100 pagine per un singolo prodotto: tutte le limitazioni normative e legali, cotone biologico o meno, tutte le taglie, poi lo invii a un fornitore. Oggi, quando i clienti vogliono un nuovo pullover, copiano da un prodotto simile e lo adattano—which still takes time—or creano un new product e partono da zero. È molto dispendioso in termini di tempo: tutte quelle 50–100 pagine di informazioni tecniche devono essere prodotte.

Una rete di agenti può esaminare i prodotti recenti—alcuni clienti hanno centinaia di migliaia di articoli nel database—trovare informazioni su prodotti simili, recuperare le limitazioni legali più recenti e mettere tutto insieme per scrivere il tech pack. Si tratta dell’automazione di un processo complesso realizzato completamente o quasi completamente da una rete di agenti—da AI. La nostra stella polare è: il cliente vuole portare i prodotti sul mercato e ai centri di distribuzione. Quel che accade tra tutti i passaggi è un lavoro che deve essere svolto, ma che i clienti delegherebbero ad un AI se potessero. La visione finale del PLM è: “Generate the collection for next year and bring it to market,” e funziona in modo automatizzato. Forse ci saranno startup che costruiranno l’unicorno a un dipendente—forse la distribuzione della moda potrà essere una di queste.

Conor Doherty: Joannes, qualche idea?

Joannes Vermorel: Per quanto riguarda l’applicabilità, dobbiamo distinguere la composizione di un assortimento—quali capi, gamme di taglie, colori, motivi, stili—from the documentation around it. Gli LLM non sono particolarmente adatti a comporre assortimenti: non si può alimentare un LLM con un catalogo di 20.000 varianti aspettandosi un bilanciamento significativo della profondità dei colori tra i tipi di prodotto. Hai bisogno di altre classi di algoritmi—ottimizzazione classica o stocastica—per comporre l’assortimento stesso. Una volta ottenuta la descrizione ad alto livello del tuo assortimento ideale, per ogni prodotto inizia il processo di raccolta dei requisiti e di messa insieme della documentazione. È qui che gli LLM brillano veramente.

Gli LLM sono estremamente bravi a gestire contenuti non strutturati—principalmente testo, anche un po’ immagini—ma non nei calcoli. Possono essere usati per il calcolo generando codice che poi esegui—diversi livelli. Quindi gli LLM possono aiutarti a scrivere il codice per analizzare e riequilibrare l’assortimento, e poi contribuire a generare le migliaia di pagine di documentazione su molti prodotti—a huge timesaver. Pensa a una logica di pre-templating molto intelligente che adatta automaticamente le soluzioni semplici; poi intervengono gli esseri umani per le regolazioni dove il modello manca d’informazioni. A volte rendere tutte le informazioni rilevanti disponibili al modello costa più di un intervento umano, dunque ci sono dei trade-offs. Ma per la maggior parte del lavoro e per automatizzare lo scambio tra ciò che l’azienda vuole e ciò che il fornitore può proporre, c’è una mole enorme di burocrazia che gli LLM possono automatizzare in modo che tutti siano sulla stessa lunghezza d’onda.

Rupert Schiessl: Grazie per la formulazione precisa. Gli LLM dovrebbero essere visti come orchestratori per altri strumenti e algoritmi già esistenti. All’interno di Bamboo Rose o dei PLM esistono algoritmi per creare una BOM, analizzarla o cercare al suo interno. Gli LLM non sono fatti per questo, ma possono sapere che questi algoritmi esistono, decidere quando usarli come strumenti, e portare in superficie le informazioni per passare al passo successivo del processo.

Conor Doherty: Se dovessi riassumere in tutte le fasi del PLM, Rupert, dove vedi che l’AI—gli LLM, la generative AI, o qualsiasi algoritmo—ha l’impatto positivo più significativo?

Rupert Schiessl: Direi su tre livelli. Primo, defensive AI: prendi un processo e automatizzalo con AI, rendendolo più veloce, più robusto, risparmiando tempo per i dipendenti—nessun cambiamento nei processi complessivi, solo più velocità, more accurate, prestazioni più elevate. Secondo, extend: trasformare i processi, adattarli dinamicamente come abbiamo descritto—fonderli e automatizzarli, ridisegnarli utilizzando l’AI. Più complesso da configurare, ma con maggior valore.

Terzo, append: creare qualcosa di nuovo grazie all’AI—ciò che prima non era possibile—sovrapponendosi al tuo processo. Le aziende possono inventare nuovi prodotti, offerte, servizi con l’AI. Si può pensare subito al settore farmaceutico: l’intero processo di trasformazione e creazione del prodotto può ora essere automatizzato, permettendo la creazione di nuovi prodotti con GenAI in tempi molto più brevi. Per noi di Bamboo Rose, abbiamo molte funzionalità di automazione al primo livello da implementare per un immediato risparmio di tempo e costi. Abbiamo processi che possono essere uniti e trasformati—la creazione del tech-pack è un tipico processo che coinvolge più persone. Un altro che abbiamo recentemente implementato: permettere ai fashion designers di accedere immediatamente alla stima dei costi. Prima, i designer inviavano la richiesta ai product developers per il costo, lo ricevevano, apportavano modifiche e lo rimandavano. Ora questi processi sono collegati, e ricalcoliamo la stima dei costi in base alle modifiche di design.

Ovviamente, l’ultimo livello—append—ci permette di trasformare il modo in cui i clienti progettano e lanciano i prodotti e magari di dare loro la possibilità di creare nuovi prodotti o servizi migliori.

Conor Doherty: Grazie, Rupert. Joannes, in che modo l’AI sta aiutando i clienti di Lokad?

Joannes Vermorel: Abbiamo un punto di vista leggermente diverso perché la robotizzazione completa delle decisioni della supply chain è iniziata per noi più di un decennio fa, e la maggior parte di ciò non coinvolge affatto GenAI. Stiamo parlando di ottimizzazione predittiva per i flussi di merci fisiche—è ciò che facciamo: decidere quando acquistare, dove inviare, dove stoccare, cosa produrre, dove spedire, e regolare i prezzi. Queste decisioni sono altamente quantitative e hanno fatto affidamento su formule numeriche per oltre un decennio. Erano già robotizzate senza generative AI.

GenAI rende più semplice mantenere il codice e facilita compiti come ripulire il catalogo prodotti quando le persone non hanno un PLM ben organizzato e i dati sono un po’ in disordine. Ma per noi, la piena automazione è iniziata molto tempo fa. Ora, con la GenAI, è possibile automatizzare le fasi prima e dopo le decisioni quantitative. Prima: supponiamo che il MOQ che hai da un fornitore sia obsoleto—vuoi informazioni aggiornate. In passato, il processo era manuale: scrivere email o usare modelli per raccogliere informazioni, e le risposte non erano molto chiare. Con gli LLM, tutto ciò può essere completamente automatizzato.

Dopo che la decisione è presa: supponiamo che tu decida di tentare di accelerare un ordine già effettuato con un fornitore. Ciò significa interagire con il fornitore e magari andare e tornare—“Yes, we can, but there’s an overhead.” La risposta non è semplice né binaria. Le interazioni post-processo con terze parti possono essere automatizzate con GenAI, anche se la decisione principale—l’identificazione dei candidati per l’accelerazione—non coinvolge GenAI ed è un calcolo molto analitico.

Conor Doherty: Tengo conto del tempo. Come pensiero conclusivo per le persone non tecniche: come presenti la proposta di valore dell’introduzione dell’AI in un flusso di lavoro PLM in modo che il 100% degli ascoltatori possa coglierne il valore?

Rupert Schiessl: Per i nostri clienti, il processo PLM è spesso dispendioso in termini di tempo, doloroso in diverse fasi, e non ottimale. I clienti perdono opportunità perché alcuni fornitori non sono più disponibili e non possono spedire i prodotti. Ci sono molti punti critici lungo l’intero percorso del prodotto. L’AI non risolverà tutto domani, ma rappresenta una grande opportunità per risolvere questi problemi uno per uno: generare maggiore accuratezza, miglior disponibilità dei prodotti, migliore qualità dei prodotti, migliore conformità, e un rapporto migliore con i fornitori perché i retailer richiederanno meno tempo ai fornitori.

Ci sono benefici per tutte le parti che partecipano lungo l’intera catena, e in tempi più rapidi rispetto al passato. Tutto funzionerà in modo più fluido. Ci vorrà del tempo; il nostro compito come fornitore di software è quello di portare questa tecnologia ai nostri clienti all’interno dello stack che già conoscono, che descrive come dovrebbe essere gestito il ciclo di vita del prodotto. I nostri clienti beneficeranno di un risparmio sui costi, di tempi ridotti e di una migliore qualità dei prodotti che potranno realizzare con il nostro software.

Conor Doherty: Joannes, prima di concludere, qualcosa da aggiungere?

Joannes Vermorel: L’AI sta per arrivare per probabilmente il 90% dei lavoratori impiegatizi. Molte operazioni banali nel PLM saranno automatizzate nei prossimi decenni. Se un compito non apporta un valore aggiunto significativo—principalmente lo spostamento o la riorganizzazione delle informazioni da un formato all’altro—verrà automatizzato nei prossimi decenni. Questa sarà una trasformazione importante perché, per quelle aziende, stiamo parlando di orde di impiegati che saranno automatizzati via via—già uno solo per oggi.

Conor Doherty: Bene, signori, non ho altre domande. Rupert, grazie mille per il tuo tempo e per esserti unito a noi in studio per questa conversazione. E a tutti voi, dico: tornate al lavoro.