00:00:00 Impatto dell’AI generativa nella supply chain
00:02:06 La realtà delle promozioni nell’AI
00:03:35 Confronto tra il potenziale dell’AI generativa e l’hype
00:04:56 Prospettive positive sul potenziale dell’AI
00:06:54 Rischi dell’adozione prematura della tecnologia
00:08:21 Sfruttare l’AI per una crescita guidata dalla curiosità
00:10:14 L’AI generativa come la moderna Wikipedia intelligente
00:11:34 I modelli linguistici offrono approfondimenti sui processi
00:13:39 Ampliare il feedback dei clienti tramite LLMs
00:15:37 Evoluzione delle interfacce utente con il linguaggio naturale
00:17:38 Generazione di documenti tramite l’analisi degli LLM
00:19:43 Gli LLM visti come colleghi modificano l’impatto
00:21:37 Decisioni future con colleghi digitali
00:26:46 Delegare saggiamente i compiti agli agenti AI
00:29:02 Guadagni di efficienza nella pianificazione della domanda
00:30:58 Approfondimenti sulla dinamica previsionale dei prezzi
00:32:51 Le trascrizioni delle revisioni della domanda migliorano la maturità
00:35:08 Joannes esplora il futuro potenziale dell’AI
00:37:14 Collegare le discussioni dei meeting è una sfida per gli LLM
00:40:26 I meeting di revisione della domanda aumentano le prestazioni
00:44:34 Gli strumenti AI cambiano la partecipazione ai meeting
00:48:49 L’evoluzione della comunicazione mette in evidenza le questioni della privacy
00:52:39 La tecnologia impatta le pratiche di segretezza aziendale
00:55:43 L’AI generativa esplora i cambiamenti di percezione
00:57:00 La realtà complessa dell’AI: algoritmi vs. GenAI
00:58:10 L’AI generativa come successore della blockchain
00:59:45 Una disfunzione culturale che causa sprechi di denaro
01:00:38 L’intuizione previene gli sprechi finanziari da GenAI
01:03:00 Insegnamenti pratici sulla supply chain a livello di consiglio
01:05:39 La meccanizzazione dei compiti intellettuali nell’era moderna
01:09:02 Prospettive sulla produttività attraverso l’automazione
01:11:02 Intervista conclusiva con un saluto
Summary
Il clamore intorno alla GenAI supera i bilanci. I guadagni a breve termine sono modesti — accelerazione delle attività amministrative, triage più intelligente, disciplina nei meeting — con gli umani in gioco. Nel lungo periodo potrebbe competere con la containerizzazione, se gli incentivi si allineano. I divieti spingono semplicemente l’uso verso i telefoni; le linee guida superano le proibizioni. Il “divario di valore” imputa il teatro degli acquisti, non la tecnologia; i leader hanno bisogno di mechanical sympathy e prove, non di RFP da 600 domande. Gli LLM non apprendono; il contesto/RAG rimangono colli di bottiglia, perciò la cura dei contenuti è fondamentale. Il caso a livello di consiglio: meccanizzare il lavoro intellettuale o essere superati. Il caso operativo: meno lavori ingrati, impostazioni predefinite migliori. Gli ottimisti dicono cinque anni; i pessimisti, venti. In ogni caso, il teatro dei fogli di calcolo odierno vive sul tempo preso in prestito.
Extended Summary
L’AI generativa ha generato più clamore dei bilanci. Il panel concorda che gli effetti a breve termine nelle supply chain sono modesti ma reali: accelerazione delle attività amministrative, un migliore triage dei documenti e sollievo per il lavoro ripetitivo. Nel lungo periodo, il cambiamento potrebbe essere altrettanto significativo della containerizzazione — se le organizzazioni allineano incentivi e aspettative. L’hype promette “soluzioni”; la realtà offre compromessi.
Due forze tirano in direzioni opposte. Da un lato, guadagni pratici: i modelli linguistici agiscono come strumenti di riferimento intelligenti, stabilizzano i casi d’uso fragili della RPA, estraggono il segnale dal feedback libero di clienti e fornitori, e permettono il dashboarding conversazionale. Possono anche servire da “collega digitale” guidato, che spinge i meeting verso l’azione e la maturità — a condizione che un essere umano rimanga in gioco. Dall’altro lato, i limiti tecnici contano: gli LLM attuali non apprendono davvero; operano all’interno di parametri statici e finestre di contesto in continua espansione che possono diventare una distrazione. Il cosiddetto “knowledge flywheel” resta un problema organizzativo mascherato da problema tecnico. Il RAG aiuta, ma la scala e il filtraggio per rilevanza impongono ancora costi.
Le scelte politiche hanno conseguenze. Le aziende che cercano di vietare gli LLM scopriranno soluzioni alternative sui dispositivi personali, perché il risparmio di tempo è troppo grande per essere ignorato. Linee guida sensate — privacy, gestione dei dati e spesa — superano i divieti generalizzati che incentivano l’IT parallelo. La trasparenza, usata con giudizio, può migliorare le prestazioni end-to-end; la segretezza come riflesso spesso preserva la disfunzione più che il vantaggio.
Il “genAI value gap” dice meno sull’AI che sui rituali di approvvigionamento. Quando i dirigenti mancano di “mechanical sympathy” per una tecnologia, approvano progetti pilota concepiti per “risolvere la fame nel mondo” e poi dichiarano il settore una delusione. La soluzione non è un altro slogan, ma una governance migliore: prove di concetto con dati reali, risultati misurabili e una narrazione che collega disponibilità a fatturato e margine — anziché trattare la supply chain come un silo di costi.
A livello di consiglio, il concetto è semplice: il 21° secolo meccanizza il lavoro intellettuale come il 20° ha meccanizzato il lavoro fisico; i concorrenti che automatizzano le masse amministrative si muoveranno più velocemente con meno errori. In ambito operativo, la proposta deve essere pratica: strumenti che eliminano la fatica, offrono impostazioni predefinite migliori e rendono i pianificatori più efficaci — senza trasformare i sistemi in scatole nere.
I tempi dividono ottimisti e pessimisti. Se i modelli migliorano la gestione del contesto e le organizzazioni imparano a curare la conoscenza, guadagni significativi potrebbero arrivare entro cinque anni; se la cultura e i processi restano indietro, venti anni sono più realistici. In ogni caso, lo status quo — muri di dashboard, noia dei fogli di calcolo e processi di selezione da teatro — non sopravviverà al contatto con un’efficienza composta.
Full Transcript
Conor Doherty: La supply chain è stata in fermento per almeno due anni a causa delle discussioni sull’AI generativa. Tuttavia, a settembre 2025, il tono è cambiato leggermente. Ora le persone si pongono una domanda leggermente diversa: che differenza ha fatto? E una domanda successiva: questa differenza è stata positiva o negativa? Ora, l’ospite di oggi, Knut Alicke, si unisce a Joannes e a me in studio a Parigi per discutere proprio di questo argomento. Knut è partner emerito presso McKinsey. Insegna supply chain management da oltre 25 anni e, cosa più impressionante, è davvero bravo al sassofono. Prima di iniziare la discussione, conoscete la procedura: se vi piace ciò che facciamo da Lokad e volete sostenerci, seguiteci su LinkedIn e iscrivetevi al canale YouTube. E con questo, vi presento la conversazione di oggi con Knut Alicke. Knut, grazie per essere qui con noi. È un piacere averti in studio. Penso che sia la tua terza partecipazione a LokadTV.
Knut Alicke: Sì, penso anch’io, ed è la prima volta che sono qui di persona, quindi è davvero fantastico essere qui. E sei in realtà la prima persona a sedersi sul nuovo divano di Lokad— tu e Joannes a romperlo, professionalmente ovviamente. Per iniziare, Knut, sono sicuro che molte persone ti conoscono già. Sei partner emerito presso McKinsey; hai insegnato la scienza della supply chain e il supply chain management per 25 anni. Quindi, la mia prima domanda per introdurre il tema: dove trovi anche il tempo per suonare il sassofono? In realtà, tornando indietro, ho sempre apprezzato molto suonare il sassofono, e ho trascorso il mio periodo militare in una band. È lì che mi sono entusiasmato nel praticare molto più degli studenti normali. Cerco di mantenere il mio livello; questo significa esercitarsi di notte o durante il fine settimana e assicurarsi di avere sempre una band che ti tenga occupato. Conor Doherty: Giusto per annotare: hai suonato musica nell’esercito. Quindi hai vissuto parecchie vite, in effetti. Questo influisce in qualche modo sul tuo approccio al business e alla supply chain? Knut Alicke: Non credo. Ero troppo giovane perché ciò mi influenzasse all’epoca. Avevo 19 anni, e mi limitavo a godermi un anno di esercitazioni dalla mattina alla sera, per poi assistere a concerti molto belli ad Amburgo. È lì che mi piaceva andare a molti concerti jazz e migliorare. Conor Doherty: Penso che siamo tutti appassionati di jazz qui, ma siamo anche fan dell’AI generativa, che credo sia ciò che ci ha riuniti in studio. Joannes, arriverò a te tra un attimo, ma prima, Knut, introduci l’argomento. Ti propongo una dichiarazione e poi una domanda, e poi potrai rispondere. La dichiarazione è: la supply chain— e direi anche il mondo intero— è in fermento per l’AI generativa da almeno, diciamo, due anni. Ha cambiato il panorama della supply chain. Questa è la dichiarazione. E la domanda è: sei d’accordo? E, in caso affermativo, ha migliorato o peggiorato la situazione? Knut Alicke: Direi che non ha ancora cambiato significativamente le cose. Quello che vedo è che l’AI generativa cambierà in maniera significativa il modo in cui gestiamo e operiamo le supply chain. La confronto sempre con l’invenzione del container: qualcosa che ha cambiato i flussi globali delle merci, rendendoli più efficienti, più semplici, standardizzati. Vedo che ora accade qualcosa di simile con l’AI generativa; siamo in un punto temporale analogo. Allo stesso tempo, è chiaramente molto esaltata in questi giorni. Le persone tendono a sopravvalutare l’impatto di una nuova tecnologia nel breve termine e a sottovalutarlo nel lungo termine. Se consideri ciò che è possibile oggi con l’AI generativa— tutti noi usiamo ChatGPT— e pensi a ciò che è possibile fare nella supply chain per migliorare le prestazioni e rendere la vita dei pianificatori molto più facile, vedremo molto nei prossimi anni. Ma dobbiamo anche dire che siamo agli inizi; sono passati solo due anni, e i modelli stanno migliorando tantissimo. Cambierà, e sono sicuro che entreremo in ulteriori dettagli con esempi più specifici in seguito. Conor Doherty: Joannes, sei d’accordo con Knut? È stato per il meglio o per il peggio? Joannes Vermorel: Direi chiaramente per il meglio, anche se è ancora molto limitato. I piccoli elementi sono molto buoni; quegli strumenti sono estremamente utili. In questo momento si parla di persone che usano GPT come supporto per velocizzare qualcosa che altrimenti sarebbe stato un compito molto amministrativo, e questo è molto positivo. I modelli hanno fatto enormi progressi. Il fatto di avere un contesto più ampio significa che puoi caricare documenti abbastanza lunghi e dire, “Per favore, trova in questo accordo se c’è un termine specifico per questo o per quello.” In passato, scansionare un documento di 50 pagine ti avrebbe portato un’ora per trovare se questa parte veniva discussa; qui lo puoi avere in mezz’ minuto. Quindi è davvero qualcosa di positivo. Knut Alicke: Lasciatemi commentare questo— un paio di idee. Se confrontiamo 25 anni fa, quando è iniziato Internet, c’erano molte aziende che sostanzialmente bloccavano Internet. Ai loro dipendenti non era permesso usarlo perché temevano che leggessero le notizie e trascurassero il lavoro o si dedicassero alle loro faccende private. Oggi è normale e aggiunge molto valore. Molte grandi aziende ora bloccano anche ChatGPT o altri modelli linguistici di grandi dimensioni. Questa è la peggiore cosa che possiate fare. Dovete assicurarvi di educare i vostri dipendenti su come usare questi modelli. Dovete fornire un ambiente in cui possano usarli senza caricare segreti, e così via. Alla fine, volete un’organizzazione curiosa, che impari ed esplori le opportunità. Lo stesso vale per gli studenti: quando insegno, chiedo loro, “Per favore, risolvete questa domanda anche con ChatGPT, e poi individuate dove va bene e dove invece sbaglia,” per permettere e addirittura incoraggiarli a usarlo. Altrimenti, non impareremo mai cosa è possibile fare. Joannes Vermorel: Penso che le aziende che bloccano gli LLM riscopriranno ciò che è accaduto nei primi anni 2000, quando le persone si collegavano semplicemente a Internet tramite il loro dispositivo mobile e la connessione EDGE dell’epoca—solo perché, a un certo punto, aggiravano la limitazione perché era così fastidiosa. Le persone lo farebbero semplicemente con il loro telefono cellulare. Se lo blocchi a livello aziendale, le persone useranno il loro account personale sullo smartphone, perché per compiti amministrativi i guadagni di produttività sono così grandi che resistere è estremamente difficile. È molto difficile giustificare a qualcuno che una persona dovrebbe impiegare tre ore per fare qualcosa di ipernoidioso quando esiste uno strumento che può farlo in cinque minuti. Non appena chi lo usa si sente moralmente giustificato per quell’unica cosa, la tentazione di impiegarlo per tutte le altre attività è enorme. Conor Doherty: Questo si ricollega alla prospettiva a breve e lungo termine. Nel breve termine, Knut, quali ritieni siano stati gli impatti positivi principali che l’AI generativa ha avuto nel contesto della supply chain? Knut Alicke: Quello che vediamo molto— e che già funziona— è che se non capisci qualcosa, la usi come una Wikipedia molto intelligente. Cerchi informazioni e impari. Abbiamo casi in cui compiti molto amministrativi e ripetitivi possono essere affrontati con quella che definirei una smart robotic process automation. La RPA aveva difficoltà quando i processi cambiavano un po’; dovevi riprogrammare il processo. Qui vediamo dei primi successi.
Se vado un po’ avanti, la visione che avrei per un’applicazione GenAI è: i processi tipici in supply chain sono ben definiti—da un punto di vista algoritmico chiaramente definiti—ma poi la realtà racconta una storia diversa. Le persone trovano modi per aggirarlo: modifiche manuali dei numeri, mancanza di fiducia, e così via. Il risultato non è quello che ci si aspetta.
Ecco il potere dei modelli linguistici: non vedi nei dati le ragioni per cui i processi non funzionano. Vedi solo che forecast accuracy sta diminuendo. Perché? Perché questa persona ha cambiato i numeri—e non capisci il perché. Perché non avere un “supply chain avatar”, un Joannes digitale, in discussione con questa persona che ha cambiato il numero, e poi scoprire lentamente cosa sta succedendo? La vera ragione potrebbe essere che non si fidano del pianificatore; vogliono servire i loro clienti; in passato hanno avuto rotture di stock. Allora risolvi il problema costruendo fiducia o aumentando l’inventario. È qui che i modelli possono aggiungere molto valore.
Conor Doherty: È quasi come uno strumento per migliorare un processo indirettamente— un’interazione discorsiva: “Perché hai fatto questo?” Joannes, ci sono altri esempi di integrazione degli LLM in modo che essi cambino un processo in gran parte non supervisionato?
Joannes Vermorel: Sì. Ad esempio, se pensi alla qualità del servizio: molte aziende hanno diverse versioni del Net Promoter Score. Intervistano la loro clientela una volta alla settimana, una volta al mese; nel B2C si potrebbe prendere un campione. Il metodo tradizionale prevede domande a scelta multipla—con una risoluzione molto bassa. Perché lo si fa? Perché se lo si fa in altro modo, si finiscono per avere 200–500 risposte in forma libera e diventa difficile fare qualsiasi cosa con esse.
Con gli LLM, improvvisamente non devi costringere la tua clientela a fornirti un feedback secondo categorie preconcette. Forse il cliente si lamenterà di qualcosa che non avevi nemmeno realizzato fosse un problema: “Ho ricevuto un dispositivo con una spina americana invece che britannica. L’ho risolto, ma è stato fastidioso.” La tua checklist “Il prodotto era danneggiato? Sì/No?” dice di no—ma rimane comunque un problema.
Tradizionalmente, qualsiasi input in forma libera era un problema. Lo stesso vale per i fornitori. Con gli LLM, puoi immaginare sistemi in cui i partner forniscono input in forma libera e gli LLM li trasformano in statistiche, senza assunzioni rigide che restringono il problema in categorie ordinate. Questo ti permette di ripensare un processo in modo davvero profondo.
Knut Alicke: Per continuare su questo, tutto ciò che riguarda la creazione di dashboard. Quando implementi un nuovo sistema, gran parte del tempo è dedicata a definire cosa vuoi vedere, e poi viene codificato rigidamente. Tutti hanno nuove idee. Immagina un mondo in cui parli con il tuo sistema—il tuo LLM—e dici, “Voglio vedere questo e quello. Evidenzia questo sull’asse x, questo sull’asse y,” e poi lo vedi. Se ti piace, diventa standard; altrimenti, lo raffini.
L’interfaccia utente sarà un’interfaccia in linguaggio naturale dove trovi ciò di cui hai bisogno. Inoltre, il sistema dovrebbe fornirti le cose che hai trascurato. Chiedi un KPI e un altro, ma dimentichi il livello di servizio—super importante. Allora questo Joannes digitale potrebbe dire, “Interessante che tu osservi questi due, ma hai anche considerato il servizio? Hai osservato come il servizio si correla con l’inventario? Sta succedendo qualcosa?”
Joannes Vermorel: In Lokad, stiamo affrontando lo stesso problema ma in un modo molto diverso. Il problema tipico delle dashboard è che, molto rapidamente negli ambienti aziendali, abbiamo pareti di metriche—tonnellate di numeri. Il problema diventa: cosa sto guardando esattamente?
Prendi ad esempio il lead time misurato in giorni. Sono giorni lavorativi o giorni di calendario? Rimuoviamo gli outlier? Se qualcosa non è mai stato consegnato, conta come infinito? Come mille? Esistono moltissime convenzioni. Il nostro approccio non consiste nella composizione dinamica di una dashboard, ma nel generare documentazione estremamente dettagliata al volo, facendo sì che l’LLM esamini tutto il codice che ha portato a questo numero e compili in inglese le informazioni rilevanti. Qual è l’ambito? Cosa abbiamo filtrato? Quanto indietro nel tempo?
Annega in dashboard e numeri, e la semantica è complicata. Quella è la battaglia che stiamo combattendo.
Knut Alicke: Lascia che aggiunga un’altra idea che ho esplorato con un cliente: dalla lean manufacturing conosciamo i Cinque Perché—o chiunque cresca figli conosce i Cinque Perché. Chiedi perché qualcosa sta accadendo, poi chiedi ancora perché, finché non arrivi alla causa principale. È estremamente potente. Basandoti sulle tue pareti di KPI: se qualcosa va storto, usa l’LLM per approfondire, approfondire, approfondire finché non trovi davvero la ragione e capisci dove modificare un parametro—l’inventario, per esempio—per migliorare le prestazioni.
Joannes Vermorel: Assolutamente. Ancora una volta, il modo in cui le persone spesso percepiscono ogni nuova tecnologia, e in particolare l’IA, è come uno strumento da usare. Ma il modo in cui ne parli, Knut, la inquadra come un collega con cui interagisci—un membro digitale del team.
Conor Doherty: Sarebbe una descrizione equa?
Knut Alicke: Sì, lo è. Pensiamo all’assunzione di un nuovo collega appena uscito dall’università. Arriva e viene formato; abbiamo un mentore, un coach. Il nuovo collega inizia svolgendo compiti semplici, poi compiti più complicati. All’inizio potrebbe decidere di acquistare cose per 10 euro; con gli anni si arriva a 100.000 euro. Coltiviamo questo collega. Nessuno si aspetta che un neoassunto sappia tutto.
Curiosamente, quando implementiamo uno strumento di pianificazione, il pianificatore si aspetta che lo strumento faccia miracoli e sappia tutto. Perché non avere un bot GenAI come collega digitale? Dobbiamo anche addestrarlo: il contesto aziendale, le specificità di un certo cliente che si lamenta sempre, il fatto che non seguiamo il principio del “loudest shout first serve”, e così via. Addestriamo il modello a comprendere il nostro contesto specifico.
Il modello arriva con una velocità enorme—la capacità di gestire e analizzare dati in modi non possibili per gli umani. Se combiniamo ciò con una conoscenza specifica, abbiamo un vero collega digitale. Prevedo un futuro in cui i professionisti esperti parlano con questo modello come se fosse un collega e migliorano in modo significativo la qualità delle loro decisioni. Non dovranno occuparsi delle cose noiose—copiare dentro e fuori da Excel—e riceveranno suggerimenti come, “Hai considerato questo? Hai guardato quell’altro?” Poi, combinando ciò con la loro esperienza, giungeranno a decisioni molto migliori.
Conor Doherty: Mi piace la metafora—o meglio, il paragone. Se prendi l’esempio di un mentore: non scegli chiunque. È necessario avere un set di competenze per insegnare in modo efficace. Quali sono le competenze importanti affinché quel mentore possa addestrare un LLM? Devi essere un esperto programmatore o scienziato informatico?
Knut Alicke: Bisogna essere aperti, curiosi, trasparenti. Un buon mentore non si limita ad addestrare, ma è anche aperto al feedback—un dare e avere. Ho iniziato ad addestrare una copia digitale di me stesso—un Knut digitale. A un certo punto ero estremamente frustrato perché sentivo, “Questo Knut digitale non sa niente. Non mi conosce.” Poi ho capito: se fosse stato un collega reale, anch’io sarei rimasto frustrato ma avrei continuato a fare da coach e a svilupparlo. Con un collega digitale, anche il mio io digitale ha bisogno di essere sviluppato. La stessa cosa.
Joannes Vermorel: Qui stiamo toccando una profonda limitazione della GenAI: al momento gli LLM non imparano nulla. Tecnicamente, ciò che hai è un modello pre-addestrato—si immette una grande frazione di Internet, Wikipedia e altro, nel training, e ottieni un modello statico. I parametri non cambiano. ChatGPT non ha alcuna memoria; è stateless. L’unica cosa che puoi regolare è il contesto.
Fortunatamente, nell’ultimo anno i contesti sono cresciuti enormemente. L’ultimo modello—per esempio GPT-5 a livello di API—parliamo di una finestra di contesto di 400.000 token. È enorme. Non puoi usarli tutti per gli input; puoi impiegare, per fare un esempio, qualcosa come 270.000 token per gli input; il resto viene usato per il ragionamento, perché serve spazio per il ragionamento.
Ma la questione complicata dell’attuale paradigma è che abbiamo modelli che possiedono una sorta di intelligenza cristallizzata, ma è statica. Puoi contestualizzare di più, ma il modello non può davvero diventare più intelligente; rimane intelligente come il primo giorno. Puoi arricchire il contesto.
Chi manterrà quel contesto? In termini tecnici si parla di un knowledge flywheel. Chi lo mantiene? È l’LLM stesso che mantiene il flywheel—aggiungendo o rimuovendo pepite dalla propria banca di informazioni? ChatGPT lo fa se gli permetti—registra pepite su di te e le re-inietta. Ma aggiungere troppe cose nel contesto diventa una distrazione. Puoi aggiungere centinaia di pagine di contesto, ma l’LLM, per rispondere a qualsiasi domanda, deve caricare tutto questo contesto, e ciò può peggiorare le prestazioni con informazioni irrilevanti.
Quindi, per avere un agente LLM come vero collega, in alcuni aspetti possiedi una super-intelligenza e in altri esso è estremamente stupido, perché non può mai imparare nulla—almeno nell’attuale paradigma.
Conor Doherty: Anche considerando entrambe le affermazioni alla lettera, ci sono comunque compiti che potresti affidare a questo collega digitale e altri che preferisci lasciare agli umani. Knut, prima di tutto: quali compiti ti sentiresti a tuo agio nel delegare rapidamente a un collega digitale, e quali ritieni debbano rimanere sotto il controllo delle persone?
Knut Alicke: Non sono sicuro di delegare tutto al 100%. Vorrei comunque mantenere l’umano nel loop—questo è super importante. Per fare un esempio: quando facciamo diagnostica, raccogli dati, esegui analisi; in supply chain poi intervisti le persone per comprendere le previsioni, il demand review, S&OP, e così via. Questo non racconta necessariamente tutta la verità. È come una Gemba walk nella manifattura: in una sala riunioni, spiegano il processo bello e scintillante; sul piano di produzione, l’aspetto è diverso.
Qui vedo che la GenAI aggiunge molto valore osservando il processo. Immagina una riunione di demand review. Spesso il materiale non è ben preparato, l’agenda non viene seguita, non vengono definite azioni. Molte persone si connettono con il video disattivato, il microfono spento, senza contribuire; solo poche parlano. Se hai il tuo bot GenAI ad ascoltare e a fornire feedback al facilitatore—“Fai così, qui c’è qualcosa che non va”—puoi anche parallelizzare massicciamente questo. Se hai 200 demand planners, puoi fare da coach per tutti e 200: “Guarda, qui potresti fare meglio o in modo diverso.” È così che si fa da coach.
Dove vediamo applicazioni oggi: gli acquisti. Gli agenti possono già aggiungere valore nella spesa a coda lunga, in cui ci sono molte piccole categorie o prodotti che non vengono mai controllati correttamente per mancanza di tempo e personale. Far eseguire l’analisi a un agente, fare confronti e innescare una rinegoziazione dei prezzi—questo può aggiungere valore come una soluzione a basso rischio oggi. È possibile in modo relativamente non supervisionato con un budget ridotto per la coda lunga; non faresti questo per articoli di alto valore, ma per la coda lunga si inizia, e poi passi ad altre categorie.
Conor Doherty: L’esempio che hai descritto—il tuo bot AI a supervisionare le riunioni—fuori dall’ordinario, hai spiegato un esperimento che simulava esattamente questo. Hai detto che l’hai fatto circa 20 volte con diversi scambi. Puoi spiegarlo di nuovo?
Knut Alicke: Ho creato un dataset sintetico—un’azienda sintetica—per sperimentare con dati simili a quelli reali. Ho condotto analisi: “Cosa sta succedendo con questa previsione? Puoi fare anche una previsione? Cosa sta succedendo con i prezzi? Correlazione con le promozioni?” Poi ho creato anche input manuali: ho preso due demand planners. Uno aumentava la previsione; l’altro la migliorava. Il KPI classico, il forecast value add, per il primo era molto scarso; per il secondo era buono.
Successivamente ho parlato con ChatGPT in modalità vocale e ho affermato di essere il demand planner uno perché volevo capire come avrebbe reagito il modello. Il modello aveva tutto il contesto sull’azienda, SKUs, clienti, fluttuazioni, il bias positivo del primo planner. Mi sono lamentato del fatto che le persone della supply chain non mi capissero, che la produzione non consegnasse mai ciò che desideravo, ed è per questo che dovevo aumentare la previsione. Ho esagerato un po’, ma rifletteva la realtà.
Quello che è successo è stato interessante: il bot ha ascoltato e ha iniziato lentamente a raccomandare cosa fare in modo diverso. Non ha detto immediatamente, “La tua previsione è stupida; aumenti sempre del 30%.” Ha iniziato lentamente e con attenzione, offrendo suggerimenti, consigli e trucchi.
Un altro esperimento: ho creato 20 trascrizioni di una riunione di demand review—inventate, con problemi come microfono spento, video spento, nessun contributo. Ho addestrato il modello spiegando come avrei immaginato una riunione di demand review di prima classe, cosa dovrebbe esserci, cosa non dovrebbe esserci, e quali sono i problemi tipici. Poi ho chiesto al modello di valutare cosa non andasse e ho definito un modello di maturità che va da molto basilare a best-in-class. Ho chiesto al modello di valutare la maturità della trascrizione. La valutazione è stata molto buona; i risultati erano coerenti—probabilmente gli stessi che avrei ottenuto, perché avevo addestrato il modello.
Se ora immagini un bot che ascolta riunioni reali e riflette su ciò che ha sentito, questo crea un grande aumento dell’efficienza. Immagina 20 persone connesse e 15 con video e microfono spenti—non è necessario che si connettano. Cosa puoi fare con il tempo risparmiato? C’è molto da migliorare. Non stai solo facendo una diagnostica; avendo già il contesto, puoi passare immediatamente al miglioramento continuo.
Joannes Vermorel: Credo che in qualche forma un futuro del genere si realizzerà. Che sia con l’attuale paradigma degli LLM, il problema principale è il knowledge flywheel dei dati: l’LLM non può imparare, quindi l’LLM deve decidere come dividere le piccole parti di conoscenza e conservarle per un uso successivo. Quel problema non è stato risolto correttamente. Domani potremmo considerare un discendente o una teoria alternativa agli LLM in cui l’apprendimento sia integrato.
Tornando al caso: avere un ascolto passivo in tutta l’azienda, con auto-archiviazione e organizzazione—idee che vengono scambiate, automazioni che aggiornano la tua libreria di intuizioni e comprensione dell’attuale mappa mentale dell’azienda—avrebbe un valore gigantesco.
Al momento abbiamo delle approssimazioni: registrare due ore di riunioni e produrre note della riunione molto chiare. È utile; fa risparmiare tempo. Ma non è qualcosa che puoi poi richiamare facilmente. L’LLM dovrebbe riesaminare tutto per scoprire se un punto specifico è stato discusso. A meno che tu non glielo chieda, non collegherà da solo “questo è stato discusso” con “questo è stato discusso anche in due riunioni diverse; abbiamo delle contraddizioni.”
Ci manca l’apprendimento. È assente. Non ci sono momenti “aha” per il modello. Esso elabora la finestra di contesto in modo lineare, con un’intelligenza statica e rigida, estremamente capace in modi molto inumani—ma l’apprendimento va molto in profondità e presenta delle limitazioni.
Una cosa è strana: per la gestione dei dati, sospetto che i modelli miglioreranno automaticamente, indipendentemente dalla tecnologia, perché assimileranno più esempi. Se chiedi a ChatGPT ora di comporre un prompt, è molto migliore di due anni fa. Perché? Non perché la tecnologia di base si sia evoluta in quel campo, ma perché ora ci sono tonnellate di esempi sul web di buoni prompt reinseriti nel modello. Centinaia di migliaia di persone hanno pubblicato suggerimenti e trucchi; ChatGPT li assimila nuovamente come parte dell’addestramento.
Quindi, per la gestione della conoscenza: se abbastanza persone pubblicano suggerimenti su ciò che conta come buone perle di conoscenza, questi strumenti miglioreranno perché integrano molte euristiche.
Knut Alicke: Basandomi sul tuo esempio delle note della riunione, non mi aspetterei che il bot sappia tutto. Ecco perché, tornando all’idea del team digitale—digital Joannes o digital Conor o digital Knut—tu inizi come essere umano nel circuito. Hai la trascrizione; segni, “Questo va male, questo va male.” Costruisci il contesto sempre di più. Dopo averlo fatto dieci volte, il modello può già individuare l’80% delle cose. È il classico 80/20. Per la mia esperienza in 25 anni, l’80% è sempre lo stesso; lo puoi addestrare. Poi ci sono casi speciali in cui aggiungi ulteriore contesto.
Sono d’accordo che non generi, per esempio, “Abbiamo davvero bisogno di questa riunione di revisione della domanda?” Quello non sarebbe un risultato. Ma per migliorare la struttura e i risultati—e con ciò, una supply chain che performa meglio—questo sarà possibile presto.
Joannes Vermorel: In Lokad, una parte dei prompt che includiamo ora quando riassumiamo le riunioni di pianificazione consiste nell’aggiungere indicazioni come, “Ogni volta che viene menzionata una data o un prezzo in dollari o euro, isola l’informazione e controlla se c’è un invito all’azione collegato a quella data.” Lo facciamo in due passaggi per creare un promemoria di alta qualità: scansiona la discussione, fermati alle date, cattura gli inviti all’azione; lo stesso per gli importi finanziari—quali sono le implicazioni? Forniamo al LLM, come parte del prompt, suggerimenti per identificare le cose veramente utili.
Quella è la ricetta di Lokad. Ora immagina che Lokad pubblichi ciò sul web e che centinaia di migliaia di persone pubblichino a loro volta i loro suggerimenti. “Per queste riunioni, ecco la lista delle cose per ottenere un riepilogo molto efficace.” Ecco perché dico che l’effetto volano della conoscenza progredirà, perché le persone pubblicano suggerimenti e trucchi.
Ma il problema centrale non risolto è come gestire la conoscenza su larga scala. L’approssimazione più vicina è RAG (Retrieval-Augmented Generation), ma è ancora crude e non scala molto bene. In una grande azienda supererai rapidamente la capacità del LLM. Anche se non superi la finestra dei token—ora molto lunga—se inserisci centinaia di pagine di materiale quasi irrilevante, non ottieni prestazioni molto buone. Hai bisogno di qualcosa di migliore.
Esistono modi per riparare la situazione con del nastro adesivo: scansioni lineari, multipass. Un primo passaggio per eliminare il materiale irrilevante—ma tutto ciò è solo un nastro adesivo attorno al fatto che l’apprendimento è un cittadino di seconda classe nell’attuale paradigma.
Conor Doherty: Torniamo al lato umano: alcune persone sono piacevoli da affrontare fuori dalla telecamera, ma se metti una telecamera e un microfono davanti a loro e sanno di essere registrate, diventano timide. Cambia la propensione ad impegnarsi perché c’è una registrazione permanente. Applica ciò a una riunione di demand planning in cui le persone sanno che c’è uno strumento AI che ascolta, registra, analizza, archivia e possibilmente determina metriche di performance. Vedi questo come un problema per l’adesione e la partecipazione?
Knut Alicke: Per la prima riunione, sì. Per la seconda, a metà. Poi diminuisce. Nel lean, con il Gemba walk, quando osservi l’assemblaggio, la prima osservazione mostra persone che cercano di fare tutto al meglio. Torni il giorno successivo, e il successivo—l’aderenza al processo diminuisce e ritornano alle abitudini normali. Il quinto giorno emergono più problemi.
Come consulente collegato a queste riunioni, la prima va relativamente bene; poi ti riconnetti e riconnetti, e le persone si rendono conto, “Oh, è normale,” e capisci cosa sta succedendo. Ciò che non è ancora chiaro è come convincere le persone che questo bot non sta facendo male.
Un modo potrebbe essere creare un avatar della supply chain—tu sei un uomo attraente, quindi sembrerebbe te—e così le persone costruirebbero fiducia e inizerebbero a parlare con l’avatar in modo naturale. Ci saranno ancora persone che non accetteranno di parlare; sarà una loro perdita.
Conor Doherty: A proposito di misure di protezione—integrare la tecnologia ma garantire sicurezza e protezione. Un esempio fondamentale sono le riunioni con i clienti, i demand planner, le diagnosi: si discute di molte informazioni sensibili—numeri, date, valori. Le persone potrebbero avere preoccupazioni riguardo alla sicurezza e alle misure di protezione.
Joannes Vermorel: Assolutamente. Una delle cose che insegnavo ai miei studenti di informatica quasi 20 anni fa, quando l’email era ancora una novità, era di trattare ogni email come se andasse resa pubblica per sempre. Una volta inviata, non hai controllo. Può essere inoltrata. Dicevo, “Assumi che tutte le tue email saranno scaricate su Usenet”—al tempo, l’equivalente di Reddit—e scrivi di conseguenza.
Stiamo entrando in un mondo molto strano in cui sarà molto difficile nei prossimi 20 anni resistere agli strumenti di ascolto passivo che registrano tutto. Posso prevedere enormi aumenti di produttività; sarà difficile resistere. Un’azienda abbraccerà questa realtà e si renderà conto di risparmiare molto tempo. Parlo di 20 anni, non di due.
Le email, come le pratichiamo oggi, sarebbero percepite come strane dalle persone degli anni ‘70. L’idea che una conversazione privata sia sempre a rischio di essere diffusa sulla stampa nazionale sarebbe sembrata folle. Il fatto che un’email scritta venga inoltrata a decine di persone accade continuamente. Le persone non sentono il bisogno di chiedere permesso per inoltrare un’email. Una lettera postale era privata; inoltrarla a terzi non era accettabile.
Knut Alicke: Tornando all’addestramento: assicurati che le persone sappiano cosa debba essere condiviso e cosa no. Un altro esempio dal nostro libro: un collaboratore raccontò che, nel suo processo S&OP, voleva invitare i tre fornitori più importanti. Tutti si lamentarono, “Non possiamo; sapranno qual è il nostro piano di produzione.” Lui replicò, “Esattamente è ciò che voglio condividere, affinché possano prepararsi.” Sono i tre più importanti, non migliaia.
Con la trasparenza, si può migliorare. Spesso c’è la paura: “Se sanno cosa facciamo…” Sì, ma se lo sanno, possono prepararsi meglio e l’intera supply chain ne beneficia. Lo stesso vale per questi modelli—ma chiaramente, se c’è un vero segreto, non lo vuoi sulla stampa la mattina successiva.
Joannes Vermorel: Io credo che questo cambi l’organizzazione. Per esempio, la generazione dei miei genitori che lavorava a Procter & Gamble aveva un assetto quasi militare internamente; la gerarchia era estremamente rigida; la privacy e il segreto erano fondamentali; le informazioni venivano distribuite secondo il principio del need-to-know. Questo è evoluto enormemente. Oggi Procter & Gamble non è affatto come 50 anni fa.
Questa tecnologia sposterà il mercato verso le aziende che dicono, “Se tutto è pubblico, abbiamo poco da nascondere perché il nostro vantaggio competitivo non deriva da questo.” Sì, a volte tenere le carte coperte rappresenta un vantaggio, ma puoi avere un’azienda in cui i segreti sono irrilevanti. Sposterà le attività aziendali sempre più in questa direzione.
È difficile mettere veramente in sicurezza questi strumenti. Per esempio, quando eseguo audit di startup tecnologiche, lo faccio senza alcun dispositivo—solo penna, carta, taccuino—così da non rischiare di divulgare accidentalmente nulla. Tutto è analogico; trapelare i dati significa rubare il mio taccuino, e la mia calligrafia è talmente illeggibile che risulta parzialmente offuscata.
In generale, con le email le aziende hanno abbracciato una maggiore apertura; non possono operare come 50 anni fa, segretamente. Ora chiunque può girare un video e caricarlo su TikTok; ciò crea complicazioni. Se ci sono cose che il pubblico non dovrebbe vedere, forse non dovremmo averle, perché qualcuno caricherà un video: condizioni di lavoro, una cucina sporca. Questa tecnologia spingerà tutto ulteriormente, complicando ciò che rappresenta il tuo vantaggio competitivo in un mondo con pochissimi segreti. È una conversazione in corso da 20 anni, perché queste tecnologie richiederanno tempo per essere implementate.
Conor Doherty: Le misure di protezione sono multifaccettate: sicurezza e spesa. Alcuni sostengono che la generative AI abbia trasformato la supply chain in peggio, citando il “generative AI value gap”—enormi investimenti con pochi ritorni; un limbo dei progetti pilota. Da entrambi i vostri punti di vista, questo influenza la vostra percezione dell’impatto trasformativo della GenAI?
Knut Alicke: Come detto in precedenza, non ci siamo ancora. Siamo ancora nella fase iniziale. Ho sentito dire da un collega intelligente: quando fai un progetto pilota, chiedi al CEO o al responsabile della business unit se utilizza quotidianamente ChatGPT. In questo modo, sanno cosa è possibile e cosa non lo è. L’ho trovato estremamente intrigante.
Se il capo ha un’idea di ciò che è possibile, allora o non viene fatto un pilot perché è troppo presto, oppure il pilot è impostato con il giusto ambito e le giuste aspettative. Altrimenti, i progetti pilota vengono impostati per risolvere la fame nel mondo e possono solo fallire.
Molte persone continuano a confondere GenAI, AI, digitale e algoritmi. Sembra che sia la nuova parola da usare in ogni situazione, e poi tutto quello che fai diventa GenAI—ma non è così. Ridimensionalo a ciò che può realmente aggiungere valore e a ciò che è possibile; allora vedremo l’impatto nei prossimi anni.
Un’altra considerazione: molto spesso l’idea di impatto è troppo locale. Nella supply chain, l’impatto maggiore di un lavoro ben fatto è ancora la disponibilità. La disponibilità si traduce in margini più alti, maggiori ricavi. Molte persone ritengono ancora che la supply chain sia solo costo e inventario. Metti tutto insieme end-to-end, analizza il tuo impatto, e vedrai un incremento delle performance complessive.
Joannes Vermorel: Penso che sia un perfetto sostituto della blockchain. Più seriamente: come tutte le parole d’ordine, di solito c’è qualche dettaglio tecnologico genuino. Ma, essendo parte del mondo degli software vendors aziendali, i processi di acquisto delle grandi aziende per il software enterprise sono pessimi. Si spreca un sacco di denaro. La GenAI finisce per essere ciò su cui si spreca il denaro. Se non avessimo la GenAI, il denaro verrebbe sprecato su un’altra parola d’ordine.
La causalità non è “la GenAI crea lo spreco.” La causalità è “il processo di acquisto è disfunzionale; quindi il denaro viene sprecato,” e lo spreco si riversa sulla parola d’ordine del momento. Due o tre anni fa era la blockchain; cinque anni fa il big data; 10 anni fa il data mining.
Il tuo punto sul capo che gioca con ChatGPT: la chiave è la mechanical sympathy. Riesci a percepire nel profondo cosa questo strumento può fare e cosa no? Lo stesso vale per blockchain/crypto: hai mai acquistato Bitcoin, lo hai usato? Capisci come funziona? Se non riesci a comprendere a fondo la tecnologia, non va bene.
Purtroppo torniamo al pessimo processo che finisce con una RFP di 600 domande. Siamo sul lato ricevente e riceviamo domande come, “La stanza che usi per il tuo archivio fax è a prova di incendio?"—una domanda che abbiamo ricevuto un mese fa.
Knut Alicke: Sono d’accordo, e un’altra osservazione: il processo di selezione del software è così strano. Chiedo sempre ai clienti, “Perché avete bisogno di queste 500 specifiche?” Tutte le aziende di software, per default, escluderanno qualsiasi cosa, perché un’azienda di software vende una visione, non la realtà. Poi entri in riunioni patinate in cui promettono tutto.
Supponiamo che tu voglia acquistare una nuova auto. La compreresti guardando un video di 30 secondi su YouTube? Probabilmente no. Vuoi sederti in macchina, toccarla, guidarla. Perché non fai lo stesso con il tuo software? Perché non realizzi una prova di concetto in cui dimostri che funziona?
Tutto torna alla capacità: le persone devono avere una comprensione approssimativa di cosa contiene. Tutti noi insegniamo, quindi dobbiamo insegnare una supply chain ancora più pratica e portarla al livello del consiglio. Ecco perché abbiamo realizzato il nostro libro “Source to Sold”, per portare tutto ciò al livello del consiglio e assicurarci che comprendano la narrazione—ciò che funziona, ciò che non funziona e dove risiede l’impatto.
Conor Doherty: Per la cronaca, avevo scritto “JV—mechanical sympathy.” Sapevo che lo avresti detto. Ci conosciamo da un po’.
Questo ci porta verso la fine—due domande chiave. Una riguarda il livello del consiglio; l’altra la persona sul campo. Knut, inizia con il consiglio: come presenti il valore trasformativo a livello di consiglio per persuadere, e poi come lo presenti a livello operativo?
Knut Alicke: A livello del consiglio, pensa al linguaggio che esso utilizza: visione, crescita, margine. Devi costruire la tua storia per dimostrare che questa nuova tecnologia aiuterà a realizzare la tua visione— ad essere migliore per il cliente, per il consumatore, a essere più redditizio.
Nel reparto operativo: tutto ciò che hai detto al consiglio è vero, ma devi ottenere l’adesione che questo strumento aiuta le persone nella loro vita quotidiana. Se è solo un altro strumento che sembra una scatola nera e complica la vita, non funzionerà. Deve rendere la vita più facile e aiutare le persone a contribuire alla performance complessiva.
Se fai il Gemba in un warehouse, le persone che prelevano hanno sempre 5.000 idee per migliorare. Non è che siano stupidi o non vogliano; lo sanno, ma spesso non vengono consultati. Lo stesso vale per i planner. Devi raccontare la storia: “Qui abbiamo qualcosa che ti aiuta a essere un planner migliore, rende la tua vita più facile e rende il tuo lavoro più interessante, perché ci sono nuove cose interessanti da esplorare.”
Joannes Vermorel: Presentare al consiglio: il XXI secolo è il secolo della meccanizzazione del lavoro intellettuale. Il XX secolo era quello della meccanizzazione del lavoro fisico. Se non meccanizzi i tuoi eserciti di impiegati—impiegati in camice bianco—i tuoi concorrenti lo faranno. Consegnano di più con meno persone e in minor tempo. Se hai meno persone, puoi essere più veloce.
Devi osservare cosa stanno facendo gli eserciti di impiegati in camice bianco. Nella pianificazione della supply chain, molte aziende hanno centinaia di persone che esaminano gli stessi fogli di calcolo ogni giorno—decine di migliaia di righe. La sfida più grande è: quando verranno completamente robotizzati questi lavori? Non è una questione di “se”, ma di “quando”. Possiamo non essere d’accordo se saranno tra cinque o 50 anni.
Conor Doherty: Questa sarebbe stata la mia ultima domanda—grazie.
Joannes Vermorel: Io sono sul lato ottimistico. So che Knut pensa che ci vorrà un lungo periodo per migliorare la vita di quelle persone. Ma possiamo essere d’accordo sul fatto che lo status quo sia insoddisfacente. Qualche azienda riuscirà a fare meglio dello status quo.
Per le persone più operative: in Lokad robotizziamo, il che è una discussione difficile. Sei disposto ad abbracciare qualcosa che renderà il tuo lavoro più impegnativo ma anche più interessante? La monotonia della discesa nel foglio di calcolo è una sorta di comfort, ma è incredibilmente noiosa.
Se ti senti estremamente a tuo agio in un compito estremamente noioso, non è positivo. Se hai la volontà di sfidare e elevare il tuo lavoro, questa è l’opportunità della vita per far parte della rivoluzione che meccanizza il lavoro. Farai parte delle persone che fanno cose molto più intelligenti, un livello al di sopra dell’automazione banale.
Questa è parte della visione di Lokad: robotizzare il compito e far sì che le persone supervisionino l’automazione. Esiste un altro campo—prendi le persone e rendile enormemente più produttive. Due prospettive valide per rompere lo status quo della monotonia dei fogli di calcolo.
Conor Doherty: Knut, è consuetudine affidare il pensiero conclusivo all’ospite. Potresti espandere la tua prospettiva? Joannes sembra suggerire che l’IA che prende il controllo del decision-making potrebbe essere più brusca rispetto alla tua posizione. Per chi non è familiare con la tua posizione, come vedi l’evoluzione a breve e medio termine?
Knut Alicke: La mia speranza—lascia che ti dia due versioni: quella ottimistica e quella pessimistica. L’ottimistica: i modelli saranno migliori; saranno in grado di apprendere tramite il contesto o nuove invenzioni. Con questo, renderemo la vita dei pianificatori molto più semplice e la qualità delle decisioni molto migliore, il che porterà a una sfida intellettuale molto più stimolante—cosa che non piacerà a tutti. Probabilmente ciò accadrà nei prossimi cinque anni.
Il pessimista—i pessimisti sono ottimisti esperti: guardando indietro di 25 anni, prima di McKinsey lavoravo in una startup che sviluppava software per la pianificazione per l’elettronica di consumo. La qualità del software e delle decisioni che avevamo allora era, col senno di poi, sorprendente. Ho ancora molti clienti che non sono nemmeno lontanamente a quel livello. Tenendo presente ciò, direi che il pessimista dice che ci arriveremo, ma probabilmente in 20 anni.
Conor Doherty: Quindi abbiamo avuto l’ottimistico, il pessimista; l’apocalittico sarebbe Skynet domani—la prossima settimana—sarebbe appropriato?
Knut Alicke: Skynet non accadrà—almeno non come un evento.
Conor Doherty: Se stai guardando questo in futuro, mandami un messaggio; fammi sapere. Non ho altre domande, signori. Joannes, grazie per essere stato con me. Knut, sei stato delizioso. Grazie mille per essere stato con noi in studio. E a tutti gli altri, dico: tornate al lavoro.