00:00:00 Osservazioni introduttive da Robert Fildes
00:01:08 Conor Doherty presenta il panel e l’argomento
00:03:11 La prospettiva di Nicolas Vandeput
00:06:16 La presentazione di Sven Crone
00:10:34 La prospettiva di Alexey Tikhonov
00:15:01 La necessità di automazione nel processo decisionale
00:20:13 Condividere informazioni fra gli umani è una perdita di tempo
00:25:29 Una prospettiva sull’intervento umano
00:30:23 Valutare una previsione
00:35:18 Prospettiva finanziaria e processo decisionale
00:40:14 Il costo degli errori di previsione
00:45:43 Automazione e fiducia
00:50:27 AI aumentata e le sue applicazioni
00:55:03 L’impatto dell’AI sui traduttori umani
01:00:16 L’importanza di una visione chiara nell’implementazione dell’AI
01:06:00 Considerazioni finali e il futuro dei demand planners
01:11:50 Domanda dal pubblico: previsioni per gli ospedali
01:15:38 Domanda dal pubblico: riduzione del bias nel modello e umano
Contesto del panel
Il panel è stato proposto per la prima volta da Robert Fildes (Professor Emeritus, Lancaster University) in risposta all’articolo di Conor che critica la FVA. Questo articolo è stato ripubblicato nell’edizione Q2 2024 di Foresight (prodotta dall’International Institute of Forecasters, la stessa organizzazione che gestisce il simposio). Successivamente, il panel è stato ampliato per includere Sven Crone, Nicolas Vandeput e Alexey Tikhonov, al fine di fornire una gamma più equilibrata di prospettive sia dal mondo accademico che da quello industriale.
Sommario della discussione del panel
Girato a luglio 2024 al 44° Simposio Internazionale sulla Previsione a Digione, il panel composto da quattro relatori ha discusso di “Pianificazione della Domanda e il Ruolo del Giudizio Umano nel Nuovo Mondo dell’AI/ML”. Moderato dal Responsabile della Comunicazione di Lokad, Conor Doherty, il panel includeva Alexey Tikhonov (Lokad), Sven Crone (Lancaster University & iqast) e Nicolas Vandeput (SupChains). La discussione ha ruotato attorno all’integrazione dell’AI nella pianificazione della domanda, al valore delle previsioni nel processo decisionale, e al futuro dei pianificatori della domanda. I panelist hanno condiviso opinioni differenti sul ruolo del giudizio umano nella pianificazione della domanda, sul potenziale dell’AI di sostituire i pianificatori della domanda, e sull’importanza dell’accuratezza nelle previsioni.
Sommario esteso
Il 44° Simposio Internazionale sulla Previsione a Digione, Francia, ospitato dall’International Institute of Forecasters, ha presentato una tavola rotonda su “Pianificazione della Domanda e il Ruolo del Giudizio nel Nuovo Mondo dell’AI/ML”. La discussione è stata moderata da Conor Doherty di Lokad, e i panelist includevano Alexey Tikhonov di Lokad, Sven Crone di iqast e Nicolas Vandeput di SupChains. La sessione è stata introdotta da Robert Fildes, Professor Emeritus presso la Lancaster University.
La discussione è iniziata con Nicolas Vandeput che ha delineato la sua visione per la pianificazione della domanda nell’era del machine learning. Ha proposto un processo in quattro fasi che includeva vedere la previsione della domanda come un gioco di informazioni, creare un motore di previsione della domanda basato su machine learning automatizzato, permettere ai pianificatori della domanda umani di arricchire la previsione con informazioni non incluse nel modello, e monitorare il valore aggiunto da tutti i soggetti coinvolti nel processo.
Sven Crone ha condiviso la sua esperienza in AI e previsione, notando la lenta adozione dell’AI nella pianificazione della domanda. Ha discusso le complessità dell’integrazione dell’AI nei processi di pianificazione della domanda e ha suggerito che l’AI potrebbe potenzialmente sostituire i pianificatori della domanda in futuro. Tuttavia, ha anche evidenziato l’eterogeneità delle previsioni, con diverse industrie che richiedono approcci differenti.
Alexey Tikhonov ha sostenuto che la pianificazione della domanda è un approccio obsoleto e che gli interventi di previsione basati sul giudizio sono uno spreco. Ha promosso la previsione probabilistica, che cattura il pattern strutturale del rischio, e ha criticato la pianificazione della domanda per la sua mancanza di prospettiva economica e automazione. Ha inoltre sostenuto la completa automazione del processo decisionale nelle supply chain, affermando che la complessità e la scala delle decisioni richieste nelle supply chain lo rendono necessario.
I panelist hanno anche discusso il valore della previsione nel processo decisionale. Nicolas Vandeput ha sottolineato che le previsioni sono fatte per facilitare il processo decisionale e ha sostenuto modelli in grado di elaborare quante più informazioni possibili. Ha anche suggerito che, nel valutare una previsione, si dovrebbe concentrarsi sull’accuratezza della previsione piuttosto che sui risultati aziendali, poiché questi ultimi possono essere influenzati da molti altri fattori al di fuori del controllo del previsionista.
Sven Crone ha discusso la prospettiva industriale della pianificazione della domanda, enfatizzando l’importanza delle decisioni strategiche a lungo termine e della pianificazione basata su scenari. Ha anche evidenziato le difficoltà nel misurare il valore aggiunto e l’importanza del giudizio nel processo.
Alexey Tikhonov ha messo in discussione il valore di una previsione più accurata se non porta a una decisione diversa. Ha sostenuto che il valore di una decisione non dipende unicamente dalla previsione, ma anche da altri fattori come i driver decisionali.
I panelist hanno anche discusso della fiducia nelle previsioni, con Nicolas Vandeput che ha suggerito che l’unico modo per creare fiducia in una previsione, sia che venga generata da un essere umano o da una macchina, è monitorare l’accuratezza di ogni singolo passaggio del processo. Sven Crone ha concordato sull’importanza della fiducia e ha suggerito che una combinazione di AI e metodi semplici e trasparenti potrebbe essere utilizzata per automatizzare parti del processo.
I panelist hanno anche discusso del futuro dei pianificatori della domanda. Sven Crone crede che i pianificatori della domanda avranno ancora un ruolo in futuro, ma dovranno affrontare sfide crescenti a causa dell’aumento della frequenza delle decisioni e della quantità crescente di dati disponibili. Nicolas Vandeput vede il ruolo dei pianificatori della domanda evolversi verso la raccolta, la strutturazione e la pulizia dei dati e delle informazioni. Alexey Tikhonov ritiene che i pianificatori della domanda non saranno in grado di competere a lungo con i sistemi di intelligenza.
Il panel si è concluso con una sessione di domande e risposte, durante la quale i panelist hanno affrontato domande dal pubblico su temi come le condizioni o i requisiti per creare decisioni automatiche nella pianificazione della domanda, il ruolo del giudizio nella pianificazione della domanda, e come incorporare il bias del giudizio umano nel bias statistico per ridurre il bias complessivo.
Trascrizione completa
Robert Fildes: Sono Robert Fildes e sto introducendo queste due sessioni. Per ragioni logistiche, sono state scambiate e per la prossima ora circa parleremo del ruolo in evoluzione dei pianificatori della domanda e del loro ruolo che potrebbe essere sostanzialmente modificato dagli sviluppi nell’AI e nel machine learning. I panelist esprimeranno presto le loro parole di saggezza. La sessione di Paul Goodwin e mia, in cui parleremo di molte evidenze empiriche sul ruolo del giudizio, è stata spostata a questo pomeriggio alle 15:10. È comunque nel programma. Sì, parleremo di aggiustamenti giudiziali, ma non in questa stanza, in un’altra. Non vedo l’ora di vedervi allora e aspetto con interesse una discussione stimolante e preferibilmente controversa e passo la parola al moderatore, Conor.
Conor Doherty: Bene, grazie mille Robert. Ciao a tutti, sono Conor, responsabile delle comunicazioni presso Lokad e sono molto lieto di essere sul palco insieme a un illustre panel proveniente dal mondo accademico e industriale. Alla mia immediata sinistra, Alexey Tikhonov, business and product developer di Lokad. Alla sua sinistra, il Dr. Sven Crone della Lancaster University, CEO e fondatore di iqast e, infine, ma non meno importante, Nicolas Vandeput di SubChains. Ora, come potete vedere sullo schermo, il tema della discussione di oggi è la pianificazione della domanda e il ruolo del giudizio nel nuovo mondo dell’AI e del machine learning.
Sono abbastanza sicuro, data la presenza dei relatori sul palco, che ci sarà un vivace scambio di idee e penso che ogni progresso tecnologico sollevi tipicamente interrogativi su come tali progressi influenzeranno il coinvolgimento umano. Quindi non vedo l’ora di sentire i nostri tre panelist discutere di questo. Ora, prima di iniziare, il tempo è una risorsa un po’ scarsa oggi, quindi una piccola comunicazione: ogni panelist avrà 5 minuti per presentare la propria prospettiva relativa all’argomento. Prima parlerà Nicolas, poi Sven e infine Alex.
Successivamente, farò alcune domande progettate per approfondire alcuni dettagli e le implicazioni delle loro prospettive e, in base a come andrà, se saremo ancora in termini di dialogo, ci saranno sperabilmente alcune domande dal pubblico. Quello che posso dire è: per favore, se possibile, dato che il tempo è scarso, abbiate alcune idee pronte prima che il microfono venga passato, piuttosto che un monologo seguito da un punto interrogativo. Detto ciò, passo la parola prima a Nicolas, per favore, la tua prospettiva relativa all’argomento.
Nicolas Vandeput: Grazie, Conor. Ciao a tutti. Ottimo, ho le slide. Lasciate che vi presenti la visione che ho per l’eccellenza nella pianificazione della domanda nell’era del machine learning e come, fondamentalmente, si possa per la previsione della domanda nella supply chain integrare il machine learning insieme all’arricchimento umano. Quindi avete quattro fasi sulla slide. Permettetemi di spiegare.
La prima cosa fondamentale per me è vedere la previsione della domanda come un gioco di informazioni. Quindi, fondamentalmente, ciò che si intende è raccogliere quanti più dati, informazioni, insight – qualunque cosa si voglia chiamare – sulla domanda futura. Questo potrebbe includere il vostro calendario promozionale, la quantità di pubblicità che intendete fare, i dati di vendita, l’inventario presente presso il vostro cliente, gli ordini già ricevuti in anticipo dai clienti, tutto ciò. E per alcune industrie potrebbe essere diverso, va benissimo, ma il punto fondamentale è che il primo passo è raccogliere informazioni su ciò che ci attende. Siete giornalisti, reporter, detective: andate a cercare queste informazioni.
Ora, una volta raccolte tutte queste informazioni, i dati che possono essere strutturati devono essere alimentati al machine learning e si desidera creare un motore di previsione della domanda basato su machine learning che sia automatizzato e a prova di errore. Per automatizzato intendo che sia uno strumento, un motore che non richiede alcuna modifica manuale, revisione o messa a punto da parte umana. Può essere gestito da un team di data science o operare in automatico, quindi è completamente automatizzato. A prova di errore significa che il vostro motore di machine learning deve reagire alla maggior parte dei driver di business, ovvero promotion, prezzi, shortages, forse pubblicità, magari il meteo, festività e simili. Quindi è a prova di errore per la maggior parte dei driver di business ed è completamente automatizzato, senza necessità di intervento o revisione.
Una volta ottenuto ciò, gli umani, ovvero i pianificatori della domanda, possono ancora arricchire la previsione basandosi sulle informazioni trovate che non sono incluse in questo modello. Immaginate, per esempio, che chiamino il vostro cliente e un cliente dica: “Beh, è davvero un periodo difficile, non ordinerò questo mese.” In tal caso, il cliente non comunicherà ciò al modello di machine learning, che non ne sarà a conoscenza; lo sarà invece il pianificatore, il quale dovrebbe rivedere la previsione e modificarla, perché conosce qualcosa che il modello non sa.
Fase finale, valore aggiunto alla previsione. Questo è un passaggio assolutamente critico. Potrei addirittura iniziare da quello. Significa che dobbiamo monitorare il valore aggiunto da ciascuno nel processo. Quindi, dobbiamo misurare l’accuratezza della previsione prima e dopo l’arricchimento per garantire che, nel tempo, l’arricchimento aggiunga valore. Ovviamente, a volte qualcuno può avere fortuna o sfortuna, ed è del tutto normale. Non ogni singolo arricchimento aggiungerà valore, ma ciò che vogliamo dimostrare e mostrare nel tempo è che, in media, questi arricchimenti apportano valore. Quindi ne vale la pena. Beh, questa era la mia visione in quattro fasi su come integrare il machine learning e i pianificatori della domanda.
Conor Doherty: Bene, grazie mille, Nicolas. Ora passo la parola a Sven.
Sven Crone: Grazie. Sì, grazie. Sono Sven Crone della Lancaster University, professore associato con quasi due decenni di ricerca in AI e previsione. Devo dire fin da subito che sono completamente di parte verso l’AI. Ho cercato di far funzionare l’AI nelle previsioni per molti, molti anni. Così, giusto per farvi conoscere il mio bias fondamentale. Allo stesso tempo, abbiamo creato una piccola azienda in cui abbiamo cercato di aiutare grandi multinazionali a sfruttare le nuove tecnologie e, guardando indietro a quegli anni, è estremamente difficile. Penso che oggi dovremo affrontare, si spera all’interno del panel, alcuni elefanti nella stanza.
Mentre la visione esiste da anni, possiamo sostituire la statistica con l’AI, possiamo sostituire ciò con la statistica. In realtà, non siamo stati particolarmente trasformativi per quanto riguarda i processi di pianificazione della domanda, credo. Questo è il mio bias fondamentale. Dalla mia esperienza, abbiamo formato molti pianificatori della domanda cercando di far loro apprezzare alcuni algoritmi di smoothing esponenziale e algoritmi ARIMA. Vi posso dire che non è un esercizio piacevole: l’adozione è lenta. È un esercizio intrigante con la domanda, ma è molto difficile far sì che accettino alcune delle tecnologie più semplici. Quindi penso che parleremo in seguito di cosa accade se quella tecnologia diventa ancora più avanzata e le persone devono interagire con essa.
Ma lo stato attuale, circa 10 anni fa, l’uso dell’IA era molto limitato, sebbene le reti neurali esistano da quasi 60 anni, risalenti certamente ad alcune delle prime innovazioni, sicuramente agli anni ‘80. Ma l’adozione è stata relativamente lenta. Negli ultimi due o tre anni, facciamo regolarmente sondaggi alle conferenze dei professionisti. Stavamo appena parlando a una conferenza di professionisti, l’ASM, insieme a Bruxelles, e abbiamo fatto un sondaggio in sala. Abbiamo chiesto quante persone fossero effettivamente in diretta con una prova di concetto in AI e ML e circa il 50% del pubblico era presente. Quindi, rispetto al 5-10% di 10 anni fa, ora il 50% sta effettuando una prova di concetto. Non sono ancora in produzione, ma parecune lo sono già, e abbiamo visto alcune grandi aziende che lo stanno sperimentando. Nessuna preoccupazione nel pubblico e altri casi interessanti. Ma ciò che sorprende è che tanti progetti hanno successo quanto falliscono.
Quindi, c’era una larga fetta del pubblico in cui i progetti di IA non avevano successo, e penso che sia esattamente quella intersezione tra embedding di una tecnologia in un processo di demand planning, che è molto più della semplice fase di previsione. Se consideriamo l’industria, dobbiamo tenere conto della gestione dei dati master, della pulizia dei dati, della prioritizzazione, delle metriche di errore, dell’esecuzione di un modello statistico, poi eventualmente dell’analisi degli errori, dell’identificazione degli avvisi e dell’adeguamento conseguente. E, a proposito, anche se possiedi un processo completo di previsione statistica di base (che ancora oggi la maggior parte delle aziende non ha), Gartner offre una splendida mappa di maturità delle diverse fasi della maturità S&OP.
Molissime aziende si trovano al livello quattro, la maggior parte invece è tra il uno, il due e il tre. Anche se possiedi un processo statistico, come pulire la storia delle serie temporali supply chain, farlo automaticamente o manualmente, è una decisione di giudizio. Quale algoritmo scegliere è una decisione. Quali meta parametri permettere nella ricerca è una scelta basata sul giudizio. Quindi c’è molta componente soggettiva, ma penso che tradizionalmente consideriamo il giudizio come l’aggiustamento finale di una previsione statistica di base, che sia compreso o meno. E, forse, per guardare al futuro, non ho visto molti movimenti o innovazioni rispetto al processo S&OP così come è stato concepito da O.W., e vedo dirigenti che si mostrano seriamente scontenti per la mancanza di progressi, per la percepita mancanza di sviluppi, anche se spesso ci sono progressi nello sviluppo dei processi.
Ma, sai, credo che ci sia stato un CEO di Unilever che ha detto che dobbiamo eliminare il demand planning, perché non funziona in tempi di COVID. Ci sono vere sfide per i demand planner per mantenere i loro posti di lavoro e, a meno che non sfruttino l’IA – e penso che ci sia uno scenario realistico in cui, come hai detto, se riesci a fare tutto questo, l’IA potrà sostituire i demand planner anche nelle fasi di aggiustamento giudiziale. Ma non ci siamo ancora. Quindi, non vedo l’ora di conoscere il vostro parere.
Conor Doherty: Bene, grazie Sven. Alexey, le tue opinioni, per favore.
Alexey Tikhonov: Grazie. La mia proposta sarà radicalmente diversa. Penso innanzitutto che dobbiamo ampliare l’ambito, perché il demand planning esiste nella supply chain e l’obiettivo della supply chain è prendere decisioni in condizioni di incertezza, decisioni redditizie in presenza di vincoli. Per quanto riguarda questo obiettivo, la mia opinione è che il demand planning sia un approccio obsoleto e che gli interventi di previsione giudiziale siano uno spreco, anche se aiutano leggermente a migliorare l’accuratezza delle previsioni. Perché?
Il demand planning è un approccio obsoleto perché presuppone la necessità di separare la previsione dal processo decisionale. Questa separazione porta inevitabilmente alla scelta di strumenti semplici, poiché introduciamo un’interfaccia uomo-a-uomo. Dobbiamo trasmettere le informazioni in maniera molto semplice e scegliamo previsioni puntuali perché tutti possono capirle. I calcoli delle metriche di accuratezza sono semplici, così possiamo discutere su quei valori, regolandoli su o giù. Ma sfortunatamente, questa scelta degli strumenti ci impedisce di prendere decisioni redditizie.
Per prendere una decisione redditizia, dobbiamo valutare i rischi finanziari e i rendimenti finanziari. Possiamo farlo soltanto se catturiamo il modello strutturale del rischio. C’è un solo strumento, per quanto ne so, che lo fa: si chiama previsione probabilistica, in cui, anziché fare previsioni puntuali, si esprime un’opinione informata su come siano tutti i futuri possibili e quali siano le probabilità per scenari differenti.
Non sto parlando solo della domanda. Ci sono altre incertezze; ad esempio, potrebbero esserci incertezze nel lead time da considerare. Questo è particolarmente rilevante se si tratta di merci spedite dall’estero. Poi potresti avere incertezze nel rendimento se ti occupi della produzione alimentare. Potresti avere incertezze sui resi se stai parlando di e-commerce. Quindi ci sono molteplici fonti d’incertezza e serve un set di strumenti specifici, chiamato modellazione probabilistica, per combinare tutte queste incertezze e poter dedurre decisioni nelle fasi successive.
Il demand planning ci offre una sola versione del futuro, ossia una previsione puntuale, che rappresenta lo scenario più probabile. Ma noi siamo interessati alle code di questa distribuzione, perché i rischi si concentrano agli estremi. Inoltre, la prospettiva del demand planning ci porta inevitabilmente a considerare una sola opzione decisionale. Hai una previsione puntuale, applichi una formula per lo safety stock o una semplice politica di inventario, ed ottieni una decisione. Ma questa decisione è redditizia? E se la modificassi alzandola o abbassandola? Come cambierebbe la redditività attesa? Non posso farlo perché le mie previsioni sono puntuali. Non esprimo alcuna probabilità su quei scenari.
Il terzo problema del demand planning è che la prospettiva economica è completamente assente. Parliamo di accuratezza delle previsioni in percentuali oppure, se usiamo metriche che riguardano l’accuratezza in unità, manca la prospettiva finanziaria. Quindi, ciò che serve è stimare il costo atteso, i premi attesi e dobbiamo anche stimare fattori secondari, come ad esempio il confronto tra decisioni di inventario per prodotti differenti. Ogni rivenditore sa, per esempio, che avere pannolini in magazzino è molto più importante che avere cioccolato premium, perché se non disponi del primo prodotto, i tuoi clienti rimarranno delusi, perderai la loyalty.
Il demand planning ci impedisce una vasta automazione. Cosa automatizzeremo? Automatizzeremo la produzione delle decisioni finali, non solo la previsione. Dobbiamo automatizzare l’intera catena. Dobbiamo trasformare i nostri dati transazionali grezzi in decisioni operative che rispettino già tutti i vincoli decisionali, come le quantità minime d’ordine (MOQs) e altri fattori decisionali come gli sconti sul prezzo.
E infine, non da ultimo, deve esserci una chiara responsabilità. Attualmente, non c’è una proprietà definita sulle decisioni finali, perché abbiamo questo processo di transizione in cui la previsione passa a un team diverso, che poi prende la decisione, e si innesca il gioco delle colpe: “Oh, abbiamo preso questa decisione perché la tua previsione era inaccurata o c’è stato un aumento giudiziale della previsione e quindi ci ha portato a una decisione sbagliata.”
Quindi, per riassumere, la prospettiva del demand planning è obsoleta e abbiamo qualcosa di migliore. Grazie.
Conor Doherty: Beh, oggi saremo d’accordo, ma non su tutto. Posso rispondere a ciò, perché penso di essere pienamente d’accordo con te su alcuni aspetti. Credo che tu abbia menzionato la previsione puntuale contro quella ad intervallo o a distribuzione di probabilità, giusto? Ma ci sono molti pacchetti software là fuori che lo fanno da molti anni, eppure i professionisti lo ignorano. Tuttavia, penso che tutti noi comprendiamo il valore di comunicare non solo il valore della domanda, ma anche il rischio ad essa associato.
SAS lo fa da molto tempo, Forecast Pro lo fa e persino Forecast X lo fa, ma viene ampiamente ignorato. Quindi, perché viene ignorato? Probabilmente dovremmo discutere del motivo per cui i demand planner non comprendono le previsioni a intervallo. Credo che sarebbe interessante. L’altro punto che hai menzionato, e che ritengo valido, è che spesso esiste una disconnessione tra il demand planning e l’inventory planning, il supply network planning, il production planning, il che renderebbe vantaggiosa un’ottica olistica.
Ma se pensi alle grandi multinazionali, credo che i processi siano strutturati in modo tale da guidare decisioni che coinvolgono decine di migliaia di dipendenti, i quali non condividono liberamente le loro conoscenze. E la terza cosa è che dobbiamo riflettere su cosa intendiamo per demand planning. Penso che ognuno di noi abbia un background diverso in quest’ambito. Io provengo da multinazionali industriali, sai, forse compagnie di trasporto multinazionali, beni di largo consumo, farmaceutica. Probabilmente tu hai una visione e un background più orientati al retail, dove queste tematiche possono essere integrate insieme.
Ma quello che vediamo, intendo dire, sono libri molto interessanti di Charlie Chase di SAS. Credo che abbia scritto sul demand-driven supply planning. Si tratta della riconciliazione domanda-offerta. È tanto un processo per condividere informazioni e aspettative, quanto per la gestione del rischio, esattamente la gestione del rischio su un orizzonte a lungo termine in S&OP, guardando a circa 6-18 mesi. L’S&OE guarda a uno-quattro mesi, ed è quella condivisione d’informazioni che può essere altrettanto preziosa, indipendentemente dal risultato finale della previsione in un solo numero.
Non nego che alcune tematiche abbiano ancora molta strada da fare per quanto riguarda l’integrazione del processo decisionale. Tuttavia, penso che il demand planning serva a più di uno scopo. Ma, per il momento, stiamo concentrandoci sull’automazione. Forse l’IA viene usata nel contesto dell’automazione e stiamo valutando principalmente l’accuratezza. Ma pochissime persone si concentrano sulla condivisione delle informazioni. Ci sono alcuni interessanti articoli sulla robustezza delle previsioni. Voglio dire, cosa succede se cambi continuamente la tua previsione con un modello di machine learning molto reattivo, e il production planning impazzisce perché somma il tutto sul lead time, causando overstock o understock e l’introduzione di ordini di produzione?
Quindi, penso che se possiamo concentrarci sul processo di demand planning e sul contributo della previsione in esso, visto che le altre tematiche riguardano il supply planning, il network planning, il production planning – cosa che renderebbe la discussione più complessa – sono pienamente d’accordo con te sull’importanza di questo aspetto.
Alexey Tikhonov: Forse con un breve commento. Sì, quindi la mia opinione non è che abbiamo bisogno di una migliore condivisione delle informazioni o di previsioni migliori. La mia opinione è che dobbiamo automatizzare completamente la parte decisionale. Non dovremmo permettere ai professionisti della supply chain di essere coinvolti nel processo di previsione, perché le supply chain sono estremamente complesse. Stiamo parlando di aziende che, anche se si tratta di aziende di medie dimensioni con un fatturato di 100 milioni, nel retail avranno decine di migliaia di SKUs, centinaia di negozi. Li moltiplichi tra loro e per ogni posizione di SKU devi prendere una decisione quotidiana.
Anche se hai cicli decisionali predefiniti, tipo “prendo questa decisione una volta a settimana”, faresti meglio a ricalcolare tali decisioni quotidianamente. Perché? Perché la capacità umana è limitata. Hai bisogno di un computer che controlli, tipo “Ok, se c’è un picco di domanda, è meglio saperlo prima del mio solito ciclo decisionale, perché mi aspetto una domanda più regolare.” Quindi devi ricalcolare queste decisioni ogni giorno, anche se la stragrande maggioranza di esse saranno decisioni banali, come “oggi non effettuiamo un acquisto.”
La capacità umana è molto limitata, e quando si tratta di condividere informazioni tra esseri umani si perde tempo. Dobbiamo automatizzare il più possibile. Dobbiamo essere capitalisti. Dobbiamo costruire asset, robot decisionali. Solo così potremo ottenere redditività dalle supply chain.
Nicolas Vandeput: Ti dispiacerebbe tornare alla mia slide per un minuto? Vorrei strutturare questo. Quindi inizierò dal mio framework e vorrei renderlo ancora più estremo per continuare la discussione da lì. Penso che siamo tutti d’accordo che facciamo previsioni solo perché vogliamo prendere decisioni ottimali. E diremmo: beh, forse questo tipo di previsione sarebbe migliore, questo tipo di previsione, questa granularità, questo orizzonte, la previsione puntuale, e così via. Ma siamo tutti d’accordo che facciamo previsioni perché a un certo punto dobbiamo prendere una decisione.
Ora, perché siamo così propensi all’automazione, tutti noi qui? È perché dobbiamo fare così tante previsioni e prendere così tante decisioni su larga scala e non vogliamo variabilità. Se c’è un essere umano, c’è il problema della variabilità. C’è il problema che ci sono troppe previsioni e decisioni da prendere, e così via. Ora, come vedo le previsioni, si tratta semplicemente di quante informazioni riesci a elaborare e di quanto sei bravo a processarle. Quindi, voglio avere un modello che sia il migliore possibile nel gestire quante più informazioni possibile.
La tecnologia che abbiamo oggi potrebbe cambiare in 10 anni. Potremmo avere un unico modello in grado di gestire tutte le informazioni disponibili al mondo. Prendiamo un esempio molto semplice: la pandemia di COVID-19. Immaginiamo che sia metà marzo 2020. Se hai un motore di previsione, anche con la migliore tecnologia di apprendimento che abbiamo oggi, sai che, come essere umano, il COVID arriverà e lo stato del mondo e della città cambierà nelle settimane successive. Il tuo modello non è a conoscenza di ciò.
Ora, potresti avere una previsione puntuale, oppure una previsione probabilistica, ma tu, come essere umano, devi comunque arricchirla e rivederla, perché hai accesso a informazioni a cui il tuo modello non ha accesso. Quindi, per me, la discussione se debba essere una previsione puntuale non ha rilevanza, perché la conclusione rimane la stessa: si tratta di quante informazioni riesci a fornire al tuo modello, il più possibile.
E se non riesci a fornire certe informazioni al tuo modello, allora è il momento che un essere umano intervenga per arricchirle. Ed è per questo che ha sempre senso avere un ultimo intervento umano in grado di rivedere una decisione o una previsione basandosi su informazioni che il modello non può processare.
Sven Crone: Penso che stiamo parlando di industrie diverse qui. Quando si tratta di pianificazione della domanda, sono pienamente d’accordo: se operi nel settore retail e hai decine di migliaia di decisioni da prendere ogni giorno, allora hai bisogno di un notevole grado di automazione.
Ma lavoriamo con rivenditori nel Regno Unito in modo abbastanza esteso da un po’ di tempo e anche lì vengono effettuati aggiustamenti sugli assortimenti per questioni in cui l’incertezza regna, come gli effetti di condizioni meteorologiche estreme o l’impatto delle chiusure per COVID sul gel doccia rispetto alla carta igienica in Germania.
Ma se guardi, ad esempio, un produttore farmaceutico che ha forse da due a 400 prodotti principali, questi sono abbastanza gestibili per una persona. Voglio dire, come fanno tutte queste aziende a cavarsela? Abbiamo condotto dei sondaggi e circa il 50% delle aziende utilizza misure statistiche molto semplici. Ce la cavano, sono profittevoli, stanno crescendo, sono agili nella supply chain, hanno integrato l’S&OP.
Quindi abbiamo un intero spettro di problemi e penso che sia una delle cose che adoro in questa conferenza. Tutte queste diverse sfumature di previsione si uniscono. Abbiamo persone che ci mostrano il carico elettrico per gli smart meter. Sì, ci sono centinaia di migliaia di smart meter con previsioni minuto per minuto, al punto che un intervento umano non è fattibile.
Ma se hai pochi articoli importanti che, sai, conosci davvero bene, per esempio in un’azienda farmaceutica – abbiamo esaminato, ad esempio, i vaccini che sono ben compresi – penso proprio che esistano diverse sfumature di pianificazione della domanda.
Quello che facciamo nelle previsioni è tanto eterogeneo quanto lo sono i prodotti e i mercati, ed è questa la bellezza della cosa. Ed è per questo che tutti noi ci sediamo al bar a parlare di previsioni: parliamo di cose completamente differenti. Ma sono completamente d’accordo con te, quindi se parliamo del settore retail, sono sicuro che l’automazione sia fattibile.
Abbiamo accettato di non essere d’accordo sul fatto che il mondo sia abbastanza grande da ospitare tutti i diversi pacchetti software per avere soluzioni specializzate. È per questo che grandi aziende come SAP offrono soluzioni specifiche per il retail e funzionano in modo diverso rispetto ai beni di consumo e ai prodotti farmaceutici nell’industria o in altri settori. Quindi, penso che siamo d’accordo, pur provenendo da punti di vista differenti.
Conor Doherty: Alex, desideri commentare?
Alexey Tikhonov: Solo un breve commento. Non posso essere d’accordo con l’idea che le persone debbano intervenire nel processo di previsione. Dove le persone possono aggiungere valore, lo possono fare all’input di questo motore decisionale per chiarire data semantics, fornire ulteriori dati, spiegare all’ingegnere che sta creando tutti quegli algoritmi o il motore decisionale come i dati vengono utilizzati nel business, in modo che abbia una migliore comprensione del quadro generale.
E poi possono aggiungere valore alla fine, verificando le decisioni che il motore decisionale sta generando e individuando quelle decisioni folli o imprecise, secondo la loro opinione, per poi rivedere questa ricetta numerica per capire cosa non va. Quali sono le ipotesi errate? Perché si sta prendendo la decisione sbagliata? Perché se intervengono a metà, toccano la parte delle previsioni o annullano la decisione: è come se le risorse venissero consumate anziché investite. Prima di tutto, bisogna cercare di migliorare questa robotization perché se lo fai manualmente, stai sprecando tempo.
E a proposito, dovresti partire dalle decisioni, non dalla previsione. Perché, cosa succede se ho un MOQ di 100 unità e tu ti presenti dicendo, “Oh, ora ho una previsione migliore. Invece di 50 unità di domanda, ce ne sono 55.” Beh, ho ancora un MOQ, quindi, dal mio punto di vista, entrambe le previsioni sono in qualche modo irrilevanti, nonostante il fatto che, sì, una sia più accurata. Sto comunque prendendo la stessa decisione, e il fatto che tu abbia investito più risorse nella produzione di una previsione, potenzialmente più accurata e computazionalmente più onerosa, si traduce in una maggiore precisione, ma nel complesso ci troviamo in una situazione negativa perché continuiamo a prendere la stessa decisione investendo più risorse.
Per questo sono contrario a intervenire manualmente nei passaggi del processo. Rivedi l’intera ricetta per migliorare l’automazione e renderla più robusta, affidabile e sensata.
Sven Crone: È un peccato che non abbiamo avuto in precedenza la discussione con Robert e Paul, che probabilmente nel pomeriggio stavano esaminando il forecast value added, perché abbiamo molte prove che, oltre ai metodi statistici avanzati, il giudizio può aggiungere un valore significativo.
E penso che la domanda sollevata qui oggi sia: può il machine learning superare il valore aggiunto della statistica e del giudizio, oppure è la stessa cosa? E poi ritengo che la questione del total cost of ownership sia una domanda valida, giusto? Quale dei due è più efficiente?
Sono abbastanza sicuro che Nicolas abbia molti esempi che hai menzionato in precedenza o che hai riportato, dove in realtà stai automatizzando tutto e ciò aggiunge più valore rispetto agli aggiustamenti basati sul giudizio. Ma forse passiamo alla prossima domanda.
Conor Doherty: Beh, in realtà è più un collegamento, una sorta di transizione. Serve a spingere oltre, a ciò che penso sia la domanda fondamentale, perché ascoltandoti, non c’è un disaccordo strumentale ma c’è un accordo complessivo.
E in realtà Nicolas, vengo da te per primo. Qualcosa che hai detto in precedenza – scusami se parafraso – che usiamo le previsioni per prendere decisioni migliori. Questo significa che la previsione è uno strumento all’interno di un processo più ampio, il che solleva la domanda: dove risiede il valore?
Perché se stai usando le previsioni come strumento per ottenere qualcosa di più grande, dove sta il valore? Il valore risiede nello strumento che costruisce la casa o nella struttura della casa? In questa analogia, la casa rappresenta la decisione.
Nicolas Vandeput: Penso che ci siano due domande importanti riguardo alla previsione. La prima è: la tua previsione è accurata o no? E, certo, potremmo dibattere su come misurare l’accuratezza – dibattiti molto interessanti, ma non il punto di oggi. Immaginiamo semplicemente che il primo passo sia valutare quanto sia accurata o valida.
La seconda domanda è: in base a una determinata previsione, quanto è brava la tua azienda a prendere la decisione giusta? Ora, sfortunatamente, il team che si occupa di questi aspetti è composto da gruppi differenti con input, output e KPI diversi.
Da un punto di vista supply chain non darei la colpa ai previsori o a chi realizza il motore di previsione per decisioni errate o per KPI legati alle decisioni, perché non hanno alcuna influenza su questi ultimi. Allo stesso tempo, potresti avere previsioni pessime e un decisore che, per fortuna o per sua eccezionale capacità, prende decisioni corrette nonostante la cattiva previsione.
Quindi, potresti ottenere dei KPI aziendali molto interessanti. Ancora, potremmo discutere su quali KPI siano rilevanti o meno, ma potremmo vederli in direzioni differenti. Per me, quando voglio valutare una previsione, non mi concentro sul risultato aziendale. Mi focalizzo esclusivamente sull’accuratezza della previsione, perché so che il risultato aziendale può essere influenzato da così tante altre variabili, completamente al di fuori del controllo di chi effettua la previsione, sia esso macchina o umano.
Ora, ciò che è molto interessante – e l’ho simulato per alcuni clienti – è che, a seconda della qualità della tua previsione – e possiamo di nuovo discutere su come misurare l’accuratezza – ma in base a ciò, e soprattutto a seconda del bias, per esempio, se tendi ad essere eccessivamente ottimista, sottostimando la domanda, oppure se hai uno strumento adeguatamente calibrato, spero di sì, il motore di supply chain ottimizzazione risultante potrebbe adottare politiche molto differenti.
Quindi la politica ottimale o il modo ottimale di prendere decisioni potrebbe cambiare a seconda della qualità della previsione. Ciò significa anche che se oggi passi da una previsione che sovrastima tutto – a causa del forte bias politico del processo – a una previsione realizzata tramite machine learning, è necessario rivedere al contempo il modo in cui vengono prese le decisioni nella supply chain.
Le persone si affidano al motore degli strumenti di processo. Storicamente, la previsione era sempre del 30% troppo alta. Quindi, se ora la cambi, devi anche modificare il processo di supply. Entrambi devono essere integrati. Ma, da un punto di vista supply chain, valuterei i KPI in modo il più indipendente possibile.
Conor Doherty: Grazie. Sven, tu cosa ne pensi? Per ribadire la domanda: se la previsione è uno strumento per ottenere qualcos’altro, dove attribuisci il valore? È nella qualità della decisione o nella qualità della previsione? Definisci questi concetti come preferisci.
Sven Crone: Penso che ne abbiamo già parlato. Per me, il demand planning – o seguendo la definizione di Gartner e il processo di Oliver Wight – lo consideriamo da un punto di vista industriale. Prendi, ad esempio, le industrie farmaceutiche e dei beni di consumo: di solito guardano a orizzonti temporali molto più lunghi. Considerano, ad esempio, periodi da 6 a 18 mesi. Le decisioni costose sono quelle strategiche. Identifichi piani a lungo termine, formuli previsioni, chiudi i divari, cerchi di riconciliare offerta e domanda su un orizzonte molto più esteso. Non hai informazioni promozionali, non disponi di dati meteorologici, non hai informazioni su disruption (interruzioni). Quindi questo rientra pienamente nella pianificazione basata su scenari e nella pianificazione end-to-end di scenari che devono concretizzarsi in specifiche posizioni di inventario.
Ma quella è una posizione a lungo termine. Se ci pensi, credo che la maggior parte dell’industria preveda ancora un periodo di congelamento di circa tre mesi. Voglio dire, si guarda all’orizzonte temporale al di fuori di quel lasso. L’S&OE, invece, che è stato recentemente adottato da Gartner, affronta la questione in modo molto diverso. Quindi, per l’orizzonte a lungo termine, penso che trasparenza, comunicazione e simili siano fondamentali per prepararsi a budget che cambiano, a riallineamenti, a riconciliazioni tra volume e valore. È un processo molto aggregato: si guarda a livelli gerarchici elevati, si esaminano mercati e canali, ma non i singoli prodotti.
Poi, scendendo nel lavoro quotidiano, c’è l’S&OE. Nell’S&OE, sono d’accordo, le decisioni sono automatizzate e standardizzate; l’accuratezza è importante, così come la trasparenza – spesso trascurata – o la robustezza. Ma credo che l'85% di tutte le presentazioni a questa conferenza parli di accuratezza. C’è persino un’intera sessione dedicata alla robustezza, il che è positivo. Tuttavia, penso che l’innovazione più importante per misurare l’intero processo sia il forecast value add, ovvero prendere i singoli componenti e valutare come aggiungano valore. È una visione fortemente orientata al management, perché si vuole investire le risorse dove generano valore.
Sfortunatamente, ciò non comprende aspetti come il master data management – è difficile da misurare. Non include nemmeno la pulizia dei dati, che ritengo fondamentale per ottenere risultati nella previsione statistica. E si concentra, in ultima analisi, sull’elemento umano. Abbiamo però difficoltà a misurare il value add, perché se consideri l’accuratezza della previsione, tipicamente ponderata per costo o volume aggregato, non è chiaro se stiano prendendo le decisioni migliori secondo metriche di errore che gli accademici eviterebbero. Quello a cui in realtà si presta attenzione è quale sia il value add. Tuttavia, molti demand planner scelgono effettivamente un algoritmo statistico presente nello strumento; possono sovrascrivere la scelta, ma quel valore viene attribuito all’algoritmo statistico. Quindi, credo che oggi il giudizio abbia un grande valore e che possa essere misurato. E penso che la maggior parte delle aziende abbia adottato questo approccio, considerando il value add come uno strumento valido. E, ancora, io guardo al lungo termine e molto meno al breve termine, dove le performance d’inventario dovrebbero essere correlate, e così via.
Conor Doherty: Ok, grazie.
Alexey Tikhonov: Penso che quando parliamo di cambiamenti nell’accuratezza delle previsioni, di potenziali miglioramenti, e li colleghiamo al processo di forecast value added, siamo un po’ confusi sui termini, perché il nome migliore sarebbe forecast accuracy added, non value. Perché value, per me, evoca immediatamente una prospettiva finanziaria. E quella prospettiva è guidata dalle decisioni. I risultati del tuo business dipendono esclusivamente dalle decisioni che prendi e da quanto bene le esegui. Quindi, in questa prospettiva, non c’è nient’altro coinvolto, solo le decisioni e la loro corretta esecuzione.
Quando consideriamo le decisioni, per esempio, se ho una previsione numero uno che mi porta a prendere la decisione A e una previsione numero due, più accurata, conosco la differenza in termini di accuratezza, ma la domanda è: questa previsione diversa, più accurata, mi porta a prendere una decisione diversa? Se la risposta è no, allora è uno spreco, nonostante la maggiore accuratezza. Quindi, nonostante un apparente valore migliore, dal punto di vista finanziario abbiamo un risultato netto negativo. E se la decisione è diversa, come valutiamo tale discrepanza decisionale – il cambiamento, il passaggio dalla decisione A alla decisione B – quanti profitti in più otteniamo rispetto alla differenza nell’investimento di risorse? Per me è una domanda aperta. Possiamo utilizzare entrambi i modelli di previsione per valutare i potenziali ritorni di entrambe le decisioni, ma rimane una questione speculativa, dato che non abbiamo due universi alternativi per testare due decisioni. Alla fine, dobbiamo sceglierne una sola.
E inoltre, il valore di una decisione non dipende esclusivamente dalla previsione in sé. Ci sono altre considerazioni, come i driver decisionali. Ad esempio, lavoriamo con Air France, nel settore MRO per i pezzi di ricambio degli aeromobili. Proprio di recente abbiamo implementato un motore decisionale con loro e, non molto tempo fa, si è verificato un grande acquisto innescato da un robot che ha acquistato diverse decine, credo, di unità di potenza ausiliaria per un aeromobile, per un totale di diversi milioni di euro, sempre innescato da un robot. E la gente ha detto: “Oh, deve essere stato un errore.” Ma quando hanno cominciato a indagare, è emerso che qualcuno dall’altra parte aveva commesso un errore e impostato un prezzo ben inferiore alla media di mercato. Il robot l’ha notato e ha immediatamente eseguito gli ordini. Non ha nulla a che vedere con l’accuratezza della previsione, ma questa decisione ha un valore enorme.
Come vedi, ci stiamo concentrando sull’accuratezza delle previsioni, ma ci sono così tante altre cose che possono influenzare il valore della decisione. Quindi penso che, quando parliamo di valore monetario, non dovremmo concentrarci solo sulle previsioni. Dovremmo esaminare l’intero processo con cui deriviamo le decisioni, cosa viene presa in considerazione, qual è il nostro processo decisionale, quali elementi sono importanti e quali sono secondari.
Sven Crone: Solo per aggiungere, sono d’accordo, e questo è stato già menzionato nel primo giro, che ci dovrebbe essere una decisione di inventario e poi dovremmo valutarla in base alle decisioni sull’inventario. E penso che, per essere giusti, in ambito accademico la maggior parte delle persone, o l’intera gamma di riviste, ha preso ciò come buona prassi o come prassi minima. Quindi, se guardi le riviste di economia della produzione e ISER, la inventory society, quella è una buona prassi. Vedrai parecchie presentazioni di accademici che misurano effettivamente il costo della decisione su curve di trade-off in relazione al service level e ai lead time, e che forniscono anche il inventory cost ad esso associato. Questo è qualcosa che in pratica non vedo affatto.
È molto difficile da realizzare nella pratica, è un compito arduo, ma possibile. Bisogna, ovviamente, fare delle ipotesi. La supply chain è complessa, ma sono pienamente d’accordo con te. Il costo della decisione dovrebbe essere adeguato. Ma questo ci riporta a Granger 1969, alle funzioni di perdita asimmetriche. Di solito non abbiamo il costo della decisione, quindi dobbiamo fare, dobbiamo assumere qualcosa. Quello che vedo come un enorme divario, e forse un’omissione, è che questa comunità non è riuscita a stabilire il legame tra l’accuratezza delle previsioni, qualunque sia il metodo di misurazione, e il costo della decisione ad essa associato.
Abbiamo effettivamente portato avanti un progetto di ricerca. Sono pochissime le aziende – Johnson and Johnson lo ha fatto in passato. Quindi, un punto percentuale in più nell’accuratezza delle previsioni, tipicamente calcolato come weighted cost-weighted MAPE, equivale a 8 milioni di dollari USA in costi di inventario dei prodotti finiti e in costi accelerati di produzione nei centri di distribuzione, e così via. Avevano un’intera metodologia per stabilire questo rapporto. Recentemente abbiamo presentato qualcosa nel quale abbiamo realizzato una simulazione bottom-up con TESA. Ci sono alcuni calcolatori sul web di cui non ho piena fiducia, ma penso sia importante sottolineare che gli errori di previsione hanno un costo, derivante puramente dalle decisioni sui safety stock e sull’inventario nel passaggio immediatamente successivo, senza neanche considerare la pianificazione della produzione, l’approvvigionamento delle materie prime e le decisioni a lungo termine.
Quindi penso che questa sia davvero un’omissione. Ecco perché ritengo che i team di demand planning nelle aziende siano ancora troppo piccoli. Se sapessero quanto costose siano le loro decisioni, quanto sia preziosa la previsione, vedremmo molte più risorse allocate in questo ambito. Ma, a proposito, per TESA, era approssimativamente – ovviamente, a seconda delle dimensioni dell’azienda – non ci è permesso rivelare il numero, ma equivale a una Bugatti Veyron. Le Bugatti Veyron hanno un prezzo piuttosto rigido, quindi si tratta di 1,5 milioni per punto percentuale di accuratezza nell’inventario, traduzioni dirette. E ora stiamo lavorando con alcune altre aziende per stabilire questo parametro, dato che i modelli di inventario attuali sono inferiori. Ma questo è davvero importante. Stai risolvendo il problema direttamente e mostrando loro il costo della decisione. Anche se il processo è disaccoppiato, ciò può comunque essere fatto. E penso che questo sia il tassello mancante. Ma sono completamente d’accordo. Il costo dell’inventario o della decisione sarebbe l’ideale.
Conor Doherty: Voglio andare avanti e mettere insieme alcuni punti che sono stati sollevati, in particolare per quanto riguarda le ipotesi. Voglio dire, se un demand planner fa un’ipotesi del tipo, “Oh, questo è sbagliato, devo fare una sovrascrittura manuale”, quella è un’ipotesi. Un’ipotesi entra nella costruzione di una previsione o di un modello automatizzato. Quindi, queste sono distinzioni. Anche se le rose, con un altro nome, la mia domanda è: è ragionevole aspettarsi, per il management – cioè per persone senza formazione nelle tematiche di cui parliamo oggi – di avere lo stesso livello di fiducia nell’automazione, come una previsione generata automaticamente, rispetto a una previsione che passa attraverso la tua scrivania, per esempio? E mi scuso, o quella di Nicolas, o di Alex.
Nicolas Vandeput: Se non ti dispiace tornare alla mia slide, la domanda più comune – se la riassumo in poche parole – è: “Come posso fidarmi del machine learning?” E potresti sostituire machine learning con strumenti statistici. Mi piace trasformare questa domanda in: “Sì, ma come ti fidi degli umani?” Perché la gente dice: “Ok, Nicolas, come posso fidarmi di te? Come posso fidarmi del tuo machine learning?” E io rispondo: “Come ti fidi del tuo team?” E questa, penso, è la domanda vera. E per me c’è un solo modo per monitorarlo e per rispondere: si chiama forecast value added. L’idea è, cercherò di spiegarla in poche frasi: devi monitorare l’accuratezza di ogni singolo passaggio del tuo processo. Può trattarsi di un umano, di una macchina, o di informazioni provenienti dal tuo cliente, della previsione che arriva dal tuo cliente. In ogni singolo passaggio, dovrai monitorare l’accuratezza prima e dopo il passaggio.
Mentre procedi in questo modo, ti consiglierei anche di confrontare l’accuratezza complessiva del tuo processo con un benchmark statistico, che potrebbe essere qualsiasi modello semplice che puoi reperire gratuitamente. Facendolo per settimane, mesi o giorni, a seconda del tuo orizzonte temporale, potrai dimostrare concretamente che alcune parti del tuo processo – siano umane o meccaniche – stanno aggiungendo valore ed sono accurate. Questo è l’unico modo per farlo. E andrei persino al punto di dire che, se non lo fai, è come se nella stanza non ci fossero luci. Sei al buio. Non hai idea di cosa stia succedendo.
E quando aziende che vogliono avviare progetti di miglioramento della demand planning mi contattano, la prima domanda è: “Monitorate il forecast value added?” Perché se non lo fate, non c’è modo di sapere se il mio modello sta aggiungendo valore e se stiamo andando bene o male. Quindi questo è il primo passo per rispondere alla domanda: “Come fai a sapere se posso fidarmi del machine learning?” È la stessa domanda di: “Come fai a sapere se posso fidarmi degli umani?” E la risposta è: bisogna monitorare il forecast value added.
Alexey Tikhonov: Penso che passare alle decisioni sia importante. Come posso fidarmi di una previsione? Non so se una previsione è buona o cattiva a meno che non veda quale decisione essa raccomandi, quali decisioni posso derivare da quella previsione. E da questo punto di vista, gli umani, i professionisti, spesso possiedono un’intuizione molto buona. Se produci decisioni insensate, loro te lo faranno notare e ti spiegheranno il perché. Quindi, monitorare l’accuratezza delle previsioni, sì. Coinvolgere gli umani nel processo di fare sovrascritture giudiziarie delle previsioni, come ho già detto, è piuttosto uno spreco, perché tali interventi hanno una validità molto breve.
Puoi fare una sovrascrittura, ma il suo effetto non dura per un altro anno. Probabilmente influenzerà il tuo prossimo ordine di acquisto, ma non quello successivo. Quindi, coinvolgi una risorsa molto costosa, una risorsa molto inaffidabile, perché dovremmo anche discutere – anche se non abbiamo tempo – dovremmo approfondire qual è il processo dietro queste sovrascritture giudiziarie. Sono, per loro natura, semiquantitative. Non esiste un processo rigoroso come per le previsioni generate automaticamente, in cui possiamo ispezionare, decomporre e capire cosa non va, se qualcosa non va. Quindi, devi automatizzare il più possibile. E come guadagni fiducia? Beh, nello stesso modo in cui ti fidi della tua applicazione meteo: se produce previsioni coerenti, se dice che c’è una grande probabilità di pioggia e, sì, la maggior parte delle volte piove quando dice che pioverà. O, con tecnologie diverse, come i filtri antispam.
Pensa a quando sono stati appena introdotti nei client email. Controllavamo la cartella spam molto frequentemente perché la percentuale di email mal classificate era piuttosto alta. Oggi vado nella cartella spam solo quando so che una persona che non è ancora nella mia lista di contatti mi ha inviato un’email e non l’ho ricevuta. E vado a controllare, sì, è lì, e clicco “non spam”, e non finirà mai più nello spam. Vedi, la fiducia si guadagna nel tempo, ed è necessario un processo. Noi lo chiamiamo ottimizzazione sperimentale, quando affini questo motore decisionale. Una volta che comincia a produrre risultati coerenti, tutto ciò che devi fare è monitorare le metriche. Sì, monitori l’accuratezza delle previsioni. Se cambia drasticamente, hai bisogno di un ingegnere che, insieme ai professionisti, ispezioni cosa succede dietro le quinte. Ma non dovresti mai intervenire manualmente in questo flusso decisionale. Vuoi riparare ciò che è rotto e poi lasciarlo funzionare, proprio come fai con le macchine: fai manutenzione e poi guidi la tua auto.
Sven Crone: Sì, penso che la fiducia sia una questione importante, no? Voglio dire, pensando agli ultimi 10, 20 anni, molte aziende hanno cercato di andare live, per esempio, nel contesto delle previsioni con metodi statistici. E perché c’è così tanto scetticismo? Perché così tante aziende hanno iniziato e interrotto, iniziato e interrotto, iniziato e interrotto? Tutti conosciamo l’overfitting. Sappiamo tutti come conduciamo questi esperimenti in sandbox con tutte le variabili future, dove bisogna stare davvero attenti nel progettare le cose in un proof of concept, poi in uno studio pilota, eseguendo in parallelo anzichè bruciare tutto. E infatti, con così tanti gradi di libertà e meta parametri e così tanti indicatori principali che possono semplicemente trapelare in qualche decomposizione, è molto, molto facile promettere un livello di accuratezza che poi non si materializza. Abbiamo promesso una certa accuratezza, e poi è arrivato il COVID, e il management non ha capito perché non raggiungessimo quel livello di accuratezza. Per noi era chiaro. Per loro non lo era. Ma, come ho detto, la fiducia è andata persa.
La fiducia – e non credo, in generale, che l’accettazione della tecnologia sia un tema tipico dei Sistemi Informativi – è un grosso problema. Ci sono intere conferenze che analizzano come trasmettere questa fiducia. E penso che un modo sia che ciò dipende dall’accettazione generale della tecnologia. Sai, la maggior parte di noi sarà scettica se salirà su un’auto a guida autonoma a San Francisco, almeno per le prime volte. Forse no, ma magari tra 20 anni tutti ne saranno entusiasti. Quindi, come hai detto, l’usabilità, il non vedere nulla accadere e così via, è ciò che permette di costruire la fiducia. Bisogna anche comunicare le cose. Ma non credo che la risposta sia l’AI spiegabile. Tutti vanno a spiegare che l’algoritmo deve spiegarsi da solo a me. Voglio dire, ho cercato a lungo di spiegare cosa faccia un fattore gamma di 0,4 applicato a 12 indici stagionali che cambiano nel tempo, giusto? Nessun manager ci capisce. Ma il manager in cima deve, alla fine, prendere la decisione. Si fida di questo significativo investimento in inventario? Si fida del suo team per operare in modo efficace ed efficiente?
E penso che per questo abbiamo perso molta fiducia nella statistica, possibilmente a causa di alcune implementazioni software inferiori che, all’epoca, rappresentavano lo stato dell’arte, ma che poi non lo sono state, alcune delle quali hanno sovra-parametrizzato in campione un passaggio. Ci sono molte evidenze sulla selezione dei modelli. Quindi molte di queste innovazioni non sono state adottate, se non da aziende più giovani e innovative. C’è poi un passaggio intermedio che abbiamo visto funzionare per costruire fiducia in medicina: ad esempio, c’è uno studio di caso incredibile sul rilevamento del cancro al seno dalle immagini. E la macchina, l’algoritmo, erano significativamente più accurati, con un tasso di veri positivi molto più alto e un tasso di falsi positivi molto più basso, con costi incredibili per le vite individuali associati. E i medici non lo adottavano. Già negli anni ‘80 non adottavano alcuni dei processi decisionali perché non se ne fidavano. Si fidavano di se stessi più che degli altri.
Le soluzioni che stiamo sviluppando ora prevedono che, quando l’AI può correggere i valori anomali, noi evidenziamo effettivamente l’anomalia per il demand plan. L’AI può eseguire la selezione del modello, ma noi preferiamo mettere in evidenza la classifica di ciò che riteniamo significativo. Cerchiamo di spiegare ciò che osserviamo nei dati, per esempio riteniamo che ci sia una forte stagionalità e una disruption. Quindi questo sistema aumentato, anche per i medici, sostanzialmente non fornisce solo una classificazione, ma evidenzia nell’immagine dove probabilmente viene rilevato il cancro e, oltre a dare una risposta sì/no, fornisce anche una probabilità che si tratti di cancro, cosa che in situazioni critiche permette di ordinare per probabilità e di concentrarsi non su quelli chiaramente cancro o chiaramente non cancro, ma su quelli incerti. Ed è in questi casi che i medici possono effettivamente usare l’expertise e improvvisamente hanno ottenuto un’accettazione massiccia.
Quindi penso che questo abbia molto a che fare con il design dei sistemi, il design del processo decisionale, e non si tratta soltanto di automazione, perché abbiamo ABC e XYZ e new products e prodotti finiti; non si può, anzi non si dovrebbe, automatizzare tutto, ma automatizzare alcune parti con l’AI, altre con metodi molto semplici e possibilmente trasparenti, e altre con algoritmi robusti. Ma penso che, per ora, al livello attuale di accettazione e scetticismo verso la tecnologia – anche se tutti amiamo GPT per organizzare la nostra prossima festa di compleanno – probabilmente l’augmented AI sia un buon passo per ottenere l’accettazione e poi potremo automatizzare completamente con l’AI.
Conor Doherty: Comenta su questo. Beh, per riprendere l’argomento – perché ancora una volta entrambi avete sollevato punti molto validi – vorrei analizzare uno dei paragoni citati. Quindi, penso che, Alexey, tu abbia fatto l’esempio dell’utilizzo di un’app per le previsioni metereologiche, cioè, la meteorologia – la base della meteorologia è stata a lungo la previsione probabilistica. E poi l’hai paragonata a un veicolo autonomo, o almeno lo hai paragonata indirettamente. E penso che prenderemo questo esempio per formulare una domanda. Quindi, per usare l’esempio di Alex, se a tutti nella stanza venisse detto: “dovete andare in vacanza la prossima settimana, e la vostra unica destinazione è Bermuda”, ma le previsioni del tempo dicono che arriverà uno tsunami la prossima settimana, paghereste di tasca vostra? Investireste finanziariamente il vostro tempo, sforzo ed energia per volare a Bermuda? La maggior parte delle persone risponderebbe no. Ora prendete esattamente quella stessa prospettiva, cioè finanza e previsioni probabilistiche, mettete tutte quelle stesse persone in un’azienda e dite: “ecco una lista priorizzata di decisioni con ranghi e rischi regolati, generate da un algoritmo”. Oh, no, assolutamente no, non mi fido. Quindi, ancora, si tratta di una mancanza selettiva di fiducia? I vostri commenti.
Alexey Tikhonov: Potrei fare un breve commento. Penso che il vero problema con la resistenza degli esseri umani all’adozione di nuove tecnologie in generale, quando parliamo di automazione, sia la paura di diventare irrilevanti e sostituiti. E in realtà, quello che succede di solito è esattamente il contrario. Sì, automatizziamo alcune parti in cui gli umani non sono efficienti dal punto di vista finanziario. Ad esempio, una volta avevamo traduttori per più lingue per tradurre il nostro sito web, perché pubblichiamo molto e nel complesso probabilmente abbiamo speso circa 400.000 Euro nel corso degli anni. E ora, ogni volta che pubblichiamo qualcosa, viene tradotto tramite LLM.
Abbiamo programmi che prendono una pagina markdown come input e producono una pagina markdown mantenendo intatta tutta la sintassi markdown, gli shortcode e tutto il resto, e solo le parti rilevanti vengono tradotte in altre lingue. I costi sono diminuiti immensamente, di due ordini di grandezza, ora è 100 volte più economico. Quindi, dovremmo pagare 100 volte di più a un traduttore umano? No. Ora, abbiamo ancora bisogno di traduttori umani? Sì, ad esempio, se vuoi redigere un documento legale, è meglio usare un traduttore umano perché una sola parola, una virgola, può costarti una somma tremenda di denaro. Quindi, abbiamo ancora bisogno di traduttori umani? Sì, ne abbiamo ancora bisogno, ma in settori diversi e probabilmente ci sarà una maggiore richiesta di traduttori umani in campo legale rispetto al passato.
Ed lo stesso vale per le supply chain. Ad esempio, ci sono interi settori che rimangono invariati a causa della mancanza di risorse umane disponibili. Per esempio, molto spesso, quando vuoi effettuare un ordine, non sai a priori se esiste un MOQ, quindi devi recuperare questa informazione. Puoi usare gli umani, puoi usare un copilot come AI, ma hai comunque bisogno di un umano per recuperare alcune informazioni che sono scarsamente strutturate per inserirle nel tuo motore decisionale, in modo che esso produca una decisione conforme al MOQ. Quindi, penso che abbiamo ancora bisogno degli umani, solo per diversi tipi di compiti che si evolveranno.
Sven Crone: Penso che tu abbia menzionato una parte importante quando si parla dell’accettazione di alcune di queste tecniche di traduzione automatica, perché esistono da tempo. IBM usava le reti neurali già nel 1982, giusto? Quindi, c’erano, ma il tasso di traduzione o il tasso di errore era intorno al 90% di identificazione. Così, un umano avrebbe dovuto entrare e cambiare un bel po’ di lettere, un bel po’ di parole. Ogni decima parola sarebbe stata errata, il che significava che era inaccettabile perché al di sotto di una soglia ritenuta sufficientemente buona.
E ora, se raggiungi questa accuratezza che, pur non essendo necessariamente a livello umano, supera una certa soglia, improvvisamente si ha una massiccia adozione della tecnologia. Nelle previsioni, siamo abbastanza colpevoli di questo perché abbiamo visto implementazioni con un uso negligente di modelli moltiplicativi su serie temporali contenenti zeri. E se hai 10 esempi su 100 serie temporali che esplodono una volta all’anno, non c’è accettazione perché la fiducia è persa.
Quindi, in realtà devi arrivare ad una robustezza tale da permettere che l’automazione abbia luogo. Quindi, penso che sia un buon punto. E di solito abbiamo cercato di costruire modelli accurati piuttosto che modelli robusti che non funzionano bene. Le reti neurali hanno sempre questo problema. Inoltre, penso che siamo tutti influenzati da un pregiudizio, perché siamo abbastanza propensi alla tecnologia, non tanto quanto mio fratello minore, per esempio, che adora la tecnologia. Quindi, c’è anche una questione di età. Ma cosa genera fiducia? Penso che in una riunione del consiglio di amministrazione, so che una grande azienda software sta effettivamente esaminando attivamente i modelli LLM e c’è stata una decisione recente. Credo che Eric Wilson dell’IBF, The Institute of Business Forecasting, abbia un blog ed esponga apertamente che l’IA non prenderà il controllo del processo di pianificazione della domanda e che tutti manterranno il loro lavoro.
Ma di recente ci sono stati esempi in cui, in una sala del consiglio, un modello LLM addestrato sulla maggior parte delle conoscenze fornite – le informazioni promozionali, le interruzioni, la supply chain – ha prodotto una previsione, e l’Amministratore Delegato ha chiesto al modello LLM perché ciò fosse accaduto. E le opinioni erano diverse. Il marketing aveva una visione, la finanza ne aveva un’altra. Il modello LLM era l’unico in grado di fornire un argomento comprensibile sul perché quel numero fosse quello giusto. E penso che ci sia un altro pregiudizio in gioco, ma se riesci a raccontare una storia significativa su certi aspetti, le persone si fidano. Quindi, questo introduce anche la fiducia, anche se non è corretta.
Quindi, penso che riuscire ad argomentare perché ciò accade per un demand planner, in un contesto di mille prodotti, seduto lì con il CEO a discutere in modo esaustivo perché pensi che in sei mesi il volume raddoppi, non è dato. Sei stato occupato tutto il mese a lavorare su questi numeri, scomponendoli e riaggregandoli, traducendoli in valore, ottenendo poi aggiustamenti top-down per canale, e alla fine esce un numero. Ma il modello LLM è stato in grado di argomentare in tal senso, e penso che lì vedremo probabilmente chi dirà che un modello LLM non può leggere tutte le riunioni di vendita e degli account chiave, non può raccogliere tutte le informazioni sul funnel, ma che può giustificarlo, allineandolo ai valori della supply chain, e può effettivamente trovare un aggiustamento migliore di quello umano perché può gestire molti più dati. Penso che sia lì che potremmo superare il problema della fiducia e passare direttamente all’accuratezza. Ma ci sono prove che questi modelli possono generare fiducia perché riescono finalmente a spiegare cosa sta succedendo.
Nicolas Vandeput: Quindi, vedo una domanda interessante e penso che finalmente abbiamo trovato il nostro argomento sul quale non sono d’accordo.
La prima cosa che vorrei affrontare è la gestione del cambiamento riguardo all’adozione del machine learning per le previsioni. Come per ogni tecnologia, ci sono persone che sono completamente contrarie e ce ne sono altre che sono più favorevoli. E lo vedo su LinkedIn: ogni volta che pubblico, ricevo sempre alcune persone dello stesso settore che dicono “questo non funzionerà mai, io non lo farei mai”. E sai una cosa, ho smesso di cercare di convincerli. Va bene, restate dove siete e io lavorerò con persone che vogliono creare supply chain migliori.
Ho visto numerosi clienti, ho incontrato grandi leader, leader medi, leader scadenti. Per me, se vuoi implementare con successo un processo automatizzato – e potremmo parlare di pianificazione della domanda tramite machine learning, ma potremmo discutere di qualsiasi processo – come leader nella stanza devi fornire una visione chiara a tutti su quale sarà il loro ruolo nel futuro. Tornerò a parlare di pianificazione della domanda, ma questo vale per ogni processo. Se dici al tuo demand planner: “il tuo lavoro, per cui ti pago, è quello di cambiare la previsione e modificare e regolare i modelli”, è quello che le persone faranno. E questo deve cambiare. Deve cambiare: il tuo lavoro è assicurarti che i dati che entrano nel motore di previsione della domanda siano il migliori possibili e il tuo compito è trovare informazioni al di là di quelle fornite al modello per poi, se necessario, arricchire la previsione. Se non lo specifichi, le persone continueranno a modificare la previsione giorno dopo giorno perché sentiranno che, se non lo fanno, non possono giustificare il loro stipendio. Quindi, per l’adozione, è estremamente chiaro che bisogna fornire un quadro limpido, come indicato anche nella mia slide relativa a insight-driven review e raccolta di insight, su ciò che le persone dovrebbero fare.
Ora, qualcosa che vorrei aggiungere è la spiegabilità. Penso che sia un argomento aperto e io stesso sto maturando su questo, ma direi che per me la spiegabilità non è affatto necessaria. Non so come funzioni un’auto, la uso comunque e non provo mai a scrivere a Mercedes per dire: “Non la userò mai più se non mi spieghi come funziona”. Non lo farei mai. Non so come funzioni Internet, non so come funzioni questa cosa, non ne ho la minima idea, e comunque la uso.
Se una supply chain si basa sulla spiegabilità o sullo storytelling, o su storie, per utilizzare la previsione e fidarsi della previsione, non sarai mai in grado di scalare, perché significa che la tua supply chain e il tuo processo si basano sul fatto che qualche umano possieda capacità persuasive per influenzare gli altri ad utilizzare la tua previsione grazie a una buona storia. Per me, devi fidarti della previsione perché l’accuratezza – per come la misuri – è affidabile e nel tempo si è dimostrata accurata o la decisione è stata realmente significativa. Ti fidi delle cose, dei processi, delle persone, dei modelli perché, quantitativamente, sono ottimi, non perché la storia abbia senso. Se ti fidi solo della storia, sarà un fallimento. Ho visto tanti consulenti vincere progetti perché la storia aveva senso, e poi non ha portato alcun valore, perché in realtà una volta realizzato il modello non si crea valore. Ma la storia è bella, ed è per questo che cercherei davvero di evitare il più possibile di appoggiarmi alla storia.
Conor Doherty: Altri commenti? Non c’è obbligo.
Alexey Tikhonov: Poche parole sulla spiegabilità e sulla comprensione di ciò che sta accadendo, su come vengono prese le decisioni e come vengono prodotte le previsioni.
Posso parlare solo di ciò che facciamo in Lokad. Affrontiamo i problemi secondo il principio della correttezza per design. Uno dei problemi che sappiamo che le persone incontreranno è la mancanza di fiducia, perché non comprendono come funzionano le cose. Ecco perché usiamo quello che chiamiamo un elemento di “white boxing”. Quante più volte possibile, utilizziamo modelli espliciti in cui si capisce cosa significano i parametri, invece di una feature engineering oscura. In questo modo, le persone possono comprendere cosa sta accadendo. Questi modelli non sono così difficili da comprendere. Invito il pubblico a guardare il nostro contributo alla competizione M5 per le previsioni. Il team di Lokad si è classificato al primo posto nella sfida sull’incertezza. Se guardi la lezione tenuta dal nostro CEO, Joannes Vermorel, vedrai che il modello è abbastanza semplice. Rimarrai sorpreso di come questo modello semplice abbia potuto raggiungere risultati allo stato dell’arte.
Non è necessario utilizzare un’IA all’avanguardia per ottenere un extra percento di accuratezza nelle previsioni. Nella supply chain, vuoi essere approssimativamente giusto, non precisamente sbagliato. Ecco perché scegliamo, per esempio, metodi probabilistici, perché possono mostrarti la struttura dell’incertezza, e quando hai degli indicatori economici, puoi tradurre questa struttura dell’incertezza nella struttura dei rischi finanziari, e puoi prendere decisioni ben fondate e regolate per il rischio, anziché decisioni che sono solo classificate in base al raggiungimento di un obiettivo di livello di servizio.
Penso che le persone possano comprendere la storia a un livello elevato, cioè: cosa fai e perché lo fai. Ma a un livello più dettagliato, se sono curiose, possono approfondire, ma diventa quasi irrilevante una volta compreso il quadro generale. Una volta constatato che le decisioni sono sensate, perché scendere nei particolari? Per esempio, solitamente le persone usano i computer, ma non sono interessate alle allocazioni di memoria, tipo come la tua RAM gestisce i calcoli. A nessuno interessa. Lo stesso vale per i chip dei computer nella tua auto. Sì, c’è un robot che si occupa del cambio delle marce, ma normalmente nessuno è interessato a questo. Non è rilevante. Non renderà la tua guida più sicura se lo sai.
Conor Doherty: Stavo effettivamente per chiedere delle considerazioni finali. Sembrate tutti concordare in larga misura sul fatto che comprendere il “come” di queste metodologie andrà oltre la portata della maggior parte delle persone, se non hanno la formazione necessaria. Il “cosa”, cioè cosa sta succedendo – sia in termini di maggiore accuratezza o di decisioni migliori – è facilmente comprensibile. Ma prima di concludere, magari 30 secondi per chiudere. Quale vedete come futuro per i demand planners? Perché, ancora una volta, posso già immaginare la vostra risposta, ma in termini di Nicolas e Sven, sembra – e non voglio mettermi in mezzo – che abbiate suggerito, “Beh, non siamo ancora arrivati a una completa automazione end-to-end dell’ottimizzazione.” Dal vostro punto di vista, allora, quale futuro vedete per i demand planners? Ci sarà una posizione per loro tra 5 anni, 10 anni, ecc.?
Sven Crone: Penso che, guardando la disponibilità dei dati e il tasso di adozione della tecnologia, ci sarà sicuramente un lavoro per i demand planners per molto più di cinque anni. Ne sono abbastanza sicuro. Perché, inoltre, la pressione per ristrutturare le aziende o per innovare non è così forte. Se osservi tutte queste iniziative per la digitalizzazione, per la maggior parte delle aziende, non esiste nemmeno lo storage in cloud. È sorprendente come alcune delle più grandi multinazionali europee siano riuscite a operare così bene.
Quindi, probabilmente è merito delle persone straordinarie presenti. Ma a lungo termine, penso che siamo davvero a rischio se non adottiamo, se i software vendors non adottano, se non automatizzi, se non supporti decisioni, decisioni significative come la correzione della storia – e sai com’è – e ho la sensazione che la spiegabilità sia importante, non per capire “questo è come funziona una rete neurale”, ma per dire “queste sono le variabili di input che sono state fornite nel modello” e per poter rispondere a domande come “hai considerato che la promozione è stata spostata dalla settimana 5 alla settimana 12?” Penso che queste siano le domande a cui devi rispondere. Sono domande molto più semplici.
Ma credo che a lungo termine, con la disponibilità di sempre più dati, sarà molto difficile per i pianificatori della domanda. Poiché la frequenza delle decisioni sta aumentando, stiamo passando da previsioni mensili a settimanali, per poi eventualmente arrivare a previsioni intrase-settimanali per allinearci anche con i retailer. Vedo molte più promozioni, e stanno accadendo molti più disagi. Ci sono così tante interruzioni che sarà praticamente, diventerà incredibilmente difficile per i planners affrontare così tante informazioni in un lasso di tempo così breve. E pertanto, non credo davvero che a lungo termine saranno in grado di competere in termini di accuratezza e affidabilità con i modelli di machine learning se tutti i dati sono disponibili.
Conor Doherty: Grazie, Sven. Le tue considerazioni finali, Nicolas.
Nicolas Vandeput: Per riassumere in un solo minuto, qual è il ruolo dei pianificatori della domanda nei prossimi anni, e come si evolverà. Per me, si tratta di persone che trascorreranno la maggior parte del loro tempo a raccogliere, aggregare, strutturare e pulire dati, informazioni e intuizioni, alimentando la maggior parte di queste ai modelli di machine learning. Sarà automatizzato per prevedere la domanda e le informazioni, le intuizioni che non possono essere fornite ai modelli di machine learning saranno comunque utilizzate da questi planners per arricchire manualmente queste previsioni. Ma questi planners non dedicheranno tempo a segnalare outlier o a correggerli manualmente. Non passeranno tempo a modificare i modelli, a rivedere o ad affinare i parametri dei modelli, né a selezionare i modelli. Per me, questi compiti dovrebbero essere automatizzati al 100%. Gli esseri umani non dovrebbero farlo. I planners si concentreranno nel trovare, raccogliere e pulire informazioni e intuizioni.
Conor Doherty: Grazie. E Alexey, le tue considerazioni finali?
Alexey Tikhonov: Penso che attualmente la pianificazione della domanda stia occupando una nicchia tra i prodotti software chiamati systems of intelligence, perché esistono tipicamente tre tipi di software aziendali: i systems of records, che sono ERPs ed altri vari sistemi transazionali; i systems of reports, ovvero le applicazioni di business intelligence; e i systems of intelligence. Questo è un campo emergente. Questi sono i sistemi che possono automatizzare il processo decisionale, come uno di quelli che Lokad sta fornendo ai suoi clienti. E attualmente, i pianificatori della domanda stanno cercando di competere con questo campo.
La mia impressione è che a lungo termine non saranno in grado di competere, perderanno. Perché? Perché gli esseri umani sono creature straordinarie, sono super intelligenti. Se consideriamo una singola decisione, possono superare un robot perché riusciranno sempre a trovare un’intuizione più profonda, qualcosa di cui un robot non è consapevole, come informazioni aggiuntive. Ma ciò non è scalabile. Gli esseri umani hanno un costo elevato. Stiamo parlando di supply chains di immensa scala, quindi non possiamo espandere questo approccio. Ed è questa la ragione principale per cui, a lungo termine, saranno sostituiti. Per le stesse ragioni, ad esempio a Parigi, non abbiamo più i portatori d’acqua, abbiamo l’acqua corrente. Perché? Perché è più economica. Sì, ci sono ancora alcuni paesi sottosviluppati dove, in piccoli villaggi, ci sono persone che trasportano l’acqua in secchi perché, a causa delle economie di scala, l’acqua corrente non è ancora un’opzione. Ma anche in quei villaggi, a un certo punto, avranno l’acqua corrente. Quindi, a lungo termine, non hanno futuro. E al momento, alcune aziende se ne sono già sbarazzate.
Conor Doherty: Grazie mille a tutti sul palco per le vostre intuizioni e risposte. A questo punto, passo la parola. Qualcuno ha qualche domanda? E io mi precipiterò e passerò il microfono. Ovviamente, sarà proprio là dietro. Va bene, non dovrebbero esserci troppe file. Robert, quindi di chi erano le mani alzate?
Audience Member (Bahman): Grazie a tutti. Mi chiamo Bahman. Vengo dalla Cardiff University. Vorrei fare un commento molto breve. Avete menzionato le decisioni profittevoli. Volevo solo sottolineare, e in realtà, questo è un punto che Sven ha anche menzionato riguardo allo spettro. Ci sono migliaia di supply chains che non ruotano attorno al profitto. Quindi, penso che sia importante da considerare.
La mia impressione è che il panel si sia concentrato maggiormente sul supply chain, ma esiste un intero spettro nella pianificazione della domanda. Se ci pensate, ci sono milioni di ospedali nel mondo che fanno demand planning, e si occupano di una, due o tre serie temporali. Quindi, la mia domanda riguarda quali sono le condizioni o i requisiti per creare decisioni automatiche, dato che queste decisioni si basano sulla previsione come uno degli input. Ci sono molti altri input, alcuni dei quali potrebbero essere previsioni, ma la maggior parte probabilmente non lo è.
Sven Crone: Provo a rispondere. Gli ospedali, ad esempio, dispongono di un grande stock di replenishment, di prodotti importanti come il sangue, di prodotti meno importanti, e via dicendo, come i medicinali per il trattamento del cancro, alcuni dei quali sono realizzati su ordinazione o per scorta. Credo che ci siamo concentrati molto su quest’aspetto, dato che il mio background non è nel settore ospedaliero o dei sistemi sanitari. Abbiamo esaminato principalmente il lato industriale, intendo, quale industria: la gestione della supply chain e la logistica, che probabilmente è definita da Gartner; ora stiamo osservando società multinazionali molto grandi che introducono questi processi ben definiti, collaudati e che misurano il valore aggiunto della previsione.
Penso che sia, hai ragione, probabilmente applicabile a moltissimi altri settori, come farmacie, ospedali e così via. Ma ho poche evidenze sull’adozione in quei settori; tuttavia, per l’industria logistica della supply chain, che rappresenta all’incirca un sesto del PIL mondiale, giusto? Quindi stiamo parlando di un sesto del PIL globale, guidato principalmente da società molto grandi. In quel contesto siamo veramente preoccupati per la mancanza di innovazione in merito a queste tematiche. Ma ciò non significa che non possa applicarsi in altri ambiti.
Audience Member (Bahman): Intendo, forse la terminologia migliore sarebbe quella di supply chain dei servizi. Ad esempio, negli ospedali, si effettua la pianificazione della domanda per i servizi di emergenza. Non si tratta necessariamente di prodotti, ma del servizio in sé. Quindi, credo che la mia domanda riguardi di più il processo decisionale automatico, perché, come ho detto, esiste uno spettro: dai reparti di emergenza, che in realtà gestiscono una sola serie temporale, fino a contesti in cui non ci si confronta con milioni o migliaia di serie temporali. Quindi la domanda è: quali sono i requisiti per creare un processo decisionale automatico?
Sven Crone: Penso che tu abbia ragione. Voglio dire, è un argomento molto interessante; ci sono molte aree interessanti a cui noi, nella comunità delle previsioni, non abbiamo prestato la stessa attenzione di altre. Se guardi i 10.000 articoli sulla previsione con reti neurali, credo che la metà di essi tratti l’elettricità, giusto? Ma molto pochi si concentrano sui prodotti farmaceutici. Quindi è un ottimo spunto. Penso che dovremmo prestare maggiore attenzione alle questioni importanti.
Conor Doherty: Scusa per l’interruzione, Nicolas, puoi rispondere alla prossima domanda. Voglio cedere la parola alla prossima questione.
Audience Member: Ciao, grazie per questa splendida discussione. La mia domanda riguarda il ruolo del giudizio. Ogni esperto infatti possiede giudizi differenti. Esiste quindi un pattern di bias che deriva dal giudizio umano e un pattern di bias che deriva dai modelli AI o ML, qualunque sia il modello statistico. Abbiamo dunque due bias, uno dal giudizio umano e uno dai modelli statistici. Come possiamo incorporare il bias del giudizio umano in quello statistico per ridurre il bias complessivo nella pianificazione della domanda? Grazie.
Nicolas Vandeput: Grazie per la tua domanda. È un caso comune nel lavoro con le supply chains. Una delle prime cose che facciamo è analizzare storicamente come hanno performato le previsioni. Se esse hanno mostrato un bias molto elevato o molto basso, ovvero un under forecasting o un over forecasting, tutto si riduce sempre a una storia. Le persone sovraprevvedono perché vogliono stare sul sicuro, molto probabilmente perché il processo di supply non è buono e non sanno davvero come gestire l’inventario. Quindi, invece di cambiare le politiche o l’obiettivo dello stock di sicurezza, si affidano a previsioni molto elevate. Forse ricorrono a previsioni alte anche perché vogliono essere ottimisti, vogliono far quadrare il budget e così via.
D’altro canto, l’under forecasting potrebbe verificarsi perché le persone vogliono battere la previsione per ottenere un bonus. Di solito, se la tua supply chain genera un bias molto elevato, si tratta di un problema di incentivi sbagliati o di un processo di supply errato e bisogna intervenire: riqualificare le persone, migliorare il processo di supply e rendere impossibile per alcune persone modificare la previsione se hanno un incentivo diretto a renderla troppo alta o troppo bassa. Questo riguarda la parte di processo, quindi dobbiamo affidarci a persone che non abbiano incentivi a produrre previsioni troppo alte o troppo basse.
Per quanto riguarda il modello, se hai un modello che genera, a lungo termine, previsioni troppo alte o troppo basse – non dico che un solo mese sia sbagliato, ovviamente, ma che su più periodi si riscontri lo stesso problema – è molto probabile che ciò sia dovuto a come viene ottimizzato il motore del modello e, probabilmente, al fatto che il KPI usato per ottimizzare il modello non è quello giusto. Scommetterei che si basi sul MAPE, ma questo è un altro argomento.
Conor Doherty: Puoi dare ad Alexey la possibilità di esprimere un pensiero finale, perché dobbiamo concludere presto.
Sven Crone: Voglio solo aggiungere qualcosa a quanto detto da Nicolas. Quando parliamo di LLM che magari assumono la responsabilità delle decisioni o apportano aggiustamenti giudiziali, non abbiamo approfondito molto su come funzioni. Ma ci sono molte evidenze oggi che non si usa un solo LLM per addestrare su tutti i dati e ottenere un unico valore. In realtà, si addestrano personas su questi dati. Ci sarebbe un supply chain LLM, un finance LLM, un CEO LLM, un marketing e un key account management LLM, tutti addestrati su dati differenti. Spesso questi bias derivano da costi differenti associati alle decisioni per il key account rispetto alla supply chain. Ma spesso si hanno informazioni diverse e ciò che effettivamente si osserva può portare a un processo decisionale potenziato se effettivamente si ha una pluralità di agenti che dialogano e discutono per un processo consolidato.
Non è raro osservare buone pratiche in S&OP dove si raggiunge un consenso, e questo consenso risulta più accurato della decisione di un singolo LLM. È davvero inquietante perché i bias sono presenti, così come i processi decisionali, e poi c’è qualcuno alla fine che decide basandosi sul peso delle informazioni. È spettrale.
Conor Doherty: Alex, l’ultima parola va a te e poi finiremo.
Alexey Tikhonov: Rispondendo alla stessa domanda, penso che il bias sia un problema dal punto di vista delle previsioni puntuali. Tipicamente, il motivo per cui si vuole che la previsione sia intenzionalmente soggetta a bias è perché essa risulta in qualche modo ingenua nel catturare la struttura del rischio. Prevedi lo scenario futuro più probabile e poi presumi che i residui del modello siano distribuiti normalmente, cosa che non accade mai. Ecco perché introduci il bias che sposta la tua previsione verso l’area in cui il rischio è maggiormente concentrato. Ad esempio, verso la coda destra, come se volessi prevedere la probabilità di non raggiungere gli obiettivi del livello di servizio, spostando così il bias.
Quando passi a una prospettiva probabilistica, non hai più bisogno di questo bias, perché ciò che ottieni è un’opinione sul futuro che appare come: questo futuro con questa probabilità, quell’altro futuro con quest’altra probabilità. Non appena addestri i parametri che catturano sufficientemente bene la struttura del rischio, tutto ciò di cui hai bisogno, in aggiunta, è una prospettiva economica, come costi, profitti e alcuni driver di ordine superiore che ti permettano di prendere decisioni di trade-off. Ad esempio, dovrei acquistare un’unità extra di questo bene piuttosto che un’unità extra di quell’altro, dato che il budget è sempre limitato. Con una prospettiva probabilistica, non hai questo problema perché il bias non è necessario.
Conor Doherty: Con questa nota, sono consapevole che abbiamo superato un po’ il tempo. Per chiunque volesse fare ulteriori domande, ci possiamo incontrare all’angolo del palco. Ma ancora una volta, Sven, Nicolas e Alexey, grazie mille per essere stati con noi e buon proseguimento di giornata. Grazie.