00:00:07 Introduzione all’argomento del machine learning nell’industria della supply chain.
00:00:46 Introduzione all’ospite Alexander Backus, che è il responsabile dati e analisi presso IKEA.
00:02:20 Spiegazione del concetto di profezia autoavverante.
00:03:03 Discussione su come una profezia autoavverante influenzi la supply chain, come gli obiettivi aziendali e l’influenza della domanda e dell’offerta.
00:07:14 Spiegazione di come i cicli di feedback nella supply chain rendano il mondo più complesso e di come un surplus di un certo prodotto possa influenzare le sue vendite.
00:08:53 Discussione sui cicli di feedback nella supply chain e sull’influenza del comportamento umano su di essi.
00:10:41 Utilizzo dei dati di vendita nella previsione della domanda e le potenziali conseguenze di un approccio ingenuo.
00:13:08 Il problema della previsione a zero nei sistemi di machine learning e l’effetto frusta.
00:15:17 Spiegazione del bias di stock-out e delle tecniche per affrontarlo.
00:17:22 Discussione sulla diffusione degli stock-out e sull’efficacia del metodo per affrontare il bias di stock-out.
00:18:15 Spiegazione di come la percezione di un prodotto da parte del cliente possa influenzare la domanda e l’impatto dei livelli di stock sulle vendite.
00:20:17 Spiegazione del mascheramento delle perdite e del suo scopo.
00:20:26 Spiegazione di come dare al modello accesso ai livelli di stock possa aiutarlo a comprendere l’effetto delle fluttuazioni dei livelli di stock sulle vendite.
00:22:14 Discussione sui limiti dell’utilizzo di un modello di machine learning per l’inferenza causale e sugli effetti delle variabili confondenti.
00:25:54 Spiegazione di come la previsione probabilistica possa contribuire a ridurre l’impatto della previsione a zero riconoscendo l’imprecisione delle informazioni disponibili.
00:27:04 Spiegazione dei vantaggi nell’utilizzo di un modello di previsione probabilistica.
00:28:44 Vantaggi nell’utilizzo di un modello di previsione probabilistica rispetto a una previsione puntuale.
00:30:42 Cicli di feedback e come influenzano la previsione.
00:34:35 Come i prezzi possono influenzare la previsione.
00:36:32 Spiegazione dell’osservabilità parziale e della sua sfida nella creazione di un modello per la gestione della supply chain.
00:37:04 Confronto con il concetto di feedback bandit e la sua nota applicazione nei sistemi di raccomandazione e-commerce.
00:37:17 Discussione sui limiti dell’apprendimento supervisionato nel prevedere l’impatto delle decisioni nella gestione della supply chain.
00:38:01 Spiegazione dell’algoritmo di reinforcement learning basato su policy.
00:41:06 Discussione sulle sfide nell’applicare l’algoritmo di reinforcement learning alla gestione della supply chain nel mondo reale e la soluzione di iniziare con l’apprendimento offline dai dati storici.
00:44:55 Discussione su come le abitudini e le pratiche passate influenzino le variazioni dei prezzi in un’azienda.
00:46:41 Spiegazione di sfruttamento ed esplorazione nel reinforcement learning.
00:50:57 La necessità di riconoscere i cicli di feedback nelle previsioni come un cambiamento di paradigma.
00:52:45 Le sfide tecniche e culturali nell’incorporare l’IA nei processi aziendali.
00:53:57 Discussione sulle sfide nella modellazione e nel prendere decisioni nell’industria della supply chain.
00:54:55 Riconoscimento dell’esistenza dei cicli di feedback nel processo della supply chain.
00:55:06 Passare da un approccio basato sulle previsioni a uno basato sulle decisioni.
00:57:27 La tendenza nell’industria della supply chain, specialmente tra le grandi aziende di e-commerce.
01:01:03 Quali qualità si cercano quando si inseriscono nuove persone per lavorare sulle sfide della supply chain presso IKEA.
Riassunto
In un’intervista moderata da Nicole Zint, Joannes Vermorel, fondatore di Lokad, e Alexander Backus, Data and Analytics leader presso IKEA, si discute dell’applicazione del machine learning e dell’IA nell’industria della supply chain. L’intervista evidenzia l’impatto delle profezie autoavveranti e dei cicli di feedback sul supply chain management e sottolinea le sfide legate all’utilizzo dei modelli di machine learning nelle previsioni. L’intervista esplora anche approcci per evitare il problema della previsione a zero, come l’utilizzo della previsione probabilistica, e l’importanza di riconoscere l’incertezza nelle previsioni della supply chain. I relatori enfatizzano la necessità di abbracciare l’incertezza, passando a modelli di decision-making e incorporando i cambiamenti in maniera graduale per migliorare la gestione della supply chain.
Riassunto Esteso
In questa intervista, Nicole Zint modera una discussione tra Joannes Vermorel, fondatore di Lokad, e Alexander Backus, Data and Analytics leader presso IKEA, sull’applicazione del machine learning e dell’IA nell’industria della supply chain. Si discute del concetto di profezia autoavverante e del suo potenziale impatto sulle supply chain, del ruolo dei cicli di feedback e delle sfide legate all’utilizzo dei modelli di machine learning nelle previsioni.
Una profezia autoavverante è una previsione che, direttamente o indirettamente, si auto-realizza a causa del feedback tra credenze e comportamenti. Nel supply chain management, le previsioni possono influenzare i processi decisionali e, in ultima analisi, cambiare il futuro. Vermorel sottolinea che le profezie autoavveranti non sono intrinsecamente buone o cattive; esse rendono semplicemente la situazione più complessa.
I cicli di feedback sono diffusi nelle supply chain, poiché gli esseri umani reagiscono alle previsioni, che a loro volta possono influenzare le previsioni future. Vermorel evidenzia come questi cicli possano manifestarsi in vari modi, ad esempio regolando i prezzi o il posizionamento dei prodotti basandosi sui livelli di stock. Nota inoltre che i concorrenti potrebbero modificare le proprie strategie in risposta alle previsioni di un’azienda, creando ulteriori cicli di feedback.
Backus spiega che i dati di vendita sono un input chiave per i modelli di machine learning nelle previsioni, ma le vendite non sono la stessa cosa della domanda. I dati di vendita possono essere influenzati dall’offerta e da altri fattori, mentre la domanda è una quantità non osservata che deve essere dedotta. Sottolinea l’importanza di distinguere tra i due e di considerare la loro interazione nel processo di previsione.
I modelli di machine learning possono essere problematici nelle previsioni della supply chain se non sono progettati per tenere conto dei cicli di feedback e delle profezie autoavveranti. Backus menziona l’“effetto frusta”, in cui piccole deviazioni nella supply chain possono essere amplificate dal sistema. Ciò può portare a effetti dannosi, come vendite in spirale o previsioni inaccurate. Confronta la previsione del tempo, non influenzata dal comportamento umano, con la previsione degli esiti aziendali, che sono soggetti a questi complessi cicli di feedback.
Per mitigare le sfide poste dai cicli di feedback e dalle profezie autoavveranti, Vermorel suggerisce che le aziende dovrebbero abbracciare la complessità dei sistemi della supply chain e riconoscere che le previsioni puntuali potrebbero essere insufficienti. Invece, dovrebbero cercare di comprendere e anticipare gli impatti potenziali delle loro previsioni sul comportamento umano e sui processi decisionali.
In sintesi, l’intervista esplora le complessità dell’utilizzo del machine learning e dell’IA nella gestione della supply chain, evidenziando l’importanza di comprendere le profezie autoavveranti e i cicli di feedback per migliorare la precisione delle previsioni e il processo decisionale.
Il problema della previsione a zero si verifica quando un sistema ordina meno stock a causa di una percepita diminuzione della domanda, causando un ulteriore calo della domanda e portando a una diminuzione continua degli ordini. Per evitare questo problema, Vermorel suggerisce di eliminare il bias di stockout modificando la metrica utilizzata nel modello di previsione. Un approccio consiste nell’azzerare le misurazioni nei giorni in cui si verificano stockout. Questo metodo funziona bene quando gli stockout sono relativamente rari, ma è meno efficace in settori con tassi elevati di stockout.
Un altro approccio è quello di dare al modello di machine learning accesso ai dati storici e futuri dei livelli di stock, permettendogli di apprendere l’effetto delle fluttuazioni dei livelli di stock sulle vendite o sulla domanda futura. Questo metodo richiede di fornire al modello tutte le decisioni e i fattori che influenzano la domanda, come promozioni, prezzi, capacità, vincoli di magazzino e forze di mercato.
Tuttavia, Backus avverte che l’uso di un modello standard di machine learning senza tutte le informazioni necessarie può portare a errori, come confondere la causa e l’effetto delle variazioni dei livelli di stock e delle fluttuazioni della domanda. Per evitare questi problemi, suggerisce di utilizzare la previsione probabilistica, che riconosce l’imprecisione delle informazioni disponibili ed evita di convergere su una fiducia assoluta nel fatto che la domanda sia zero.
La previsione probabilistica distribuisce le probabilità su numerosi valori, rendendo più difficile convergere su una fiducia assoluta in una domanda pari a zero. Questo approccio evita che l’inventario si blocchi a zero stimando probabilità non nulle per la domanda futura. Considera inoltre l’asimmetria tra servire un cliente e mantenere scorte aggiuntive per un giorno in più, favorendo livelli di servizio.
Nonostante i suoi vantaggi, la previsione probabilistica non è una soluzione perfetta. Può comunque sottostimare la domanda futura in casi di stockout ripetuti. Tuttavia, fornisce un metodo più robusto per gestire l’inventario ed evitare il problema della previsione a zero.
In conclusione, adottare tecniche di machine learning e la previsione probabilistica può aiutare i professionisti della supply chain a prevedere meglio la domanda e a gestire l’inventario in modo efficace. Considerando i vari fattori che influenzano la domanda e tenendo conto delle incertezze nelle informazioni disponibili, le aziende possono prendere decisioni più informate e migliorare la loro performance della supply chain.
Joannes Vermorel ha sottolineato l’importanza di riconoscere l’incertezza nelle previsioni della supply chain, in quanto modellare perfettamente gli eventi futuri è irrealistico. Ha discusso il concetto di previsione probabilistica, che rispecchia l’incertezza intrinseca degli eventi della supply chain, e come essa si differenzi dalle previsioni puntuali. Le previsioni probabilistiche, ha spiegato, coinvolgono distribuzioni di probabilità, facendo sembrare il futuro molto diverso dal passato. Ha inoltre accennato ai cicli di feedback come una dimensione aggiuntiva per arricchire le previsioni rendendole dinamiche e condizionate dal comportamento futuro.
Alexander Backus ha concordato con quanto detto da Vermorel ed ha approfondito come dare ai modelli l’accesso alle decisioni precedenti, come la determinazione dei prezzi, possa alleviare i problemi delle previsioni. Ha introdotto il concetto di osservabilità parziale, che consiste nell’osservare solo l’effetto di una decisione senza conoscere il controfattuale. Per prevedere meglio l’impatto delle decisioni, Backus ha suggerito di riformulare i problemi di machine learning in modo da ottenere decisioni ottimali anziché previsioni sul futuro. Questo approccio è chiamato reinforcement learning.
La conversazione ruota attorno alle sfide delle previsioni e del processo decisionale nella gestione della supply chain a causa dei cicli di feedback, dei dati limitati e delle decisioni non casuali. Enfatizzano la necessità di abbracciare questi cicli di feedback e di spostarsi verso un modello che produca decisioni anziché previsioni. La tendenza tra le aziende tecnologicamente orientate, come Amazon e Alibaba, è di abbandonare l’idea di una previsione perfetta e concentrarsi sul processo decisionale. Nonostante le sfide esistenti, i partecipanti concordano sul fatto che il settore debba lavorare per incorporare questi cambiamenti in maniera graduale per migliorare la gestione della supply chain.
Vermorel evidenzia l’importanza di abbracciare l’incertezza e la complessità irriducibile delle supply chain, che sono composte da esseri umani, macchine e processi. Sostiene l’idea di essere approssimativamente corretti piuttosto che esattamente sbagliati. Backus sottolinea la necessità di un grande data science per affrontare le sfide all’interno di grandi corporazioni come IKEA, evidenziando il potenziale impatto globale e l’importanza di sfidare lo status quo.
Trascrizione Completa
Nicole Zint: Benvenuta, Alexander Backus, qui con noi oggi nei nostri uffici. Alexander è un esperto in questo campo ed è il Data and Analytics leader presso IKEA. Quindi, come sempre, vorremmo iniziare lasciando che i nostri ospiti si presentino. Alexander, se vuoi, la parola è tua.
Alexander Backus: Grazie, Nicole. Grazie per avermi invitato qui. È un piacere essere qui a Parigi con te. Mi chiamo Alexander Backus e guido l’analisi dei dati nel settore delle operazioni di inventario e logistica di IKEA Inka Group Digital. Gestisco un gruppo di data scientists, data engineers e data analysts che lavorano in team di prodotto cross-funzionali con la missione di ottimizzare la pianificazione delle operazioni logistiche di inventario. Ho una formazione in data science e ho lavorato come consulente per grandi aziende come KLM Airlines, Heineken, Vodafone Ziggo e ING Bank. Dopo aver completato un PGD in Neuroscienze Cognitive, ritengo che lavorare nella supply chain come data scientist sia un campo davvero entusiasmante perché combina molte condizioni favorevoli per la data science. Ci sono molti dati, c’è un impatto sulle decisioni del mondo reale, quindi è qualcosa di tangibile, e non influisce solo sul risultato finale, ma aiuta anche a creare un mondo più sostenibile riducendo gli sprechi nella supply chain. Ecco come sono finito qui.
Nicole Zint: Prima di approfondire questi temi, spieghiamo innanzitutto il concetto di cui discuteremo. Iniziamo: cos’è una profezia autoavverante?
Alexander Backus: L’idea è che la previsione che fai per ottimizzare il tuo business process abbia effettivamente un impatto su un certo processo decisionale. C’è una decisione che viene presa basandosi sulla tua previsione, almeno è quello che desideri. Quando ciò accade, significa che la previsione stessa sta cambiando il futuro e anche modificando i dati che vengono usati per prevedere la volta successiva. Questo può presentare alcune sfide. Essenzialmente, una profezia che si autoavvera è quando una previsione si realizza perché è stata prevista. Quindi, influenzi il futuro perché pensavi che sarebbe stato in un certo modo. Non stai solo influenzando il futuro, ma crei anche una realtà in cui la previsione diventa la verità, e ciò può avvenire in vari modi. Ad esempio, se hai una previsione della tua attività o delle tue vendite, questa può diventare l’obiettivo della tua attività.
Nicole Zint: Quindi, le persone del marketing prendono certe decisioni, dicono, va bene, dovremmo raggiungere questo obiettivo perché ora siamo un po’ bassi, quindi dobbiamo vendere di più, e dobbiamo fare alcune promozioni. In realtà, la previsione che hai fatto è diventata l’obiettivo che ha portato a decisioni lungo il percorso, influenzando quello che sarà il risultato finale delle vendite in questo esempio. E ciò può avvenire in molti modi. Un altro esempio è quando hai una certa previsione che ti permette di assicurarti una determinata capacità di consegna o capacità di picking nei tuoi magazzini, e questo ha un impatto sul lead time. Quindi, quando un cliente visita il tuo sito e-commerce e vede che il lead time è molto alto o molto basso, può andare in entrambe le direzioni; questo in realtà influenza la domanda dei clienti.
Alexander Backus: Esattamente, quindi la domanda influenza la tua supply chain, e la supply chain influenza la domanda. Si può andare in entrambe le direzioni, e questo è in realtà l’effetto a cui stai alludendo, Joannes. Quando si tratta delle previsioni che diventano obiettivi aziendali, come vedi che ciò influenzi l’azienda stessa? Quali sono gli svantaggi quando la previsione è qualcosa che le persone mirano a raggiungere, piuttosto che guardare effettivamente alle performance della loro supply chain?
Joannes Vermorel: Non ci sono svantaggi in senso stretto. È più una questione del fatto che questo è il modo in cui opera la supply chain. Sai, i loop di feedback sono ovunque. Ci troviamo a trattare fondamentalmente affari umani, dove ciò che sorprende i professionisti è che, in molte scuole di ingegneria e persino in molte aziende, le persone affrontano la previsione come se fosse il movimento dei pianeti, ovvero un contesto in cui hai un framework molto pulito basato su osservazioni passate, e puoi fare una dichiarazione sulla posizione futura di un pianeta. Ma tu, in qualità di predittore, non hai alcun impatto su quegli elementi osservati, proprio come i pianeti.
Nicole Zint: Quindi intendi dire che una profezia che si autoavvera non è necessariamente buona o cattiva, semplicemente è?
Joannes Vermorel: Sì, esattamente. Non puoi negare che influisca, ma certamente rende la situazione più complessa e complicata, in realtà un po’ di entrambe le cose. E così, il problema si complica quando molte aziende hanno difficoltà ad accettare tutto ciò che non è una previsione puntuale, cioè un point forecast; diciamo, hai un futuro, questo è. Ed è fondamentalmente qualcosa di completamente simmetrico al passato. Hai le tue osservazioni passate, e vorresti avere un futuro altrettanto chiaro e ordinato come il passato, sostanzialmente più o meno lo stesso.
Nicole Zint: Sì, più o meno lo stesso, ma anche della stessa natura. Quindi hai una visione perfettamente chiara del passato e una visione perfettamente chiara del futuro. E, a proposito, nel caso del movimento dei pianeti, fintanto che non guardi milioni di anni avanti, puoi avere una visione completamente perfetta della posizione di quei pianeti tra un secolo.
Joannes Vermorel: Ora, dove diventa interessante è che nella supply chain hai loop di feedback ovunque. Ogni volta che ti impegni su un prodotto acquistandone in grandi quantità, crei aspettative, e le persone sentono il bisogno di vendere quel prodotto, facendo tutto il possibile affinché l’azienda non si ritrovi con un sovraccarico di stock invenduto. Si organizzano in modo che questa offerta massiccia si trasformi in vendite massicce, o almeno questo è ciò che cercano di fare. Adattano il prezzo in base alla quantità presente in stock, o a volte in modi ancora più banali. Se ci sono negozi, se tu
Nicole Zint: Partendo in una direzione leggermente diversa, per stabilire una differenziazione maggiore, vedi quei loop di feedback: sono ovunque e non sono negativi. Sono semplicemente presenti, e ancora una volta il motivo principale è che nel mezzo ci sono esseri umani che possono pensare ed agire basandosi su quelle anticipazioni del futuro. Quindi, ogni volta che ci sono esseri umani in gioco, ogni volta che fai una dichiarazione sul futuro, le persone reagiranno in base a quella dichiarazione. Le supply chain sono molto complesse, quindi quelle reazioni possono assumere molte forme. Ma tutte le supply chain hanno in comune la presenza di molte persone, e talvolta, per esempio, il loop di feedback assume anche la forma di un annuncio di carenza di qualcosa. A quel punto, le persone si precipitano ad acquistare quell’oggetto, e così si crea una carenza artificiale solo a causa di un effetto psicologico.
Joannes Vermorel: Esattamente. E l’idea che se annunci una carenza, molto probabilmente ne causerai effettivamente una, non è una novità. È relativamente prevedibile, ma comunque difficile anticipare tutti quei segnali perché improvvisamente devi essere perfetto. Sì, e improvvisamente devi modellare, in un certo senso, la psiche delle persone che sono al centro della supply chain.
Nicole Zint: Joannes, continui a menzionare questi loop di feedback. Alexander, posso chiederti quali dati effettivi vengono reimmessi in questi sistemi, in modo che i nostri spettatori possano capire? Quindi, a che punto della supply chain reinseriamo i dati?
Alexander Backus: Buona domanda. Penso che una fonte molto importante per fare previsioni di qualsiasi tipo siano i dati delle tue vendite, e questo è anche il dato fondamentale che viene influenzato dagli effetti di cui abbiamo appena parlato. Quindi, se torniamo a ciò che Joannes stava spiegando, l’approccio ingenuo alla previsione della domanda, o alla previsione aziendale in generale, consiste nel prendere un modello di machine learning supervisionato e trattarlo come un semplice problema di regressione. Quindi dici: “Va bene, sto solo per prevedere questa quantità basandomi sui dati storici utilizzando un algoritmo di apprendimento supervisionato.” E poi, se prendi quel modello addestrato a prevedere le vendite future e pensi agli esempi dei loop di feedback di cui abbiamo discusso, puoi incorrere in casi dannosi o degenerativi. Quindi, dove il tuo modello prevede una domanda o vendite basse, facciamo molta attenzione a non confondere i due, ma per un momento ignora il fatto che le vendite non sono la domanda.
And così ti ritroverai in una situazione in cui prevedi vendite basse, quindi pianifichi una capacità bassa, e di conseguenza vendi meno, scendendo sempre di più fino ad arrivare a zero. Così il modello inizierà ad apprendere che la domanda sta diminuendo, ma sta diminuendo. E il fenomeno può avvenire anche in senso opposto; anzi, può anche andare a spirale verso l’alto in quel senso.
Joannes Vermorel: Sì, ci sono questi effetti dannosi se utilizzi un modello di machine learning che apprende dalla storia per prevedere il futuro in questo modo più ingenuo, che può andare completamente storto.
Nicole Zint: Sembra un po’ come un effetto bullwhip, dove un errore nella supply chain o una deviazione dalla norma viene amplificata dal sistema. E hai anche menzionato il fatto che le vendite non sono necessariamente la domanda, poiché potresti vendere 50 unità del tuo stock, ma se la domanda fosse 100, verrebbero registrate solo 50. Quella distinzione è in realtà al centro di questo problema.
Alexander Backus: Sì, la domanda stessa è, ovviamente, una quantità non osservata. Non puoi misurarla, quindi devi inferirla. E i dati delle vendite sono il più vicino a quella, ma sicuramente non sono tutto.
Nicole Zint: Quindi, stiamo discutendo l’idea che le previsioni prodotte possano influenzare la domanda e le vendite, creando un loop di feedback. Alcuni hanno descritto la differenza tra prevedere il tempo e prevedere il business, dove prevedere il tempo non lo influenza, mentre prevedere il business può effettivamente influenzarlo. Alexander, potresti approfondire questo loop di feedback e come evitare il problema della previsione a zero che hai menzionato?
Alexander Backus: Certamente. Quando un modello di machine learning apprende dai propri dati di output, può amplificare le deviazioni dalla norma. Ad esempio, se la domanda diminuisce leggermente per qualsiasi motivo, il modello potrebbe indicare al sistema di ordinare meno. Di conseguenza, la domanda diminuisce ancora di più perché si ordina meno, e così il modello suggerisce di ordinare ancora meno, portando a un problema di previsione a zero. Questo problema è particolarmente comune con la previsione di time series. Joannes, come evitiamo questo problema con i sistemi di machine learning?
Joannes Vermorel: La previsione a zero si verifica quando non si rimuove il bias dello stock-out, che può essere piuttosto marcato. Se esaurisci lo stock, osservi vendite pari a zero, ma questo non significa che la domanda sia zero. Abbiamo almeno tre tecniche in produzione a Lokad per affrontare il bias dovuto agli stock-out. Un approccio consiste nel cambiare la metrica che stai ottimizzando con il tuo modello di previsione. Invece di applicare la metrica in modo uniforme nel tempo, azzeri le misurazioni nei giorni in cui si verificano stock-out. È un approccio rozzo, ma può funzionare.
Nicole Zint: Quale metrica viene tipicamente utilizzata inizialmente che suggerisci di modificare?
Joannes Vermorel: Esistono migliaia di metriche, ma le più semplici sono L1, L2 o anche MAPE. La domanda è se applichi la metrica in maniera uniforme nel tempo. La risposta è tipicamente no, non la applichi uniformemente. Vuoi azzerare le misurazioni nei giorni in cui si verificano stock-out.
Nicole Zint: Quindi, azzerare significa rimuovere il contributo di un giorno in cui c’è stato uno stock-out?
Joannes Vermorel: Sì, rimuovi il contributo di un giorno quando sai che il tuo segnale è fortemente distorto. Funziona bene eliminare quel segnale, ma è un approccio piuttosto rozzo.
Nicole Zint: Non se i tuoi stock-out risultano essere molto diffusi. Per molte aziende, gli stock-out sono statisticamente relativamente rari. Hanno un livello di servizio superiore al 95% ogni giorno, quindi questo tipo di metodo funziona bene se gli stock-out sono in qualche modo eccezionali, come se fossero un naturale disastro che accade abbastanza raramente.
Joannes Vermorel: No, intendo dire, prendiamo ad esempio un negozio di generi alimentari, tipo un supermercato. Hanno un livello di servizio oltre il 95% ogni giorno, ed è perfetto. Dove invece non funzionerebbe sarebbe, ad esempio, in un negozio di lusso di alta gamma. In questo caso, per farti un’idea, un negozio di lusso potrebbe avere, diciamo, 500 articoli su un catalogo di 5.000. Così, per definizione, si verifica uno stock-out superiore al 90% delle volte. In tal caso, il metodo non avrebbe molto senso. Quindi, vedi, dipende davvero dal settore. In settori come l’alimentare, dove ci si aspetta un livello di servizio molto elevato, l’assortimento è studiato per offrire ciò che è indispensabile. Ad esempio, se il tuo supermercato vende solitamente confezioni di bottiglie di soda, dovresti poter entrare nel negozio con la certezza di trovare quelle unità. A volte potresti non trovarle, ma tali eventi saranno rari. Insomma, dipende dal verticale.
Nicole Zint: Ok, ed essenzialmente, le vendite possono inviare un segnale errato riguardo alla domanda, come hai spiegato. Se sono vendite pari a zero, si potrebbe erroneamente assumere che significhi zero domanda, ma in realtà potrebbe essere dovuto al fatto che non hai quello stock. Di fatto, potrebbe esserci una domanda molto alta in quel caso. E viceversa, se hai uno stock-out per un altro prodotto che funge da valido sostituto, potresti vedere un picco di vendite per un articolo, mentre in realtà ciò riflette solo il fatto che ti stai esaurendo lo stock di qualcosa che è solo un sostituto parziale. Tuttavia, la percezione del cliente potrebbe essere che si tratti di un cattivo servizio.
Joannes Vermorel: Sì, poiché i clienti potrebbero comunque accettare il sostituto, ma potrebbero ritenere che sia un’opzione inferiore. Quindi, ancora una volta, ciò che è interessante è che devi considerare l’agente, i clienti, e ciò che pensano, cercando di adeguare la tua modellizzazione della domanda per catturare quella linea base di pensiero che entrerà nella tua base clienti.
Nicole Zint: Come evitiamo questo problema della previsione a zero, in modo che vendite pari a zero non vengano interpretate come zero domanda?
Alexander Backus: Jiran ha semplicemente suggerito di non tenere conto di quel segnale, evitando di considerare quei giorni. In termini tecnici, questo viene definito loss masking.
Joannes Vermorel: Sì, fondamentalmente rimuovi il contributo di quel punto dati. Un’altra tecnica semplice consiste nel dare al modello accesso ai livelli di stock storici e magari ad alcune proiezioni future, così da poter comprendere come queste vendite siano influenzate dai livelli di stock.
Alexander Backus: Il modello può quindi apprendere qual è l’effetto di certe fluttuazioni dei livelli di stock sulle vendite future o sulla domanda, se lo modelli. Essenzialmente, l’effetto delle decisioni.
Joannes Vermorel: Esatto, è a questo punto che tutti vogliono arrivare, ovvero prendere tutte le decisioni che sono state fatte sulla base delle previsioni precedenti e inserirle come input per il modello di previsione.
Nicole Zint: Quando lo addestri, non sono solo le decisioni relative allo stock che influenzano i livelli di stock, ma possono essere anche decisioni di marketing, come ad esempio un obiettivo fissato dalla direzione aziendale. Dicono, “Ehi, questo è quanto vogliamo vendere.” Questa è una decisione a sé stante perché tutte quelle forze di mercato sono in gioco.
Alexander Backus: Sì, forze di mercato. Inserisci tutto questo nella previsione come input, ad esempio promozioni, dati sui prezzi e dati di capacità. La capacità può anche influenzare la domanda. Se i lead time aumentano vertiginosamente, le persone vanno a cercare alternative. In sostanza, tutti i vincoli nell’azienda, nei magazzini e tutto ciò che può influenzare la domanda fungono da segnali di input per il tuo modello. Il modello può quindi apprendere dalla storia quale sia l’effetto di questi segnali sulla domanda e, di conseguenza, correggervi.
Questo è una sorta di secondo passo nella tua modellazione, perché ci sono molte cose di cui devi fare attenzione qui. Un interessante passaggio laterale è che gli utenti aziendali vogliono utilizzare il tuo modello per fare quella che, in termini tecnici, viene chiamata inferenza causale. Vogliono modificare aspetti come: “Cosa succede se facciamo questa promozione o se riduciamo i livelli di stock? Cosa succede con la domanda?” È un po’ come una simulazione.
Per far funzionare ciò, devi prestare molta più attenzione nella modellazione. Se lo fai nel modo in cui l’ho spiegato, il tuo modello può facilmente apprendere effetti come: quando lo stock è basso, la domanda è alta, solo perché qualche campagna di marketing - che in realtà è la causa - ha fatto diminuire lo stock e aumentare la domanda. Questo confonde il concetto. Si chiama confondimento o causalità inversa. Un modello standard di machine learning, a cui non viene fornita tutta l’informazione necessaria, commetterà questo tipo di errore.
Un esempio classico è quando cerchi di prevedere se farà caldo. Puoi predirlo dal numero di vendite di gelato. Ovviamente, questo è un tipico esempio di causalità inversa. Ma forse hanno abbassato i prezzi o hanno esaurito lo stock, e quella è stata la ragione effettiva. Le possibilità sono molte.
Ma devi stare attento. Questo è un modo per iniziare a fornire al tuo modello maggiori informazioni sulle decisioni che sono state prese e per assicurarti che impari a correlare tali dati. Tuttavia, sarà comunque piuttosto impegnativo per il modello stesso apprendere queste relazioni, specialmente se ci sono molti passaggi intermedi per i quali non disponi di dati. Se fornisci una previsione, non è detto che qualcuno in azienda la prenda e la usi direttamente per prendere decisioni. Verranno aggiunte informazioni, modifiche apportate dai pianificatori in azienda, e a quel punto sarai parzialmente all’oscuro. Diventa di nuovo problematico e complesso.
Prima di approfondire come affrontiamo effettivamente queste nuove sfide poste dalla creazione di un…
Nicole Zint: Il machine learning è un modello più intelligente che produce decisioni e impara. Alexander, come influisce ogni decisione sull’azienda e come possiamo confrontarle per capire quali decisioni dovremmo prendere? Non vogliamo soltanto fare previsioni, ma anche comprendere i passaggi intermedi. Ma prima di addentrarci in questo, Joannes, abbiamo accennato poco fa a questo modello di zero forecasting, che è un concetto importante in questo modello di machine learning. Qual è la differenza negli approcci di previsione che adottiamo in Lokad? Le previsioni probabilistiche aiutano a risolvere il problema dello zero forecasting e ad amplificare, come abbiamo discusso, quelle deviazioni dalla norma che diventano errori maggiori? In che modo la previsione probabilistica cambia tutto ciò?
Joannes Vermorel: La previsione probabilistica è molto interessante a questo proposito e, più in generale, per il feedback loop. Ci sono due motivi completamente differenti per questo. Il primo è l’idea di introdurre una nozione di imprecisione, così da cercare di essere almeno approssimativamente corretti invece che esattamente sbagliati.
Quando si tratta di situazioni con previsioni a zero, ad esempio, ciò che accade è che, avendo previsioni probabilistiche, si riconosce che la qualità delle informazioni a disposizione tende ad essere piuttosto confusa. Non hai una visione perfetta di ciò che sta accadendo, e quindi sarà molto più difficile, numericamente parlando, convergere a una certezza assoluta che la domanda sia effettivamente zero. Quindi non è che il modello di previsione probabilistica sia tanto migliore, è solo che le previsioni saranno distribuite e eviteranno di bloccarsi su quella posizione zero. Considera tutte le probabilità su molti valori, e quando aggiungi al tutto il fatto che tipicamente esistono forti asimmetrie tra la capacità di servire una unità rispetto al tenere una unità in più in magazzino per un giorno, in molte situazioni si preferisce avere un’unità extra per un giorno piuttosto che rischiare un esaurimento di stock. Il trade-off è fortemente orientato verso livelli di servizio più elevati.
Quindi, ciò che ottieni dalle previsioni probabilistiche è una situazione in cui le probabilità sono distribuite. Non hai una previsione, che è la tua dichiarazione numerica sul futuro, che collassa rapidamente verso uno stato degenere in cui si afferma semplicemente che la domanda futura sarà zero. Ciò causerà problemi, dunque se si verificano ripetuti esaurimenti di stock, la previsione probabilistica non è una bacchetta magica. Molto probabilmente sottostimerai la reale domanda futura. Tuttavia, eviterai probabilmente che l’inventario si congeli a zero semplicemente perché stimi ancora che esista una probabilità non nulla che la domanda sia di una, due o tre unità. Questo è il primo argomento; evita di amplificare in una direzione.
Alexander Backus: Sì, è anche importante considerare che, soprattutto quando abbiamo feedback loops, le situazioni sono molto difficili da controllare completamente. È meglio avere qualcosa che non amplifichi in una direzione, come ha menzionato Joannes.
Nicole Zint: Fingi di avere il completo controllo su tutto. Di nuovo, non stiamo parlando del movimento dei pianeti. Fenomeni in cui un’inaccuratezza del 30-60 percento non è nulla, insomma, non sono affatto sorprendenti.
Joannes Vermorel: Quindi stiamo parlando di un grado di inesattezza nella dichiarazione numerica che facciamo sul futuro che è molto elevato. La previsione probabilistica, almeno, fornisce qualcosa che riflette questa enorme incertezza ambientale che abbiamo. Di nuovo, stiamo cercando di modellare gli esseri umani, sai, persone capaci di reagire. È davvero, davvero difficile e la prima cosa da riconoscere è che non sei in controllo. Voglio dire, quelle persone – quei clienti, quei fornitori, quei concorrenti – sono intelligenti, giocano le loro carte, sai, fanno molte cose. Sarebbe, direi, un po’ di arroganza affermare che si può modellare perfettamente ciò che accadrà. Questo sarebbe il fondamento del romanzo di fantascienza di Asimov, in cui si può avere una perfetta modellizzazione statistica del futuro di grandi civiltà. È estremamente difficile e molto probabilmente irrealistico.
Joannes Vermorel: La previsione probabilistica è di grande interesse anche per un motivo completamente diverso. Il secondo motivo è che, a differenza della previsione puntuale, in cui esiste una completa simmetria tra il passato e il futuro – con la previsione puntuale hai essenzialmente una misurazione al giorno per SKU, come ad esempio le vendite o la domanda – e quando proietti nel futuro finisci con una misurazione al giorno per SKU. Quindi la previsione è molto simmetrica alle tue osservazioni passate. Tuttavia, quando entri nel regno della previsione probabilistica, improvvisamente ciò che osservi è una distribuzione di probabilità o una serie di distribuzioni di probabilità. E così, hai una forte asimmetria tra il passato e il futuro. Improvvisamente, il futuro è completamente diverso dal passato. Nel passato hai osservazioni, sono uniche, non c’è incertezza oppure, se c’è, è solo l’incertezza della misurazione stessa. Voglio dire, potrebbe esserci un errore di trascrizione nel tuo registro delle vendite, ma in termini di ordine di grandezza, questo è molto, molto piccolo. Questo può quasi sempre essere approssimato in supply chain come assenza di incertezza, rispetto al futuro, dove l’incertezza è enorme e queste sono le tue distribuzioni di probabilità.
Joannes Vermorel: E così, ciò che è molto interessante, e questo mi porta al feedback loop, è che il feedback loop è un’ulteriore dimensione. È un modo per arricchire la previsione e renderla più robusta, ma in maniera molto diversa, perché se la previsione probabilistica riguarda l’introduzione di probabilità, il feedback loop riguarda il rendere la previsione una funzione di ordine superiore. Quindi, fondamentalmente, la tua previsione improvvisamente non è un risultato, non è neppure una distribuzione di probabilità, ma è un meccanismo nel quale puoi iniettare una policy, una sorta di reazione, e otterrai un risultato diverso. Quindi vedi, diventa in qualche modo qualcosa nel quale sai che se qualcuno agisce – e questo qualcuno può persino essere te stesso in un certo modo – avrà comunque un impatto sulla previsione.
Nicole Zint: Quindi la situazione diventa più dinamica e olistica quando entri nel regno dei feedback loops. Puoi spiegare come ciò influisce sulla previsione e perché diventa più sfuggente?
Joannes Vermorel: Quando entri nel regno dei feedback loops, hai a che fare con qualcosa di dinamico che necessita di un ingrediente funzionale al suo interno, come una policy. Questa policy determina come reagisci in termini di stock, prezzo e vari fattori che rappresentano la tua previsione. La previsione diventa più sfuggente perché non è più un oggetto semplice. È influenzata da questi feedback loops, e quando le persone parlano di “previsione”, di solito pensano a una previsione puntuale. Quando entriamo nel regno delle policy forecast, stiamo già spingendo oltre ciò che la gente può immaginare. Quando diciamo che saranno distribuzioni di probabilità, diventa molto più difficile da visualizzare.
Ad esempio, il fatto che i tuoi prezzi evolveranno per aiutare a mantenere il flusso di merci nella tua supply chain. Se un’azienda sta per subire una carenza massiccia, la risposta più naturale è aumentare gradualmente il prezzo in modo che la carenza sia meno severa. Al contrario, se stai per affrontare una situazione di overstock massiccio, la risposta naturale è abbassare il prezzo per aumentare la domanda e liquidare l’eccesso di stock. La previsione che hai sul futuro dipende dalla tua politica dei prezzi in questi esempi. Quando inizi a pensare ai feedback loops, la tua previsione diventa condizionale, tenendo conto di una policy che è in parte sotto il tuo controllo.
Nicole Zint: Alexander, sei d’accordo con i punti di forza e le differenze che Joannes ha appena delineato riguardo l’approccio di previsione probabilistica rispetto a una serie temporale?
Alexander Backus: Sì, dare al tuo modello accesso a decisioni precedenti come i prezzi può alleviare questo problema. Joannes ha parlato di serie temporali e previsioni probabilistiche a questo proposito. Tuttavia, non abbiamo solo l’effetto della tua previsione che influenza le decisioni future e i dati di training; abbiamo anche quella che viene chiamata osservabilità parziale. Questo significa che osservi solo l’effetto della decisione presa, e non sai cosa sarebbe successo se avessi avuto più capacità o più stock. Questo è un controfattuale. La sfida è creare un modello abbastanza buono da prevedere accuratamente l’impatto di tutte le decisioni.
Questo fenomeno è molto noto nei sistemi di raccomandazione nell’e-commerce e, si può dire, meno in ambito supply chain. Viene chiamato bandit feedback. Il termine deriva dai multi-armed bandits, una configurazione di macchine slot in un casinò in cui osservi solo la ricompensa ottenuta dalla slot machine o quale leva hai tirato.
Nicole Zint: E poi si tratta dello stesso effetto, e il sistema di raccomandazione è simile a questo perché se mostri una determinata pubblicità, non sai cosa sarebbe successo se ne avessi mostrata un’altra al cliente. Esistono approcci di modellazione specifici che sono ben adatti a questo, e l’impostazione ingenua supervisionata di cui ho parlato all’inizio è in realtà dove questo fallisce. Quindi, non è adatto a prevedere l’effetto dell’azione. Piuttosto, ciò che vuoi fare è riformulare il tuo problema di machine learning, in modo che il modello non produca una previsione sul futuro; deve produrre una decisione ottimale. Ed è questo, credo, a cui Joannes faceva cenno, si chiama policy. Quindi, impari un modello che dice: “Questo è ciò che dovresti fare”. Questa è la pubblicità che dovresti mostrare, o in un contesto supply chain, questo è lo stock che dovresti spostare da A a B, questa è la quantità di capacità che dovresti riservare. Quindi, le azioni effettive che influenzano direttamente la tua supply chain, piuttosto che una previsione a sé stante da cui prendi le decisioni, devono essere decise, poiché la macchina non sa quali decisioni hai preso. In teoria, potresti addirittura saltare completamente la fase di previsione e dire semplicemente: “Questo è ciò che dovresti fare.”
Alexander Backus: Esistono algoritmi specifici di machine learning, e la classe più ampia viene chiamata reinforcement learning. È lì che prendi un’azione nel mondo reale, osservi il suo effetto e dovresti inquadrarlo in termini di ricompense, ricompense finanziarie. Ed è allora che ottieni il feedback e aggiornate il tuo modello basandoti su tale feedback. Hai menzionato ricompense finanziarie, quindi un esempio potrebbe essere che decidi di ordinare una certa quantità di stock, osservi come se la comporta la supply chain, quanto denaro viene accreditato sul conto, e poi tutto ciò viene reinserito nel sistema affinché capisca che, beh, quando abbiamo preso queste decisioni, questo è stato l’esito, e così prosegue.
Joannes Vermorel: Sì, quel tipo di rinforzo finanziario o obiettivo finanziario può essere più complesso, tenendo conto dei costi di gestione del magazzino, delle opportunità perse e così via. C’è molto su cui si può elaborare, oppure possiamo fermarci qui. Quindi, è ciò che si ottimizza con questo algoritmo di reinforcement learning. In questo modo, impari direttamente la policy, le decisioni che dovresti prendere. In un certo senso, abbracci una sorta di profezia auto-avverante piuttosto che evitarla, come abbiamo iniziato a discutere all’inizio. Quindi, non è né buona né cattiva; semplicemente non può essere ignorata. Ed è un modo per aggirare il problema, per avere un modello che tenga conto delle decisioni e impari dall’impatto delle decisioni precedenti per creare decisioni sempre migliori.
Alexander Backus: Dovremmo riflettere un po’ sulle implicazioni di ciò, perché questo significa che dovresti anche essere in grado di sperimentare. E questo, in questa configurazione, ovviamente, è molto impegnativo se il modello deve imparare e vedere cosa succede se fa A o B.
Nicole Zint: Quindi, perché questo non è stato essenzialmente applicato prima, o non viene applicato ovunque?
Alexander Backus: Beh, questa è una delle ragioni. Inoltre, gli algoritmi tipici di reinforcement learning apprendono in modalità online, per così dire, prendendo un’azione e poi apprendendo dal feedback di ricompensa ricevuto. Questo è problematico in contesti reali, dove il rischio è elevato, e inoltre non hai
Nicole Zint: Non hai qualcosa con cui avviare questo algoritmo, per fargli produrre, in primo luogo, risultati sensati. Inizia con un’inizializzazione casuale. Oppure devi disporre di un ambiente di simulazione davvero eccellente, come quello che si osserva spesso in altri contesti di reinforcement learning, ad esempio AlphaZero che impara a giocare a scacchi da Google DeepMind. Hanno una simulazione, cioè una simulazione al computer in cui questo algoritmo di reinforcement learning può sperimentare. Così, in sostanza, non sacrifichi la supply chain di qualcun altro.
Alexander Backus: Esattamente, non vuoi dei conigli da laboratorio. Ma questo è un problema di tipo “uovo e gallina” nel nostro caso, perché poi hai bisogno di un modello della realtà molto accurato. E se ce l’hai, il problema è già risolto. Quindi, devi avere una supply chain innanzitutto per fare questo, e non vuoi farlo. Devi avere un modello della tua supply chain. Se ce l’hai, non dovresti aver bisogno di addestrare, e dovresti già essere in grado di individuare l’opportunità. Torniamo a dove siamo partiti.
Yeah, ma al giorno d’oggi esiste una direzione promettente in cui si impara dai dati storici. Si chiama reinforcement learning offline, in cui fondamentalmente si apprendono le decisioni storiche che sono state prese. Anche se non sono distribuite in modo ideale come avresti voluto, è comunque possibile addestrare algoritmi basati su dati reali raccolti in precedenza.
Nicole Zint: Tipo, un punto di partenza?
Alexander Backus: Sì, come un punto di partenza. E da lì, puoi procedere senza sacrificare le tue forniture per ambienti più online, oppure addestrarlo offline prima di rilasciarlo in lotti. Ci sono diverse opzioni, ma questo comporta anche delle sfide proprie. Joannes, qual è la tua opinione su ciò che Alexander ha appena descritto: iniziare offline, imparare dai dati precedenti e poi, sostanzialmente, la macchina elude questo problema “uovo e gallina”, diventa abbastanza buona da poter essere applicata a una supply chain reale, avendo così a disposizione più dati reali su cui lavorare, e da lì procedere? Qual è la tua opinione in merito?
Joannes Vermorel: L’efficienza dei dati è quasi sempre una preoccupazione per qualsiasi tipo di algoritmo di machine learning in supply chain, perché non si ha mai il lusso di disporre di una quantità gigantesca di dati, almeno non alla granularità necessaria per prendere le decisioni. Nelle decisioni in ambito supply chain, queste devono essere tipicamente prese a livello di SKU. E a causa del fatto che c’è batching, anche se osserviamo l’SKU in un negozio, non saranno milioni di unità al giorno. E se osserviamo l’SKU in una fabbrica, ci saranno grandi lotti, diciamo da 10.000 unità ciascuno. E ancora, non saranno milioni di lotti al giorno. Quindi, la quantità di osservazioni rilevanti è ancora relativamente limitata.
Questo è un aspetto che rappresenta sempre una sfida per il reinforcement learning, perché non abbiamo a disposizione così tanti dati. Un simulatore è di altissimo interesse, ma è anche un punto che ho accennato brevemente in una delle mie lezioni. Fondamentalmente, esiste una dualità tra una previsione probabilistica e un simulatore. Se hai una previsione probabilistica, puoi sempre campionare osservazioni, ottenendo così il tuo simulatore partendo dalla previsione probabilistica. E se hai un simulatore, puoi semplicemente eseguire molte simulazioni e calcolare le rispettive probabilità, tornando alla previsione probabilistica. Quindi, esiste una dualità molto forte.
Sì, è interessante, ma ciò si basa sull’avere una previsione probabilistica molto accurata, cosa estremamente impegnativa.
Nicole Zint: La parziale osservabilità è un problema particolarmente difficile da affrontare perché, quando si analizza un dataset, ad esempio se vuoi studiare i movimenti dei prezzi, l’azienda potrebbe aver operato in un modo specifico nell’ultima decade, in cui i movimenti dei prezzi non avvenivano in modo casuale; avevano abitudini molto radicate. Ad esempio, a volte le abitudini sono così forti da creare problemi quando si cerca di differenziare la vera causa di qualcosa.
Joannes Vermorel: E se l’azienda, ogni anno, alla fine di gennaio, decidesse di fare le prime vendite dell’anno? Hanno l’abitudine di applicare grandi sconti su una vasta gamma di prodotti alla fine di gennaio, il che si traduce in un’impennata della domanda alla fine del mese. Ma qual è l’effetto della stagionalità? Osserverebbero un picco di domanda alla fine del mese anche senza gli sconti? E qual è la proporzione dell’impatto attribuibile esclusivamente agli sconti?
Alexander Backus: Questo è proprio il problema. Le decisioni non sono state prese in modo casuale, e quindi ciò che osservi riflette in larga misura le pratiche abituali. Un modo nel reinforcement learning per affrontare questo è introdurre una miscela di esplorazione e sfruttamento. Lo sfruttamento significa fare del proprio meglio con ciò che hai osservato, mentre l’esplorazione consiste nel provare qualcosa di nuovo, con l’aspettativa che, essendo parzialmente casuale, risulti inferiore.
Joannes Vermorel: Allora perché mai proveresti qualcosa che sai essere probabilmente inferiore? La risposta è, beh, perché è l’unico modo per scoprire, alla fine, qualcosa che risulti essere superiore. Questa è l’idea del sacrificio, in sostanza, un investimento in ricerca e sviluppo. E potrebbe trattarsi di qualcosa che non assume forme troppo ordinarie. Potrebbe essere, ad esempio, che ti trovi in un negozio e stia vendendo candele.
Alexander Backus: E poi ti chiedi, cosa succede se provassi a vendere le stesse candele ma ad un prezzo quattro volte superiore o quattro volte inferiore? Entrambe le opzioni potrebbero essere valide. Forse se fai un ordine all’ingrosso molto consistente da uno dei tuoi fornitori e aumenti notevolmente la quantità, potresti abbassare drasticamente il prezzo di un prodotto di base. Ho scelto di parlare di una candela di proposito, così potresti avere un prezzo molto più basso, e forse moltiplicheresti la domanda che hai osservato per 10.
Joannes Vermorel: Sarebbe uno scambio valido. Oppure prendi l’altra strada, cambi completamente rotta e dici: “Vado per qualcosa di molto più premium, aggiungo sapore o fragranza, e altro ancora, un packaging migliore, e moltiplico il prezzo per quattro.” Invece di avere un decimo della domanda che avevo prima, avrei ancora metà della domanda, ma per un prodotto con un prezzo molto più alto.
Alexander Backus: Tuttavia, se guardiamo alla storia, molto probabilmente le variazioni che abbiamo osservato erano solo piccole variazioni rispetto alla baseline. La nostra storia non comprende questi scenari più folli, se vuoi.
Joannes Vermorel: Sì, e ancora, potrebbe essere una questione di: e se prendi un prodotto e dici, “Introdurrò cinque varianti in cinque colori diversi.”
Nicole Zint: Sai, qual è il grado di cannibalizzazione che osserverò, o sto davvero toccando nuovi mercati? Ancora, se prendo delle candele e dico che introdurrò più colori per esse, in che misura quelle candele di colori diversi si cannibalizzeranno tra loro e in che misura riuscirò effettivamente a soddisfare una domanda completamente nuova?
Joannes Vermorel: Non lo so, e forse questo registratore potrebbe darmi qualche indizio in merito. Ma in larga misura, di solito, quello che vediamo è che, fintanto che le aziende iniziano a introdurre un certo grado di casualità guidata dalla macchina, la casualità è minima. È più una questione di schemi abituali. E ancora, tutto si riduce al modo in cui queste aziende operano. Quando, ad esempio, si prende una decisione sui prezzi, tipicamente non è una sola persona a concepirla. C’è un metodo, e le persone sono state addestrate a dire: “In questo tipo di situazione, dovresti scontare il prodotto perché è la prassi abituale e ha senso.” Va bene, ma significa anche che la maggior parte della variazione dei prezzi che osservi nei dati storici segue sempre un numero ristretto di schemi, che sono proprio i metodi in atto.
Alexander Backus: Ma sicuramente, rimane comunque un buon punto di partenza. Quando, come hai detto, cos’altro fai? O sacrifichi una supply chain o crei una grande simulazione, ma anche questo si basa sull’idea che tu disponga di buoni dati su cui fondarti. Però, come ho detto, se lo facciamo in modalità offline, cioè basandoci sulla nostra storia di vendite esistente o sui dati che abbiamo, anche se ciò può comportare il rischio di non vedere una grande deviazione dalla norma che permetta di osservare le diverse conseguenze, secondo te è ancora il punto di partenza giusto?
Joannes Vermorel: Credo che il punto di partenza giusto sia leggermente diverso. Il vero punto di partenza è riconoscere che, ogni volta che abbiamo dei feedback loop, questo è fondamentale. Se riconosciamo che quei feedback loop sono reali e vogliamo affrontarli, significa cambiare paradigma nel modo in cui approcciamo le previsioni stesse. Vedi, quello è un vero punto di partenza. Il resto sono tecnicismi. Esistono molti modelli. I modelli più semplici di reinforcement learning, come i banditi, possono essere incredibilmente semplici. Alcuni sono incredibilmente complessi, ma quei dettagli sono tecnicismi. Quello che ho osservato nelle supply chain del mondo reale è che la sfida maggiore per iniziare a sfruttare qualcosa di semplice come quei feedback loop è riconoscere che avranno conseguenze profonde sulle previsioni stesse. Le previsioni non saranno mai più le stesse, e non intendo dire in termini quantitativi. Intendo dire, in termini di paradigma, che non puoi osservare quelle previsioni nello stesso modo. Questo non è nemmeno lo stesso oggetto, è qualcosa di una natura diversa, e questo è molto difficile perché, di solito, la domanda che mi viene posta è: “La mia previsione sarà più accurata?” Una delle sfide è che, non appena iniziamo a considerare quei feedback loop, come si misurerebbe l’accuratezza quando esistono feedback loop? È una questione a sé stante. È una domanda difficile.
Alexander Backus: Sì, se posso collegarmi a questo, penso che abbiamo discusso delle sfide tecniche e delle difficoltà legate alla disponibilità dei dati. Ma sono completamente d’accordo con Joannes sul fatto che la ragione principale per cui non è stato applicato o adottato negli ambienti aziendali è anche che ha un impatto profondo sui processi aziendali. Quindi, in questo tipo di contesto teorico…
Nicole Zint: Allora, secondo te, chi sono i soggetti più orientati alla tecnologia nel settore dell’e-commerce?
Joannes Vermorel: La tendenza è, credo, che se guardo ai soggetti tecnologicamente più aggressivi, si tratti di dd.com, Amazon.com, Alibaba.com. Sai, quelle aziende di e-commerce che sono all’avanguardia. Sì, sono davvero al top. Sono molto, molto efficaci.
Alexander Backus: Sono d’accordo. Quelle aziende sono decisamente leader nel settore quando si parla di tecnologia e innovazione.
Nicole Zint: Quindi, il mondo è cambiato molto nel corso degli anni. Cosa ne pensi, Joannes, del mondo in cui viviamo oggi?
Joannes Vermorel: Beh, non è più semplice come una volta. Il mondo è ancora in evoluzione, ma negli ultimi anni abbiamo avuto molte sorprese. È chiaro che non siamo alla fine della storia dove tutto è prevedibile. Il mondo è caotico, e dobbiamo accettare l’incertezza e la complessità degli esseri umani, delle macchine e dei processi nelle supply chain. Non possiamo avere il controllo completo, quindi il mio approccio è essere approssimativamente corretti per catturare tutto, piuttosto che essere esattamente sbagliati.
Nicole Zint: Questa è davvero una visione interessante. E tu, Alexander, che tipo di talento cerchi quando integri nuove persone nel tuo team?
Alexander Backus: Da IKEA, siamo sempre alla ricerca di grandi talenti in data science per risolvere le sfide all’interno di una grande azienda. Abbiamo molti dati e il potenziale per avere un impatto su scala globale, quindi dobbiamo sfidare lo status quo.
Nicole Zint: Vi ringrazio entrambi per le vostre intuizioni. È stato un piacere avervi con noi oggi.
Joannes Vermorel: Sì, grazie.
Alexander Backus: Grazie per avermi ospitato.