00:00:08 Introduzione alla previsione della domanda e all’aggregazione dei dati.
00:00:41 Diverse tipologie di granularità nella previsione della domanda.
00:02:00 Sfide dei vari livelli di aggregazione dei dati nella previsione.
00:05:28 Livello disaggregato: SKU per giorno, e ricostruzione di altri livelli di aggregazione.
00:08:31 Casi limite e sfide legate ai prodotti deperibili nella previsione della domanda.
00:09:42 Importanza delle informazioni granulari nell’aggregazione dei dati.
00:11:01 Ricostruire il livello di aggregazione desiderato a partire dai dati più granulari.
00:13:01 Limitazioni delle tecniche di serie temporali su dati molto disaggregati.
00:15:01 Tecniche di serie temporali e l’assunzione che il futuro continui in maniera simile al passato.
00:17:00 La natura seducente e ingannevole dei modelli di serie temporali.
00:19:03 Discussione sugli svantaggi dell’aggregazione nella previsione.
00:20:00 Esplorare l’importanza della granularità nel processo decisionale.
00:21:38 Esaminare orizzonti rilevanti e il loro impatto sulle decisioni di supply chain.
00:23:48 Argomentare contro un’aggregazione arbitraria e il suo potenziale impatto sull’efficienza della supply chain.
00:26:35 Suggerire un focus sulla granularità guidata dalle decisioni ed evitare un’ottimizzazione prematura.

Riassunto

Joannes Vermorel, fondatore di Lokad, discute dell’importanza di selezionare il giusto livello di aggregazione dei dati per la previsione della domanda in un’intervista con Nicole Zint. Si considerano due dimensioni: quella temporale e quella strutturale, che includono gli intervalli di tempo usati per aggregare i dati e l’organizzazione della supply chain. Vermorel osserva che il livello giornaliero e il livello SKU sono i più applicabili alla maggior parte delle reti di supply chain, ma casi limite potrebbero richiedere dati più granulari. Vermorel mette in guardia contro le limitazioni dei modelli time series nella previsione della supply chain, incoraggiando una prospettiva più ampia che consideri fattori quali deperibilità, cannibalizzazione, sostituzione e lead times variabili. Sottolinea l’importanza della granularità guidata dalle decisioni e dell’estensione degli orizzonti di previsione oltre i lead times.

Sintesi Estesa

In questa intervista, la presentatrice Nicole Zint discute della previsione della domanda e del giusto livello di aggregazione dei dati con Joannes Vermorel, fondatore di Lokad, una società software specializzata nell’ottimizzazione della supply chain. Esplorano i diversi tipi di granularità nella previsione della domanda e l’impatto di tali granularità sui metodi di previsione.

Vermorel spiega che ci sono due dimensioni principali da considerare quando si sceglie la granularità per la previsione della domanda: quella temporale e quella strutturale. La dimensione temporale si riferisce agli intervalli di tempo utilizzati per aggregare i dati, come ad esempio oraria, giornaliera, settimanale, mensile o annuale. La dimensione strutturale riguarda l’organizzazione della supply chain, includendo categorie di prodotto e località. Ciò potrebbe implicare l’aggregazione dei dati per SKU (Stock Keeping Unit), riferimento di prodotto, famiglia di prodotti, super famiglia di prodotti o categoria, per poi aggregare per sito, regione o paese.

Parlando dei tipi di previsioni associate a queste granularità, Vermorel menziona che il concetto di business intelligence, o ipercubi, reso popolare negli anni ‘90, è rilevante. I dati storici possono essere rappresentati come vettori, con ogni livello di granularità che crea un vettore unico. Quando viene aggiunta una dimensione temporale, questi vettori possono essere interpretati come dati di serie temporali, che possono poi essere utilizzati per la previsione.

Questo approccio si occupa principalmente di previsioni basate su serie temporali, che rappresentano la pratica dominante nell’industria. Vermorel osserva che potrebbero essere generate molteplici previsioni dallo stesso dato a causa della varietà dei possibili livelli di aggregazione.

L’intervista tocca anche il termine tecnico “equispaced” in relazione alle serie temporali. Le serie temporali equispaced hanno intervalli regolari e uniformi tra i punti dati. Vermorel riconosce che la maggior parte delle persone nell’industria della supply chain potrebbe non aver considerato di lavorare con serie temporali non equispaced, dato che le serie equispaced sono più comuni. Tuttavia, sottolinea che alcuni intervalli, come i mesi, non sono esattamente regolari in senso fisico, poiché i mesi hanno lunghezze variabili.

Questo segmento dell’intervista si concentra sull’importanza di selezionare la giusta granularità per la previsione della domanda. Ci sono due dimensioni principali da considerare: quella temporale e quella strutturale. Vari tipi di previsioni possono essere generate dallo stesso dato in base alla granularità scelta, con le previsioni basate su serie temporali che risultano le più comuni nell’industria. Inoltre, viene discusso il concetto di serie temporali equispaced, evidenziando le potenziali complessità nel gestire intervalli di tempo variabili.

Vermorel parla degli orizzonti temporali per le previsioni, della granularità guidata dalle decisioni e dell’importanza di non limitare il proprio pensiero quando si tratta della gestione della supply chain.

Discutono delle sfide legate ai livelli di aggregazione dei dati nell’ottimizzazione della supply chain. Vermorel spiega che la scelta del livello di aggregazione dipende dalla sensibilità del settore, in quanto alcuni settori potrebbero richiedere una maggiore disaggregazione. Sottolinea inoltre che il livello giornaliero e il livello SKU sono i livelli di disaggregazione più sensati per la maggior parte delle reti di supply chain. Tuttavia, osserva che casi limite, come i prodotti deperibili, potrebbero richiedere dati più granulari. Vermorel enfatizza che ogni decisione arbitraria riguardo l’aggregazione dei dati comporta vantaggi e svantaggi ed è cruciale comprendere da dove derivano tali decisioni. Quando gli viene chiesto se un livello di dati più granulare possa essere ricostruito a partire dal livello più granulare, Vermorel spiega che ogni volta che si aggregano i dati si perde informazione. Quindi, più i dati sono granulari, più accurata sarà la previsione. Tuttavia, i dati più granulari non sono dati aggregati, ma i dati transazionali grezzi. Spiega che il motivo per cui le persone si fermano a livello di SKU al giorno è che è l’ultimo livello al quale possono ancora operare con le serie temporali. Se andassero oltre, dovrebbero rinunciare alla prospettiva delle serie temporali poiché i dati non sono strutturati come una serie temporale.

Hanno anche discusso delle limitazioni dei modelli di serie temporali nella previsione della supply chain con la presentatrice Nicole Zint. Vermorel osserva che, sebbene l’industria della supply chain operi tipicamente con un modello mentale basato sulle serie temporali, le tecniche di serie temporali tendono a rendere scarsamente su dati scarsi, erratici e intermittenti. Sostiene che esiste un’asimmetria fondamentale tra il passato e il futuro, e che l’assunzione che il futuro sia esattamente come il passato è fuorviante. Vermorel mette in discussione anche la pratica di aggregare i dati, poiché ritiene che ciò comporti la perdita di dati e metriche non allineate, e suggerisce che l’unico orizzonte rilevante per il decision-making sia quello pertinente alla decisione specifica.

Vermorel inizia spiegando che gli orizzonti temporali per le previsioni dovrebbero estendersi oltre i lead times, poiché questi non si adattano sempre bene alla prospettiva tradizionale delle serie temporali. Sostiene che l’orizzonte decisionale dovrebbe considerare non solo il periodo tra il presente e l’arrivo di un prodotto, ma anche il tempo necessario a vendere le merci ricevute. L’orizzonte applicabile dipende da fattori quali la velocità prevista di liquidazione dello stock e la variabilità della domanda. Pur non essendoci un limite chiaro su quanto lontano guardare, Vermorel riconosce che le previsioni diventano più imprecise man mano che si proiettano nel futuro. In definitiva, il trade-off consiste nel bilanciare il costo delle risorse di calcolo con i potenziali miglioramenti della supply chain.

Quando si parla di granularità, Vermorel sottolinea che questa dovrebbe essere guidata dalle decisioni che l’azienda intende prendere. Consiglia di non confondere la necessità di visualizzazione con altri requisiti predittivi e di ottimizzazione, poiché la granularità può essere arbitraria e portare a una perdita di dati. Invece, raccomanda di concentrarsi sulle decisioni che hanno un impatto finanziario tangibile sulla supply chain, come il riordino o l’adeguamento dei prezzi.

Vermorel mette in guardia dal fissarsi troppo sui livelli di aggregazione, che egli considera un aspetto altamente tecnico del problema. I sistemi informatici moderni hanno più che sufficiente capacità per gestire vari livelli di granularità, e non è necessario imporre restrizioni arbitrarie al proprio modo di pensare. In passato, aggregare i dati per la visualizzazione era una sfida, ma i sistemi moderni lo gestiscono facilmente, anche a una granularità a livello di millisecondi.

L’intervistato mette inoltre in guardia dal fare affidamento esclusivamente sugli approcci tradizionali dei data cube per l’ottimizzazione della supply chain. Afferma che ciò può imporre restrizioni inutili e limitare l’ambito delle possibili soluzioni. Fattori quali deperibilità, cannibalizzazione, sostituzione e lead times variabili dovrebbero essere considerati per una visione più completa della supply chain. Vermorel incoraggia una prospettiva più ampia ed evita vincoli arbitrari che possono ostacolare la risoluzione dei problemi nella gestione della supply chain.

In sintesi, Joannes Vermorel sostiene di considerare una gamma più ampia di fattori quando si ottimizzano le supply chain, estendendo gli orizzonti di previsione oltre i lead times e adottando una granularità guidata dalle decisioni. Sottolinea l’importanza di non limitare il proprio modo di pensare e di sfruttare i sistemi informatici moderni per affrontare in modo efficace i complessi problemi della supply chain.

Trascrizione Completa

Nicole Zint: Quando si parla di previsione della domanda, esiste un’incredibile diversità di metodi e di livelli di aggregazione dei dati scelti sia tra le aziende che al loro interno. Alcuni effettuano previsioni quotidiane, altri su base settimanale, mensile o annuale. Alcuni effettuano previsioni a livello di SKU, altri a livello di categoria. Questo solleva la domanda: qual è il giusto livello di aggregazione dei dati? Questo è l’argomento dell’episodio di oggi. Prima di approfondire la risposta a questa domanda, Joannes, quali sono i diversi tipi di granularità tra cui scegliere nella previsione della domanda?

Joannes Vermorel: Nella previsione della domanda, ci sono sostanzialmente due dimensioni principali del problema. La prima è quella temporale, che riguarda se si desidera che i dati transazionali siano aggregati a livello orario, giornaliero, settimanale, mensile o annuale. L’altra dimensione è tipicamente la topologia del prodotto/supply chain, per cui si può scegliere di aggregare per SKU, per riferimento di prodotto, per famiglia di prodotti, super famiglia, categoria, ecc. Si hanno anche le località, per cui si potrebbe voler aggregare per sito, per regione o per paese. Le due dimensioni principali sono il tempo e la struttura del catalogo/rete di supply chain, che crea una matrice di possibilità in termini di scelta della granularità.

Nicole Zint: Quando parliamo di queste granularità, di che tipo di previsioni stiamo parlando? Esiste un tipo specifico di previsione?

Joannes Vermorel: Fondamentalmente, si tratta di un modello concettuale reso popolare negli anni ‘90, essenzialmente sotto il nome di business intelligence o ipercubi. È un modo per rappresentare i dati storici come vettori. Si sceglie un livello di granularità, ad esempio per SKU a settimana, e poi per ogni singolo SKU a livello settimanale si ottiene un vettore di valori che, grazie alla dimensione temporale, può essere interpretato come una serie temporale. Quindi, è possibile prevedere questa serie temporale in futuro. A causa dei molti possibili livelli di aggregazione, potrebbero essere fatte numerose previsioni partendo dagli stessi dati. Quindi, parliamo di previsioni basate su serie temporali quando affrontiamo questo problema, almeno questa è la pratica predominante nell’industria.

Nicole Zint: E per quanto riguarda la linea temporale nelle serie temporali, sono tutte equispaced oppure esiste un approccio diverso?

Joannes Vermorel: “Equispaced” è un termine altamente tecnico, con il quale la maggior parte delle persone dell’industria della supply chain potrebbe non aver mai lavorato. L’equispace è una tecnicalità in cui si afferma che la serie temporale è suddivisa in intervalli completamente regolari. Tuttavia, bisogna ricordare che si tratta di una certa astrazione, perché, ad esempio, i mesi non sono esattamente regolari in senso fisico. I fisici direbbero che alcuni mesi sono più lunghi di altri, quindi sono regolari solo secondo il nostro calendario.

Nicole Zint: Un’altra domanda riguardo al mese: abbiamo un numero diverso, ad esempio, di venerdì o weekend in un mese, e se osserviamo picchi di vendite di venerdì, questo non verrà distorto?

Joannes Vermorel: Arriviamo al tipo di domanda: quale livello di aggregazione scegliere? Emergono molte preoccupazioni. Ovviamente, ci sono alcuni livelli di aggregazione che hanno effetti particolari. Se si guarda al livello orario, per la maggior parte dei settori potrebbe risultare estremamente disaggregato e persino poco sensato durante la notte, poiché in molti ambiti, ad esempio nel retail, di notte potrebbe non accadere nulla. Quindi, potrebbe non essere nemmeno sensato.

Poi, infatti, se si sceglie l’aggregazione mensile, è sempre complicato perché alcuni mesi hanno cinque occorrenze di un certo giorno della settimana, mentre altri ne hanno quattro o cinque. Quindi, questo aspetto complicato introdurrà effettivamente delle distorsioni nel modo in cui si analizza il dato e, potenzialmente, nel modo in cui si costruisce la previsione. Ma vale lo stesso per altre dimensioni, ad esempio se si guarda a livello di SKU, di prodotto o di categoria; tutti questi introducono problematiche proprie.

Nicole Zint: Quindi, quando si tratta di questi diversi livelli di aggregazione dei dati, non possiamo tecnicamente scegliere, ad esempio, un SKU al giorno, che è il livello più disaggregato, e poi ricostruire sostanzialmente qualsiasi altro livello di aggregazione a partire da quello?

Joannes Vermorel: Prima di tutto, sì, c’è questa tentazione di optare per livelli super disaggregati. In supply chain, il livello di disaggregazione più sensato, in termini di tempo, è giornaliero. Tuttavia, è una decisione abbastanza arbitraria. Avremmo potuto decidere di farlo al minuto, e per esempio, se gestisci un call center e vuoi esaminare il tasso di arrivo delle chiamate in entrata, avrai un livello di osservazione molto più granulare per le chiamate in entrata. Quindi, si tratta davvero di capire quali aspetti abbiano senso per la situazione generale nella supply chain.

Ora, se torniamo un po’ indietro nel tempo, dobbiamo capire un po’ da dove veniamo. Diamo un’occhiata a un negozio tipico con 10.000 SKU in una rete retail tipica con 100 negozi. Quindi non si tratta nemmeno di una rete retail molto grande. Parliamo di 10.000 per 100, che fa 1 milione di SKU, e poi dati giornalieri. Quindi, se vogliamo avere una storia di tre anni, parliamo di mille giorni. Quindi, stiamo parlando di un miliardo di punti dati. Per rappresentare i dati aggregati giornalmente a livello di SKU in una modesta rete retail, parliamo già di qualcosa che corrisponde a un miliardo di punti dati.

Su un computer, ciò corrisponderebbe già a quattro gigabyte di memoria. Se torni indietro un po’ nel tempo, vedrai che questo tipo di capacità di memoria non era nemmeno accessibile prima degli anni ‘90. A proposito, il termine “business intelligence” come classe di enterprise software è emerso negli anni ‘90, proprio quando i computer della dimensione del gigabyte sono arrivati sul mercato. Quindi, le due cose andavano di pari passo. Era necessario disporre di computer in grado di rappresentare quantità così grandi di dati.

Nicole Zint: Quindi, quei grandi cube erano in realtà software progettati per il computing in-memory, che era solo un modo grandioso per dire sfruttiamo questa nuova memoria ad accesso casuale. E basandosi su ciò, diventa lo standard, anche se non dobbiamo dimenticare che era abbastanza arbitrario. Quando si dice che è il livello più piccolo che ha senso per le supply chain, è accurata questa aggregazione giornaliera e il livello SKU?

Joannes Vermorel: Sì, ma ci sono molti casi limite. Per esempio, se hai un prodotto deperibile, la domanda è se aggregare per giorno per SKU sia sufficiente a darti un quadro accurato del tuo livello di stock. Se stai osservando un prodotto deperibile, la risposta è no. Potresti avere 10 unità in stock, ma se 9 delle 10 unità scadranno domani, quello che hai realmente in inventario è per lo più una unità più nove che sono sul punto di scomparire. Quindi, in questo caso, il livello di stock non è abbastanza granulare e il livello SKU non è sufficientemente granulare. Ciò che vorresti avere sarebbe un livello di stock con almeno una settimana di shelf life e magari un livello di stock con almeno un mese di shelf life. Quindi, introdurresti un’altra dimensione per darti un’intuizione migliore.

Nicole Zint: E per quanto riguarda il tempo? Il livello giornaliero va bene o dovremmo considerare un livello più granulare?

Joannes Vermorel: Il livello giornaliero potrebbe andare bene, tranne che potrebbero esserci negozi che sono aperti, diciamo, solo durante il fine settimana o solo al mattino. Se non sai che hai un negozio aperto solo per mezza giornata, ti manca un’informazione. Quindi magari avere un livello più granulare, come il mattino e la sera, ti darebbe qualcosa di più prezioso. Ogni singola decisione arbitraria riguardante il tuo livello di aggregazione comporta pro e contro. Il mio messaggio qui è che è abbastanza arbitrario, e non c’è una verità assoluta in questo, ma è molto interessante capire da dove provengono quelle decisioni.

Nicole Zint: Supponiamo di trovare il livello più granulare che sia ragionevole in termini di costo. Se abbiamo accesso al livello più granulare ma vogliamo comunque guardare a una previsione su base settimanale, ad esempio, possiamo semplicemente ricostruire il livello che desideriamo a partire dal livello più granulare?

Joannes Vermorel: Assolutamente. Se torniamo alla storia transazionale grezza, ogni volta che si aggrega, si perde informazione. Non importa quale tipo di aggregazione tu stia effettuando, puoi sempre ricostruire un livello superiore a partire dai dati più granulari.

Nicole Zint: In realtà, questo è un processo a perdita, quindi stai perdendo informazione. Quindi hai meno informazioni, e sicuramente avrebbe senso che l’accuratezza diminuisse, giusto? Più alta è l’aggregazione, meno accurata diventa?

Joannes Vermorel: Sì, ma ciò che abbiamo è che questa era proprio la ragione per cui volevamo avere questo tipo di aggregazione. Direi che è guidata dal cube, perché abbiamo quel tipo di software che opera in modo relativamente veloce. L’idea è che quando hai un hypercube, operazioni di slice and dice possono essere fatte in modo molto efficiente. Questa è una ragione molto tecnica. Quindi, se vuoi passare dal giornaliero al settimanale, è un’operazione molto efficiente che puoi fare sul cube.

Effettivamente, in termini di pura teoria dell’informazione, ogni volta che passiamo a un livello più aggregato, perdiamo informazione. Quindi in teoria, se vogliamo avere qualcosa che rappresenti una previsione più accurata del futuro, dovremmo operare sui dati più disaggregati. Tuttavia, le persone penserebbero che i dati più disaggregati siano i dati per SKU per giorno, e io direi, aspetta, i dati più disaggregati non sono neppure dati aggregati. Sarebbero i dati transazionali grezzi.

La ragione per cui le persone si fermano a per SKU per giorno è essenzialmente perché è l’ultimo livello al quale stai ancora operando con le serie temporali. Se vuoi andare oltre e trattare la storia transazionale grezza, allora sostanzialmente devi rinunciare alla prospettiva delle serie temporali. Perché? Perché i dati non sono strutturati come una serie temporale. Sono letteralmente dati relazionali, quindi hai tabelle nel tuo database. Non sono più strutturati come una serie temporale, certamente non come una serie temporale equispaziata.

Le serie temporali emergono solo quando essenzialmente costruisci vettori in cui dici, per periodo (il periodo può essere un giorno, una settimana o un mese), hai una quantità, e poi hai un vettore di quantità. Vuoi estendere questo con un modello di serie temporali. Se operi solo con una tabella con, diciamo, 100 colonne, questa non è una serie temporale; è solo una tabella relazionale in un database. Questo è molto comune, ma non è la serie temporale. È il metodo di previsione scelto in sé che ora è un altro fattore limitante.

La domanda è, perché è così attraente? La risposta è che la maggior parte delle industrie della supply chain opera con un modello mentale basato sulle serie temporali. Quindi, ovviamente, se hai deciso che tutto deve adattarsi al modello delle serie temporali, allora l’hypercube è un fattore molto attraente perché tutto ciò che osservi, finché una delle dimensioni è il tempo, stai sempre guardando alle serie temporali in un modo o nell’altro a vari livelli di aggregazione.

Ma qui arriva il punto cruciale. Sebbene, in teoria, la teoria dell’informazione ci dica che più disaggregiamo, più informazioni abbiamo, e quindi più possiamo conoscere del futuro, la realtà è che le tecniche delle serie temporali, la maggior parte di esse, non tutte, tendono a funzionare molto male su dati molto sparsi, erratici e intermittenti. Il problema è che quando si analizzano dati molto disaggregati, le tecniche delle serie temporali sono meno efficaci.

Nicole Zint: Dal punto di vista della tua tecnica di serie temporali, non dal punto di vista reale (quello reale è che hai più dati), dal punto di vista della tua tecnica di serie temporali, hai un vettore sempre più scarno, cioè con più zeri. E le serie temporali riguardano più o meno la stessa cosa, giusto? Quindi presumiamo l’ipotesi che il futuro sia simmetrico al passato. È da lì che deriva?

Joannes Vermorel: Sì, ma questo è vero per tutti i metodi basati sui dati. Quindi, tutti i metodi data-driven si basano, in un modo o nell’altro, sull’idea che il futuro sarà più o meno lo stesso. Vedi, in realtà non dipende, puoi dire che è machine learning, AI, serie temporali, qualunque cosa, è sempre la stessa idea. Tutti i nostri metodi statistici sono radicati nell’idea che il futuro sarà più o meno lo stesso rispetto al passato.

Nicole Zint: Ma sicuramente, se passi a un livello più granulare, perdi forse delle stagionalità e cose del genere, giusto?

Joannes Vermorel: No, la caratteristica delle serie temporali è molto tecnica. È il fatto che il modello di serie temporali ti fornisce un modello altamente simmetrico nel senso che il futuro, in termini di struttura dei dati, appare esattamente come il passato. Questo è qualcosa di molto specifico delle serie temporali. Quando dici “più o meno la stessa cosa”, sì, ma io faccio un’affermazione riguardo al futuro. Questa affermazione non deve avere esattamente la stessa forma, struttura e formato rispetto ai miei dati storici. Quindi può essere così, ma può anche non esserlo.

Con le serie temporali, è incredibilmente seducente, ma credo che inganni molto le persone. È incredibilmente seducente perché, in sostanza, il futuro e il passato sono esattamente simmetrici. E quando dico “esattamente simmetrici”, immagina il tuo hypercube o il tuo cube. Hai una dimensione per gli SKU, una dimensione per il giorno, una dimensione per qualcos’altro, e sostanzialmente il futuro consiste nel prendere la tua dimensione del giorno ed estenderla di, diciamo, 100 celle in più.

E poi, eccolo, hai il futuro, e diresti che la previsione sta semplicemente riempiendo, colmando le lacune. Quindi letteralmente, diresti che si tratta degli stessi dati; ci sono dati che ho osservato e poi dati in cui riempirò le lacune con il mio modello di previsione delle serie temporali. Tuttavia, esiste un’asimmetria molto radicale e fondamentale tra il passato e il futuro.

Se adotti questa prospettiva classica di previsione basata sulla media delle serie temporali, stai facendo qualcosa che finge che il futuro sia esattamente come il passato, per natura, non solo per il fatto che non si è ancora verificato. È letteralmente in termini di formato dei dati, in termini di come pensarci, stai semplicemente dicendo che è completamente lo stesso. E la mia affermazione, che è più simile a una dichiarazione filosofica piuttosto che a una scientifica, è che no, non lo è, è molto diverso.

Nicole Zint: Vedo ancora molti RFP, e chiedono ai fornitori, potete darci tutti questi livelli contemporaneamente? Diversi livelli di aggregazione, perché?

Joannes Vermorel: Di nuovo, è una domanda standard. Le persone insistono su questo perché è ciò a cui sono abituate, ma è importante riconoscere che diversi livelli di aggregazione possono portare a risultati e intuizioni molto diversi.

Nicole Zint: L’errore logico qui è che inizi con questo modello di serie temporali, e questo modello ha il suo corrispettivo nell’industria del software con la business intelligence, dove tutto è fondamentalmente un cube o una versione “slice and diced” di un cube. Ora, le persone si rendono conto che perdono informazioni quando procedono, ma in qualche modo non sono veramente sicuri del motivo. La metrica indica loro che la loro previsione molto disaggregata è un vero schifo. La realtà potrebbe essere che, semplicemente perché non stanno usando il metodo giusto, essa è effettivamente molto povera.

Joannes Vermorel: Quindi dicono: “Ok, la nostra previsione è estremamente povera.” Io dico: “Bene, abbiamo bisogno della possibilità di risalire a un livello di aggregazione più alto. Potrebbe essere settimanale o per prodotto invece che per SKU.” Ma non sanno quale scegliere. Quindi, quando chiedono a un fornitore, vogliono tenere aperte le opzioni, e finiscono con RFP semi ridicole in cui hanno più di cento domande, e vogliono avere tutti i livelli di aggregazione.

Proprio perché, dal loro punto di vista, mantengono aperta l’opzione su a quale livello vogliono applicare il modello di previsione delle serie temporali. Ma qui metto veramente in discussione il fatto stesso del perché dovresti aggregare i tuoi dati in primo luogo, e perché la tua tecnica di previsione dovrebbe iniziare a scartare dati fin dall’inizio, prima ancora di operare? Stai perdendo dati, quindi questo è un problema, e aggregare di più significa semplicemente perdere ancora più dati.

E poi, se dici, “Ma aspetta, non possiamo operare a un livello super disaggregato perché la nostra metrica, che è la percentuale di errore, ci indica che è molto povera.” Diciamo, “Sì, ma non stai ottimizzando la percentuale di errore; vuoi ottimizzare i dollari di errore. Ma stai guardando la metrica delle percentuali, quindi è in qualche modo disallineata rispetto ai dollari.”

Nicole Zint: Sì, esattamente. Perché se segui questa fallacia, passeresti dal giornaliero al settimanale, ottieni una maggiore accuratezza; poi dal settimanale al mensile, maggiore accuratezza; poi dal settimanale all’annuale. E poi le persone dicono, “Oh, aspetta, previsione annuale, cosa farò con la previsione annuale? Se prendi decisioni su base settimanale, in che modo una previsione mensile ti aiuterà?”

Joannes Vermorel: Questo è il problema. La realtà è che l’unico orizzonte rilevante è quello pertinente alla tua decisione. Ma diamo un’occhiata a una decisione molto semplice, come il rifornimento dell’inventario. Facciamo un esempio di quale sia l’orizzonte rilevante. La risposta è molto complicata. Prima di tutto, avrai i tempi di consegna, ma il tempo di consegna non è garantito. Supponiamo che tu abbia un fornitore estero, quindi i tuoi tempi di consegna potrebbero essere — non sono costanti, sono qualcosa che varia. Quindi il tuo tempo di consegna potrebbe essere intorno alle 10 settimane, ma con potenziali variazioni enormi.

Alcune di queste variazioni, a proposito, sono stagionali, proprio come il Capodanno cinese. Le fabbriche in Cina chiudono, quindi ottieni quattro settimane extra di tempi di consegna. Quindi il tuo orizzonte, se guardiamo solo ai tempi di consegna, è qualcosa di molto variabile e avrebbe bisogno di una sua previsione. A proposito, uno dei problemi con questi modelli di serie temporali è che stiamo sempre guardando a qualcosa che è, diciamo, le vendite. Tutte le altre cose che devi prevedere, come i tuoi tempi di consegna, restano costanti. È addirittura peggio: non esistono nemmeno, sai.

Nicole Zint: Quindi, il cube non rappresenta nemmeno il genere di letteratura; è stato scelto in maniera piuttosto arbitraria. Il tuo orizzonte sarebbe rappresentato dai tuoi tempi di consegna, ma i tuoi tempi di consegna meriterebbero una zona rossa di previsione che realmente non si adatta a questa prospettiva di serie temporali e al software cube. Ma, il tuo orizzonte per valutare la validità della tua decisione dovrebbe fermarsi solo ai tempi di consegna?

Joannes Vermorel: No, perché ovviamente, se decidi che vuoi effettuare un nuovo ordine adesso, vuoi soddisfare la domanda che si verificherà tra ora e la data d’arrivo del tuo prodotto. Ma poi, dovrai vendere ciò che hai appena ricevuto. Per valutare la rilevanza dell’ordine di acquisto, devi osservare ciò che succede dopo. E fino a quanto nel futuro dovresti guardare? Beh, dipende. Se l’ordine che effettui registra un picco di domanda, allora potresti effettivamente ricevere la merce e avere tutto venduto in due giorni. Ma che succede se è il contrario, e poi si verifica un calo della domanda? Potresti conservare lo stock per un anno intero, ovviamente non se è deperibile, ma sto semplificando.

Quindi, l’orizzonte applicabile è qualcosa di estremamente dipendente dal modo in cui guardi al futuro, ed è una previsione a sé stante perché è una previsione in cui devi prevedere i tempi di consegna. E poi, l’orizzonte che dobbiamo considerare, anche se stiamo osservando solo la domanda, dipende da quanto rapidamente ti aspetti di liquidare effettivamente il tuo stock. Quindi, in definitiva, non c’è un limite chiaro in termini di orizzonte applicabile per la tua previsione. L’unica preoccupazione è che più guardiamo lontano nel futuro, più la previsione diventa imprecisa.

Tuttavia, questa è una questione tecnica, e a un certo punto c’è un compromesso in termini del costo della CPU rispetto al potenziale miglioramento marginale per la tua supply chain. Ma, vedi, da un punto di vista concettuale, non c’è limite a quanto lontano vuoi guardare nel futuro.

Nicole Zint: Quindi, per concludere, il livello di granularità dovrebbe essere sempre allineato alle decisioni che vuoi prendere?

Joannes Vermorel: Sì, direi che la tua granularità sarà fortemente guidata dalle decisioni. Ma tieni a mente che questa nozione di dover aggregare implica un’ipotesi sul tipo di metodo che intendi utilizzare. Il mio suggerimento sarebbe di concentrarti sulla decisione stessa che prendi. Le decisioni sono quelle che hanno un impatto tangibile sulla tua supply chain, come i tuoi riordini, l’aumento o la diminuzione del prezzo, e altre azioni che hanno un vero impatto finanziario tangibile sulla supply chain. Ma poi, ti direi di stare attento alla stessa idea di granularità. Questo concetto è molto arbitrario, molto inventato, e non confondere il tuo bisogno di visualizzazione – che è legittimo, vuoi poter visualizzare – con la granularità necessaria per prendere decisioni.

Nicole Zint: Le serie temporali sono uno strumento incredibilmente potente per visualizzare i dati. Tuttavia, non confondere questo bisogno di visualizzazione con altri requisiti predittivi e di ottimizzazione che non devono operare con alcun tipo di granularità inventata. Quando dico granularità inventata, intendo tutto ciò che non rappresenta semplicemente il riflesso dei dati come esistono nei tuoi sistemi aziendali. Qualsiasi tipo di aggregazione aggiuntiva comporterà la perdita di dati.

Joannes Vermorel: Forse sarà un buon compromesso nel senso che, aggregando, potresti risparmiare CPU o memoria, ma forse no. Questa è una discussione super tecnica, e il mio consiglio sarebbe di non ricorrere a ottimizzazioni premature. Cerca di non considerare immediatamente quei livelli di aggregazione come se fossero problemi irrisolvibili; sono per lo più problemi semplici quando si tratta di visualizzazione. Con i sistemi informatici moderni, è molto facile disporre di capacità eccedenti rispetto alle tue reali esigenze.

Negli anni ‘90, aggregare i dati per giorno era una sfida, ma al giorno d’oggi non lo è più. Se un fornitore ti dice che ha un limite di cinque anni di storico, questo è semplicemente molto strano. Non esiste tale limitazione. Esistono molti modi per gestire qualsiasi tipo di granularità, anche fino al millisecondo. Tuttavia, non è necessariamente qualcosa di super sensato, e non vorresti farlo con un cubo vero in cui usi un byte di memoria per ogni singola cella nel tuo cubo. Questo è un aspetto molto tecnico.

I sistemi moderni ti offriranno ogni tipo di aggregazione di cui hai bisogno e molto altro ancora. Questo non è un vincolo. Non ragionare per implicazione, cercando di pensare a tutte le tecniche che vorresti usare basandoti su questo cubo, come se fosse l’unico modo per affrontare il problema. Non lo è. Ci sono molte cose che vengono trascurate, come la deperibilità, la cannibalizzazione, la sostituzione e i tempi di consegna variabili. Il fatto di inquadrare tutto in un cubo impone enormi restrizioni su ciò che puoi persino pensare riguardo alla tua supply chain, e questo è negativo. Il mio consiglio è di non mettere la tua mente in una gabbia. Cerca semplicemente di avere una prospettiva ampia, perché ci sono molte più restrizioni arbitrarie che non aiutano a risolvere i problemi della tua supply chain.

Nicole Zint: Grazie mille, Joannes, per aver condiviso i tuoi pensieri su questo argomento. Grazie per averci seguito, e ci vediamo la prossima settimana.