00:00:00 Discutendo l’importanza delle previsioni e dello scetticismo.
00:00:40 Introducendo gli ospiti Jonathon Karelse e Joannes Vermorel.
00:01:37 Ispirazione alla scrittura di “Storie del Futuro” e l’importanza di mettere in discussione i metodi di previsione.
00:05:49 Definire le previsioni e le loro radici agli inizi del XX secolo.
00:08:53 Discutere la ragionevolezza di estendere le serie di misurazioni per prevedere il futuro.
00:09:40 La prospettiva classica delle previsioni del 21° secolo e il suo legame con le serie temporali.
00:10:33 Ricalibrazione della misurazione del successo nelle previsioni e focalizzazione sul fare soldi nel business.
00:13:25 Principi newtoniani e approccio deterministico nelle previsioni e la loro influenza sul pensiero economico.
00:16:55 Progressi europei in matematica e statistica, e il loro impatto sui metodi di previsione nordamericani.
00:18:25 Adattarsi alle inerenti imprecisioni delle previsioni e accettare l’idea che non saranno mai perfettamente accurate.
00:19:29 Il problema delle previsioni deterministiche e l’adozione di approcci probabilistici.
00:20:36 I primi pensatori sull’IA e le loro previsioni per le sue capacità.
00:21:55 L’influenza dell’economia comportamentale sulle previsioni e l’approccio classico.
00:23:00 L’irrazionalità degli esseri umani e l’emergere dell’economia comportamentale.
00:26:34 Euristiche, i loro benefici evolutivi e gli svantaggi nell’interpretazione dei dati.
00:28:55 Esaminare il comportamento umano nel prendere decisioni basate sui dati.
00:29:37 Come inquadrare i dati con una narrazione influisce sul processo decisionale.
00:31:13 L’impatto dei bias organizzativi sulle previsioni.
00:33:00 Il problema dell’eccessivo ottimismo nelle previsioni delle promozioni.
00:36:23 Applicare il ragionamento sopra l’irrazionalità e il potenziale dell’ingegno umano.
00:38:53 L’importanza di non fare troppo affidamento su modelli complessi per le strategie operative.
00:39:48 I pericoli delle “naked forecasts” e la necessità di connessioni tangibili con il business.
00:42:34 Come i processi burocratici e le supply chain sono vulnerabili ai problemi nelle previsioni.
00:45:31 Economia comportamentale e bias umani nel processo di previsione.
00:47:53 Massimizzare il valore del giudizio umano nelle previsioni comprendendo i bias.
00:48:39 L’importanza di riconoscere i bias e il loro ruolo nelle previsioni.
00:50:40 Le limitazioni della prospettiva delle serie temporali nelle previsioni.
00:52:00 Problemi umani nelle previsioni che vanno oltre i bias.
00:54:53 Il futuro dello sviluppo dell’IA e il suo ruolo nell’aiutare o sostituire i previsori umani.
00:57:01 L’importanza dell’ingegno umano e del porre le domande giuste.
00:58:47 Discutendo ricette numeriche e il ruolo umano nell’automazione.
01:01:58 L’automazione futura nella gestione della supply chain.
01:04:11 Argomenti potenziali per un libro in seconda edizione.
01:05:22 Sfruttare l’economia comportamentale nelle riunioni C-level.
01:08:46 Le limitazioni delle previsioni nell’aviazione e nel retail.
01:09:30 Concentrarsi sulle decisioni e la strana natura della modellazione predittiva.
01:10:27 Confrontare la stranezza delle previsioni future con la meccanica quantistica.
01:11:12 Il consiglio di Jonathon al supply chain practitioner.
01:11:56 Conclusione e ringraziamenti agli ospiti.
Sommario
In un’intervista, Joannes Vermorel, fondatore di Lokad, e Jonathon Karelse, CEO di NorthFind Management, discutono l’importanza di comprendere e mettere in discussione lo scopo delle previsioni nelle imprese. Sostengono un approccio scettico, sottolineando che accuracy non dovrebbe essere l’unica misura del successo. Le previsioni dovrebbero essere viste come una metrica diagnostica per identificare e affrontare errori al fine di un miglioramento continuo. Entrambi gli esperti concordano che i bias possono influenzare le previsioni e che le imprese dovrebbero concentrarsi su tecniche che abbiano impatti tangibili. Discutono inoltre il ruolo dell’IA nell’supply chain optimization, notando che, sebbene l’IA possa assistere, l’ingegno umano rimane essenziale.
Sommario Esteso
In questa intervista, il conduttore Conor Doherty discute delle previsioni con Joannes Vermorel, fondatore di Lokad, e Jonathon Karelse, CEO di NorthFind Management. Karelse spiega che il suo approccio alle previsioni è incentrato sulla comprensione del loro impatto sulle imprese. Molte organizzazioni fanno previsioni perché si suppone debbano essere fatte, ma spesso non si domanda perché lo facciano, o se esistano modi per migliorare il processo. Sottolinea l’importanza di avere uno scetticismo sano e di mettere continuamente in discussione le pratiche per migliorare le previsioni.
Karelse condivide l’ispirazione per il suo libro, “Storie del Futuro,” nato dal suo desiderio di esaminare il contesto storico delle previsioni e la validità di alcuni principi di previsione. Fa riferimento al lavoro di Bruno LaTour, che metteva in discussione la certezza dei principi scientifici e sosteneva la necessità di comprendere il contesto storico in cui sono nati. Questo approccio ha ispirato Karelse ad applicare una prospettiva analoga al campo delle previsioni.
Quando gli viene chiesto di definire le previsioni, Karelse dice che in sostanza si tratta di fare un’ipotesi su come sarà il futuro. Pur potendo l’ipotesi diventare più scientifica e guidata, è importante non perdere di vista il fatto che le previsioni si basano fondamentalmente sull’uncertainty. Vermorel aggiunge che la prospettiva classica delle previsioni, che risale ai primi del XX secolo, è incentrata sulle time series e sull’estensione delle misurazioni nel tempo. Tuttavia, crede che nuovi modi di guardare al futuro continueranno a emergere nel 21° secolo.
Karelse sottolinea che l’accuratezza delle previsioni non dovrebbe essere l’unica misura del successo. Invece, l’accuratezza delle previsioni dovrebbe essere considerata come una metrica diagnostica in grado di aiutare a identificare le cause alla radice degli errori e delle inefficienze, che possono poi essere utilizzate per ricalibrare e ottimizzare il miglioramento continuo. L’obiettivo delle previsioni è fare soldi, e comprendere le esigenze e le aspettative specifiche di un’impresa è fondamentale per utilizzare le previsioni in modo efficace.
Vermorel concorda sul fatto che le previsioni non sono state sempre affrontate con scetticismo. I primi sostenitori, come Roger Babson, credevano nel potere assoluto della scienza di prevedere e modellare il futuro. Tuttavia, sia Karelse che Vermorel sostengono un approccio più scettico che mette in discussione la saggezza convenzionale e cerca di migliorare i forecasting methods in un modo che avvantaggi le imprese.
La discussione inizia con una breve storia delle previsioni, in particolare con gli aspetti culturali e geografici che hanno avuto un ruolo nel loro sviluppo. La conversazione si sposta poi sull’approccio classico alle previsioni, che si basava su una filosofia deterministica che faceva affidamento su principi matematici e scientifici per giungere a conclusioni accurate. Vengono discusse le limitazioni di questo approccio, incluso il fatto che gli esseri umani non sono sempre attori razionali e che i bias inconsci possono influenzare il decision-making. Viene introdotto il concetto di euristiche, e vengono discussi i benefici e gli svantaggi del fare affidamento su di esse. Viene esplorata anche l’idea dell’eccesso di fiducia, precursore di una discussione sull’economia comportamentale. La conversazione si sposta poi sull’importanza delle previsioni probabilistiche e su come esse possano aiutare le organizzazioni a comprendere meglio i limiti delle loro previsioni. La discussione si conclude con un breve accenno all’artificial intelligence e al suo potenziale di aiutare con le previsioni, ma anche con la necessità di accettare che esistono limiti ultimi alla nostra capacità di comprendere tutto.
La questione del bias positivo nelle previsioni, in particolare nelle organizzazioni con bias culturali e aziendali orientati alla crescita e a risultati positivi. Anche in assenza di bias espliciti, la ricerca mostra che le persone sono quattro volte più propense a fare aggiustamenti positivi a una previsione che a fare aggiustamenti negativi. Questo bias è attribuito alle nostre tendenze evolutive verso l’avversione al rischio e la materializzazione delle possibilità di guadagno.
Joannes Vermorel ha condiviso la sua esperienza con clienti nel settore retail, dove il bias verso un aumento positivo per le promotions era prevalente, portando a previsioni insensate. La sua soluzione è stata quella di affrontare le previsioni come una tecnica tra molte altre, piuttosto che come approccio centrale. Questo implica utilizzare solo tecniche numeriche che consentano un impatto tangibile sull’azienda, come produrre qualcosa, spostare qualcosa dal luogo A al luogo B, o utilizzare dati direttamente collegati a qualcosa di tangibile. Vermorel ha insistito sulla necessità di trattare le previsioni come una tra molte tecniche e di non avere naked forecasts che non siano collegate a qualcosa di tangibile.
Jonathon Karelse ha contribuito alla discussione aggiungendo che tutti i modelli sono sbagliati, ma alcuni modelli sono utili, e l’obiettivo finale è puntare alla parsimonia e alla selezione dei modelli. Ha anche avvertito contro il micromanagement delle previsioni, poiché spreca tempo quando l’accuratezza delle previsioni su un orizzonte di sette o otto mesi è già pessima. Ha suggerito che applicare una capacità infinita di ingegno in applicazioni specifiche, dove la probabilità di guadagno è maggiore, sia la strada da seguire.
Hanno concluso affermando che le previsioni sono solo una tecnica tra molte e non l’unico modo per affrontare il futuro. Hanno concordato che una maggiore comprensione dell’economia comportamentale all’interno di un’organizzazione può migliorare le previsioni. Riconoscendo i bias che possono influenzare le previsioni, le organizzazioni possono evitare di fare previsioni insensate e concentrarsi su tecniche che consentano un impatto tangibile sull’azienda.
La discussione ruota attorno all’uso dell’IA e delle previsioni nell’ottimizzazione della supply chain. Esplorano le fonti e i gradi di bias nel giudizio umano e come ciò influenzi il processo. Vermorel sostiene che l’attenzione dovrebbe essere rivolta all’ingegnerizzazione di ricette numeriche che operano su larga scala e generano decisioni ragionevoli. Afferma che tali ricette dovrebbero essere completamente automatizzate nell’esecuzione quotidiana, mentre gli esseri umani dovrebbero concentrarsi su decisioni a lungo termine che richiedono maggiore capacità mentale. Karelse concorda sul fatto che l’IA può assistere le persone nelle previsioni ma non sostituirle, e che l’ingegno umano rimane essenziale nel porre domande interessanti e importanti che l’IA può risolvere. La discussione si conclude con la speranza di Karelse che le organizzazioni possano bilanciare il potenziale vantaggio delle intuizioni umane con la fragilità che affligge tutti a causa dell’imperfezione del funzionamento della nostra mente.
Il futuro dell’ottimizzazione della supply chain. Vermorel ha espresso la sua convinzione che, con strumenti e tecniche migliori, grandi team di persone nella gestione della supply chain potrebbero diventare superflui, e ha descritto la sua esperienza nel vedere persone insistere nel fare cose chiaramente irrazionali, nonostante le prove che dimostrano il contrario. Karelse ha concordato con Vermorel e ha aggiunto che sfrutta l’economia comportamentale per aiutare i dirigenti a livello C a comprendere perché i loro processi siano difettosi e come misurare il valore aziendale. Vermorel crede che concentrarsi sulla modellazione predittiva nella gestione della supply chain diventerà sempre più strano, e Karelse ha raccomandato che i professionisti non si accontentino mai di sapere semplicemente, ma debbano sempre chiedersi il perché. L’intervista si è conclusa con Karelse che raccomandava il libro di Vermorel, e entrambi gli ospiti hanno ringraziato Doherty per il suo tempo.
Testo Integrale
Conor Doherty: Benvenuti allo show. Sono il vostro conduttore, Conor. Oggi sono affiancato da Joannes Vermorel, co-fondatore di Lokad, e abbiamo un ospite speciale, Jonathon Karelse, CEO e co-fondatore di NorthFind Management. È un ricercatore pubblicato nel campo dei bias inconsci e ha scritto questo meraviglioso libro, “Storie del Futuro.” Jonathan, ti ringrazio molto per essere qui.
Jonathon Karelse: Grazie per avermi invitato.
Conor Doherty: Giusto, Jonathan, spero che tu sia pronto per un mare di adulazione perché ho effettivamente letto il libro. Mi è piaciuto davvero tanto. Penso che potrei, in effetti, essere il tuo target, perché sono istruito, ma ho anche interesse per questi argomenti, sai, economia, business, economia comportamentale. Tuttavia, in realtà, non ho quella formazione formale; il mio background, come abbiamo discusso prima, è nella musica e nella filosofia. Quindi, ho effettivamente imparato parecchio attraversando la storia delle previsioni. Hai un tono molto piacevole, molto accessibile e leggibile, quindi ti ringrazio molto. Inizieremo dall’inizio, immagino. Qual è stata esattamente l’ispirazione per scrivere un libro sugli ultimi 100 anni di previsioni?
Jonathon Karelse: Beh, il mio approccio alle previsioni e alla pratica è sempre stato quello di comprendere cosa possa avere un impatto sul business, e questo può sembrare ovvio. Ma in molte organizzazioni, le previsioni vengono eseguite perché è “supposed” che debbano essere fatte, e non si dedica necessariamente molto ragionamento al perché lo facciano. Di conseguenza, molte saggezze ricevute vengono tramandate di generazione in generazione nell’azienda, e le persone seguono semplicemente il processo meccanico delle previsioni senza capire veramente quali siano gli elementi del processo che incidono positivamente sull’azienda. Ci sono cose che potremmo fare per migliorarlo, e soprattutto, perché?
La domanda del “perché” è qualcosa che, immagino, forse non definirei un contrarian in senso stretto, ma penso sia sempre utile avere un po’ di sano cinismo o scetticismo. Ho spesso chiesto il perché, e un libro che mi ha veramente colpito quando ero uno studente di economia è stato scritto da Bruno LaTour. Lui proviene da quella famiglia LaTour. È essenzialmente la pecora nera della famiglia perché è quello che non fa il vino, ma Bruno LaTour ha un Ph.D. in epistemologia da Le Cole de Mine, che, per chi di voi lo conosce, saprà che non è una università da poco. Ha trascorso molto tempo a studiare le modalità di apprendimento e i metodi di conoscenza, e ha scritto un libro intitolato “Science in Action.”
Questo libro “Science in Action” esamina alcune delle fondamenta in scatola nera della scienza, cose come la struttura a doppia elica del DNA, e le riporta a prima che diventassero fatti, prima che venissero nascoste dentro una scatola nera, aiutandoci a comprendere il contesto storico in cui sono nate. Facendo così, illustra davvero che molte di queste certezze scientifiche sono molto meno certe di quanto pensiamo. È conveniente
Conor Doherty: Quindi, quando usi il termine previsione, cosa intendi esattamente?
Jonathon Karelse: È una domanda ottima. In sostanza, la previsione consiste nel fare un’ipotesi su come apparirà il futuro. Questa ipotesi può diventare più scientifica e guidata dai principi dell’incertezza, ma in definitiva, stiamo indovinando. È importante non perdere di vista questo fatto, poiché si basa sull’incertezza.
Conor Doherty: È un punto interessante. E Johannes, un principio fondamentale di Lokad è abbracciare l’incertezza, giusto?
Joannes Vermorel: Sì, ma per rispondere alla domanda sulla previsione, credo ci sia una visione classica della previsione che risale all’inizio del XX secolo, resa popolare da persone come Roger Babson e Irving Fisher. Questa visione affronta la previsione tramite serie temporali. Hai misurazioni effettuate nel tempo, come la quantità di acciaio prodotta o il numero di patate raccolte. Ottieni una sequenza di misurazioni che puoi rappresentare come una serie temporale. La cosa ovvia da fare è estendere la curva e vedere dove porta. Questa è l’essenza della visione classica della previsione emersa all’inizio del XX secolo. Tuttavia, è solo uno dei modi per vederla.
La vera domanda è se ha senso affrontare il futuro semplicemente estendendo una serie di misurazioni. Non è necessariamente sbagliato, ma è un modo opinabile di approcciarsi al futuro. Questo approccio è stato molto tipico del XX secolo, evolvendosi e affinando i metodi per tutto il secolo. Tuttavia, probabilmente emergeranno nuovi modi di guardare al futuro nel XXI secolo, alcuni dei quali potrebbero essere molto più strani rispetto all’approccio classico.
Conor Doherty: Johannes, su quel punto riguardante l’approccio classico alla previsione, vorrei reindirizzare la domanda a Jonathon. Qualcosa che pervade tutto il vostro lavoro è una ricalibrazione di come le persone misurano il successo di una previsione. La tua tesi sembra indicare che non si tratta tanto della precisione della previsione in sé. Potresti approfondire, per favore?
Jonathon Karelse: Spero che approfondiremo l’idea dell’approccio classico rispetto alle differenti filosofie della previsione in futuro. Ma nel frattempo, una delle cose che mi sorprende è come le persone parlino spesso del fatto che sanno che la previsione sarà sempre sbagliata, come se fosse una carta “passa libera”. Diranno: “Mi chiedi di fare una previsione. Farò del mio meglio, ma la previsione è sempre sbagliata, quindi non incolparti quando lo sarà.”
Conor Doherty: …ma poi continuano comunque a calibrare le strategie operative e addirittura finanziarie sulla speranza di una previsione altamente accurata previsione. Quindi voglio essere molto chiaro perché ne ho parlato in un paio di conferenze ad Amsterdam la scorsa settimana, e ho avuto alcune persone molto arrabbiate, in particolare i venditori di software in quelle sessioni, che dicevano: “Beh, di cosa stai parlando? La previsione non conta.” E voglio essere chiaro: la previsione conta assolutamente in applicazioni particolari perché ci sono alcuni ambiti in cui, dal punto di vista del ROI, non conta.
Jonathon Karelse: Se sei un sarto su misura e puoi realizzare tre abiti all’anno e i tuoi clienti sono disposti ad aspettare per 10 anni, non devi impiegare un sacco di tempo a prevedere la domanda. Sei alla capacità massima. Il ROI sarà minimo. Per tutti gli altri, probabilmente c’è un ROI, ma il punto è che per me la precisione della previsione non è la metrica da registrare sul tabellone. La precisione della previsione non è l’obiettivo. La precisione della previsione è una metrica diagnostica che possiamo usare per individuare le cause principali degli errori e delle subottimalità, che poi possiamo utilizzare per ricalibrare e ottimizzare per un miglioramento continuo. L’obiettivo della previsione è fare soldi perché l’obiettivo del business è fare soldi, a meno che tu non sia in un settore che non lo fa. E la previsione è uno degli strumenti a nostra disposizione per farlo. In alcuni casi, usata correttamente, è il miglior strumento che abbiamo. In altri, è uno strumento di supporto, e in altri ancora, probabilmente, non darà molti benefici. Ma capire il tuo business e comprendere cosa dovresti aspettarti da una previsione, penso, è ciò che conta di più.
Joannes Vermorel: La previsione è sempre sbagliata, e ora le persone usano questo fatto come una carta “passa libera”. Amo davvero questa espressione. La cosa interessante è che non è sempre stata la prospettiva prevalente. Sapete, Roger Babson era un enorme fan del lavoro di Sir Isaac Newton e già allora c’era questa incredibile fede nel potere assoluto della scienza, che ti avrebbe permesso di catturare le cose e avere una sorta di modellazione numerica, proprio come puoi prevedere fino all’ultimo secondo di arco la posizione di Marte tra tre secoli.
Jonathon Karelse: Entrambi credevano, come in ultima analisi anch’io, che la matematica è alla base di tutto e che, se avessimo la capacità e abbastanza dati, la matematica potrebbe spiegare tutto. Ma in pratica, non ci siamo ancora arrivati. E direi che questo era qualcosa di non molto ben compreso all’inizio del XX secolo. Ci sono ordini di magnitudine di difficoltà che semplicemente non ci sono, e quindi non è che la formula definitiva sia dietro l’angolo.
Joannes Vermorel: Credo che una delle scoperte chiave del XXI secolo sia rendersi conto di quanto, per tutte le questioni relative alla conoscenza, esistano interi campi del sapere che sfuggono alla nostra comprensione. Non si tratta solo di trovare qualcosa di equivalente alla legge di gravitazione, dove con una sola equazione puoi spiegare un’enorme quantità di cose. Questo era il tipo di pensiero che esisteva all’epoca.
Conor Doherty: Per il pubblico, stiamo parlando di statistici nordamericani descritti nel libro che è emerso negli USA a causa del fatto che si è verificata l’emergenza di un ceto medio…
Conor Doherty: Quindi, chi possiede azioni, no, scusa, azioni, e desiderava avere una proiezione su cosa potesse dar loro i rendimenti migliori. Erano molto interessati a tutti quei tipi di previsioni, ed è per questo che qualcosa di simile è davvero emerso negli USA e in Nord America. La componente culturale o la componente geoculturale geografica è fondamentale.
Joannes Vermorel: Questo è molto importante perché in Nord America non era particolarmente guidato dalla statistica. Come hai indicato, Babson amava Newton e tutto ciò che era newtoniano. Ha preso quella che era una comprensione piuttosto superficiale dei principi newtoniani e ha cercato di applicarla, senza il beneficio di una comprensione statistica, alla previsione. In sostanza, se qualcosa aumenta per un po’, poi scenderà per un po’, perché è quello che succede con la gravità.
Jonathon Karelse: Irving Fisher, che ha conseguito il primo PhD in economia in Nord America, ha cercato di applicare il suo bagaglio matematico a quella che fino a quel momento era stata una scienza sociale. Ha iniziato a unire alcune delle statistiche, che devo dire erano assolutamente guidate in Europa piuttosto che in Nord America, al campo economico nordamericano. Ma in realtà, è in Europa in quel periodo che vediamo tutti i progressi avvenire nella matematica che alla fine la previsione avrebbe utilizzato.
Joannes Vermorel: C’era questo approccio deterministico secondo il quale le persone credevano di poter modellare il futuro in modo meccanicistico. Questo modo di pensare è durato a lungo. Anche le opere di fantascienza degli anni ‘60, come la serie Foundation di Isaac Asimov, abbracciavano l’idea della psicostoria, una scienza che può prevedere il futuro in modo molto meccanicistico.
Jonathon Karelse: È molto interessante perché quella è la prospettiva classica. Ma a causa del fatto che le persone operano da decenni con previsioni piuttosto imprecise, hanno realizzato che la previsione è sempre sbagliata. Tuttavia, non hanno accettato la conseguenza che non sarà mai completamente giusta.
Joannes Vermorel: È un punto interessante. Le persone hanno accettato moralmente che la previsione è sempre sbagliata e non licenziano le persone per questo, il che è positivo. Ma dobbiamo rimettere in discussione in profondità l’accettazione di questo aspetto della previsione? Non proprio.
Jonathon Karelse: Ciò che è molto interessante è che hai menzionato il determinismo un paio di volte, e penso che questo sia fondamentale. Gran parte della scienza che stava emergendo nel XIX e all’inizio del XX secolo a livello globale, non solo in Nord America, era fondamentalmente nata dall’élan che abbiamo cominciato a guadagnare durante il Rinascimento. Siamo usciti dal Medioevo e abbiamo iniziato a capire che applicando i principi scientifici potevamo iniziare a fare luce in questi ambiti oscuri.
Conor Doherty: Le aree della conoscenza e il desiderio di elevarci, e abbiamo cominciato ad assumere, penso, un po’ di arroganza riguardo alla misura in cui potevamo farlo. Abbiamo cominciato a credere, nel XIX e all’inizio del XX secolo, che con abbastanza impegno non c’è nulla che non possiamo imparare. E questo porta a due temi davvero importanti nella previsione. Il primo è che un approccio deterministico ha senso con quella filosofia, perché significa che se lavoro abbastanza duro e sono sufficientemente intelligente, arriverò a quella conclusione accurata invece di accettare che sia un’impresa futile. Sarò sempre in errore e gli approcci probabilistici, che incidentalmente…
Jonathon Karelse: …e così via. Beh, Joannes Komagarov stava svolgendo tutto il suo lavoro in statistica proprio nello stesso periodo in cui nascevano questi primi approcci deterministici. Quindi non è che abbiamo dovuto aspettare altri cento anni per la possibilità di approcci probabilistici. La matematica c’era. Il secondo punto è che credere che con abbastanza impegno, con sufficiente concentrazione, potessimo capire qualsiasi cosa. Ci porta a quello che oggi è un argomento molto caldo: l’IA. Ora, l’idea che l’IA possa risolvere attività non a valore aggiunto o attività di routine per gli esseri umani non è nuova. Infatti, negli anni ‘50 si è tenuta una conferenza al Dartmouth College in cui un gruppo di primi pensatori sull’IA ha enunciato 10 cose che ritenevano l’IA potesse realizzare nei successivi 10 anni. E 70 anni dopo non ne abbiamo realizzata nessuna. Questo non ci impedisce di provarci, e penso che il tentativo sia importante. Ma alla fine, la lezione è che dobbiamo accettare che esistono limitazioni ultime sulla nostra capacità di comprendere tutto. E una volta compreso ciò, allora diventiamo più aperti ad altri approcci, come per esempio la previsione probabilistica, che ci prepara alla realtà, secondo cui sappiamo di essere sempre in errore. Accettando questo, capiamo come si traduce in termini di risultati aziendali concreti e calibriamo le nostre strategie sulla consapevolezza che saremo in errore, anziché sulla speranza di essere in qualche modo giusti.
Conor Doherty: Sembra che tu abbia inserito due punti molto interessanti, uno che è essenzialmente un precursore di una discussione sull’economia comportamentale – penso ti riferisca all’eccesso di fiducia – e l’altro sull’IA. Ho pensato, nel Capitolo 6, credo cinque o sei, che li affronteremo uno per uno, se non ti dispiace. Innanzitutto, per quanto riguarda l’economia comportamentale, so che è decisamente il tuo campo. Se potessi approfondire un po’ come l’economia comportamentale influisce effettivamente o interagisce con la previsione.
Jonathon Karelse: Certo. Quindi Joannes, all’inizio della conversazione hai menzionato più volte l’approccio classico alla previsione. E direi che l’approccio classico alla previsione è in un certo senso il sottoprodotto del modo di fare business classico o, più precisamente, neoclassico in economia in generale. E questo, ancora una volta, da una prospettiva tipica del XIX e XVIII secolo, secondo cui se lavoriamo sodo e applichiamo principi matematici e scientifici, possiamo comprendere. Adam Smith, nel 1776, scrisse l’opera fondamentale La ricchezza delle nazioni, e uno dei suoi punti chiave è che fondamentalmente tutto il commercio può essere compreso grazie al principio secondo cui gli esseri umani sono attori razionali che, quando vengono loro presentate chiare scelte basate sul valore, gravitano naturalmente verso quella che offre la massima utilità. E ciò non significa necessariamente il maggior guadagno, ma quella da cui traggono il massimo beneficio in qualche modo. E, intuitivamente, questo sembra corretto. Il problema è che, per chi ha studiato economia, specialmente econometria,
Conor Doherty: Sebbene, nell’applicazione, esistano sicuramente principi dell’economia neoclassica che reggono, dobbiamo comprendere in senso più ampio come questi sistemi di domanda e offerta, la determinazione dei prezzi e, in ultima analisi, il processo decisionale siano influenzati da driver inconsci, da spinte psicologiche inconsce che in alcuni casi sono ambientali, in altri sono programmati evolutivamente, ma che in ogni caso esistono. Non importa quanto ci si ritenga liberi dai pregiudizi, per quanto si pensi di essere obiettivi, si è comunque soggetti a questi bias inconsci che creano una lente attraverso la quale si interpretano i dati.
Conor Doherty: In realtà, scusa, hai detto nel libro che la persona media prende circa 30.000 decisioni al giorno, e intendo dire che ovviamente non ne siamo consapevoli tutte. Non potremmo esserlo.
Jonathon Karelse: No, e questo è il vantaggio di questi processi euristici che abbiamo. Voglio dire, molte volte consideriamo le euristiche in maniera peggiorativa, come se fossero una scorciatoia. Quando Joannes menzionò negli anni ‘70 e ‘80 che alcuni di questi approcci scientifici o statistici più complicati alla previsione iniziarono ad emergere, i loro sostenitori, come George Box e Willem Jenkins, che molti dei vostri ascoltatori conosceranno come coautori del metodo ARIMA, disprezzavano in qualche modo i metodi più semplici come la semplice smorzatura esponenziale o il triple smorzamento esponenziale Holt Winters per essere troppo semplici ed essere solo una metodologia euristica, una scorciatoia.
Jonathon Karelse: Ma ciò che hanno mostrato le prime quattro competizioni M è che, in molti casi nella pratica, essere un processo euristico non è necessariamente male. E ora, psicologicamente, c’è un enorme vantaggio nel poter prendere decisioni molto rapidamente da un punto di vista evolutivo. Se sono consapevole di una tigre nella mia visione periferica che mi sta inseguendo nel bosco, se mi fermo a considerare tutte le mie possibilità e penso a tutte le varie cose che la tigre può fare e a tutte le opzioni che posso avere, e poi cerco di valutare quella più appropriata per me, probabilmente verrei mangiato da una tigre. E ciò significa che non mi riproduco, e che il mio DNA cessa di esistere. Così, col tempo, abbiamo imparato che esistono numerosi processi euristici che ci avvantaggiano dal punto di vista evolutivo.
Jonathon Karelse: Uno di questi è l’euristica della rappresentatività, che corrisponde a “questo mi ricorda qualcosa che ho già visto, l’ultima volta che l’ho incontrato ho avuto un esito positivo. Questa è la cosa che ho fatto. La rifarò.” Quindi non dobbiamo insegnare ai neonati a ritrarsi da cose che hanno l’aspetto di serpenti; è innato. Non dobbiamo fermarci a pensare a cosa fare quando vediamo un autobus avvicinarsi; ci tiriamo indietro. E le 30.000 decisioni che dobbiamo prendere al giorno, la maggior parte di esse sono guidate da qualche tipo di euristica. Se dovessimo analizzarle tutte oggettivamente, saremmo paralizzati.
Jonathon Karelse: Il lato negativo delle euristiche è che ciò che pensiamo assomigli a qualcosa che abbiamo già visto non rappresenta sempre effettivamente quella cosa. E soprattutto quando si tratta di interpretare i dati, spesso siamo soggetti a qualcosa chiamato bias dell’illusione del raggruppamento. Così, quando paghiamo le persone per interpretare i dati e fare una previsione, esse sentono il bisogno di aggiungere valore. Le paghiamo per trovare schemi, e loro trovano schemi anche quando in realtà non esistono. È naturale che ciò accada; non si può biasimarli. Però, esiste una serie di bias che influenzano la nostra capacità di interpretare i dati in modo razionale e oggettivo.
Conor Doherty: Jonathan, su questo punto, hai in realtà un esempio nel libro tratto da una ricerca che hai pubblicato altrove. Hai presentato dati casuali completamente depurati a un gruppo di persone e hai chiesto loro di indovinare se la linea sarebbe salita, scesa, rimasta statica, o se non lo sapessero. Puoi spiegarlo e illustrare il significato di quella scoperta?
Jonathon Karelse: Certo. Il quadro decisionale che abbiamo presentato è un anticipatore per chiunque alla fine esegua il nostro test dei bias. Molti dei dati presentati sono stocastici. Ci sono stati forniti diversi set di dati stocastici e volevamo assicurarci di non avere inavvertitamente una tendenza o stagionalità in nessuno di essi. Questi sono tanto stocastici quanto può esserci; non c’è possibilità che alcun pacchetto statistico trovi una tendenza, stagionalità o un qualsiasi altro schema in questi set di dati.
Quando abbiamo presentato il set di dati non modificato, senza inquadramento, e abbiamo chiesto alle persone dove pensassero che la domanda si sarebbe diretta, abbiamo ottenuto una divisione abbastanza uniforme tra aumento, diminuzione e invariato. Non c’erano molte persone che dicevano “non so”, il che sarebbe stata una risposta del tutto appropriata, poiché rappresenterebbe il fatto che non sanno nulla di ciò che i dati significano. Non hanno neppure il vantaggio di poter utilizzare uno strumento statistico per vedere se c’è una tendenza o stagionalità, e a proposito, non si può prevedere il futuro comunque. Quella sarebbe la risposta corretta, ma pochissime persone la danno effettivamente.
Successivamente, abbiamo presentato lo stesso set di dati più tardi nell’analisi insieme a una serie di altre domande, ma questa volta era accompagnato da una piccola storia. I dati sono gli stessi, e la storia contiene informazioni che potrebbero sembrare utili, ma in realtà non hanno alcuna rilevanza sui dati. Ciò che abbiamo notato è che circa il 70 percento delle persone diventa più sicuro della decisione che intende prendere. Chi era nella categoria “non so” solitamente esce da quel gruppo, e la maggior parte delle persone che erano in “invariato” passa alla categoria “sopra” o “sotto”.
Dipende da come lo inquadriamo. Se abbiamo un inquadramento positivo, vediamo molte persone gravitare in quella direzione. È un’intuizione davvero importante dal punto di vista pratico della previsione, perché i dati non sono cambiati. Nel primo esempio, l’esito è probabilmente il più vicino a ciò che ci si potrebbe aspettare da un essere umano. Un computer l’avrebbe fatto immediatamente. Ma una volta accompagnato da una storia, all’improvviso ogni logica e razionalità vengono buttate fuori dalla finestra, e finiamo per avere una visione estremamente distorta dei dati.
Il problema è che, in pratica, non è molto diverso. Chiediamo alle persone di creare piani di domanda, ma lo fanno all’interno del contesto più ampio di un’organizzazione che ha i propri bias culturali e bias aziendali verso la crescita e risultati positivi. Non è dunque sorprendente che, quando misuriamo l’effetto dell’intervento umano sulle previsioni basate su computer, si verifichi spesso un bias positivo. In alcuni casi, addirittura, c’è una pressione esplicita per avere un bias positivo nelle organizzazioni, una pressione a prevedere, a pianificare e a raggiungere certi obiettivi. Le persone vengono fondamentalmente spinte a cambiare.
Conor Doherty: Le previsioni, ma anche escludendo quei bias espliciti, alcune ricerche di Len Tashman e, uh, oh, sto per dimenticare tutti i loro nomi, Spheros Mocker Docus, um, Paul Goodwin. Le loro ricerche a lungo termine mostrano che siamo probabilmente circa quattro volte più inclini a fare aggiustamenti positivi a una previsione rispetto a quelli negativi, il che non ha senso se partiamo da una previsione guidata statisticamente. Il residuo dovrebbe essere distribuito normalmente su entrambi i lati di quella previsione. Se richiedesse un aggiustamento umano nel tempo, dovremmo bilanciarci. Ma a causa di questo bias inconscio, dove siamo molto più avversi al rischio che in cerca di ricompense, e, ancora una volta, ci sono ragioni evolutive per questo, tendiamo a materializzare le possibilità al rialzo molto più di quanto vorremmo materializzare il rischio al ribasso, e finiamo per avere l’impronta delle persone ovunque nel bias positivo nelle previsioni. Trovi che questo accada anche nelle tue previsioni?
Joannes Vermorel: Sì, voglio dire, un decennio fa, quando Lokad si occupava ancora, direi, di previsioni classiche, abbiamo iniziato come fornitore di software facendo previsioni classiche. Adesso, direi che abbiamo un elemento di modellazione predittiva nel nostro toolkit, ma il modo in cui operiamo, possiamo discuterne. È molto, molto strano e al di fuori del contesto di ciò che verrebbe considerato rilevante riguardo a questi “alberi” del tuo futuro, a meno che non si cominci a parlare della storia del futuro per il XXI secolo. Ma tornando a quelle esperienze, è molto interessante perché abbiamo avuto, um, esperienze molto simili, in particolare con i nostri clienti. Abbiamo avuto una serie di clienti, ehm, ancora nel retail, e quando si trattava di prevedere le promozioni, una delle cose che ricevevamo frequentemente era che l’incremento dovuto alla promozione era limitato. Sai, sì, probabilmente avrai, diciamo, un ordine di grandezza, un ipermercato, sì, magari, sai, le vendite aumenterebbero del 30-50%. È molto, ma è ben al di sotto di quel tipo di “faremo 10 volte per questo prodotto” che la gente si aspettava.
Ed è interessante notare che, per quelle promozioni, abbiamo realizzato una World Series di benchmark con squadre che effettivamente, insomma, modellavano un incremento super semplice per la promozione, contro persone che micr-ottimizzavano, dicendo, “Ah, conosco esattamente questa marca di cioccolato,” ecc. E guarda cosa emerge in cima in termini di accuratezza con, um, direi modelli ridicolmente semplici, del tipo della complessità del moving esponenziale, ma solo per l’incremento di una promozione, che è solo un fattore costante più 50, e basta. E questo risultava in realtà migliore, ben migliore rispetto a persone che micr-ottimizzavano. Ed effettivamente, il bias era fortemente positivo, tanto da dire, “Ma ti rendi conto che per questa marca, è la prima volta negli ultimi 10 anni che vengono promossi; faranno 10 volte!” E noi pensavamo, “Sì, probabilmente no. Probabilmente sarà qualcosa tipo più 50. So che rimarrai deluso.”
Ma poi ti ritrovi con situazioni davvero strane in cui, per esempio, hai una previsione completamente insensata, tipo, dici che farai 10 volte, e non lo fai, ma acquistare 10 volte è in realtà la mossa giusta perché il fornitore offre al retailer uno sconto enorme. In pratica, è una specie di speculazione sul valore dell’inventario. E se il tuo fornitore ti offre un 25%
Conor Doherty: nel tempo venderai, potrebbe rivelarsi una decisione intelligente, ma vedi, c’era qualcosa di molto bizzarro nel modo di pensare. Cioè, inizio facendo una previsione molto insensata come facevo una volta, e poi, dato che di solito con le promozioni compro lo stock con un enorme sconto dal fornitore per poter applicare un grosso ribasso sul prezzo di listino dei prodotti, alla fine nel tempo ottengo un’operazione vantaggiosa.
Joannes Vermorel: Ma vedi, la decostruzione è che c’è un elemento di razionalità. Finisci per avere ragione, ma per le motivazioni sbagliate.
Jonathon Karelse: Esatto, ed è davvero interessante. Sai, è proprio questo tipo di situazione in cui, nonostante il fatto che le persone possano essere irrazionali, non significa che non si possa applicare la ragione per modellare questo irrazionale. Assolutamente, è irrazionale, ma non del tutto, ed è per questo che direi che, dal mio punto di vista, non esiste un limite all’ingegno umano. Sai, a quanto pare questa è la mia convinzione, non è un elemento di scienza. La mia convinzione fondamentale è che non esiste un limite alla quantità di ingegno umano, ma non fraintendete, certe questioni richiedono un’assoluta immensa quantità di ingegno umano e, probabilmente, cose che richiedono – e stiamo parlando di secoli di lavoro. Quindi, dobbiamo essere molto modesti in questo grandioso percorso della scienza iniziato qualche secolo fa. Questo è solo l’inizio, e probabilmente esistono intere classi di conoscenza per le quali non abbiamo nemmeno ancora il sospetto che possano esistere.
Joannes Vermorel: Quindi sì, e sono pienamente d’accordo con te, Jonathon. È anche una mia convinzione fondamentale.
Jonathon Karelse: Credo sia stato Pascal a dire, “Se esiste, può essere quantificato.” E ovviamente ci sono delle limitazioni nella nostra capacità di farlo, ma credo che, in definitiva, con capacità sufficienti, tutto può essere quantificato e compreso. Ma ovviamente il problema è che siamo così lontani da quella capacità che, in pratica, intraprendere qualsiasi tipo di percorso aziendale con quella filosofia è insensato, perché siamo troppo lontani dall’obiettivo. Tuttavia, è una diretta conseguenza dell’idea che la previsione sia sempre sbagliata e del punto che Joannes ha sollevato sulla microgestione delle previsioni. Quando George Box disse, “Tutti i modelli sono sbagliati, ma alcuni modelli sono utili,” è in qualche modo da lì che deriva il concetto che la previsione è sempre sbagliata. Ci sono altre due cose che egli disse, e che la maggior parte delle persone ignora. La prima fu, “Poiché tutti i modelli sono sbagliati, ma alcuni sono utili, mira a una parsimonia nella selezione del modello.” In altre parole, avrai torto in ogni caso, quindi soprattutto se gli economisti costruiscono un enorme modello complicato, finirà comunque per avere una certa dose di inesattezza. Quindi non giustificare la necessità di un modello enorme e complesso che ti dia precisione perché, in ogni caso, avrai torto. Ma il secondo, e questo per me è il più importante in pratica, è “Non preoccuparti dei topi quando ci sono le tigri.” Il numero di volte in cui lavoriamo con organizzazioni che dicono di sapere che la previsione è sempre sbagliata, e che la loro accuratezza in pratica è abissale, ma passiamo ore a dibattere su uno o due percento con un orizzonte di sette o otto mesi su un SKU è pazzesco. Per esempio, la tua accuratezza nelle previsioni a quell’orizzonte, a livello SKU, è, ad esempio, del 30 percento.
Conor Doherty: Aggiustare di uno o due percento è irrilevante. Avrai torto, e avrai così tanto torto che il tempo impiegato per fare quell’aggiustamento di uno o due percento è una completa perdita di tempo. Dovresti concentrarti esclusivamente sul mettere in pratica quella capacità, apparentemente infinita, di ingegno che credo anche io che gli umani abbiano in specifiche applicazioni in cui la probabilità di un risultato positivo è maggiore. E questo accade quando A) comprendi qualcosa con certezza riguardo al futuro che non è riflesso nella storia, B) il valore della cosa che stai trattando è sufficientemente elevato da giustificare l’intervento, e infine C) la scala di quell’intervento è sufficientemente ampia da giustificarlo, altrimenti finisci comunque all’interno degli intervalli di errore e hai scorte di sicurezza o qualche altro meccanismo che se ne occupa.
Joannes Vermorel: È molto intrigante perché riflette molto il percorso che Lokad ha seguito. Oggigiorno, il modo per affrontarlo è, prima di tutto, avvicinarsi all’anticipazione del futuro solo per le sue conseguenze. È per questo che ora quasi fa parte del dogma di Lokad affermare che non sono permesse previsioni “nude”. Quindi, non è consentito farle, e questo viene fatto rispettare. Io, in qualità di CEO di Lokad, sono in grado di farlo rispettare. L’idea è che quando fai una previsione nuda, per definizione, sei isolato dalle conseguenze reali. La previsione in sé è un’astrazione di una misurazione per il futuro. Non dice nulla su quanto il tuo business sia buono o cattivo. Sì, puoi manipolare i numeri, ma in definitiva non è nemmeno veramente collegata alla realtà. È una cosa molto astratta.
Ancora, le persone sono disposte a intraprendere questo tipo di esercizio solo a causa del fatto che la previsione classica è diventata praticamente rarificata. Ci sono persone che hanno la previsione nel loro curriculum, tipo, “sono certificato per fare previsioni.” Esiste la previsione, ed il demand planner è una cosa. Hanno posizioni e processi. Quindi, vedi queste cose che sono molto astratte, che rappresentavano un modo per affrontare il futuro, si sono literalizzate tramite posizioni lavorative e componenti software. Paghi soldi per le licenze per ottenerle, quindi vedi, è un modo per renderle reali. Se paghi per qualcosa, certamente essa esiste.
E dunque, l’approccio, se torno all’idea della previsione nuda, la risposta che Lokad aveva era che no, dobbiamo trattare la previsione come una tecnica tra le tante altre, tecniche numeriche che ci permettono semplicemente di prendere decisioni. Ci sono una miriade di cose che hanno un impatto tangibile sul business. L’idea è che se non hai una connessione diretta con qualcosa di molto tangibile, come produrre qualcosa, spostare qualcosa dal luogo A al luogo B, o produrre qualcosa in modo da eliminare alcuni materiali ottenendo un determinato risultato, allora non ti è permesso avere modelli predittivi. Questa è la cosa che è molto tentante; non appena hai una serie temporale o qualsiasi tipo di dato, puoi sempre ingegnerizzare un modello.
Conor Doherty: Joannes, puoi fornire qualche informazione sulle sfide dell’utilizzo delle proiezioni nell’ottimizzazione della supply chain?
Joannes Vermorel: La bellezza delle proiezioni è che sono fattibili, indipendentemente dal fatto che siano rilevanti o sagge. Tuttavia, il problema è che quando hai un martello in mano, tutto ti sembra un chiodo. Se possiedi una certificazione in tecniche di previsione, puoi prendere qualsiasi set di dati e iniziare ad applicare i tuoi modelli. La nostra politica a Lokad è “no naked forecasts” perché sono troppo pericolose. Se non colleghi la previsione con qualcosa di molto reale, sarai soggetto a intensi pregiudizi o addirittura a problemi burocratici. Quando elabori una metrica, puoi avere ogni sorta di elementi all’interno dell’organizzazione da ottimizzare contro questa metrica inventata. Considerando che le supply chain sono per loro natura burocratiche, allineare domanda e offerta è un esercizio estremamente burocratico. Si tratta di sincronizzare molte persone, processi e software. Se aggiungi benzina sul fuoco, puoi finire per avere qualcosa che rapidamente assume proporzioni enormi. Le supply chain sono costrutti umani composti da molte persone, software e processi, e questo crea terreno fertile per problemi, specialmente nel campo delle previsioni.
Conor Doherty: Jonathan, in che modo una maggiore comprensione dell’economia comportamentale all’interno dell’organizzazione migliora concretamente il processo di previsione?
Jonathon Karelse: Direi che ci sono due modi principali in cui ciò migliora il processo. In primo luogo, molte organizzazioni credono che gli esseri umani non abbiano un impatto sul processo di previsione, e per questo cercano di tenere il giudizio umano il più lontano possibile da esso. Credono che, di conseguenza, siano più immuni ai pregiudizi e alle manovre di potere che avvengono in quello che Joannes ha giustamente definito un processo molto burocratico. Tuttavia, sostengo che anche in situazioni in cui pensiamo di aver allontanato gli umani dal processo, rimangono comunque impronte umane ovunque. Vi è l’influenza umana nella selezione dei dati, nella scelta del software e, soprattutto, nelle azioni che intraprendiamo a seguito del processo di previsione.
La previsione stessa è solo un’idea, un potenziale insieme di istruzioni o una mappa. Dobbiamo ancora decidere cosa farne successivamente, e ciò richiede che gli esseri umani nella supply chain agiscano. Comprendere fino a che punto, e in quali modi, siamo influenzati da pregiudizi ci aiuta a riconoscere le possibili insidie del nostro processo. Lavorare a ritroso dagli esiti potenziali al processo, invece di presumere che il processo ci condurrà a un esito specifico, permette una migliore comprensione delle fonti e dei gradi di pregiudizio nelle persone coinvolte.
Conor Doherty: La supply chain e la pianificazione ci aiutano a comprendere con un insight ancora maggiore quali potrebbero essere tali esiti. Molto probabilmente, un’organizzazione dispone di un processo di previsione o di demand planning che possiede un certo grado di automazione ed elementi guidati dal computer, ma anche, per definizione, l’integrazione del giudizio umano. Credo che, a determinate condizioni, l’integrazione del giudizio abbia valore nel tempo, soggetta a specifici criteri. Inoltre, contribuisci a massimizzare il potenziale che il giudizio umano apporti valore se, ancora una volta, comprendi fino a che punto le persone che forniscono quel giudizio sono influenzate da pregiudizi. È nelle organizzazioni che o attivamente non vogliono ammettere di avere pregiudizi o sono del tutto ignare del fatto che li hanno che è più probabile trasmettere pregiudizi nel processo di demand planning, sia attraverso l’integrazione diretta dei giudizi o tramite quelle impronte umane che sono ovunque. Quando inizi a esaminare i pregiudizi presenti nella tua organizzazione, puoi iniziare a stabilire dei limiti che ne mitigano l’impatto. Saranno sempre presenti. Voglio dire, il giudizio umano sarà sempre imperfetto, ma si tratta di bilanciare il potenziale beneficio degli insight umani in casi particolari rispetto alla certezza che con tali insight arriverà la fragilità che affligge tutti noi a causa dell’imperfezione del funzionamento della nostra mente.
Joannes Vermorel: Concordo con l’idea – che è anche la mia esperienza – che se non riconosci nemmeno il fatto che potresti avere dei pregiudizi, stai seguendo una ricetta collaudata per massimizzare la quantità di tali pregiudizi. Per le organizzazioni, questa è stata la mia esperienza personale. Quello di cui parlo, e se devo decostruire ulteriormente quest’idea di avvicinarsi al futuro, è che quando le persone pensano a quei pregiudizi, hanno ancora in mente la prospettiva delle serie temporali. Ed è molto difficile rendersi conto di cosa stia andando storto nella mia attività di previsione senza avere in mente il tipo di soluzione o meccanismo con cui la sto realizzando. Il pregiudizio si riferisce al fatto che si hanno valori troppo alti o troppo bassi, e questa è una visione molto unidimensionale, poiché si opera con una serie temporale.
I tipi di problemi che ho osservato, e che hanno caratterizzato l’evoluzione tecnologica di Lokad, riguardano il fatto che se si vuole trasmettere informazioni sul futuro, esistono intere classi di aspetti che non possono essere espressi tramite serie temporali. Ciò non significa che non possano essere espressi con i numeri; semplicemente non possono essere espressi tramite serie temporali. Le serie temporali sono un metodo molto semplicistico: sono letteralmente una sequenza di misurazioni che si estendono nel futuro. Per fare un esempio, se sto osservando le vendite di un prodotto, potrei prevedere i miei volumi di vendita, ma tali volumi sono condizionati dal prezzo che applico, e il prezzo non è qualcosa di scontato, è una mia decisione. Quindi, anche se fossi in grado di ottenere una previsione molto accurata, sarebbe comunque incompleta.
Conor Doherty: Qualcosa che risulterebbe alquanto strano dovrebbe essere matematicamente una funzione che dica: se imposto questo prezzo, allora questo sarà l’esito. Quindi, qui stiamo toccando il fatto che, anche se osserviamo da una prospettiva molto deterministica basata sui pregiudizi e simili, sto semplicemente evidenziando che ci sono elementi per i quali questa visione delle serie temporali è molto debole nel prendere in considerazione aspetti di grande portata. Non si tratta semplicemente di avere qualcosa di troppo alto o troppo basso, ma quasi di una dimensione diversa che non viene considerata. Qui sto cercando di far capire l’idea di poter letteralmente plasmare l’esito tramite altre azioni. Non si tratta solo di osservare il movimento dei pianeti; posso agire e modificare il futuro dell’esito. Ma anche se rimaniamo con un osservatore puramente passivo, ci sono situazioni in cui le serie temporali risultano ancora insufficienti.
Joannes Vermorel: Ad esempio, se mi occupo della manutenzione aviation, voglio mantenere le linee dei miei velivoli. Posso prevedere la domanda di parti, ma il fatto è che quando riparo un aereo, c’è una lista di parti che devo sostituire. Quindi, semplificando lo schema: un aereo entra in hangar per manutenzione, viene effettuata una diagnosi, viene stilata una lista di parti da cambiare e, finché non verrà sostituita ogni singola parte, l’aereo non potrà riprendere il volo. Rimane a terra. Il fatto che io possa prevedere tutte le parti in modo indipendente non mi dice nulla sulla disponibilità congiunta di tutte le parti. In teoria, se tutte le mie previsioni fossero assolutamente perfette per ogni parte, allora sì, la conoscenza congiunta sarebbe perfetta. Ma non appena c’è anche solo una minima incertezza su ogni parte, sapendo che per dare un’idea un aereo è composto da circa 300.000 parti distinte, anche una minima incertezza riguardo al fabbisogno per ogni singola parte significa che l’incertezza sulla disponibilità congiunta di tutte le parti necessarie per riparare l’aereo diventa assolutamente gigantesca.
Joannes Vermorel: Ed ecco un esempio in cui la classica prospettiva delle serie temporali semplicemente, a livello matematico, non è sufficientemente espressiva. Quindi, questa è un’altra classe di problemi in cui, se torniamo ai pregiudizi, si ha il pregiudizio di prevedere troppo alto o troppo basso, ma esistono anche altre tipologie di problemi molto umani che semplicemente non si inquadrano nella giusta direzione o non vengono analizzati con una struttura tale da fornire una risposta rilevante. E questi sono, direi, il modo di vedere le cose tipico del 21° secolo, e risultano molto più intriganti.
Jonathon Karelse: Sono assolutamente d’accordo.
Conor Doherty: Bene, questo ci porta, credo, in modo inevitabile a discutere del futuro, o dei prossimi cento anni, del futuro del futuro, del futuro dei futures. Quindi, Jonathon, comincio da te. Dal punto di vista dello sviluppo dell’AI e della tecnologia, pensi che essa aiuterà le persone nella previsione o che alla fine le sostituirà?
Jonathon Karelse: Quando a Daniel Kahneman viene chiesto se l’AI sostituirà le persone, da un lato lui spera che essa
Conor Doherty: Siamo così pessimi nel formulare giudizi oggettivi, ma d’altra parte siamo certi che ciò non accadrà mai. E ancora, per me, questo sottolinea l’importanza di separare l’aspetto teorico o filosofico da quello pratico. Dal punto di vista teorico, dovrebbe verificarsi a un certo punto nel futuro, in un momento in cui la nostra capacità di elaborare dati e di comprendere in maniera molto più sfumata e dettagliata come funziona il pensiero umano e cosa sia realmente l’intelligenza, ci permetterà di dare vita a sistemi complessi come quelli che i ragazzi della conferenza di Dartmouth negli anni ‘50 miravano a replicare, pensando di poter ricreare il cervello umano in un paio di decenni. Questo è l’aspetto teorico.
Nella vita reale, nella mia vita, nella tua vita, non credo che ciò accadrà. E posso affermarlo con una certa certezza osservando la traiettoria di quanto abbiamo visto negli ultimi 70 anni di AI. Certamente, oggi stiamo imparando molto. La potenza di calcolo si espande esponenzialmente, così come la quantità di dati disponibili, ma ciò non ha ancora prodotto nulla di vicino a quel tipo di svolta nell’AI pratica che sostituirà gli esseri umani. Può assisterci? Certamente. Ci sono ogni sorta di esempi oggi in cui l’applicazione nascente dell’AI sta apportando benefici in molte aree diverse, ma il divario tra sostituire le persone e assisterle oggi rimane un abisso.
Tornando a qualcosa che Joannes ha detto all’inizio e con cui sono molto d’accordo, ovvero che la capacità umana di ingegno è quella componente che ritengo non sia affatto in pericolo di essere sostituita dai computer o dall’AI. Credo che il valore dell’umanità non risieda nella capacità di rispondere a domande complesse, dato che possiamo mettere a frutto i computer per risolvere quesiti complicati, ma nel porre domande interessanti e importanti fin dall’inizio. È solo ponendo queste domande visionarie che possiamo sfruttare l’insieme della tecnologia odierna per arrivare a una soluzione, e sono proprio queste domande ad ampio respiro che rendono gli esseri umani ancora una parte fondamentale del processo.
Vuoi aggiungere qualcosa, Joannes? Passo a te.
Joannes Vermorel: La mia opinione è che quella che le persone considerano la previsione come attività umana, nel senso classico, ad esempio avere un esercito di impiegati o aziende che supportano i loro processi S&OP con centinaia di persone che elaborano spreadsheet e generano numeri, mi fa sperare molto che, entro la mia vita, vedrò scomparire tale pratica. Il tipo di approccio che adottiamo a Lokad mi rende molto ottimista perché, per i clienti che serviamo, abbiamo praticamente eliminato tutto ciò.
Ma il modo in cui lo abbiamo fatto – e questo è il tipo di prodotto – non è stato eliminando le persone o ricorrendo a qualche forma di intelligenza artificiale. Lo abbiamo fatto concentrandoci su quelle decisioni e facendo in modo che ingegneri intelligenti sviluppassero ricette numeriche. Questo è il termine tipico che uso, perché alcune potrebbero essere euristiche, altre ancora potrebbero essere addirittura più banali, semplici filtri e simili. Anche questo non è nemmeno un’euristica, è qualcosa di ancora più basilare.
Conor Doherty: Quindi, ingegnerizzare ricette numeriche che operano su scala per quelle aziende, le attività quotidiane banali, e che ora possono essere completamente automatizzate. Significa che abbiamo rimosso gli esseri umani dall’equazione?
Joannes Vermorel: Non proprio, perché innanzitutto le ricette numeriche sono decisamente un prodotto umano. Ci vuole un ingegnere umano veramente intelligente per realizzarle, e la loro manutenzione è anch’essa interamente gestita da esseri umani. Le ricette numeriche sono semplicemente una sorta di know-how su quali processi numerici funzionino su larga scala per generare decisioni sensate. C’è qualche intelligenza intrinseca nelle ricette numeriche? Assolutamente no. La ricetta numerica è una questione molto meccanica. Sì, potrebbero esserci elementi di machine learning, ma sono solo tecniche statistiche. Resta, in definitiva, un meccanismo incredibilmente meccanico.
Conor Doherty: Quindi, dove risulta particolarmente interessante?
Joannes Vermorel: Se inizi a guardare da questa prospettiva, quello che otterrai sarà comunque un processo che automatizza qualcosa, il quale tiene centinaia di persone occupate nelle grandi aziende. Tuttavia, alla fine della giornata, avrai ancora un team di persone che si occupa di quelle ricette numeriche che non funzionano da sole. La chiave è che gli esseri umani dispongano della larghezza di banda mentale per pensare, e se sono completamente sommersi nei minuziosi dettagli di cose super complesse in supply chain, diventa difficile.
Un esempio di una cosa super complessa in supply chain sarebbe avere 50 milioni di SKU che necessitano di una sorta di micromanagement, dove devo decidere se avere una unità in magazzino, due, tre, cinque, ecc. E devo gestire quotidianamente 50 milioni di quei livelli di stock. La mia speranza è che le previsioni minuziose necessarie a sostenere questo genere di decisione siano completamente automatizzate in termini di esecuzione giornaliera. Ma per un orizzonte più lungo, come da un anno all’altro, dove l’azienda stessa evolve, dove il suo mercato evolve e dove cambiano le domande giuste a cui rispondere, non credo che le macchine possano fornire la risposta nella mia vita.
Conor Doherty: Cosa significa questo, in pratica, per le aziende?
Joannes Vermorel: Credo che questa automazione sostituirà alcuni strati dell’ecosistema in cui le persone svolgono attività con pochissimo valore aggiunto, specialmente sotto l’ombrello dell’S&OP. Alcuni potrebbero sostenere che forse non si tratti del vero S&OP o del buon S&OP, ma non è questo il mio dibattito. Il mio punto è che ho osservato, nell’industria della supply chain, che ci sono molte grandi aziende con team incredibilmente numerosi che si limitano a far salire e scendere numeri, e sospetto che ciò possa scomparire. Non perché abbiamo qualche strumento fantastico che elimini la necessità degli umani, ma perché, con strumenti migliori, possiamo migliorare l’efficienza della gestione della supply chain.
Jonathon Karelse: Sono d’accordo con Joannes. Man mano che continuiamo a sviluppare strumenti e tecnologie migliori, vedremo un cambiamento nei ruoli che gli esseri umani svolgono nella gestione della supply chain. Mentre l’automazione può occuparsi di molte attività banali e ripetitive, l’esperienza umana rimarrà fondamentale per la strategia, l’innovazione e l’adattamento alle condizioni di mercato in evoluzione.
Conor Doherty: E con tecniche migliori possiamo contare su alcune persone intelligenti in grado di progettare sistemi che operano su scala molto ampia. Beh, se ti ribalto la domanda, Jonathan, hai qualcosa da aggiungere? Perché vorrei darti l’ultima parola a riguardo.
Jonathon Karelse: Voglio dire, posso avere l’ultima parola, ma sono decisamente d’accordo con tutto ciò che dice lui. E non mi lascerò trascinare nel dibattito sull’S&OP.
Conor Doherty: Procediamo un po’ oltre allora. Per quanto riguarda il futuro, se dovessi scrivere una seconda edizione di “History’s Future Histories of the Future Part two of the 21st century”, ci sono idee specifiche su cui ti concentreresti?
Jonathon Karelse: No, il mio secondo libro non sarà un seguito di questo. Il mio secondo libro dovrà essere scritto dopo il pensionamento, perché racconterà la storia di tutte le cose folli che ho visto fare in supply chain durante la mia carriera. Persone che, nonostante le montagne di prove su quanto sarebbe folle farlo, continuano a farlo lo stesso. Ma ovviamente, a tutti voi clienti attuali là fuori, non preoccupatevi, non ci sarete voi. Però, siamo passati solo pochi mesi dalla pubblicazione di questo libro, quindi non credo che ci siano, come ha detto Joannes, nuovi sistemi di conoscenza ancora da scoprire o tipi di scienza su cui debba iniziare a riflettere.
Conor Doherty: Bene, a proposito, ed è qualcosa che non ho avuto modo di chiederti prima, Joannes, te lo chiedo anche a te. Nella tua esperienza in NorthFind, quando sei in una stanza con dirigenti di livello C e cerchi di vendere loro queste idee di cui stiamo parlando, e incontri quel livello di resistenza dovuto a pregiudizi inconsci, come sfrutti l’economia comportamentale per superare ciò, per cercare di evitare i tipi di esempi folli a cui ti riferivi?
Jonathon Karelse: Rifiuto parzialmente il presupposto della tua domanda. Non credo di cercare in particolare di usare l’economia comportamentale come mezzo per giungere a una conclusione desiderata in queste discussioni. Penso di trovarmi, forse, in una posizione più agevole per orientarmi in questo ambito rispetto, ad esempio, a un fornitore di software. Perché per me il successo aziendale non significa vendere un pezzo di software. E per essere chiaro, non sto dicendo che il software non sia importante; lo è assolutamente, è un abilitante critico. Ma poiché ci occupiamo di valutare processi e problematiche, e in ultima analisi di progettare soluzioni, non mi capita spesso di dover spingere i dirigenti della C-suite in una direzione specifica. Si tratta piuttosto di comprendere, data la cultura della loro azienda e le risorse a disposizione – siano esse dati, strumenti o persone – qual è il primo passo più probabile o ottimale nel percorso verso la trasformazione dei processi. E se sono fortemente contrari all’idea di rinunciare al loro controllo su una previsione e vogliono davvero che 300 venditori passino ogni mese del tempo ad aggiustarla, non è necessariamente una battaglia per la quale io debba lottare. Voglio dire, va bene così. Se questo continuerà a essere la nostra realtà, includiamolo nel processo, ma, cosa importante, misuriamo il valore aziendale di quell’attività. E spesso saranno loro a giungere alla conclusione.
Conor Doherty: L’eredità in queste organizzazioni è una sorta di misura che permette loro di persistere. È una misura che non evidenzia chiaramente quanto l’attività sia folle. Le stesse misure sono spesso stravaganti perché richiedono un parametro estremo per giustificare un processo folle. Quando vai in un’organizzazione e vedi l’accuratezza delle misurazioni, intesa come valore in dollari al livello più alto e mediata su tre mesi, sai che è il risultato del fatto che non vogliono sapere quanto il processo di previsione sia difettoso. Perché se lo usassero per il suo scopo originario, che è diagnostico invece che valutativo, non aggregeresti mai più mesi, e non saliresti mai così in alto nella gerarchia. Sto divagando un po’, ma in sostanza non sto cercando di spingerli verso una conclusione se sono veramente fissati su un processo folle. Li aiutiamo a capire, misurando il beneficio aziendale di quel processo folle, se vogliono continuare a farlo o meno, e spesso saranno loro a giungere da soli alla conclusione.
Joannes Vermorel: Ovviamente, mettendomi nei panni di un modello software, il mio approccio è solitamente abbastanza diverso. In genere, cerco di delineare esempi il più semplici possibile, nei quali quel tipo di previsione non riesce a fornire ciò che si sta cercando. A volte esistono situazioni molto semplici. Nell’aviazione, se operi a livello di singolo componente, ciò non ti dà alcuna informazione sul fatto che riparerai l’aereo. Se invece entri nel retail e dici che il negozio possiede tonnellate di prodotti che sono ottimi sostituti l’uno dell’altro, ti trovi di fronte a una categoria diversa di problemi. Non mi fornirà affatto un buon indicatore. Sono riuscito molto con questo tipo di organizzazione? Non lo so. Forse il tuo approccio personale, che li porta a intraprendere il proprio percorso, potrebbe essere più efficiente. È un percorso difficile. Uno degli aspetti che rende interessante l’esperienza di Lokad, non necessariamente più facile, ma comunque affascinante, è che concentrandoci sulle decisioni, il tipo di cose che facciamo in termini di modellazione predittiva diventa decisamente molto strano. Vedo questo percorso in cui le previsioni più utili diventano via via più bizzarre. Sospetto che le storie future del XXI secolo saranno molto strane, un po’ come quella stranezza che emerge dalla meccanica quantistica. È un insieme di idee che sono assolutamente non intuitive. Vengono accompagnate da una matematica davvero bizzarra. Quando le applichi, finisci per ottenere risultati ancora più strani di quanto ti aspettassi.
Jonathon Karelse: Bene, signori, penso di poter chiudere qui. Ma prima di andarcene, Jonathan, se dovessi dare un consiglio a tutti coloro che operano nella gestione della supply chain o a praticanti della supply chain, quale sarebbe?
Jonathon Karelse: Compra il libro, disponibile nei negozi. È un consiglio che forse darebbe il mio commercialista. Se devo dare un unico consiglio, è di chiedersi sempre il perché. Non accontentarti mai di sapere: cerca di capire il perché. Abbiamo, in effetti, una citazione molto bella, e non so se l’hai scritta tu, ma recitava: “un pessimo previsore con i dati è come un ubriaco con un lampione: lo usa per appoggiarsi anziché per illuminare.” Quindi, cerca sempre la luce.
Conor Doherty: Grazie mille. Bene, Jonathan, ti ringrazio di cuore per il tuo tempo. Joannes, grazie anche a te. E grazie a tutti per averci seguito. Ci vediamo alla prossima.