00:00:00 Introduzione all’intervista
00:00:42 La carriera di Meinolf Sellmann e il processo decisionale di InsideOpt
00:03:47 Disruzioni e ottimismo eccessivo nell’ottimizzazione
00:06:18 La scoperta dell’ottimizzazione stocastica da parte di Vermorel e le sue influenze
00:08:10 Evasione degli ordini nell’e-commerce e previsioni nella supply chain
00:09:56 Approccio ‘predict then optimize’ e le sue conseguenze
00:11:41 Miglioramento dei risultati operativi e dei costi aziendali
00:14:08 Imprevedibilità e caos nella supply chain
00:16:16 Appello alle previsioni e alla decisione razionale
00:18:43 Decisione razionale e gioco dell’overbooking
00:21:55 Esempio del prodotto da supermercato e disponibilità nella supply chain
00:24:27 Ottimizzazione stocastica e variabilità stagionale delle vendite
00:28:53 Impatto dei cambiamenti dei prezzi e distribuzione congiunta a posteriori
00:30:39 Euristiche per la risoluzione dei problemi e affrontare la complessità
00:33:10 Sfide con i beni deperibili e distribuzione a posteriori
00:36:01 Difficoltà nel ragionamento e creazione della consapevolezza della soluzione
00:38:40 Problema della torrefazione del caffè e pianificazione della produzione
00:42:20 Modellizzazione aziendale e la complessità delle variabili reali
00:45:34 Preoccupazioni ignorate nell’ottimizzazione e ricerca della silver bullet
00:49:00 Consiglio del CEO e comprensione dei processi aziendali
00:51:58 Capacità del magazzino e incertezza sulla consegna dei fornitori
00:54:38 Percezione del livello di servizio e esercizio di briefing
00:57:33 Perdite finanziarie delle compagnie aeree e adozione della tecnologia
01:00:10 Benefici della ricerca basata su AI e compatibilità hardware
01:03:05 Convessità nell’ottimizzazione e utilità piuttosto che la prova
01:06:06 Convergenza del machine learning con le tecniche di ottimizzazione
01:09:34 Caratteristiche in runtime e ampliamento dell’orizzonte di ricerca
01:12:22 Micro aggiustamenti e rischi nelle operazioni di magazzino
01:16:09 Trovare un buon compromesso e proteggersi dall’incertezza
01:19:11 Aumento del profitto atteso con l’ottimizzazione stocastica
01:22:23 Esempio dell’industria aerospaziale
01:24:30 Accettare buone decisioni e controllo dei danni
01:25:19 Efficienza della supply chain
01:26:22 Feedback dei clienti e importanza della tecnologia
01:26:56 Fine dell’intervista

About the guest

Dr. Meinolf Sellmann is founder and CTO at InsideOpt, a US-based startup that produces general-purpose software for automating decision-making under uncertainty. He is the former Director for Network Optimization at Shopify, Lab Director for the Machine Learning and Knowledge Representation Labs at General Electric’s Global Research Center, Senior Manager for Cognitive Computing at IBM Research, and Assistant Professor for Computer Science at Brown University. Meinolf architected systems like the trade-settlement system of the ECB, which handles over 1 trillion Euros per night, has published over 80 articles in international conferences and journals, holds six patents, and has won over 22 first prizes at international programming competitions.

Summary

In un recente colloquio a LokadTV, Conor Doherty, Joannes Vermorel e l’ospite Meinolf Sellmann hanno discusso il ruolo dell’ottimizzazione stocastica nella supply chain management. Hanno evidenziato l’importanza di considerare la variabilità e l’incertezza nei processi decisionali. I metodi deterministici tradizionali spesso non sono all’altezza degli scenari reali, portando a piani di ottimizzazione eccessivamente ottimistici. Sia Vermorel che Sellmann hanno criticato l’approccio “predict then optimize”, suggerendo che le aziende possano ottenere risultati operativi migliori tenendo conto della variabilità delle previsioni durante l’ottimizzazione. Hanno sottolineato la necessità di piani eseguibili e di un’efficacia misurabile in ogni modello di ottimizzazione.

Extended Summary

In una recente intervista condotta da Conor Doherty, responsabile della comunicazione presso Lokad, il Dr. Meinolf Sellmann, CTO di InsideOpt, e Joannes Vermorel, CEO di Lokad, hanno discusso le complessità del processo decisionale in condizioni di incertezza nella supply chain management. La conversazione ha ruotato attorno al concetto di ottimizzazione stocastica, un metodo che tiene conto della variabilità intrinseca e dell’imprevedibilità nei processi della supply chain.

Il Dr. Sellmann, un computer scientist premiato e ricercatore in AI, ha iniziato condividendo il suo percorso professionale passando da IBM, GE, Shopify e ora InsideOpt. Ha sottolineato come il machine learning sia diventato sempre più parte integrante del suo lavoro, e come i metodi tradizionali di ottimizzazione, essendo deterministici, spesso risultino inadeguati negli scenari reali. Ha enfatizzato che il processo decisionale in condizioni di incertezza è un aspetto necessario nella supply chain management, ed è questo il focus di InsideOpt.

Utilizzando l’esempio dell’industria aerea, il Dr. Sellmann ha illustrato le sfide dell’ottimizzazione in condizioni di incertezza. Ha spiegato che, sebbene i piani di ottimizzazione possano apparire eccellenti sulla carta, nella pratica spesso falliscono a causa di circostanze impreviste. Ciò porta a comprendere che l’ottimizzazione soffre di un eccessivo ottimismo.

Vermorel ha condiviso il punto di vista del Dr. Sellmann, raccontando la sua esperienza nel scoprire il concetto di ottimizzazione stocastica. Ha osservato come l’idea dell’incertezza spesso manchi nella letteratura tradizionale sull’ottimizzazione. Vermorel ha anche discusso l’idea di padroneggiare il futuro per eliminare l’incertezza, un concetto che affascina da quasi un secolo. Ha menzionato il tentativo dell’Unione Sovietica di prevedere e determinare il prezzo di 30 milioni di prodotti con un anticipo di cinque anni, che si è rivelato un fallimento. Nonostante ciò, l’idea continua ad attrarre il mondo accademico e alcuni tipi di management per il suo approccio top-down.

Il Dr. Sellmann ha criticato l’approccio tradizionale “predict then optimize”, in cui un dipartimento effettua una previsione e un altro la utilizza per l’ottimizzazione. Ha sostenuto che questo approccio ignora la variabilità della previsione e ha suggerito che le aziende possono ottenere risultati operativi significativamente migliori tenendo conto della variabilità delle previsioni durante l’ottimizzazione.

Vermorel ha usato l’esempio dell’overbooking nelle compagnie aeree per illustrare la non linearità di certi problemi, in cui lievi deviazioni possono rapidamente trasformarsi in problemi significativi. Il Dr. Sellmann ha utilizzato l’esempio di un supermercato che vende kit di burro e creme solari per sottolineare l’importanza della variabilità nella domanda. Ha sostenuto che è fondamentale avere l’intera supply chain disponibile al momento giusto, soprattutto per prodotti stagionali come la crema solare.

La conversazione ha toccato anche il divario tra il buon senso e l’uso del software nella supply chain management, l’importanza di prevedere scenari potenziali per tutti i prodotti, e le complessità della pianificazione della produzione. Il Dr. Sellmann ha spiegato che, sebbene l’accuracy perfetta sarebbe ideale, ciò non è possibile a causa delle incertezze intrinseche nelle previsioni. Invece, la soluzione migliore è imparare dagli errori delle previsioni e utilizzare tali informazioni per prendere decisioni migliori.

In conclusione, l’intervista ha evidenziato l’importanza dell’ottimizzazione stocastica nella supply chain management. Sia il Dr. Sellmann che Vermorel hanno sottolineato la necessità di tenere conto della variabilità e dell’incertezza nelle previsioni durante il processo decisionale, e l’importanza di non semplificare eccessivamente i modelli. Hanno suggerito che ogni modello di ottimizzazione può essere considerato come una simulazione di ciò che accadrebbe in determinate condizioni, ed è fondamentale assicurarsi che il piano sia eseguibile e che la sua efficacia possa essere misurata.

Full Transcript

Conor Doherty: Bentornati. L’incertezza e la stocasticità sono la natura stessa della supply chain. L’ospite di oggi, il Dr. Meinolf Sellman, non ne è estraneo. È un informatico premiato, un ricercatore in AI decorato, ed è il CTO di InsideOpt. Oggi parlerà con Joannes e con me del processo decisionale in condizioni di incertezza. Meinolf, benvenuto a Lokad.

Meinolf Sellman: Grazie mille, Conor, ed è un vero piacere incontrarti, Joannes. Non vedo l’ora di iniziare la discussione.

Conor Doherty: Bene, grazie mille per essere qui con noi. Scusate per la breve introduzione. Mi piace andare subito al punto con l’ospite, ma la conseguenza è che non rendo giustizia al background della persona di cui stiamo parlando. Quindi, potresti per favore, prima di tutto, perdonarmi e poi colmare alcune lacune relative al tuo percorso?

Meinolf Sellman: Certo. Penso che tu abbia colto l’essenza. Sono una persona orientata all’ottimizzazione, ed è proprio questo che ha guidato la mia tesi di laurea. Il sistema tedesco è molto simile a quello francese. La mia tesi consisteva nello sviluppare un risolutore di programmazione mista per un sistema di algebra computerizzata. Quindi, sin dai miei primi giorni da studente, mi sono dedicato al processo decisionale, esplorando come possiamo utilizzare i computer per arrivare a decisioni migliori.

Ho fatto un postdoc a Cornell, sono stato professore a Brown, poi senior manager presso IBM, direttore tecnologico a GE, successivamente direttore a Shopify, e ora sono CTO di InsideOpt. In questo percorso, si nota come il machine learning sia entrato sempre più in gioco.

L’ottimizzazione tradizionale è deterministica. Si presume di avere una conoscenza completa di tutto ciò che accade, cercando semplicemente di trovare la migliore linea d’azione. Ma nel momento in cui si entra in contatto con la pratica, ci si rende conto che non è così. È necessario introdurre sempre più tecnologie che consentano di prendere decisioni in condizioni di incertezza, ed è proprio questo che ci appassiona qui a InsideOpt.

Conor Doherty: Grazie. Ancora, hai menzionato molti nomi importanti, come IBM, General Electric e Shopify. Senza violare eventuali NDA, quali dettagli o esperienze hanno maggiormente influenzato la tua visione sulle previsioni e sul processo decisionale ora che sei a InsideOpt?

Meinolf Sellman: Guarda a un settore come quello delle compagnie aeree. Tradizionalmente, si investe una cifra altissima in ottimizzazione. È uno dei settori che probabilmente ha investito per primo e in misura maggiore, nel corso dei decenni, nella tecnologia dell’ottimizzazione. E poi, guarda quanto è divertente gestire una compagnia aerea. Ottengono piani eccezionali, giusto? Ottengono piani per l’equipaggio. Devono decidere quale pilota su quale aereo, quale assistente di volo su quale aereo, quali aerei utilizzare per determinate tratte. Devono anche decidere che tipo di tratte offrire, quali voli diretti proporre e come organizzarli in rotte, occuparsi della gestione dei ricavi. Per tutte queste decisioni operative, utilizzano l’ottimizzazione e, sulla carta, quei piani sembrano fantastici. Solitamente, possono presentarsi, se non con un’optimalità dimostrabile, almeno con qualche garanzia di prestazione.

Ma se gestisci una compagnia aerea, sai che rischi grosso il giorno di operazioni poiché le cose possono andare leggermente diversamente. Il tempo non è come ti aspettavi, i controllori del traffico aereo in Francia sentono di non essere pagati a sufficienza, il gate è pieno, qualche attrezzatura si rompe. Tutte quelle cose che possono andare storte. E se hai mai volato, sai che il motto della compagnia aerea è “Se oggi va male, oggi va male. Assicuriamoci che domani non vada male.” Ed è così che ti trattano. Non importa se oggi arrivi dove devi andare, vogliono tornare in pista domani, perché se affrontano una situazione negativa anche domani, allora domani andrà male anche.

Cosa ti dice questo? Ti dice che l’ottimizzazione soffre di un eccessivo ottimismo, come se tutto andasse secondo i piani. E questo è ciò che vogliamo cambiare.

Conor Doherty: Grazie. Joannes, ti rispecchia così la situazione?

Joannes Vermorel: Assolutamente. Per me è stato molto intrigante, perché ho scoperto il concetto di ottimizzazione stocastica relativamente tardi. Nei miei vent’anni ero molto familiare con l’ottimizzazione tradizionale, sai, l’ottimizzazione convessa; ho letto interi libri su questi argomenti, e l’ottimizzazione classica che inizia con l’algebra lineare e concetti come l’algoritmo del simplesso, non viene insegnata al liceo, ma subito dopo. And poi, da studente, ho approfondito la ricerca operativa – il nome tradizionale del tema – e si possono sfogliare letteralmente centinaia di pagine di casi in cui ci sono fabbriche, aerei, ogni sorta di allocazioni di asset, macchine, persone e via dicendo. Eppure, in nessun momento si discute dell’elefante nella stanza, ovvero del fatto che le cose possano andare storte. Si ha solo una modellizzazione della situazione che potrebbe essere errata e, di conseguenza, tutto ciò che ottimizzi risulta estremamente fragile.

Il momento in cui ho capito quanto in profondità andasse la tana del coniglio fu quando lessi il libro “Antifragile” di Nassim Nicholas Taleb. Era un bel po’ di tempo fa, ma poi mi resi conto che mancava un paradigma veramente onnipresente. E poi iniziai a interessarmi molto a questo genere di ottimizzazione. Per me, la cosa più sorprendente è quanto essa sia assente da interi corpi di letteratura che trattano come se questa idea di incertezza, di non conoscere perfettamente la tua loss function, fosse letteralmente una dimensione mancante. C’è una dimensione mancante e risulta più difficile vedere ciò che non vedi. Non è che sia sbagliata, è più come se ci fosse un’intera dimensione assente in un campo di studi molto vasto, esteso e antico.

Conor Doherty: Beh, in realtà, se posso approfondire questo punto. Quando hai menzionato l’idea di paradigmi mancanti e cose totalmente assenti, ciò si contrappone bene a uno dei motivi per cui abbiamo contattato Meinolf. La tua prospettiva su quella che potremmo chiamare la pianificazione, previsione e le politiche di inventario mainstream o tradizionali rientra tipicamente in un approccio “prima si prevede, poi si decide”, che è paradigmaticamente molto diverso da quello che penso tutti in questa stanza sostengano. Quindi, per prima cosa, passo la parola a te, Meinolf. Potresti delineare le differenze, l’approccio tradizionale, e poi i paradigmi mancanti che tu e Joannes notate?

Meinolf Sellman: Sì, intendo dire, come puoi immaginare, se gestisci un sistema di fulfillment, hai un negozio e-commerce e devi collocare da qualche parte nel tuo warehouse i prodotti che speri che la gente acquisti. Il problema intrinseco che incontri è che non sai quanto verrà acquistato e dove. Quindi devi formulare un’aspettativa, per così dire. Quindi devi effettuare una previsione o una predizione in senso più generale. E ci sono persone che lo fanno per te, e tipicamente questo è il tuo dipartimento di machine learning. Questi ragazzi sanno tutto, “Oh, qui ci sono dei valori mancanti.” Giusto, quindi diciamo che hai avuto dei stockouts a un certo punto, il che significa che in realtà non sai quanto sarebbe stato venduto perché eri a corto di scorte. Quindi, in effetti, non sai quanto avresti potuto vendere se ne avessi avute di più. Si occupano di outlier, di valori mancanti, di rumore e di tutto ciò che è incerto, e da questo elaborano una previsione, una predizione.

E poi hai quel secondo dipartimento, che, come correttamente ha detto Joannes, di solito non si occupa dell’incertezza. Loro dicono: “Oh, previsione eccellente. Inseriamola nel mio modello di ottimizzazione come se fosse stata fornita dall’Oracolo di Delfi o qualcosa del genere.” È come se avessi una conoscenza perfetta del futuro. Tratti semplicemente questi numeri e dici: “Oh, la mia domanda per la crema solare la prossima settimana è di 20 tubetti. Quindi mettiamoli sugli scaffali,” senza considerare alcuna variabilità presente.

Questo “prevedi e poi ottimizza”, così si chiama, è in parte dovuto al fatto che hai due dipartimenti differenti con skill molto diverse. E sarebbe molto difficile per te dire, “Oh, ora i machine learners devono imparare tutto sull’ottimizzazione,” o forse gli ottimizzatori devono imparare di più sul machine learning. Quindi, tipicamente, le aziende evitano tutto questo. Questo è uno dei motivi per cui tale separazione esiste.

Il punto fondamentale è però che se trasferisci l’incertezza da un dipartimento all’altro, essa non scompare. Quindi, semplicemente ignorandola, stai in realtà lasciando molto denaro sul tavolo. E questo è il secondo motivo per cui le persone non approfondiscono il tema, perché per loro sembra che i machine learners abbiano fatto il loro lavoro. Sono tornati, fanno cose come, dopo aver costruito un modello, testano le loro macchine attraverso qualcosa che si chiama, ad esempio, una cross-validation. Quindi entri nei dati noti e dici: “Ehi, se avessi solo questo frammento di dati e dovessi fare una previsione per l’altra parte, quanto sarebbe andata bene?” In questo modo, riesci a convincerti di ottenere previsioni ottime dal dipartimento di machine learning.

E lo fanno, tu lo controlli e pensi: “Oh, questo è fantastico. Hanno delle buone previsioni.” E poi, comunque, gli ottimizzatori rientrano e dicono: “O ho un limite di performance, oppure ho qui una soluzione probabilmente ottimale.” Quindi non ti aspetteresti, se gestisci un’azienda, che ci sia margine di miglioramento facendo lavorare insieme questi dipartimenti. E in realtà, puoi ottenere facilmente risultati operativi migliori del 15%, 20%, 25% se tieni effettivamente in conto la variabilità nella previsione quando procedi all’ottimizzazione. Ma la gente non lo vede.

Quindi, in parte, è strutturale che questo approccio “prevedi e poi ottimizza” persista così tanto da non voler mescolare le competenze. L’altra parte è che non ci si rende conto di quanto, intrecciando queste attività in maniera più stretta, si stia lasciando realmente sul tavolo. Perché sembra: “Ehi, previsione fantastica, ottimalità dimostrabile, fantastico. Il resto è solo il costo del business.” E non lo è. Questo è, penso, ciò che Joannes ed io siamo qui per dire al pubblico oggi. Questo non è il costo del business.

Conor Doherty: Beh, Joannes, è questo il costo del business? Meinolf ha ragione?

Joannes Vermorel: Sì, e inoltre penso che ci sia un’altra dimensione. L’idea di dominare, conquistare il futuro in modo da eliminare completamente l’incertezza, è stata per quasi un secolo un’idea molto seducente. L’Unione Sovietica è crollata, ma l’idea di fare un piano quinquennale e avere tutto orchestrato non è morta con l’Unione Sovietica. A un certo punto, credo che avessero qualcosa come 30 milioni di prodotti da prezzare e prevedere con cinque anni di anticipo. Fu un completo fallimento a livello pragmatico.

Il fascino di quest’idea non è morto con l’Unione Sovietica. Ha ancora fascino, soprattutto per gli accademici. L’idea che tu possa inquadrare il futuro del mondo in modo da avere la tua previsione, che diventi la verità, e poi si tratti semplicemente di orchestrazione. Risuona anche con certi tipi di management perché ha un approccio molto top-down.

Ha quel fascino della semplicità. Ovviamente, questa è una fallacia perché non hai il controllo. I tuoi clienti hanno le loro agende, possono decidere altre cose. Il tuo fornitore cerca di fare del suo meglio, ma a volte il suo meglio non è davvero sufficiente. Inoltre, ci sono degli shock. A volte si tratta di qualcosa di molto drammatico come una guerra, altre volte di qualcosa di veramente sciocco come una nave che rimane bloccata nel canale di Suez, e tutte le tue importazioni subiscono ritardi a causa di un evento banale. Ma, qualunque sia la causa, il futuro è caotico.

È molto difficile razionalizzare questo tipo di caos. È ancora più difficile ragionare su di esso. Ragionare sul futuro perfetto è semplice. Quello sarebbe stato il tipo di feedback che ricevevamo nei primi anni di Lokad. “Signor Vermorel, ci fornisca semplicemente previsioni accurate. Mantenga un margine d’errore del 3% e basta.” E ovviamente, se fossimo stati in grado di fornire ciò, non ci sarebbe stato alcun vero vantaggio nel combinare la previsione e l’ottimizzazione.

Ma eccoci qui, 15 anni dopo. Anche se Lokad sta andando molto bene in termini di previsioni, per la maggior parte delle aziende un’inesattezza del 3% è semplicemente ridicola. Non siamo nemmeno vicini a farcela. Non lo saremo mai a livello di SKU.

Meinolf Sellmann: Sì, può sembrare duro paragonare la pratica industriale all’Unione Sovietica, ma l’altro giorno ho visto una pubblicità di un risolutore MIP in cui si diceva, “Utilizzando il nostro risolutore MIP, questa compagnia aerea ha ottimizzato il suo piano quinquennale.” E credo di aver lasciato un commento dicendo che Khrushchev sarebbe stato così orgoglioso. È vero, ha molto fascino dire: “Posso prevedere il futuro, l’IA è fantastica, e poi ottimizzo per essa, ora va tutto bene.”

Joannes Vermorel: Penso che il fascino di quest’ideologia sia forte. Credo che la gente respinga l’idea, “Oh no, io sono pro-mercato, non sono comunista.” Ma perdono di vista ciò che rendeva così attraente questa ideologia. L’idea di avere il controllo del proprio futuro è estremamente allettante. L’idea di poter applicare dall’alto verso il basso una specie di metodo scientifico e razionalizzare con un grande piano è completamente razionale dall’inizio alla fine. Sulla carta, sembra management moderno. Si scopre che in realtà non è management moderno, ma piuttosto una cattiva gestione moderna, ma riesco a percepire il fascino e l’apparenza di razionalità.

Ma ciò comporta effetti collaterali iatrogeni, cose non intenzionali che compromettono fondamentalmente quei piani. Finisci per avere decisioni, presumibilmente ottimali, che si rivelano incredibilmente fragili, dove anche la minima deviazione esplode in faccia in modi del tutto sorprendenti.

Meinolf Sellmann: Questa è probabilmente la fallacia più comune. Le persone pensano: “Forse non posso prevedere perfettamente il futuro, ma anche se ci fossero lievi deviazioni, le mie decisioni rimarranno più o meno le stesse.” Esattamente questo non è vero. Quel tipo di cambiamento continuo che ti aspetteresti semplicemente non si verifica in pratica. Ecco perché, anche se sembra così razionale fare una previsione e poi basare una decisione su di essa, in realtà è la cosa più irrazionale che si possa fare. Dovresti aspettarti di non avere accesso a tutte le informazioni che dovresti avere.

In realtà, l’approccio razionale è fare ciò che fa Lokad, per il quale costruiamo il nostro software insideOpt per te, ovvero tenere in conto la variabilità che ci si deve aspettare nella tua previsione quando prendi le decisioni.

Joannes Vermorel: Sì, e solo per fare un esempio per il pubblico. Se vuoi giocare al gioco dell’overbooking nelle compagnie aeree, va bene. Ci sono sempre alcuni passeggeri che non si presentano, così puoi vendere qualche biglietto in più rispetto ai posti disponibili sull’aereo. Ma il problema è che, a un certo punto, ti rimangono davvero pochi posti. Avevi solo 200 posti, ne hai venduti 220 pensando che 20 persone non si sarebbero presentate, ma in realtà ne sono arrivate 205. Così rimangono circa cinque persone che, in ogni caso, non riusciranno a salire sull’aereo. Sì, puoi offrir loro una compensazione e giocare a vari giochi, ma alla fine della giornata, hai cinque persone che avranno una qualità di servizio terribile per il volo che hanno acquistato.

Quindi si tratta di una questione molto non lineare, dove per i primi posti sì, puoi fare overbooking sull’aereo, ma poi c’è un limite e raggiungere quel limite è brutale, specialmente per quelle persone se avevano qualcosa di veramente importante a cui partecipare. Non è assolutamente come un problema linearmente mite in cui è semplicemente un po’ più della stessa cosa. No, c’è una sorta di soglia e poi diventa un vero problema, molto rapidamente.

Conor Doherty: Per approfondire e poi collegare un paio di idee, perché entrambi avete detto cose davvero interessanti che portano al punto successivo. Joannes, il tuo esempio dell’overbooking e Meinolf, il tuo esempio di misurare la domanda. Tipo, ho venduto 20 unità di crema per la pelle lo scorso mese. Beh, tu l’hai fatto, ma hai avuto uno stock out, quindi in realtà non sai quale sarebbe stata la domanda.

Quando pensi in modo razionale al problema, ciò ti porta naturalmente all’ottimizzazione stocastica, ad abbracciare quell’incertezza. Non esiste una risposta perfetta, e credo che tu abbia una frase nelle tue lezioni su YouTube, qualcosa tipo “Adesso la rovino un po’, perché una buona soluzione ora è meglio della soluzione perfetta troppo tardi” o qualcosa del genere.

Meinolf Sellmann: Sì, questo è un punto diverso, anche perché il tempo necessario per trovare una buona risposta incide sulla qualità stessa della risposta. Sì, ne hai sicuramente bisogno. Ma tornando al tuo punto, perché la variabilità conta? Spieghiamolo con un esempio. Supponiamo che tu gestisca un supermercato a Parigi e abbia diversi prodotti sugli scaffali. C’è il burro e ci sono i kit di crema solare. Due prodotti molto differenti. Se hai una previsione che venderai 300 di quei kit nei prossimi 30 giorni, dovresti dire che sono 10 al giorno? No. Con il burro, puoi farlo perché il burro ha una domanda costante e sostanzialmente la tua previsione gira intorno alla sua media, con lievi deviazioni a sinistra e a destra. Ma con la crema solare è più come: in questo momento il tempo è brutto, il tempo è brutto, il tempo è brutto, e poi arriva un weekend in cui il sole splende e tutti si preparano e comprano la crema solare praticamente per tutta l’estate. Se non hai l’intera offerta disponibile nel supermercato in quel periodo, l’hai appena perso. Non è che, avendone solo 10 lì oggi, recupererai i restanti 290 domani. No, da lunedì non ne venderai più.

E quello è, in un certo senso, il punto della differenza, giusto? Così, il valore atteso può essere lo stesso, ma conta molto se la variabilità è distribuita in modo ravvicinato attorno a quel valore atteso o se c’è sostanzialmente una grande discrepanza in cui diresti: o è zero oppure è un valore enorme. E se non lo consideri quando prendi le tue decisioni, semplicemente lo perdi, giusto? E lasci molto denaro sul tavolo se tratti i prodotti, per esempio, in quel modo. Spero che questo esemplifichi ciò di cui stiamo parlando qui, giusto? I valori attesi sono valori attesi, ma ciò che devi sapere è quali scenari devi effettivamente esaminare. Ed è questo che fa l’ottimizzazione stocastica. Analizza diversi futuri potenziali e cerca di trovare una decisione compromessa oggi.

Quindi, per le cose che devi decidere oggi, dove non puoi aspettare di vedere come sarà il futuro, per quelle decisioni cerca di trovare una buona posizione di partenza così da poter agire molto bene una volta che il futuro si svela. Questo è ciò che è l’ottimizzazione stocastica, e questo è, a mio parere, ciò che ogni essere umano fa ogni giorno. Perché ce ne dimentichiamo non appena usiamo un computer per questi compiti.

Conor Doherty: Grazie, Meinolf. Joannes, come si allinea ciò con la tua comprensione dell’ottimizzazione stocastica?

Joannes Vermorel: Sì, questo è il caso in cui, come ha detto Meinolf, si osserva un andamento delle creme solari molto stagionale, ma l’inizio della stagione varia in base al meteo da un anno all’altro. È molto classico. Ci sono un sacco di prodotti che rientrano in questa categoria. Un altro tipo di prodotto, in cui si potrebbe prendere un esempio simile nel commercio al dettaglio, è il negozio di do-it-yourself (DIY) dove le persone comprano quattro o otto unità alla volta perché sono come interruttori della luce e non vogliono avere quattro o otto interruttori diversi nel loro appartamento. Quindi, quando acquistano, vorranno averne quattro o otto tutti uguali nello stesso momento.

Se pensi che avere tre pezzi sullo scaffale significhi che non c’è esaurimento delle scorte, ti sbagli. In realtà, la persona entra nel negozio, dice “ne voglio quattro”, ma ce ne sono solo tre, quindi va altrove dove può trovare quattro unità identiche. Quindi la variabilità della domanda è davvero importante ed è uno di quei casi in cui, improvvisamente, dobbiamo esaminare nei dettagli la struttura dell’irregolarità, più di quanto accada analizzando una media su un lungo periodo.

E infatti, questo è ciò che, istintivamente, chi gestisce il negozio sa. Quegli interruttori della luce: averne uno solo è inutile. Ho bisogno di averne un pacchetto tutti uguali oppure è meglio non averli affatto, perché la gente non si degnerà nemmeno di dare un’occhiata a un prodotto isolato. Un martello acquistato singolarmente va bene, perché la gente non compra quattro martelli identici, ma gli interruttori della luce non vanno così. E questo è qualcosa di molto… non è esattamente come la matematica della rocket science, se ci pensi.

Penso che tu abbia completamente ragione. Ho visto la stessa cosa. Le persone, in particolare i praticanti della supply chain, sanno questo nel profondo. Non hanno bisogno della matematica, ma non appena entrano nel mondo del enterprise software, improvvisamente una media mobile e un po’ di smoothing esponenziale dovrebbero coprire il caso. E dicono: non preoccuparti, se la media mobile non basta, abbiamo ABC classes per affinare la cosa. E io penso che questo non basti ancora. E sono d’accordo, c’è questa discrepanza in cui, presumibilmente, quando entriamo in questo mondo del software, la gente lascia il buon senso alla porta pensando che sia la macchina a decidere, che sia troppo complicato. Quindi, ovviamente, se fanno lo smoothing esponenziale, c’è “esponenziale” nel termine, deve essere scientifico e avanzato, giusto?

Meinolf Sellmann: A noi piace scomporre i problemi. Per questo mi piace quel termine “lumpiness” che hai menzionato. È piacevolmente non tecnico, un termine che puoi usare liberamente. Ma va perfino oltre il prodotto incrociato. Se gestisci un supermercato e aumenti i prezzi del latte, all’improvviso vengono meno i clienti perché non trovano più lì i loro prodotti di base. Improvvisamente, anche i kayak o qualunque altra cosa che vendi stagionalmente non vengono più venduti, perché il traffico in negozio cala drasticamente. Quindi, in realtà, ciò di cui hai bisogno è una distribuzione congiunta a posteriori in cui si previsionano potenziali scenari su come fluiscono tutte le cose.

Conor Doherty: Quella descrizione, in particolare per quanto riguarda i prodotti di prima necessità e la loro interrelazione, suona notevolmente simile alla prospettiva del “basket” di cui parliamo. Entri, potresti voler comprare un martello, ma se non lo hanno, te ne vai. Entri, vuoi comprare molte cose, fare una lista completa della spesa: se manca il latte, allora vai altrove dove puoi trovarlo insieme a tutto il resto. Quindi, la penalità per non avere il latte non si limita alla vendita persa del latte, ma riguarda tutto. Perché avere il latte avrebbe significato anche vendere il burro, il pane, la marmellata, il gelato, la pancetta, ecc. Ma, ancora, e qui arriva la mia prossima domanda rivolta a Meinolf, per difendere con il principio di carità chiunque non sia d’accordo, alla gente piacciono le euristiche. Quando parlavi di scomporre i problemi, alla gente piacciono le euristiche. Quindi l’idea di una classe ABC, dello smoothing esponenziale, sono cose più facili da capire, regole pratiche. L’ottimizzazione stocastica è più complessa di tanto, a dire il vero. No?

Meinolf Sellmann: Beh, direi che una cosa giusta da dire è che una volta non avevamo gli strumenti per affrontare il problema in maniera ordinata in un reparto, mantenendo quelle separazioni di responsabilità tra machine learning e ottimizzazione. Non vuoi dover riqualificare tutti nel tuo team per fare questo tipo di cose. E quindi, sarebbe stato giusto fino a, non so, magari cinque anni fa. Ma con la tecnologia di oggi, non direi necessariamente che sia più complesso per le persone che devono implementare quelle soluzioni.

Conor Doherty: Bene, allora, a proseguire, e ancora mi rivolgerò specificamente a Joannes su questa questione, ma tornando a parlare di accuratezza, come si inserisce l’accuratezza — quella che tradizionalmente viene considerata il KPI di riferimento assoluto per ogni previsione — nell’ottimizzazione stocastica? O è solo un’altra euristica che in qualche modo viene trascurata quando si passa a considerare le decisioni?

Meinolf Sellmann: Sì, voglio dire, ovviamente, se qualcuno potesse dirti quali saranno i numeri della lotteria del prossimo sabato, sarebbe fantastico. Il problema è che devi fare previsioni e queste comportano un’incertezza intrinseca. Non sai tutto del mondo per poter prevedere cosa accadrà. Quindi, se sei un negozio e devi decidere che tipo di piatti di sushi mettere in vendita, beni deperibili, praticamente tutto si applica a quanto Joannes aveva menzionato prima sul sovravenduto dei posti su un aereo. Se non vendi il sushi, devi buttarlo via. E questo significa che l’intero costo di produzione, trasporto, definizione del prezzo e messa in vendita viene perso se non lo vendi. Quindi non vuoi accumulare troppo stock di articoli a margine relativamente basso se paragonato al costo che perdi quando sono deperibili.

Sai se ci sono queste cinque giovani madri che hanno deciso “Grande, possiamo mangiare sushi di nuovo” e che stanno per organizzare una festa, facendo irruzione nel tuo negozio? Non lo sai, semplicemente non puoi sapere che improvvisamente si presenterebbero e comprerebbero 40 piatti di sushi. E non puoi assolutamente prevedere queste cose. Quindi, c’è incertezza. Se avessi una previsione perfetta, sarebbe fantastico. Ma ora, visto che non puoi averla, fai il secondo miglior approccio, cioè cerchi di imparare come sbagliano le tue previsioni. E questo è ciò che chiamiamo distribuzione a posteriori. Quindi diciamo: ok, guarda, significa che se metto quei piatti di sushi lì, il valore atteso che ho, diciamo 50 piatti, la maggior parte dei giorni è 50, a volte 48, a volte 42, bene. Oppure 50 piatti significano, beh, sì, o 25 o 75. Grande differenza. L’accuratezza è la stessa, il valore atteso è 50, giusto? Ma gli scenari che devi considerare e le decisioni che devi prendere per decidere cosa mettere sullo scaffale sono molto, molto diversi. Quindi è un po’ fuorviante. L’accuratezza sarebbe fantastica se potessi raggiungere il 100%. Se non puoi raggiungere il 100%, devi fare il secondo miglior approccio, cioè devi prevedere e valutare come le tue previsioni sbagliano.

Joannes Vermorel: Sì, e per riprendere il commento di Meinolf sulla complessità o la complessità percepita, la mia opinione è che molto spesso, quando ci si avvicina a una situazione, l’istinto è partire da una soluzione. È molto difficile concepire un problema finché non si ha la soluzione. È davvero strano. Sai, il pensiero cartesiano sarebbe: consideriamo questo problema e cerchiamo la soluzione, ma non è assolutamente così che le persone, me compreso, operano. È più come se avessi una serie di soluzioni che posso immaginare e da quelle posso ricostruire un problema che posso risolvere. Sai, di solito funziona al contrario.

Quindi inizi con una soluzione o con l’insieme di soluzioni che sei disposto a valutare e, basandoti su quello, scegli il problema che pensi di poter risolvere. Perché ci sono un sacco di problemi che sarebbero fantastici, ma non li puoi risolvere. Sai, avere auto volanti, non so come realizzare un motore antigravitazionale, quindi non spreco tempo a considerare quale sarebbe il miglior design per un’auto volante, perché è così lontano dall’essere realizzabile da non valere nemmeno la pena.

Tornando al punto, penso che quando si affronta l’incertezza nelle previsioni e poi la si elabora nell’ottimizzazione, questo è ciò che chiamiamo ottimizzazione stocastica. Credo che l’elemento fondamentale, e sono d’accordo con te sul progresso della tecnologia, sia che richiede ingredienti tecnologici, concetti, paradigmi, alcune cose. Non sono di per sé super difficili, ma se inizialmente vivi in assenza completa di questi elementi, è molto difficile immaginarli dal nulla. Fondamentalmente non sono molto complicati, ma sono decisamente strani.

Oggigiorno la gente dà per scontato di poter fare una chiamata con qualcuno dall’altra parte del mondo, è naturale. Prova a dirlo a una persona di 200 anni fa: penserebbe che fosse pura magia. Sai, l’idea che potessi fare una cosa del genere era semplicemente inconcepibile. Quindi, la gente al giorno d’oggi ce la fa? Sì, abbastanza facilmente. Ma, ancora, conoscono la soluzione, quindi ragionare sul problema è molto più facile.

Tornando a questo, credo che la sfida sia che, finché non hai la soluzione, è molto difficile ragionare sul problema. E se poi passi, magari, al tipo di prodotto che state sviluppando in InsideOpt, con Seeker, è che se tutto ciò che hai sono strumenti di ottimizzazione che non gestiscono alcun tipo di incertezza, allora tutti i problemi di ottimizzazione che sei disposto a considerare sono, per definizione, quelli in cui hai in qualche modo eliminato, in maniera paradigmatica, l’incertezza.

Questa è la mia soluzione miracolosa, quindi ho bisogno di un problema che le si adatti. Ed ecco, eccolo. È qui che vedo la sfida più grande, ovvero creare consapevolezza dell’esistenza di quella classe di soluzioni, in modo che le persone possano persino pensare a quella classe di problemi. So che sono molto meta qui.

Conor Doherty: Beh, in realtà, per proseguire, perché è un collegamento perfetto, forse involontario, ma ti darò credito comunque. Quando parli di principi fondamentali, iniziando dal problema per poi arrivare alla soluzione, in una delle tue lezioni parli del problema della torrefazione del caffè. Potresti illustrarlo, per favore? Perché, di nuovo, è un esempio molto vivido, molto piacevole. Definisci qual è il problema e poi spiega come, in modo stocastico, potremmo risolverlo, oppure come, usando l’ottimizzazione stocastica, potremmo risolvere quel problema.

Meinolf Sellmann: In realtà, è un problema molto classico nell’ottimizzazione. Si chiama pianificazione della produzione. Se hai mai seguito un corso sul corso standard di lavoro a cui ti riferivi, che è la soluzione miracolosa per tutto nell’ottimizzazione, ovvero la programmazione a numeri interi misti, probabilmente hai incontrato un esempio di pianificazione della produzione.

Allora, in cosa consiste la pianificazione della produzione? Hai risorse limitate per realizzare i prodotti che vuoi fabbricare, e c’è un profitto atteso legato alla produzione di ogni unità di ciascun prodotto. Ma questi prodotti condividono le capacità produttive. Ad esempio, macchine che possono realizzare più prodotti diversi, la linea di confezionamento, le torrefazioni nel caso del caffè; a volte, condividono gli ingredienti. Diversi tipi di caffè possono utilizzare lo stesso tipo di fagioli. Di solito, è una miscela di fagioli quella che vi entra.

Quindi la domanda diventa: cosa produrrò, su quale capacità produttiva, e in quale momento? Questa è una cosa che bisogna fare ogni giorno per produrre caffè. Deve esserci qualcuno che dica: torrefai questi fagioli grezzi qui, conservali in quel silo laggiù, perché non puoi usarli subito. Hanno bisogno di raffreddarsi prima di essere confezionati.

E poi li riprendi. Devi anche decidere quando prelevare cosa da quale silo e poi spostarlo nelle linee di confezionamento, che hanno capacità limitate. Fin qui tutto bene.

Se sapessi esattamente quanto tempo ci vuole per torrefare il caffè, la vita sarebbe molto più facile. Inoltre, se sapessi esattamente quanto tempo impiegano i fagioli a raffreddarsi, la vita sarebbe altrettanto più semplice. Il problema è che hai solo delle stime per entrambi. Quindi, a seconda di quanto sono secchi i fagioli che arrivano in torrefazione, il tempo di tostatura è più breve o più lungo per portare i fagioli alla perfezione. E questo, ovviamente, manda tutto all’aria perché non puoi semplicemente lasciare il torrefattore da solo.

Se non torrefai nulla per più di 10 minuti circa, devi spegnerlo e, se lo spegni, ci vogliono circa mezz’ora perché torni a metterlo in funzione. Quindi, improvvisamente, incontri queste non linearità in cui pensi: “beh, ok, il torrefattore si è appena spento da solo, ora buona fortuna a provare a torrefare per la prossima mezz’ora.”

Ora potresti dire: che male fa se inizio a torrefare il prodotto successivo un po’ prima? Beh, non sai dove mettere quel prodotto perché i silos sono pieni e il confezionamento non segue. Quindi, per fare spazio al prossimo prodotto che uscirà dal torrefattore, devi liberare quella capacità, ma questo significa creare stress in un’altra parte del sistema.

E adesso ti siedi e devi elaborare un piano. Voglio dire, ti accorgi che i torrefattori restano fermi per un certo periodo di tempo, semplice e chiaro, perché non sanno dove stoccare il prodotto, il prodotto finito ma non confezionato. E questo, ovviamente, comporta un enorme impatto sui costi operativi di un’attività del genere.

Joannes Vermorel: Penso che rifletta il fatto che bisogna stare attenti a una modellizzazione semplicistica. C’è un livello di dettaglio nel business estremamente elevato e questo richiede anche qualcos’altro. La maggior parte dei modelli pubblicati in letteratura e quello che trovi nei corsi ti offrono una soluzione diretta, più o meno sofisticata, per un problema ben comportato.

Quindi hai un problema che ha una bella struttura, qualcosa che, dato che insegno all’Università, non vuoi passare due ore a scrivere tutte le variabili. Presenterai quindi il problema in modo che al massimo contenga circa 10 variabili, così da non passare due ore a presentare tutti i fattori del problema. Vuoi qualcosa che possa avere al massimo 10 variabili, al massimo tre equazioni, e basta, per poter andare avanti.

Il che è fuorviante perché la realtà porta con sé molti dettagli e quindi, che cosa ti lascia? Ti lascia in mano una soluzione, un modello, che è in qualche modo inutile. Non è sufficiente. Non è sufficiente perché, beh, non conosci mai esattamente la tua situazione. Cercherai di modellarla, poi scoprirai qualcosa e infine revisionerai la tua modellizzazione.

E forse dirai, ok, questa cosa è semplicemente troppo complessa da modellizzare, mi arrendo. Ma devo reintrodurre quell’altra variabile che avevo ignorato perché in realtà è stato un errore ignorarla. Essa ha davvero un impatto sulla mia operatività. E così il modello stesso, guardando dalla tipica prospettiva accademica, è dato. Ci sarà una dimostrazione, ci saranno delle forme canoniche e così via.

E questo è esattamente ciò che otterrai con la programmazione a numeri interi misti, dove ci sono una serie di problemi che possono essere risolti facilmente con forme canoniche e simili. Ma la realtà è che quando ti trovi di fronte a una vera supply chain, hai un problema in continua evoluzione e impari applicando lo strumento, qualunque esso sia, al problema e lo revisioni.

E improvvisamente ti rendi conto che quello che conta è avere qualcosa che sia, ancora una volta, più astratto, qualcosa che ti permetta di passare rapidamente ed efficientemente da un’istanza del problema alla successiva e di continuare a farlo. Il che significa una miriade di cose. Deve essere computazionalmente veloce, versatile in modo da poter esprimere soluzioni di varia natura. Dovrebbe essere piuttosto conveniente integrarlo nel resto del tuo applicative landscape.

Così vengono con molte preoccupazioni extra che, guardando alla tipica letteratura sull’ottimizzazione matematica, quelle preoccupazioni che ho appena menzionato non vengono nemmeno elencate. Puoi andare dalla prima pagina all’ultima del libro e in nessun punto si discute, per inciso, che questo metodo è super lento, impratico o che questo approccio è così rigido che al minimo cambiamento del modello dovresti scartarlo completamente e ricominciare da capo.

Oppure questo approccio è così soggetto a errori che, sì, in teoria potresti farlo in quel modo se fossi come la NASA e avessi ingegneri eccezionali e un decennio di tempo per affrontare il problema. Ma in pratica, se hai fretta e così via, non funzionerà mai. Quindi ci sono molte preoccupazioni meta che sono molto, molto importanti. E ancora, credo che esse possano riguardare il tipo di cose che stai facendo con Seeker e il modo in cui stai persino pensando a questa classe di problemi.

Meinolf Sellman: Sì. E intendo, se guardi indietro a quello che dicevi prima, che siamo sempre alla ricerca di una soluzione miracolosa, giusto? Quindi, Joannes, hai assolutamente ragione: quando le persone modellano il business, e probabilmente è questo che interessa al pubblico, si tratta di dire, ehi, come otteniamo risultati migliori, più tangibili per il business?

Sei, in una certa misura, costretto ad approssimare la vita reale nel computer e a simularla, giusto? In un modo o nell’altro, puoi considerare qualsiasi modello di ottimizzazione come una simulazione di: ehi, cosa succederebbe se facessi questo? E poi calcoli di certo cosa succederebbe, giusto? È ancora qualcosa che il piano può essere eseguito, cioè che definiremmo fattibile nella terminologia dell’ottimizzazione?

Quindi, rispetta tutti i vincoli secondari? È eseguibile. Ma poi, in secondo luogo, quanto è effettivamente buono, giusto? Questo, vale a dire la funzione obiettivo, che è il modo in cui misuriamo il KPI che stiamo cercando di ottimizzare. Sai, sarebbe meglio. Ma il punto ora è che, se corri in giro e l’unico strumento che conosci è un martello, ti ritroverai a piantare chiodi sopra le finestre per appendere le tende, a un certo punto.

E’ un’idea molto, molto sbagliata. E questo è in qualche modo ciò che fanno i tecnici del MIP quando si occupano di cose come la supply chain e l’ottimizzazione nell’incertezza in generale. Perché usano uno strumento fatto per l’ottimizzazione deterministica e, in tal senso, è assolutamente favoloso. Ma ti costringe a fare approssimazioni sia dal lato del determinismo contrapposto al non-determinismo o all’incertezza, dovrei dire, perché non-determinismo ha un altro significato in quel contesto.

Della linearizzazione di tutto, ci sono così tante relazioni in un’azienda che non sono affatto lineari. E poi la domanda è: ok, puoi in qualche modo approssimarlo? Puoi adattare una funzione lineare a tratti alla tua funzione non lineare? Puoi binarizzare le cose? È questo che sta succedendo?

Ora, per rendere questo concetto più tangibile per il pubblico, se gestisci un’azienda, ad esempio sei l’amministratore delegato di una società, certo, puoi semplicemente andare da Lokad e dire, “Ehi, lo compreremo da voi,” e loro si occuperanno della cosa. Ma supponiamo che tu abbia un’altra società che lo fa per te, o che tu abbia un tuo dipartimento che se ne occupa, cosa dovresti fare per ottenere operazioni migliori?

Così, potresti ora essere incuriosito e pensare, “Oh, c’è tutta un’altra faccenda e sai, un risparmio operativo del 20% sembra fantastico. Come faccio ad ottenerlo?” La prima cosa che devi fare è chiederti: “Qual è il nostro processo? È un processo di previsione e ottimizzazione?” Ma poi, in secondo luogo, anche: “Quali concessioni abbiamo fatto nel modellare il sistema reale con cui abbiamo a che fare? Dove stiamo approssimando?”

Quindi, per entrambi, quello che dovresti fare per vedere qual è la discrepanza è dire: “Ok, guarda, il tuo modello di ottimizzazione aveva una funzione obiettivo. Diceva che favorivo questa soluzione rispetto a quest’altra perché la mia funzione obiettivo, che dovrebbe approssimare il KPI reale, è migliore per questa soluzione rispetto a quella. Ora dimmi, per la soluzione ottimale, qual è il mio KPI atteso?”

E poi monitora, monitora e confronta tutto ciò con le soluzioni e i risultati reali che stai ottenendo nel tuo sistema. Quindi, se stai minimizzando i costi, monitora i costi e osserva la differenza tra ciò che il MIP pensava che i costi sarebbero stati e quelli reali. Oppure, se stai massimizzando il profitto, monitora anche quello. Ma il punto qui è questo: monitora, guarda la differenza tra ciò che è stato usato per prendere la decisione e ciò che poi effettivamente si materializza.

E ci sono due fonti per qualsiasi discrepanza. La prima è che sei stato costretto a far rientrare il tuo sistema in un quadro di modellizzazione troppo restrittivo. È una cosa negativa. Oppure, hai completamente ignorato il fatto che esiste incertezza ed è da lì che nasce la discrepanza. Se noti una discrepanza superiore al 5%, devi parlare con uno di noi.

Joannes Vermorel: E aggiungerei alla tua ricetta, e sono d’accordo con il processo di pensiero che hai appena delineato, che aggiungerei anche qualcosa che tipicamente consiglio già prima di questo processo. Quindi, qualcosa che, fin dall’inizio, perché c’era il problema degli strumenti sbagliati, ma direi che anche prima di ciò, c’è già il problema di avere concetti sbagliati, idee sbagliate.

Per fare un esempio, la nozione di fattibilità che si trova nella letteratura classica sull’ottimizzazione. Le persone direbbero: “Oh, c’è una soluzione che è fattibile o non fattibile.” Ok, facciamo un esempio concreto. È davvero qualcosa di così in bianco e nero?

Per fare un esempio, siamo in un magazzino e passiamo regolarmente ordini ai fornitori. E il magazzino ha una capacità finita per le ricezioni. Quindi, in un determinato giorno, supponiamo che possa ricevere al massimo 1.000 unità. Oltre a ciò, non puoi. E si accumula roba davanti al magazzino semplicemente perché le persone non possono portare dentro le scatole e così via.

Il problema è che, supponiamo tu stia passando ordini di acquisto a fornitori esteri. Non controlli esattamente le date di consegna. Sai che se organizzi le cose, in media, dovresti rispettare i tuoi vincoli. Ma comunque, potresti avere sfortuna e un ordine viene posticipato, un altro arriva un po’ prima, e poi, bam, ti ritrovi in un lunedì con 2.000 unità che arrivano lo stesso giorno. Ma quegli ordini sono stati effettuati circa un mese prima.

Quindi qui, vedi che si tratta di una situazione in cui, per ogni decisione presa, esiste la probabilità di ritrovarsi in una situazione non fattibile. Non è completamente sotto il tuo controllo. E quindi, è proprio in questo tipo di situazioni che dico che i concetti sbagliati sono pericolosi, perché quando analizzi la situazione con concetti un po’ superati, troppo rigidi o inappropriati, il problema è che non riesci nemmeno ad entrare nello stato d’animo intellettuale che ti permetterebbe di apprezzare ciò che il miglior strumento può realmente offrirti.

Quindi rimani bloccato con fattibile, non fattibile. Beh, una volta compreso che in realtà la fattibilità non dipende interamente da te, ovviamente ci sono cose che possono entrarci in conflitto. Per esempio, se ordini forniture da fornitori della stessa zona, lo stesso giorno, con la stessa quantità, agli stessi porti e così via, la probabilità che tutto arrivi alla tua porta esattamente nello stesso giorno è piuttosto alta. Quindi dovresti distribuirle, ma anche in quel caso c’è un certo rischio.

E questo accade in molti, molti contesti. Ed è un esempio. Quindi qui vediamo che ciò che di solito viene dato per scontato, la fattibilità, una soluzione fattibile, una soluzione non fattibile, non è esattamente così. Vedi, il concetto è un po’ fuori fuoco.

Un altro modo sarebbe service level. Le persone penserebbero in termini di service level, sì, ma è davvero questo ciò che percepiscono? È tipicamente qui che mi immergo nella discussione sulla qualità del servizio. E la qualità del servizio può includere la possibilità di cannibalizzazione delle sostituzioni o persino la volontà delle persone di posticipare. E all’improvviso ci ritroviamo con qualcosa di molto diverso.

E quando affronti direttamente il problema con i concetti che hai acquisito da questo mondo in cui l’incertezza non esiste, dove il tuo ottimizzatore è sempre classico, quindi non stocastico, la mia opinione è che molto probabilmente il percorso che proponi risulterà incomprensibile. Per questo motivo, solitamente incoraggio i miei potenziali clienti a fermarsi e a fare un esercizio di briefing, iniziando a guardare il mondo attraverso lenti diverse e prendendosi il tempo per considerare queste cose con un certo intuito, prima di tuffarsi nelle tecnicalità che possono essere molto distraenti perché sono un po’ tecniche, più è software, più è un po’ di matematica, e così via. E questo può essere una distrazione enorme, specialmente se hai fornitori concorrenti che lanciano in giro tonnellate di assurdità come: “Oh, vuoi fare tutto questo? Sai una cosa, ho la risposta per te, LLMs. E sai una cosa, avevi questa incertezza ma noi abbiamo LLMs, Large Language Models. Non crederai a quanto saranno buone quelle previsioni. E l’ottimizzazione con gli LLMs è così buona.”

È così? Ovviamente, quando le persone ci riflettono, “Ok, sto solo…” Sì, intendo dire che almeno da Lokad, quando parliamo con i potenziali clienti, il problema è che non parliamo mai da soli con il potenziale cliente. Ci sono tipo una mezza dozzina di altri fornitori che propongono le loro soluzioni e frequentemente stanno proponendo una miriade di sciocchezze. E quindi i potenziali clienti sono semplicemente sopraffatti da tutte quelle cose appariscenti e da quelle affermazioni stravaganti.

Conor Doherty: Beh, mi viene in mente che voi due avete fondamentalmente appena tracciato uno dei problemi chiave per convincere le persone ad adottare l’ottimizzazione stocastica e qualsiasi altra tecnologia in scatola nera. Potrebbe essere il forecasting probabilistico o qualsiasi cosa implichi matematica, insomma, c’è una certa barriera all’ingresso. E quindi, Meinolf, per tornare a te, in base alla tua esperienza, come provi a, visto che sei molto bravo a insegnare, come fai esattamente a far sentire le persone a loro agio nell’abbracciare il tipo di incertezza di cui abbiamo parlato per un’ora?

Meinolf Sellman: Potrebbe esserci un disallineamento cognitivo in questo momento con il pubblico, per cui pensano: “Ok, ci hai detto che le compagnie aeree stanno perdendo il controllo il giorno dell’operazione, ma per qualche motivo hanno adottato questa tecnologia per decenni. Perché diamine non usano le soluzioni di cui parlano Lokad e InsideOpt?” E la ragione è esattamente quella a cui fai riferimento.

Se volessi fare ottimizzazione stocastica per qualcosa come una compagnia aerea, aumenteresti la dimensione del problema a un punto tale da non essere più in grado di risolverlo. Le persone che lavorano nell’industria aerea e fanno ottimizzazione per essa sono molto esperte e sanno, naturalmente, dell’ottimizzazione stocastica e di quella tradizionale, ma quest’ultima è sempre stata basata sul MIP.

Non voglio entrare troppo nei dettagli tecnici qui, ma essenzialmente quando cerchi qualcosa, ci sono due modi per guardare. Uno è dire: “Oh, ho trovato qualcosa che è già buono. Vediamo se posso migliorarlo.” E l’altro modo è dire: “Non troverò mai qualcosa da questa parte.” Il MIP funziona dicendo: “Oh, non devo cercare da questa parte. Non può esserci qui,” e poi cerca altrove.

Ora, se il tuo spazio di ricerca è vasto, e se questo intero meccanismo che ti dice “Non devi cercare qui” non funziona molto bene, quindi è come dire, “Sembra che non ci sia nulla, ma non posso escluderlo del tutto,” allora continui a cercare ovunque, e diventa molto più efficace andare a cercare dove sembra già promettente, per così dire.

Quindi, se stai cercando di fare ottimizzazione stocastica con la programmazione a numeri interi misti, che funziona in questo modo in cui dici: “Oh, so che non può esserci nulla lì,” i tuoi cosiddetti limiti duali non saranno mai abbastanza buoni da ridurre lo spazio di ricerca a un punto in cui tu possa effettivamente permetterti di eseguire la ricerca. Ed è qui che le persone sono rimaste bloccate per 20-25 anni.

E adesso, esiste questo nuovo modo di fare le cose, che è sostanzialmente la ricerca basata su AI, che dice: “Guarda, non mi interessa se otterrò qualche limite di qualità per la soluzione che riceverò, ma ti assicuro, che trascorrerò tutto il mio tempo cercando di trovare la migliore soluzione possibile nel tempo a mia disposizione per svolgere il lavoro.” È molto pragmatico e pratico, ed ora esiste.

In quel contesto, ti liberi all’improvviso anche di tutte le altre catene cui prima dovevi far fronte, come dover linearizzare e binarizzare tutto. Tutte quelle cose sono sparite. Puoi fare ottimizzazione non differenziabile e non convessa con uno strumento come InsideOpt Seeker, e modellare questi problemi non è più un vero problema.

Ci sono un paio di altri vantaggi che ottieni, ovvero la parallelizzazione della programmazione a interi misti. Questo approccio branch and bound è molto difficile da realizzare. Gli acceleramenti che ottieni sono limitati. Sei fortunato se riesci ad avere un’accelerazione di cinque volte su una macchina ragionevolmente potente. Questa ricerca basata su AI beneficia davvero dell’impiego di 40-100 core per un problema.

E così, insieme allo sviluppo dell’hardware, questa potrebbe effettivamente essere la tecnologia migliore da utilizzare. Ma in sostanza, utilizzando un modo diverso di esplorare questi spazi vasti, permetti agli utenti di modellare il sistema reale in maniera molto più agevole rispetto a una grossolana approssimazione dello stesso.

E allo stesso tempo, gestire cose come l’ottimizzazione multi-obiettivo. Raramente importa un solo KPI, ce ne sono molti. Gestisci situazioni come: “Oh, voglio per lo più che questa regola sia rispettata qui, ma va bene se ogni tanto viene infranta.” Quindi, va bene se c’è uno scenario in cui tale visibilità non sussiste. Puoi modellarlo molto facilmente.

E naturalmente, puoi fare ottimizzazione stocastica, non solo nel senso di ottimizzare i ritorni attesi, ma puoi anche ottimizzare attivamente, vincolare, minimizzare il rischio associato alle tue soluzioni. Ed ecco il cambiamento di paradigma. Questo è ciò che, a mio avviso, guida Lokad e InsideOpt, nel dire: “Ehi, guarda, esiste un paradigma completamente nuovo che possiamo seguire, che ci permette di fare tutte queste cose che negli ultimi tre decenni erano impensabili.”

Conor Doherty: Joannes, stessa domanda.

Joannes Vermorel: Grazie. Sì, e vorrei anche sottolineare che, nei primi anni 2000, quando ho iniziato il mio dottorato, che poi non ho mai portato a termine, la cosa interessante è che la convinzione della comunità del machine learning e di quella dell’ottimizzazione riguardo ai problemi fondamentali dell’ottimizzazione si è rivelata completamente sbagliata.

Quando ero al dottorato, la convinzione era quella della maledizione della dimensionalità. Se hai un problema a altissima dimensionalità, non puoi ottimizzarlo. E ora, con i modelli deep learning, ci confrontiamo con modelli che hanno miliardi o addirittura trilioni di parametri. Quindi, a quanto pare, sì, possiamo ottimizzare i problemi, senza problemi.

Poi, si pensava che, se non è convesso, non si potesse fare nulla. Invece, si scopre che no, puoi fare moltissime cose anche se non è convesso. E in effetti, non abbiamo alcuna prova, ma se hai qualcosa che, secondo altri criteri, è abbastanza buono e utile, non importa veramente se non riesci a dimostrare che sia ottimale, purché tu abbia altri modi di ragionare sulla soluzione e possa dire: beh, non posso ragionare sull’ottimalità, ma so comunque che è una soluzione eccellente anche se non ho la prova matematica.

E poi c’era quella serie di approcci in cui, per molto tempo, l’unico modo in cui, quando si parlava di ottimizzazione stocastica, la gente diceva: “Oh, era quello di cui parlavi sull’aumento della dimensionalità. Vuol dire che stai per espandere in dettaglio mille scenari e considerarli come un’unica situazione da ottimizzare contemporaneamente.”

È semplicemente un’espansione macro. Prendi il tuo problema, lo espandi macroscopicamente in mille istanze, e ciò ti dà un problema mille volte più grande. E poi dici: “Va bene, ora sono tornato al punto di partenza. Posso effettivamente ottimizzarlo.” Ma facendo così, con i vecchi paradigmi branch and bound, avevi già una scalabilità pessima.

Quindi, se il tuo primo passo è quello di espandere il problema di un fattore di 1.000, diventerà assolutamente estremamente lento. E ciò che ha sorpreso, credo, per esempio, la comunità del deep learning è stata l’incredibile efficienza della discesa stocastica del gradiente, dove puoi semplicemente osservare le situazioni e regolare leggermente i parametri ogni volta che noti qualcosa.

E ci sono state molte intuizioni. E la cosa interessante che ho notato negli ultimi due decenni è che il machine learning e l’ottimizzazione sono progrediti fianco a fianco, in gran parte demolendo le convinzioni precedenti. È stato un processo molto interessante.

La maggior parte delle scoperte nel deep learning è arrivata grazie a strumenti di ottimizzazione migliori, a un uso più efficace dell’algebra lineare e delle GPU, a particolari tipi di hardware, e all’ottimizzazione matematica. Sempre più si utilizzano elementi delle tecniche di machine learning in cui non si vuole cercare in modo casuale.

Ci sono situazioni in cui dici: “Beh, queste cose qui, non posso dimostrare nulla, ma sembrano veramente pessime.” E, dato che sembrano assolutamente brutte, tutto questo ambito appare una vera schifezza, quindi devo cercare altrove. E anche altre considerazioni, come: “Ho già speso tanto tempo in quest’area cercando, quindi forse, anche se in generale è una buona zona, avendo già investito così tanto tempo lì, dovrei cercare altrove.”

Ed è proprio questo tipo di tecnica di ottimizzazione, che è molto, direi, orientata al machine learning nel suo modo di pensare. E secondo me, forse tra 20 anni ci sarà persino un unico dominio fuso, una sorta di ottimizzazione del machine learning, in cui non si farà più distinzione tra i due.

È una delle cose che ho seguito per due decenni, e ogni anno che passa vedo questa convergenza graduale. Ed è molto intrigante, perché sento che ci sono concetti che ancora mancano.

Meinolf Sellman: Sì, e mi soffermerò su una cosa che hai detto lì. Il machine learning è fantastico quando si hanno giochi ripetuti. È come contare le carte a blackjack. Non puoi garantire che vincerai, c’è sempre la possibilità che la previsione risulti sbagliata, ma se giochi a quel gioco ripetutamente, improvvisamente ottieni un grande vantaggio.

Ed è proprio per questo che ho detto prima: “Guarda, traccia i tuoi risultati operativi, il tuo profitto, i tuoi costi, o qualunque cosa tu stia facendo per un certo periodo di tempo.” Perché in un singolo giorno, la soluzione che hai eseguito potrebbe non essere corretta. È un po’ come se qualcuno dicesse: “Oh, lancerò questo dado, e se esce il quattro, perdi e devi pagarmi un dollaro per giocare. Ma se esce qualsiasi numero tranne il quattro, ti darò un milione di dollari.” E poi gli dai il dollaro, lanci il dado e esce il quattro. Era la decisione giusta farlo, vero? Perché se giochi a quel gioco ripetutamente con quella strategia, dato che il valore atteso è, ovviamente, altissimo e la perdita rimane gestibile, improvvisamente ottieni un vantaggio reale. Ed è proprio questo il punto quando usi il machine learning nell’ottimizzazione. Questo è esattamente il paradigma della ricerca basata su AI. Noi lo chiamiamo hyperreactive search. Non so come lo chiamate voi a Lokad, ma è esattamente questa idea, giusto?

Posso dire, per i tuoi problemi, che è proprio questo ciò che guida InsideOpt Seeker. Questo è ciò che il solver farà per te una volta che conosci il tuo modello e i problemi che stai risolvendo. E ogni giorno ti trovi ad affrontare questi problemi operativi su cui devi decidere: cosa andrò a tostare e dove oggi? Quanto inventario sposterò oggi e dove? E hai quelle istanze che devi gestire nel corso di molte settimane e giornate di produzione.

Poi chiedi al solver: “Ehi, guarda, analizza le tue strategie su come stai effettivamente esplorando questo spazio. Avresti potuto trovare soluzioni migliori se avessi cercato in modo diverso?” E poi esso valuterà esattamente le caratteristiche in runtime, come quella che hai menzionato, Joannes, tipo: “Oh, quanto tempo è passato da quando ho cercato altrove?” Quindi sembra che abbia esplorato a fondo quest’idea qui. Vediamo se riesco a fare qualcosa d’altro.

E altre similitudini. E quelle caratteristiche in runtime influenzano poi altre decisioni, come quante cose sono disposto a modificare contemporaneamente, giusto? Dovrei effettivamente avviare un’indagine? Quindi, se è molto recente che sono entrato in un certo spazio di ricerca, potrebbe essere un’ottima idea essere molto greedy, dicendo: “Ehi, ogni mossa migliorativa la prenderò subito per trovare una buona soluzione in quello spazio.”

Ma poi, dopo un po’, se ci rimani dentro abbastanza a lungo, ti dici: “Beh, devo allargare un po’ i miei orizzonti qui, perché potrei essere bloccato in qualcosa che è ottimale solo localmente, mentre globalmente avrei potuto impostare altre variabili molto meglio, ottenendo così un risultato migliore.” Ed è proprio questo il cambiamento di paradigma attuale, giusto? Quindi si passa dall’idea di “Riuscire a rilevare rapidamente che non c’è nulla qui” a “Imparare a cercare meglio.” Ed è questa la rivoluzione.

Joannes Vermorel: Per saltare al discorso della ricerca AI. Sì, assolutamente. E soprattutto con il genere di problema che Lokad sta risolvendo per i nostri clienti, la maggior parte delle supply chain può essere affrontata in maniera estensiva con un approccio greedy, non fino in fondo, ma estensivamente. E ci sono una sorta di ragioni darwiniane per questo. Se c’erano situazioni supply chain che erano davvero, direi, antitetiche a un approccio greedy, sono già state eliminate, perché le aziende non avevano il lusso di disporre di strumenti di ottimizzazione super sofisticati.

Quindi avevano bisogno, e molto spesso questo costituiva letteralmente un criterio di progettazione, vale a dire: “Posso impostare la mia supply chain e i miei processi in modo da potermi muovere nella giusta direzione e restare comunque al sicuro?” Questo era tipicamente il principio guida a livello di progettazione. E poi, infatti, quando ti addentri nei dettagli, ti rendi conto che, sì, potresti restare bloccato in alcuni punti critici anche se, direzionalmente, sei ancora a posto.

Quindi, tipicamente, sì, Lokad si affida ampiamente alla prospettiva greedy, arrivando fino all’utilizzo dei gradienti quando disponibili. E poi, effettivamente, esegue le ottimizzazioni locali una volta giunti nella fase finale in cui vuoi effettuare micro aggiustamenti e magari ottenere un po’ più di resilienza. Quindi, se puoi fare qualche aggiustamento che non ti costa molto ma che ti offre molta più flessibilità operativa, questo rende le cose più concrete per il pubblico.

Diciamo, per esempio, che gestisci un magazzino. Pensi che ci sia, diciamo, uno 0,1% di possibilità di rimanere senza cartone da imballaggio per spedire le tue cose. Potrebbe sembrare un evento a bassa probabilità, ma d’altra parte, è davvero assurdo dover chiudere il magazzino solo perché ti manca un cartone, che è super economico. Quindi diresti: “Va bene, è così poco che sì, procuriamoci un paio di mesi di cartone extra.”

Poiché, essendo piegati, occupano pochissimo spazio e sono super economici. Quindi, in situazioni come queste, un po’ di ottimizzazione extra porterebbe le persone a dire: “Oh, abbiamo un lead time di tre giorni per quei cartoni. Abbiamo già un mese di scorte.” E le persone direbbero: “Oh, è sufficiente. Non serve altro.” E poi fai la simulazione e dici: “Sai una cosa? Hai comunque questo rischio dello 0,1%. È davvero sciocco. Dovresti avere circa tre mesi di scorte.”

E dire: “Va bene, è super economico, ma sembra davvero tanto.” Però dire: “Beh, è super economico, non occupa molto spazio. E perché rischiarlo?” Sai, sono proprio quelle situazioni un po’ controintuitive in cui ti rendi conto che, sì, questo accade solo una volta ogni pochi anni. Ma poi, ci sono molte cose che si verificano una volta ogni pochi anni.

Ed è qui che avere una buona ottimizzazione che ti permetta di coprire quei casi così rari, al punto che per la mente umana sembrano appartenere a un’altra vita. Voglio dire, le persone cambiano. Raramente restano due decenni nello stesso lavoro. Probabilmente, quindi, qualcosa che accade una volta ogni tre anni, il responsabile del magazzino non l’ha mai visto. I team, la maggior parte delle persone, non ricordano nemmeno di averlo visto.

Quindi c’è un limite a ciò che puoi percepire quando qualcosa è al di sotto della soglia di percezione perché troppo raro. Eppure è estremo. Ci sono così tante cose differenti che, messe insieme, ti fanno capire che non si tratta solo dello 0,1% più qualche altra cosa a zero, più un’altra cosa. Aggiungi dozzine su dozzine, e a fine giornata ti ritrovi con una situazione in cui, ogni mese, c’è uno di quei problemi che avrebbero potuto essere evitati se avessi realmente preso in considerazione il rischio.

Ma è un po’ controintuitivo, perché comporta una spesa leggermente maggiore in vari ambiti. Perché l’extra? Beh, l’extra è perché, anche se raro, quasi certamente incorrerai in problemi se non lo fai.

Meinolf Sellman: Sì, ed è proprio in questo che cadi quando hai effettivamente una soluzione provata come ottimale. Sembra: “Va bene, guarda, questa è la mia soluzione dimostrabilmente ottimale, e ho buone previsioni.” Ma ora, se le previsioni sono leggermente errate, quella soluzione provata come ottimale, perché ha spremuto ogni singolo centesimo dalla soluzione, risulta estremamente fragile. E subito prima e dopo quella previsione, le prestazioni calano e sono pessime.

E vuoi una tecnologia che ti permetta di dire: “Guarda, sì, il tuo profitto atteso è inferiore di 80 centesimi, ma ora il rischio di dover chiudere il magazzino è ridotto del 75%. Affare, vero?” È un affare da concludere. Ed è esattamente quel tipo di compromessi che vuoi che la tecnologia scopra per te, perché è davvero, davvero difficile dire: “Va bene, lascia che limiti una cosa e ottimizzi l’altra,” perché poi ti imbatti in un altro trade-off trap.

Vuoi poter dire: “Guarda, ho tutte queste preoccupazioni. Prova a trovare un buon compromesso. Trovami l’assicurazione più economica contro un certo evento.” E questo in qualche modo, sai, forse chiude il cerchio su quanto sia difficile orientarsi nel prendere decisioni e gestire l’incertezza.

Ma in sostanza è proprio questo. L’idea sbagliata è che se avessi una soluzione ottimale per un futuro previsto, probabilmente funzionerebbe anche ragionevolmente bene per futuri che sono solo lievi derivazioni di tale scenario. E questo non è affatto vero. Devi cercare attivamente un eccellente piano operativo di compromesso che sia efficace per una grande massa di probabilità di futuri che potrebbero effettivamente verificarsi. E lo vuoi in modo tale che bilanci in maniera ragionevole il tuo rischio e i tuoi rendimenti attesi.

Conor Doherty: Correggimi se sbaglio, ma l’obiettivo finale dell’ottimizzazione stocastica sarebbe trovare, immagino, il compromesso ottimale o la decisione ottimale che bilancia tutti i vincoli e tutti i compromessi che devi affrontare. E non si tratta della decisione perfetta, ma sarebbe il miglior compromesso per soddisfare tutte le decisioni o tutti i problemi separati, giusto?

Meinolf Sellman: Corretto. Potremmo farlo matematicamente, ma non voglio condurre le persone lungo quella strada. Il punto è questo: se avessi saputo esattamente cosa sarebbe successo, molto spesso ci sarebbe stata una soluzione migliore che avresti potuto adottare. Ma in assenza di una conoscenza perfetta del futuro – e intendo perfetta, non solo, sai, al 99,9% – bisogna optare per un compromesso che sia sostanzialmente valido per tutte le diverse possibilità che potrebbero verificarsi.

Ed è esattamente ciò che l’ottimizzazione stocastica fa per te. E così rimuove la fragilità. Potremmo dire che si tratta di ottimizzazione robusta, ma quel termine è troppo tecnico, quindi in realtà non possiamo usarlo. Ma è questo che si intende, giusto? Vuoi eliminare l’instabilità, vuoi rimuovere la fragilità dalle tue operazioni. Avere risultati molto affidabili, continui e ripetuti. Questo è ciò che l’ottimizzazione stocastica ti garantirà. E allo stesso tempo, i tuoi profitti attesi aumenteranno oltre quanto pensavi fosse possibile.

Perché se ti basi solo sulle prestazioni della cross-validation e sull’ottimalità dimostrabile, perdi completamente di vista il punto. Quello che pensi sia il costo di non conoscere perfettamente il futuro, è il costo di presumere nell’ottimizzazione, è il costo di supporre di conoscere il futuro perfettamente. Questo è ciò che lo rende fragile, ovvero assumere che quella previsione sia corretta al 100%. Ed è così che funziona la tecnologia dell’ottimizzazione tradizionale, e devi abbandonarla per iniziare a lavorare con tecnologie moderne in modo da ridurre i costi operativi del 20%, facilmente.

Conor Doherty: Bene, grazie. Penso che stiamo quasi per concludere. Joannes, ti lascio l’ultimo commento e poi passerò la parola a Meinolf per chiudere. Vuoi aggiungere qualcosa?

Joannes Vermorel: Voglio dire, sì, la cosa intrigante è che il miglior supply chain, per come appare, e le migliori decisioni, quelle aggiustate in base al rischio, sono quelle in cui l’azienda continua a funzionare in modo regolare, dove non c’è, direi, nessuna decisione disastrosa assolutamente critica che faccia crollare tutto.

Ed è lì che la gente si aspetterebbe, sai, che il piano di supply chain più brillante di sempre sarebbe identificare quel prodotto completamente ignorato dal mercato e dire, sai una cosa, dobbiamo puntare tutto su questo prodotto di nicchia e, bam, vendere un milione di unità mentre nessuno se ne accorgeva. Io dico che questo è magico. No, intendo, forse ci sono imprenditori in stile Steve Jobs che possono farlo, ma è semplicemente quasi impossibile.

Quindi l’idea che si possa catturare il futuro, identificare la pepita d’oro, l’opportunità simile a bitcoin, e puntare tutto su di essa per fare una fortuna, è davvero ridicola. Quello che, a mio avviso, caratterizza una gestione eccellente della supply chain è che essa funziona in modo regolare. Si prendono decisioni consapevoli del rischio in modo tale che, quando la situazione è negativa, lo sia solo moderatamente. Quando è positiva, per la maggior parte dei casi è molto buona, risultando così solidamente redditizia. E quando è negativa, è limitata e non disastrosa.

E quando rivedi una decisione, sai, torni indietro nel tempo e la osservi, e pensi: sì, se avessi saputo, avrei fatto diversamente. Ma se faccio un esercizio onesto per cercare di rimettermi nelle condizioni delle informazioni che avevo al momento, diresti: sì, all’epoca è stata una scelta ragionevole. E non confondere, non lasciare che il senno di poi inquini il tuo giudizio, perché sarebbe molto dannoso.

E sapevo, per esempio, che alcuni dei nostri clienti – ora non lo fanno più – in ambito aerospaziale, dopo ogni singolo incidente AOG (aircraft on ground), ovvero quando manca un pezzo e l’aereo non può più volare, conducevano un’intera indagine post mortem. Ma la realtà era che, quando hai circa 300.000 SKU da tenere in magazzino per mantenere gli aeromobili in volo continuamente, avere dei pezzi fuori stock, specialmente quando alcuni costano mezzo milione di dollari o più per unità, è abbastanza accettabile non averli sempre a disposizione.

Quello che abbiamo osservato è che, per esempio, per questi AOG, tutto era esattamente come previsto in base alla struttura del rischio dei loro stock. Quindi non aveva senso effettuare alcun tipo di indagine. E questo sarebbe il mio pensiero conclusivo: probabilmente il punto di vendita più difficile dell’ottimizzazione stocastica è che è piuttosto poco spettacolare. È semplicemente qualcosa che, beh, funziona in modo regolare. I problemi sono molto meno gravi, i successi sono meno estremi ma molto più frequenti.

Ma, ancora, cosa ricordi? Ricordi una squadra di calcio che vince costantemente, il 60-70% delle sue partite negli ultimi 30 anni? Oppure ricordi quella squadra che perde tutte le partite, ma a catena vince 10 partite contro le squadre più prestigiose? Quindi, ovviamente, ricorderesti quella striscia di successi assolutamente eccezionali e diresti: oh, è stato incredibile. E dimenticheresti completamente il percorso piuttosto noioso in cui, in media, si eccelle, ma che resta comunque nella media.

Vedi, questa è la mia impressione. E penso che faccia parte dell’accettazione del fatto che ciò che otterrai dall’ottimizzazione stocastica sono decisioni semplici, poco impressionanti, che risultano essere piuttosto buone in media. Quando sono negative, sono solo leggermente negative, niente di grave, sai, non perderai la camicia. C’è un sacco di gestione dei danni in atto.

E dunque, voglio dire, la cosa divertente è che noi in Lokad, quando discutiamo con i nostri clienti, molto spesso, dopo alcuni anni di produzione, hanno in realtà poco da dire. Sai, il complimento – non il peggiore, ma il migliore in un certo senso – è: “Sai una cosa, siete così tranquilli che stiamo un po’ de-priorizzando la supply chain nella nostra lista di preoccupazioni. È come avere accesso all’acqua corrente, è così ordinario che non serve prestare troppa attenzione, funziona semplicemente.” E va bene, sai, non siamo così perfetti, ovviamente le supply chain non sono tranquille come la fornitura d’acqua, almeno non ancora, ma c’è questa sensazione.

Conor Doherty: Bene, grazie Joannes. Meinolf, come da prassi, diamo la parola finale all’ospite. Quindi, la parola è tua, e poi concluderemo, per favore.

Meinolf Sellman: Sì, beh, grazie ancora per avermi invitato, Conor e Joannes. Solo per riprendere quanto diceva Joannes, spesso scopriamo che i nostri team operativi sono sorpresi, mentre i loro clienti non lo sono per niente. Ed è esattamente questo ciò che si desidera. I team operativi sono sorpresi che improvvisamente le cose possano funzionare così senza intoppi, dove prima c’era, sai, una giornata infernale a settimana, e all’improvviso, dopo due mesi, ti rendi conto che, semplicemente, tutto funziona, senza follie o pazzia.

Ma la cosa più importante è che i loro clienti non rimangono più sorpresi, perché improvvisamente non si trovano senza servizio o simili. Ed è per questo che esiste la tua azienda, ed è per questo che dovresti utilizzare questo tipo di tecnologia per gestire le tue operazioni, perché non vuoi sorprendere negativamente i tuoi clienti. E poi potrai bere un margarita molto noioso su una bella isola e goderti i tuoi rendimenti medi con una varianza molto bassa.

Conor Doherty: Bene, signori, non ho altre domande. Joannes, ti ringrazio molto per il tuo tempo. Meinolf, è stato un vero piacere, e grazie per essere stato con noi. E grazie a tutti per averci seguito. Speriamo di rivedervi la prossima volta.