00:00:06 Introduzione allo sviluppo generazionale dell’apprendimento automatico.
00:00:38 1a gen: algoritmi statistici di previsione degli anni ‘50/‘60.
00:03:26 Transizione alla 2a gen: modelli non parametrici della fine degli anni ‘80/‘90.
00:06:20 Convergenza tra statistica e apprendimento automatico.
00:07:55 L’impatto dei miglioramenti tecnologici sull’evoluzione dell’apprendimento automatico.
00:09:54 L’effetto del deep learning sulla previsione, in contrasto con l’apprendimento automatico standard.
00:11:31 Modelli parametrici, evitando l’overfitting del deep learning.
00:13:01 La relazione del deep learning con l’hardware, le GPU, l’algebra lineare.
00:14:50 Il ruolo del cloud computing nell’elaborazione dei dati del deep learning.
00:16:01 Le sfide delle GPU, i vantaggi del cloud computing per la previsione in supply chain.
00:17:22 Il futuro dell’apprendimento automatico: l’ascesa della programmazione differenziabile.
00:19:13 Investimenti in ML nell’industria della supply chain, adattamento al big data.
00:22:44 Il ritmo dei cambiamenti tecnologici, l’adattamento dei dirigenti della supply chain.
00:25:24 Conclusione: l’importanza del SaaS e del cloud computing nell’evoluzione tecnologica.

Sommario

In un’intervista, il fondatore di Lokad Joannes Vermorel ha discusso la storia del machine learning (ML), dalle sue origini negli algoritmi di previsione delle serie temporali degli anni ‘50 fino all’avvento del deep learning. Ha sottolineato le applicazioni dell’ML nella supply chain management, specialità della sua azienda. Vermorel ha delineato la progressione da modelli semplici, basati sui dati, a modelli statistici non parametrici capaci di apprendere qualsiasi schema se forniti di dati sufficienti. La conversazione ha trattato le tappe fondamentali dell’ML, il ruolo della tecnologia e la sfida dell’overfitting. Vermorel ha previsto sviluppi futuri nell’ML, inclusa la programmazione differenziabile, e il continuo interesse per il riconoscimento vocale e delle immagini. Ha concluso sostenendo il Software as a Service per aiutare i supply chain executives a tenere il passo con il rapido cambiamento tecnologico.

Sommario Esteso

L’intervista tra il presentatore Kieran Chandler e Joannes Vermorel, fondatore di Lokad, approfondisce l’evoluzione e lo sviluppo dell’apprendimento automatico, con particolare enfasi sulla sua applicazione nel supply chain management.

Vermorel suggerisce che le origini dell’apprendimento automatico risalgano agli anni ‘50 e ‘60, con l’emergere dei primi algoritmi di previsione delle serie temporali. Questi algoritmi, pur non essendo tradizionalmente riconosciuti come apprendimento automatico al loro inizio, presentavano caratteristiche fondamentali dell’apprendimento automatico, come essere guidati dai dati, statistici e progettati per apprendere schemi dai dati. Vermorel sottolinea inoltre che l’uso iniziale di questi algoritmi era strettamente legato all’ottimizzazione della supply chain, un settore in cui la sua azienda, Lokad, è specializzata oggi.

Per quanto riguarda i metodi specifici utilizzati in questa fase iniziale dell’apprendimento automatico, Vermorel cita diversi che sarebbero familiari ai practitioner della supply chain. Questi includono le medie mobili, il smorzamento esponenziale e modelli più complessi come il modello Holt-Winters e i metodi Box-Jenkins. Egli caratterizza questi algoritmi iniziali come relativamente semplici, progettati principalmente per soddisfare le capacità computazionali dei computer disponibili in quel periodo. Questi primi modelli dovevano essere rapidi ed efficienti, capaci di elaborare centinaia di punti dati con migliaia di operazioni, nei limiti di una potenza di calcolo e memoria limitate.

Spostando la conversazione verso la progressione dell’apprendimento automatico, Vermorel afferma che il prossimo salto significativo si è verificato alla fine degli anni ‘80 e all’inizio degli anni ‘90, segnato dall’emergere di modelli statistici non parametrici. Questa evoluzione dai modelli parametrici della prima generazione, caratterizzati da un numero fisso di parametri regolabili (tipicamente non superiore a una dozzina), ha rappresentato uno sviluppo fondamentale.

I modelli parametrici, limitati dai loro parametri fissi, potevano adattarsi solo a un certo intervallo di schemi dei dati. Al contrario, i modelli non parametrici non avevano una forma prestabilita, permettendo loro di apprendere potenzialmente qualsiasi schema, a condizione che vi fossero dati sufficienti. Questo cambiamento ha segnato una svolta nelle capacità e nella flessibilità dell’apprendimento automatico, fornendo la base per le applicazioni di apprendimento automatico più complesse e versatili viste oggi.

Vermorel inizia evidenziando la sfida dell’overfitting nei primi modelli di previsione, dove l’aumento del numero di parametri poteva portare a modelli che si adattavano perfettamente ai dati storici ma non offrivano capacità predittive per il futuro. Questo è stato un grande enigma nel campo per decenni, fino alla fine degli anni ‘90, quando soluzioni soddisfacenti sono emerse con l’avvento dei modelli non parametrici.

Successivamente, discute dei due schieramenti nel campo che sono emersi in quel periodo: l’apprendimento statistico e l’apprendimento automatico. Il primo comprendeva matematici che si occupavano di statistica con l’uso intensivo dei computer, mentre il secondo era composto da professionisti dell’informatica che gradualmente si orientavano verso algoritmi statistici. Egli osserva che queste prospettive hanno dato origine a stili di modellazione differenti. Ad esempio, il campo dell’apprendimento statistico favoriva le support vector machines, un modello ben compreso matematicamente. D’altra parte, il campo dell’apprendimento automatico era più attratto dalle reti neurali, che richiedevano molta manipolazione numerica.

Chandler poi indirizza la conversazione verso il ruolo della tecnologia nell’evoluzione di questi campi. Vermorel menziona una svolta significativa alla fine degli anni ‘90, l’idea che più dati portano a risultati migliori. Questo concetto si estendeva non solo a serie temporali più lunghe, ma anche a set di dati più diversificati. Inizialmente, questo approccio era un processo lento poiché richiedeva l’accumulo di ulteriore storia. Tuttavia, i progressi nell’apprendimento automatico e nell’apprendimento statistico hanno permesso di sfruttare i dati di un maggior numero di prodotti, portando a previsioni della domanda più accurate.

Vermorel cita l’introduzione di modelli come le support vector machines alla fine degli anni ‘90 e le random forests all’inizio degli anni 2000 come tappe significative nell’acquisizione di informazioni da set di dati più ampi e diversificati.

La discussione si sposta quindi sull’avvento del deep learning. Vermorel spiega che l’accumulo graduale di intuizioni critiche ha reso il deep learning notevolmente diverso dall’apprendimento automatico standard. Uno dei principali vantaggi del deep learning è la sua capacità di apprendere funzioni più complesse con meno dati rispetto agli algoritmi di apprendimento superficiale.

È interessante notare che Vermorel evidenzia come il deep learning non superi necessariamente gli algoritmi classici su set di dati di piccole dimensioni. Tuttavia, esso eccelle quando si tratta di set di dati molto grandi, dove gli algoritmi di apprendimento superficiale non riescono a sfruttare l’informazione aggiuntiva disponibile.

In una svolta sorprendente, il deep learning ha fatto ritorno all’uso di modelli parametrici, sebbene con milioni di parametri, a differenza dei primi modelli parametrici che avevano un numero fisso di parametri. La sfida qui era evitare un overfitting massiccio, superata attraverso una serie di tecniche intelligenti.

Vermorel ha discusso ulteriormente il ruolo delle Graphical Processing Units (GPU) nell’avanzamento dell’apprendimento automatico. Queste sono essenziali per le attività di deep learning, ma sono costose e richiedono molta energia. Le piattaforme di cloud computing hanno alleviato questo problema fornendo GPU farm on demand, affrontando efficacemente le problematiche dei costi e del consumo energetico. Questo è stato particolarmente vantaggioso per l’ottimizzazione della supply chain, dove le previsioni statistiche vengono eseguite tipicamente una volta al giorno, richiedendo l’allocazione delle GPU per una breve durata.

Passando al futuro dell’apprendimento automatico, Vermorel ha previsto un ritorno ai modelli non parametrici all’interno dello spettro del deep learning. Ha indicato un nuovo approccio, la “programmazione differenziabile”, in cui la struttura del modello di deep learning viene modificata durante la fase di apprendimento. Questo approccio dinamico potrebbe rappresentare la prossima fase significativa nell’apprendimento automatico e nell’apprendimento statistico.

Quando gli è stato chiesto in cosa si concentrassero attualmente le grandi aziende tecnologiche, Vermorel ha menzionato che il riconoscimento vocale, la sintesi vocale, il riconoscimento delle immagini e la traduzione automatica stanno ricevendo investimenti sostanziali. Queste sono aree core della ricerca e dello sviluppo, che guidano il futuro dell’apprendimento automatico. Tuttavia, le aziende della supply chain, inclusa Lokad, sono leggermente indietro, poiché non dispongono delle risorse per investire pesantemente nelle tecnologie di apprendimento automatico.

L’ottimizzazione della supply chain presenta sfide uniche per l’applicazione dell’apprendimento automatico, in particolare perché gestisce blocchi di dati più piccoli rispetto ad altri campi come l’elaborazione delle immagini. Ciò richiede un utilizzo equilibrato sia delle CPU che delle GPU.

Chandler ha poi sollevato la questione del rapido cambiamento tecnologico e la sfida che questo pone ai supply chain executives, i quali rischiano che le soluzioni implementate diventino rapidamente obsolete. Vermorel ha consigliato che il Software as a Service (SaaS) potrebbe essere una soluzione valida. Ha evidenziato Lokad come esempio di fornitore SaaS che aggiorna e ottimizza costantemente i propri servizi, alleviando così il carico sui loro clienti.

Trascrizione Completa

Kieran Chandler: Oggi su Lokad TV, torneremo all’inizio per indagare sullo sviluppo generazionale dell’apprendimento automatico e capire se questo progresso graduale può darci qualche indicazione su ciò che il futuro dell’apprendimento automatico potrebbe riservare. Quindi, Joannes, come appariva questa prima generazione di apprendimento automatico? Quando è emersa?

Joannes Vermorel: È interessante notare che direi che i primi algoritmi di apprendimento automatico erano, in un certo senso, legati al supply chain grazie al primissimo algoritmo di previsione delle serie temporali emerso negli anni ‘50 e ‘60. Conteneva tutti gli ingredienti fondamentali: era guidato dai dati, statistico e, in effetti, cercava di apprendere schemi dai dati. All’epoca, la gente non lo definiva apprendimento automatico; erano semplicemente algoritmi di previsione. Ma tutti gli ingredienti erano presenti.

Kieran Chandler: Quindi, che tipo di metodi venivano utilizzati? Voglio dire, la maggior parte dei practitioner della supply chain li conosce, giusto?

Joannes Vermorel: Conoscevano le medie mobili, il smorzamento esponenziale, e poi c’erano metodi più sofisticati di quell’epoca, come il modello Holt-Winters, i modelli Box-Jenkins, ecc. Quindi, una serie di algoritmi relativamente semplici emerse proprio all’inizio dell’era dei computer. È interessante vedere che non appena le aziende hanno avuto a disposizione i computer, questi venivano effettivamente usati per ottimizzare supply chains, anche se per scopi relativamente modesti.

Kieran Chandler: All’epoca, le cose erano molto diverse nel mondo dell’analisi computazionale. Qual era il focus principale in quei giorni?

Joannes Vermorel: Il focus principale era sul disporre di così poca potenza di elaborazione, memoria e capacità di eseguire un gran numero di calcoli. Tutti quei modelli di prima generazione, risalenti agli anni ‘60 e ‘70, erano orientati a essere super veloci. Ciò significa che se avevi 100 punti dati da elaborare, avresti a disposizione solo qualche migliaio di operazioni su quei dati. Questi algoritmi erano progettati per macchine che disponevano di soli kilobyte di memoria e frequenze di processore inferiori a 1 MHz.

Kieran Chandler: Immagino che all’epoca le risorse applicate all’analisi computazionale fossero molto inferiori rispetto ad oggi, dove ci sono centinaia di migliaia di persone che ci lavorano. Quanto ci è voluto perché arrivasse la generazione successiva? Ci è voluto molto tempo?

Joannes Vermorel: È stata un’evoluzione graduale. Abbiamo avuto la prima ondata di modelli che emerse negli anni ‘60 e ‘70, e erano tutti modelli parametrici. Questi erano modelli statistici con un numero fisso di parametri, tipicamente non superiore a una dozzina.

Kieran Chandler: Cosa significa, un parametro?

Joannes Vermorel: Un parametro è come un numero. Quindi, il tuo modello statistico aveva un paio di numeri che potevi regolare affinché il modello si adattasse ai dati. L’essenza della fase di apprendimento è trovare quei parametri. Tipicamente, ne avevi circa mezza dozzina, forse fino a una dozzina per i modelli più sofisticati, e basta. Ciò che accadde alla fine degli anni ‘80 e, in particolare, negli anni ‘90 fu l’emergere di modelli statistici non parametrici. Questo fu interessante perché la prima generazione di modelli non poteva adattarsi a nessun tipo di schema di serie temporali o a modelli di domanda; avevano un numero molto limitato di parametri, perciò erano molto limitati in ciò che potevano apprendere osservando i dati storici.

Kieran Chandler: La seconda generazione, il passaggio dai modelli parametrici a quelli non parametrici, è stato significativo. Se avevi dati sufficienti, potevi potenzialmente apprendere qualsiasi schema. Questa svolta alla fine degli anni ‘90 ha portato allo sviluppo di modelli con proprietà matematiche interessanti. Con un numero arbitrariamente grande di dati, potevi avvicinarti al miglior modello senza incorrere in problemi di overfitting. L’overfitting, ovviamente, si verifica quando aumenti il numero di parametri al punto che il modello si adatta perfettamente ai dati storici, ma perde la capacità predittiva per il futuro. L’overfitting è un problema sconcertante, riguarda avere un modello di previsione accurato sui dati che non possiedi. Questo problema ha confuso i decisori per decenni, finché alla fine degli anni ‘90 sono emerse soluzioni soddisfacenti con l’introduzione dei modelli non parametrici. Con questi modelli, abbiamo iniziato a vedere l’avvento dell’apprendimento automatico. Come è avvenuto e quale impatto ha avuto?

Joannes Vermorel: È interessante. In termini di terminologia, avevamo diversi schieramenti. C’era il campo del statistical learning, dove i matematici, che si occupavano di statistica, iniziarono a usare i computer in modo intensivo per supportare il loro lavoro. Dall’altro lato, il machine learning era l’opposto. Erano esperti di informatica a confrontarsi con questi tipi di problemi e, col tempo, si sono spostati gradualmente verso algoritmi statistici. Era più una questione di prospettiva.

Ad esempio, nel campo del statistical learning, c’erano le support vector machines, ben comprese da un punto di vista matematico, cosa che piaceva alla comunità statistica più accanita. Dall’altro lato, c’erano le neural networks, un sacco di elaborazione numerica che attraeva la comunità del machine learning. Queste erano diverse prospettive sul dominio, e gradualmente si sono converge.

Kieran Chandler: Indipendentemente dallo schieramento a cui appartenevi, ciò che evolveva intorno a te era la tecnologia e le capacità di ciò che potevi realizzare con essa. Quindi, quali sono stati i miglioramenti tecnologici significativi e le scoperte che hanno davvero reso possibile tutto ciò?

Joannes Vermorel: La svolta alla fine degli anni ‘90 fu l’idea che, se avevi più dati, avresti ottenuto risultati migliori. E non intendo solo serie storiche più lunghe, ma anche un maggior numero di serie storiche. Per la supply chain, questo significa: riesci a ottenere una previsione della domanda più accurata solo perché hai più storia? Ma il problema è che, se vuoi avere una storia delle vendite di un anno o più, devi aspettare un altro anno, il che è un processo molto lento. Inoltre, con i nuovi prodotti lanciati e alcuni prodotti in fase di eliminazione, non si ottiene mai molta storia.

Ci sono state alcune scoperte nella capacità di sfruttare più dati da più prodotti. Questo non si è verificato alla fine degli anni ‘90; è avvenuto più negli anni 2000. Ciò che l’ha reso possibile sono state le innovazioni nel machine learning e nel statistical learning, tutte legate a quei modelli non parametrici.

Ci fu una serie di modelli statistici che rappresentarono delle innovazioni, come le support vector machines, pubblicate intorno al ‘96 con un’implementazione funzionante entro il ‘98, e poi le random forests intorno al 2001. Questi modelli hanno iniziato a funzionare molto bene nel catturare informazioni da dataset più grandi con maggiore diversità in termini di caratteristiche.

Kieran Chandler: Deep learning, qual è stato l’impatto di questo e qual è stata la differenza fondamentale tra il deep learning e il semplice machine learning standard?

Joannes Vermorel: È interessante perché il deep learning è la combinazione di probabilmente una dozzina di intuizioni critiche, ma tutto è avvenuto in modo molto graduale. Mettendo insieme tutte queste cose, ha fatto davvero una grande differenza. Uno dei vantaggi chiave del deep learning è la capacità di apprendere funzioni più complesse con meno dati. Il problema con gli algoritmi di machine learning di seconda generazione, come il shallow learning, è che possono apprendere qualsiasi schema statistico se forniti di abbastanza dati, ma in pratica ci vuole una quantità enorme di dati per arrivarci, cosa completamente impraticabile. Il deep learning, in un certo senso, è stato in grado di sfruttare meglio dataset molto grandi.

Innanzitutto, il deep learning non supera necessariamente gli algoritmi classici sui dataset piccoli, ma quando i dataset diventano molto grandi, quegli algoritmi di shallow learning non riescono veramente a sfruttare tutta quell’informazione extra che è disponibile, mentre il deep learning sì. Allora, cosa rende il deep learning diverso? Torniamo ai modelli parametrici, usati già negli anni ‘50 o ‘60. Questi hanno un numero fisso di parametri, e poi siamo passati a modelli non parametrici dove il numero di parametri è dinamico. Successivamente, con il deep learning, torniamo ai modelli parametrici, ma la grande differenza è che questi modelli hanno milioni di parametri. I nostri modelli possono avere fino a 20 milioni di parametri.

Per evitare un massiccio overfitting, sono stati scoperti una serie di trucchi molto intelligenti nell’ambito del deep learning. Un altro ingrediente chiave è stato considerare modelli statistici che avessero la massima affinità con l’hardware informatico a disposizione, come le GPU (graphic processing units), le quali sono molto efficienti nell’algebra lineare. Uno dei trucchi computazionali del deep learning è riportare tutto all’algebra lineare. Passando dai calcoli sulla CPU a quelli sulla GPU, abbiamo guadagnato due ordini di grandezza in potenza computazionale, rendendo possibile molte cose che prima non lo erano.

Kieran Chandler: Parli del progresso dell’hardware e della capacità di elaborazione, quali sono stati gli altri miglioramenti tecnici nell’industria che hanno reso tutto questo possibile? E come si inserisce in tutto questo l’avvento del cloud?

Joannes Vermorel: Il cloud ha davvero facilitato l’aggregazione di tutti i dati. Se vuoi che il deep learning sia veramente interessante, hai bisogno di molti dati. Spostare terabyte di dati è in realtà molto più facile con il cloud.

Kieran Chandler: Sembra che le piattaforme di cloud computing abbiano semplificato le cose per tutti. Ad esempio, non devi più preoccuparti delle quote disco o della gestione manuale dello storage su più dischi fisici. È corretto?

Joannes Vermorel: Assolutamente. Le piattaforme di cloud computing hanno eliminato molti dei processi manuali associati alla gestione dello storage. Inoltre, hanno facilitato la consolidazione di tutti gli strati necessari per il deep learning.

Kieran Chandler: E per quanto riguarda il costo del deep learning e delle GPU? Sono piuttosto costosi e consumano molta energia, vero?

Joannes Vermorel: Infatti, le schede grafiche possono facilmente consumare tra i 400 e i 500 watt. Se ne hai multiple, può diventare un problema elettrico. Tuttavia, il cloud computing ha alleviato questo problema offrendo GPU on-demand. Nel caso specifico della supply chain, è molto conveniente perché, tipicamente, devi fare la tua previsione statistica solo una volta al giorno. Puoi allocare le tue GPU per un’ora, eseguire tutti i calcoli e poi restituirle alla piattaforma di cloud computing che preferisci, sia che si tratti di Microsoft Azure, Amazon Web Services o Google Cloud.

Kieran Chandler: Il machine learning si è sviluppato gradualmente negli ultimi decenni. Possiamo trarre qualche indicazione da questo per prevedere il futuro del machine learning? Cosa possiamo aspettarci di vedere in seguito?

Joannes Vermorel: Curiosamente, tutto va a cicli. Abbiamo iniziato con i modelli parametrici e le previsioni delle serie storiche, poi siamo passati ai modelli non parametrici con i primi algoritmi generici di machine learning. Successivamente, siamo transitati ai modelli iperparametrici con il deep learning. Ora, ciò che sta emergendo sono di nuovo modelli non parametrici nello spettro del deep learning. Questi sono metodi di deep learning più sofisticati che adattano la struttura stessa del modello durante la fase di apprendimento. Se dovessi scommettere sulla parola d’ordine di domani, sarebbe “differentiable programming”. Questo approccio è simile al deep learning, ma è molto più dinamico nel modo in cui il modello viene costruito ed evolve durante la fase di apprendimento.

Kieran Chandler: Quindi, il differentiable programming è il nuovo termine di moda. L’industria della supply chain è spesso un po’ indietro rispetto ai quattro grandi in termini di ciò su cui si concentrano. Su cosa stanno investendo attualmente in ricerca e quali grandi sviluppi possiamo aspettarci nel prossimo anno o giù di lì?

Joannes Vermorel: Per quanto riguarda il machine learning, i grandi problemi in cui i giganti della tecnologia stanno investendo miliardi sono il riconoscimento vocale, la sintesi vocale, il riconoscimento delle immagini e la traduzione automatica del linguaggio naturale. Questi sono problemi fondamentali per l’apprendimento basato sull’informazione e sono in vantaggio in termini di ricerca e sviluppo. Le supply chain, comprese quelle che sviluppano software di machine learning, sono un po’ indietro. Nessuno nel settore della supply chain ha le risorse per investire un miliardo di dollari all’anno per ottenere previsioni migliori.

Kieran Chandler: C’è stato un investimento sostanziale nelle previsioni, ma sembra trattarsi solo di una piccola frazione di quanto necessario. Sembra che ci sia un ritardo di un paio di anni rispetto ai grandi sviluppi. Qual è la tua opinione in merito?

Joannes Vermorel: Hai ragione. Il grande sviluppo al momento è l’adattamento delle tecniche usate in altri ambiti, come l’elaborazione delle immagini e della voce, a situazioni della supply chain. Questo richiede una significativa rielaborazione. Ad esempio, quei grandi problemi tipicamente richiedono l’elaborazione di grandi quantità di dati. Un’immagine, ad esempio, occupa diversi megabyte. Pertanto, non serve una pipeline sofisticata per trasferire i dati dalla CPU alla GPU. La tua immagine è un grande oggetto, ricco di informazioni, che rimane sulla GPU per un bel po’ di tempo prima che il calcolo sia completato.

Dall’altro lato, le supply chain hanno requisiti differenti. Gli oggetti che vuoi ottimizzare, come le storage keeping units, sono meno voluminosi in termini di dati ma sono in gran numero. L’intera storia dei movimenti per una SKU rientra in pochi kilobyte, ma se ne hanno decine di milioni. Pertanto, adattare queste tecniche sviluppate per grandi problemi di machine learning alle supply chain presenta una serie di sfide. Ci impone di sfruttare al massimo sia la CPU che la GPU, perché ci sono ancora molti calcoli che è meglio eseguire sul lato CPU.

Kieran Chandler: Sembra che l’industria sia in continua evoluzione e cambiamento. Le implementazioni tendono a diventare rapidamente obsolete. Come può un dirigente della supply chain riuscire a stare al passo, e hai qualche consiglio a riguardo?

Joannes Vermorel: Il ritmo del cambiamento è sicuramente una sfida. Ma è sempre stato un problema per quanto riguarda i computer. Il mio consiglio è di optare per soluzioni Software as a Service (SaaS) come Lokad. Ad esempio, siamo alla quinta generazione del nostro motore di previsione, ma i nostri clienti non devono occuparsi di aggiornamenti tecnici. Noi li aggiorniamo da una versione all’altra per loro, come parte del pacchetto.

Con l’avvento del software SaaS, questo problema diventa molto più facile da gestire. Non devi dedicare risorse solo per stare al passo: il tuo fornitore lo fa per te. Questo non era il caso con il software on-premises, dove l’aggiornamento da una versione all’altra era tipicamente un grande progetto.

Tra l’altro, le piattaforme di cloud computing hanno risolto questo stesso problema per noi. Quindi, un dirigente della supply chain che utilizza un’app SaaS come Lokad, che offre analisi predittive avanzate per ottimizzare la supply chain, riuscirà a tenere il passo con il ritmo del cambiamento. Lokad, a sua volta, rimane aggiornato perché la piattaforma di cloud computing che utilizziamo è Platform as a Service (PaaS) e aggiorna costantemente molte componenti per noi.

Kieran Chandler: Sembra che, in sostanza, tutti riescano a stare al passo con i progressi della tecnologia. È davvero interessante. Grazie per aver condiviso i tuoi pensieri, Joannes. Continueremo questa discussione la prossima volta. Grazie a tutti per averci seguito.