00:00:06 Introduzione allo sviluppo generazionale del machine learning.
00:00:38 1a generazione: algoritmi statistici di previsione degli anni ‘50/‘60.
00:03:26 Transizione alla 2a generazione: modelli non parametrici della fine degli anni ‘80/‘90.
00:06:20 Convergenza tra statistica e machine learning.
00:07:55 Impatto delle migliorie tecnologiche sull’evoluzione del machine learning.
00:09:54 Effetto del deep learning sulla previsione, a differenza del ML standard.
00:11:31 Modelli parametrici, evitando l’overfitting del deep learning.
00:13:01 Relazione tra deep learning, hardware, GPU e algebra lineare.
00:14:50 Ruolo del cloud computing nell’elaborazione dei dati del deep learning.
00:16:01 Sfide delle GPU, vantaggi del cloud computing per la previsione della supply chain.
00:17:22 Futuro del ML: l’ascesa della programmazione differenziabile.
00:19:13 Investimenti in ML nell’industria della supply chain, adattamento al big data.
00:22:44 Velocità del cambiamento tecnologico, adattamento degli executive della supply chain.
00:25:24 Conclusioni: importanza di SaaS e cloud computing nell’evoluzione tecnologica.

Riassunto

In un’intervista, Joannes Vermorel, fondatore di Lokad, ha discusso la storia del machine learning (ML), dalle sue origini negli algoritmi di previsione delle serie temporali degli anni ‘50 all’avvento del deep learning. Ha sottolineato le applicazioni del ML nella gestione della supply chain, specialità della sua azienda. Vermorel ha delineato la progressione dai modelli semplici basati sui dati ai modelli statistici non parametrici capaci di apprendere qualsiasi pattern con dati sufficienti. La conversazione ha coperto importanti tappe del ML, il ruolo della tecnologia e la sfida dell’overfitting. Vermorel ha previsto lo sviluppo futuro del ML, incluso la programmazione differenziabile e il continuo focus sul riconoscimento vocale e delle immagini. Ha concluso sostenendo l’importanza del Software as a Service per aiutare gli executive della supply chain a tenere il passo con il rapido cambiamento tecnologico.

Riassunto Esteso

L’intervista tra l’host Kieran Chandler e Joannes Vermorel, fondatore di Lokad, approfondisce l’evoluzione e lo sviluppo del machine learning, con un particolare enfasi sulla sua applicazione nella gestione della supply chain.

Vermorel suggerisce che le origini del machine learning possono essere fatte risalire agli anni ‘50 e ‘60, con l’emergere dei primi algoritmi di previsione delle serie temporali. Questi algoritmi, sebbene non riconosciuti tradizionalmente come machine learning alla loro concezione, presentavano caratteristiche chiave del machine learning, come essere basati sui dati, statistici e progettati per apprendere pattern dai dati. Vermorel sottolinea inoltre che l’uso iniziale di questi algoritmi era strettamente legato all’ottimizzazione della supply chain, un settore in cui la sua azienda, Lokad, si specializza oggi.

Per quanto riguarda i metodi specifici utilizzati in questa fase iniziale del machine learning, Vermorel cita diversi metodi che sarebbero familiari agli operatori della supply chain. Questi includono medie mobili, smoothing esponenziale e modelli più complessi come i metodi di Holt-Winters e Box-Jenkins. Caratterizza questi algoritmi iniziali come relativamente semplici, progettati principalmente per soddisfare le capacità di calcolo dei computer disponibili durante questo periodo. Questi modelli iniziali dovevano essere veloci ed efficienti, capaci di elaborare centinaia di punti dati con migliaia di operazioni all’interno dei vincoli di potenza di calcolo e memoria limitati.

Spostando la conversazione verso la progressione del machine learning, Vermorel condivide che il prossimo significativo balzo avvenne alla fine degli anni ‘80 e negli anni ‘90, segnato dall’emergere di modelli statistici non parametrici. Questa evoluzione dai modelli parametrici della prima generazione, caratterizzati da un numero fisso di parametri regolabili (di solito non più di una dozzina), rappresentava uno sviluppo critico.

I modelli parametrici, limitati dai loro parametri fissi, potevano adattarsi solo a una certa gamma di pattern dei dati. Al contrario, i modelli non parametrici non avevano una forma predefinita, permettendo loro di potenzialmente apprendere qualsiasi pattern, a condizione che ci fossero dati sufficienti. Questo cambiamento segnò una svolta nelle capacità e nella flessibilità del machine learning, fornendo le basi per le applicazioni di machine learning più complesse e versatili che si vedono oggi.

Vermorel inizia evidenziando la sfida dell’overfitting nei modelli di previsione iniziali, in cui aumentare il numero di parametri poteva portare a modelli che si adattavano perfettamente ai dati storici ma non offrivano capacità predictive per il futuro. Questo è stato un enigma importante nel campo per decenni fino alla fine degli anni ‘90, quando sono emerse soluzioni soddisfacenti con l’avvento dei modelli non parametrici.

Discute quindi i due gruppi che sono emersi in quel periodo nel campo: l’apprendimento statistico e il machine learning. Il primo comprendeva matematici che facevano statistica con un ampio uso dei computer, mentre il secondo consisteva di professionisti informatici che si stavano gradualmente spostando verso algoritmi statistici. Sottolinea che queste prospettive hanno dato origine a diversi stili di modellazione. Ad esempio, il campo dell’apprendimento statistico preferiva le macchine a vettori di supporto, un modello ben compreso matematicamente. D’altra parte, il campo del machine learning era più attratto dalle reti neurali, che coinvolgevano molte manipolazioni numeriche.

Chandler poi orienta la conversazione verso il ruolo della tecnologia nell’evoluzione di questi campi. Vermorel menziona una svolta significativa alla fine degli anni ‘90, l’idea che più dati portano a risultati migliori. Questo concetto si estendeva non solo a serie temporali più lunghe, ma anche a insiemi di dati più diversificati. Inizialmente, questo approccio era un processo lento in quanto richiedeva di attendere che si accumulasse più storia. Tuttavia, i progressi nel machine learning e nell’apprendimento statistico hanno permesso di sfruttare i dati di più prodotti, portando a previsioni di domanda più accurate.

Vermorel cita l’introduzione di modelli come le macchine a vettori di supporto alla fine degli anni ‘90 e le foreste casuali all’inizio degli anni 2000 come passi significativi avanti nella cattura di informazioni da insiemi di dati più grandi e più diversificati.

La discussione si sposta quindi all’avvento del deep learning. Vermorel spiega che l’accumulo graduale di intuizioni critiche ha reso il deep learning notevolmente diverso dal machine learning standard. Uno dei principali vantaggi del deep learning è la sua capacità di apprendere funzioni più complesse con meno dati rispetto agli algoritmi di apprendimento superficiale.

Curiosamente, Vermorel fa notare che il deep learning non necessariamente supera gli algoritmi classici su piccoli set di dati. Ma eccelle nel trattare set di dati molto grandi, dove gli algoritmi di apprendimento superficiale non riescono a sfruttare le informazioni extra disponibili.

In un’inversione sorprendente, il deep learning ha riportato l’uso di modelli parametrici, sebbene con milioni di parametri, a differenza dei modelli parametrici iniziali che avevano un numero fisso di parametri. La sfida qui era evitare un eccessivo overfitting, che è stato superato attraverso una serie di tecniche intelligenti.

Vermorel ha inoltre discusso del ruolo delle Unità di Elaborazione Grafica (GPU) nello sviluppo del machine learning. Queste sono essenziali per le attività di deep learning, ma sono costose e consumano molta energia. Le piattaforme di cloud computing hanno alleviato questo problema fornendo farm di GPU su richiesta, affrontando efficacemente le questioni di costo e consumo energetico. Questo è stato particolarmente vantaggioso per l’ottimizzazione della supply chain, dove le previsioni statistiche di solito vengono eseguite una volta al giorno, richiedendo l’allocazione di GPU solo per un breve periodo.

Passando al futuro del machine learning, Vermorel ha previsto un ritorno a modelli non parametrici all’interno dello spettro del deep learning. Ha indicato un nuovo approccio, “programmazione differenziabile”, in cui la struttura del modello di deep learning viene regolata durante la fase di apprendimento. Questo approccio dinamico potrebbe essere la prossima fase significativa nel machine learning e nell’apprendimento statistico.

Quando gli è stato chiesto quale sia l’attuale focus delle grandi aziende tecnologiche, Vermorel ha menzionato che il riconoscimento vocale, la sintesi vocale, il riconoscimento delle immagini e la traduzione automatica sono attualmente oggetto di notevoli investimenti. Queste sono aree centrali di ricerca e sviluppo che guidano il futuro del machine learning. Tuttavia, le aziende della supply chain, compresa Lokad, sono leggermente indietro, poiché non dispongono delle risorse necessarie per investire pesantemente nelle tecnologie di machine learning.

L’ottimizzazione della supply chain presenta sfide uniche per l’applicazione del machine learning, in particolare perché si occupa di frammenti di dati più piccoli rispetto ad altri settori come l’elaborazione delle immagini. Ciò richiede un utilizzo equilibrato sia delle CPU che delle GPU.

Chandler ha poi sollevato il problema del rapido cambiamento tecnologico e la sfida che esso rappresenta per i dirigenti della supply chain, le cui soluzioni implementate rischiano di diventare rapidamente obsolete. Vermorel ha consigliato che il Software as a Service (SaaS) potrebbe essere una soluzione valida. Ha evidenziato Lokad come esempio di fornitore di SaaS che aggiorna e ottimizza costantemente i propri servizi, alleggerendo così il carico sui propri clienti.

Trascrizione completa

Kieran Chandler: Oggi su Lokad TV, torneremo all’inizio e indagheremo lo sviluppo generazionale del machine learning e cercheremo di capire se questo progresso graduale possa darci qualche indizio sul futuro del machine learning. Quindi, Joannes, com’era fatta questa prima generazione di machine learning? Quando è emersa?

Joannes Vermorel: Curiosamente, direi che i primi algoritmi di machine learning erano, in un certo senso, correlati alla supply chain con il primo algoritmo di previsione delle serie temporali che è emerso negli anni ‘50 e ‘60. Aveva tutti gli ingredienti principali: era basato sui dati, statistico e infatti cercava di apprendere i modelli dai dati. All’epoca, le persone non lo definivano machine learning; erano solo algoritmi di previsione. Ma tutti gli ingredienti erano presenti.

Kieran Chandler: Quindi che tipo di metodi venivano utilizzati? Voglio dire, la maggior parte degli operatori della supply chain li conosce, giusto?

Joannes Vermorel: Conoscevano la media mobile, la media esponenziale e poi c’erano metodi più sofisticati di quell’epoca, come il modello di Holt-Winters, i modelli di Box-Jenkins, ecc. Quindi c’erano una serie di algoritmi relativamente semplici che sono emersi proprio all’inizio dei computer. È interessante notare che non appena abbiamo avuto computer nelle aziende, sono stati effettivamente utilizzati per ottimizzare le supply chain, sebbene per scopi relativamente modesti.

Kieran Chandler: All’epoca, le cose erano molto diverse nel mondo dell’analisi computazionale. Qual era il focus principale in quei giorni?

Joannes Vermorel: Il focus principale era avere così poca potenza di elaborazione, memoria e capacità di fare molti calcoli. Tutti quei modelli di prima generazione, risalenti agli anni ‘60 e ‘70, erano focalizzati sull’essere super veloci. Ciò significa che se dovevi elaborare 100 punti dati, avresti avuto solo qualche migliaio di operazioni da fare su quei punti dati. Questi algoritmi sono stati progettati per macchine che avevano solo kilobyte di memoria e frequenze di processore inferiori a 1 MHz.

Kieran Chandler: Immagino che all’epoca ci fosse molto meno risorse dedicate all’analisi computazionale rispetto a oggi, dove ci sono centinaia di migliaia di persone che ci lavorano. Quanto tempo ci è voluto per la nascita della prossima generazione? Ci è voluto molto tempo per questo?

Joannes Vermorel: È stata un’evoluzione graduale. Abbiamo avuto la prima ondata di modelli che sono emersi negli anni ‘60 e ‘70, e tutti erano modelli parametrici. Si trattava di modelli statistici con un numero fisso di parametri, tipicamente non più di una dozzina.

Kieran Chandler: Cosa significa, un parametro?

Joannes Vermorel: Un parametro è come un numero. Quindi, il tuo modello statistico aveva un paio di numeri che potevi regolare affinché il modello si adattasse ai dati. L’essenza della fase di apprendimento è trovare quei parametri. Tipicamente, ne avresti avuti circa una mezza dozzina, forse fino a una dozzina per i modelli più sofisticati, e basta. Quello che è successo alla fine degli anni ‘80 e in modo più deciso negli anni ‘90 è stata l’emergenza di modelli statistici non parametrici. Questo è stato interessante perché la prima generazione di modelli non poteva adattarsi a qualsiasi tipo di pattern di serie temporali o qualsiasi tipo di pattern di domanda; avevano un numero molto limitato di parametri, quindi erano molto limitati in ciò che potevano imparare osservando i dati storici.

Kieran Chandler: Il passaggio dalla parametricità alla non parametricità della seconda generazione è stato significativo. Se avevi abbastanza dati, potevi potenzialmente imparare qualsiasi pattern. Questa svolta alla fine degli anni ‘90 ha portato allo sviluppo di modelli con interessanti proprietà matematiche. Dato un numero arbitrariamente grande di dati, potevi avvicinarti arbitrariamente al miglior modello senza incorrere in problemi di sovradattamento. Il sovradattamento, ovviamente, si verifica quando aumenti il numero di parametri fino a un punto in cui il modello si adatta perfettamente ai tuoi dati storici ma perde capacità predittive per il futuro. Il sovradattamento è un problema intrigante, si tratta di avere un modello di previsione che è accurato sui dati che non hai. Questo problema ha confuso i decisori per decenni, fino a quando sono emerse alcune soluzioni soddisfacenti con l’introduzione di modelli non parametrici alla fine degli anni ‘90. Con questi modelli, abbiamo iniziato a vedere l’avvento dell’apprendimento automatico. Come è successo e quale impatto ha avuto?

Joannes Vermorel: È interessante. In termini di terminologia, avevamo diversi gruppi. C’era il gruppo dell’apprendimento statistico in cui i matematici, che facevano statistica, hanno iniziato a utilizzare intensivamente i computer per supportare il loro lavoro. D’altra parte, l’apprendimento automatico era l’opposto. Erano i tecnici informatici che si sono imbattuti in questi tipi di problemi e hanno iniziato a muoversi gradualmente verso algoritmi statistici. Era più una differenza di prospettiva.

Ad esempio, nel campo dell’apprendimento statistico, c’erano le macchine a vettori di supporto che erano ben comprese dal punto di vista matematico, cosa che interessava molto alla comunità statistica più hardcore. Dall’altra parte, c’erano le reti neurali, molte manipolazioni numeriche che interessavano la comunità dell’apprendimento automatico. Queste erano prospettive diverse sul dominio e si sono gradualmente converte.

Kieran Chandler: Indipendentemente dal gruppo a cui appartenevi, ciò che si stava evolvendo intorno a te era la tecnologia e le capacità di ciò che potevi ottenere con essa. Quindi, quali sono state le significative migliorie e svolte tecnologiche che hanno davvero aiutato in tutto ciò?

Joannes Vermorel: La svolta alla fine degli anni ‘90 è stata l’idea che se avessi avuto più dati, avresti ottenuto risultati migliori. E non intendo solo serie storiche più lunghe, ma anche più serie storiche. Per la supply chain, ciò significa poter ottenere una previsione della domanda più accurata solo perché hai avuto più storia? Ma il problema è che se vuoi un anno o più di storia delle vendite, devi aspettare un altro anno, il che è un processo molto lento. Inoltre, con i nuovi prodotti che vengono lanciati e alcuni prodotti che vengono gradualmente eliminati, non si ottiene mai molta più storia.

Ci sono state alcune svolte nella possibilità di sfruttare più dati da più prodotti. Questo non è avvenuto alla fine degli anni ‘90; è avvenuto più negli anni 2000. Ciò che ha reso possibile tutto ciò sono state le svolte nell’apprendimento automatico e nell’apprendimento statistico, tutte legate a quei modelli non parametrici.

C’è stata una serie di questi modelli statistici che hanno rappresentato svolte, come le macchine a vettori di supporto, pubblicate intorno al ‘96 con un’implementazione funzionante entro il ‘98, e poi le foreste casuali intorno al 2001. Questi modelli hanno iniziato a funzionare molto bene nel catturare informazioni da set di dati più grandi con maggiore diversità in termini di caratteristiche.

Kieran Chandler: L’apprendimento profondo, qual è stato l’impatto di questo e qual è stata la differenza chiave tra l’apprendimento profondo e l’apprendimento automatico standard?

Joannes Vermorel: È interessante perché l’apprendimento profondo è la congiunzione di probabilmente una dozzina di intuizioni critiche, ma è stato tutto molto graduale. Mettendo insieme tutte queste cose, ha fatto una grande differenza. Un vantaggio chiave dell’apprendimento profondo è la capacità di apprendere funzioni più complesse con meno dati. Il problema degli algoritmi di apprendimento automatico di seconda generazione, come l’apprendimento superficiale, è che possono imparare qualsiasi modello statistico se dati abbastanza dati, ma nella pratica, ci vuole una quantità enorme di dati per arrivarci, il che è completamente impraticabile. L’apprendimento profondo, in un certo senso, è stato in grado di fare un uso migliore di set di dati molto grandi.

Prima di tutto, l’apprendimento profondo non supera necessariamente gli algoritmi classici su piccoli set di dati, ma quando i set di dati diventano molto grandi, quegli algoritmi di apprendimento superficiale non sfruttano davvero, come sarebbe possibile, tutte le informazioni extra che ci sono, mentre l’apprendimento profondo può farlo. Quindi cosa rende diverso l’apprendimento profondo? Siamo tornati ai modelli parametrici, che sono stati utilizzati già negli anni ‘50 o ‘60. Questi hanno un numero fisso di parametri e siamo passati a modelli non parametrici in cui il numero di parametri è dinamico. Poi, con l’apprendimento profondo, siamo tornati ai modelli parametrici, ma la grande differenza è che questi modelli hanno milioni di parametri. I nostri modelli possono avere fino a 20 milioni di parametri.

Per evitare un’eccessiva sovradattamento, sono state scoperte una serie di trucchi molto intelligenti come parte del movimento dell’apprendimento profondo. Un altro ingrediente chiave è stato pensare a modelli statistici che avessero un’affinità massima con l’hardware di calcolo che avevamo, come le unità di elaborazione grafica (GPU), che sono molto efficienti nell’algebra lineare. Uno dei trucchi computazionali dell’apprendimento profondo è riportare tutto all’algebra lineare. Passando dai calcoli della CPU ai calcoli della GPU, abbiamo ottenuto due ordini di grandezza di calcolo extra, rendendo possibili molte cose che prima non erano possibili.

Kieran Chandler: Parli delle migliorie hardware e delle capacità di elaborazione, quali sono state le altre migliorie tecniche apportate dall’industria che hanno reso tutto ciò possibile? Come si inserisce l’avvento del cloud in tutto ciò?

Joannes Vermorel: Il cloud ha davvero aiutato a facilitare la raccolta di tutti i dati. Se vuoi che l’apprendimento profondo sia davvero interessante, hai bisogno di molti dati. Spostare terabyte di dati è in realtà molto più facile con il cloud.

Kieran Chandler: Sembra che le piattaforme di cloud computing abbiano semplificato le cose per tutti. Ad esempio, non è più necessario gestire le quote di disco o gestire manualmente lo storage su più unità fisiche. È corretto?

Joannes Vermorel: Assolutamente. Le piattaforme di cloud computing hanno eliminato molti dei processi manuali associati alla gestione dello storage. Inoltre, hanno facilitato la consolidazione di tutti i livelli necessari per l’apprendimento profondo.

Kieran Chandler: E cosa dire del costo dell’apprendimento profondo e delle GPU? Sono piuttosto costosi e consumano molta energia, vero?

Joannes Vermorel: Infatti, le schede grafiche possono facilmente consumare tra i 400 e i 500 watt. Se inizi ad averne più di una, può diventare un problema elettrico. Tuttavia, il cloud computing ha facilitato tutto ciò offrendo farm di GPU on-demand. Nel caso specifico della supply chain, è molto conveniente perché di solito è sufficiente fare una previsione statistica una volta al giorno. Puoi allocare le tue GPU per un’ora, fare tutti i calcoli e poi restituirle alla tua piattaforma di cloud computing preferita, che sia Microsoft Azure, Amazon Web Services o Google Cloud.

Kieran Chandler: L’apprendimento automatico si è sviluppato gradualmente negli ultimi decenni. Possiamo trarre qualche indizio da questo per prevedere il futuro dell’apprendimento automatico? Cosa possiamo aspettarci di vedere in futuro?

Joannes Vermorel: Curiosamente, tutto va a cicli. Abbiamo iniziato con modelli parametrici e previsioni di serie temporali, poi siamo passati a modelli non parametrici con i primi algoritmi di apprendimento automatico generici. Successivamente, siamo passati a modelli iperparametrici con l’apprendimento profondo. Ora, ciò che sta emergendo sono nuovamente modelli non parametrici nello spettro dell’apprendimento profondo. Si tratta di metodi di apprendimento profondo più sofisticati che regolano la struttura stessa del modello durante la fase di apprendimento. Se dovessi scommettere sulla parola di moda di domani, sarebbe “programmazione differenziabile”. Questo approccio è simile all’apprendimento profondo, ma è molto più dinamico nel modo in cui il modello viene costruito ed evolve durante la fase di apprendimento.

Kieran Chandler: Quindi, la programmazione differenziabile è la nuova parola di moda. L’industria della supply chain è spesso un po’ indietro rispetto ai “big four” per quanto riguarda ciò su cui si concentrano. In cosa stanno investendo in termini di ricerca al momento e quali grandi sviluppi possiamo aspettarci nel prossimo anno circa?

Joannes Vermorel: Per quanto riguarda l’apprendimento automatico, i grandi problemi in cui i giganti tecnologici stanno investendo miliardi sono il riconoscimento vocale, la sintesi vocale, il riconoscimento delle immagini e la traduzione automatica del linguaggio naturale. Questi sono problemi fondamentali per l’apprendimento basato sulle informazioni e sono avanti in termini di ricerca e sviluppo. Le supply chain, comprese quelle che sviluppano software di apprendimento automatico, sono un po’ indietro. Nessuno nella supply chain ha le risorse per investire un miliardo di dollari all’anno per una migliore domanda.

Kieran Chandler: C’è stato un investimento sostanziale nella previsione, ma sembra che sia una piccola frazione di ciò che è necessario. Sembra essere indietro di un paio d’anni rispetto ai grandi sviluppi. Cosa ne pensi?

Joannes Vermorel: Hai ragione. Il grande sviluppo in corso è l’adattamento delle tecniche trovate in altre aree, come l’elaborazione delle immagini e delle voci, alle situazioni della supply chain. Ciò richiede un significativo riadattamento. Ad esempio, quei grandi problemi hanno tipicamente grandi quantità di dati da elaborare. Un’immagine, ad esempio, sarà di diversi megabyte. Pertanto, non è necessario un pipeline sofisticato per spostare i dati dalla CPU alla GPU. La tua immagine è un oggetto grande con molte informazioni che rimarranno nella GPU per un bel po’ di tempo prima che il calcolo sia completato.

D’altra parte, le supply chain hanno requisiti diversi. Gli oggetti che si desidera ottimizzare, come le unità di conservazione delle scorte, sono più piccoli in termini di dati ma numerosi. L’intera storia dei movimenti per un SKU si adatta a pochi kilobyte, ma ne hai decine di milioni. Pertanto, adattare queste tecniche sviluppate per grandi problemi di apprendimento automatico alle supply chain presenta una serie di sfide. Ciò richiede di sfruttare al massimo sia la CPU che la GPU perché ci sono ancora molti calcoli che è meglio fare sul lato della CPU.

Kieran Chandler: Sembra che l’industria sia in continua evoluzione e cambiamento. Le implementazioni tendono a diventare obsolete rapidamente. Come può un dirigente della supply chain tenere il passo, e hai qualche consiglio in proposito?

Joannes Vermorel: Il ritmo del cambiamento è effettivamente una sfida. Ma è sempre stato un problema per quanto riguarda i computer. Il mio suggerimento è di optare per soluzioni Software as a Service (SaaS) come Lokad. Ad esempio, siamo alla quinta generazione del nostro motore di previsione, ma i nostri clienti non devono fare nulla di tecnico per l’aggiornamento. Li aggiorniamo dalla versione precedente alla successiva per loro, come parte del pacchetto.

Con l’avvento del software SaaS, questo problema diventa molto più facile da gestire. Non devi dedicare risorse solo per stare al passo: il tuo fornitore lo fa per te. Questo non era il caso del software on-premises, dove l’aggiornamento da una versione all’altra era tipicamente un grande progetto.

A proposito, le piattaforme di cloud computing hanno risolto questo stesso problema per noi. Quindi, un responsabile della supply chain che utilizza un’app SaaS come Lokad, che offre avanzate analisi predictive per ottimizzare la tua supply chain, si manterrà al passo con il ritmo del cambiamento. Lokad, a sua volta, si mantiene al passo con il ritmo del cambiamento perché la piattaforma di cloud computing che utilizziamo è Platform as a Service (PaaS) e aggiorna costantemente molte cose per noi.

Kieran Chandler: Sembra che tutti stiano essenzialmente tenendo il passo con gli avanzamenti tecnologici, è molto interessante. Grazie per aver condiviso le tue opinioni, Joannes. Continueremo questa discussione la prossima volta. Grazie a tutti per aver guardato.