00:00:08 Data lakes e la loro importanza.
00:00:39 Data lakes definiti e il loro scopo nel business.
00:02:13 Evoluzione dei data lakes dai data warehouses.
00:04:15 Cambiamento di mentalità e filosofia intorno ai data lakes.
00:07:43 Garantire la precisione dei dati nei data lakes.
00:10:06 Come la tecnologia ha migliorato il data warehousing rispetto a 20 anni fa.
00:12:14 I vantaggi dei sistemi on-demand nei data lakes.
00:13:31 Le limitazioni della business intelligence e il suo approccio obsoleto.
00:15:22 Confronto tra la business intelligence e i data lakes e la loro capacità di supportare il processo decisionale.
00:16:49 Complessità nell’implementazione: accesso alle fonti di dati e impatto sulle aziende multinazionali.
00:18:32 Adozione dei Data Lakes: vantaggi per le aziende orientate alla tecnologia e il loro uso nell’ottimizzazione cross-funzionale.
00:20:08 Il futuro dei Data Lakes: maggiore accessibilità e implementazione, prossimi passi con le API.
00:22:45 Considerazioni finali e conclusione.
Summary
In questa intervista, Kieran Chandler e Joannes Vermorel, fondatore di Lokad, discutono dei data lakes e del loro ruolo nell’supply chain optimization. I data lakes sono repository centralizzate di dati grezzi che permettono alle applicazioni basate su machine learning di prendere decisioni intelligenti. Vermorel evidenzia le limitazioni dei tradizionali strumenti di business intelligence, sottolineando che i data lakes offrono un’analisi dei dati più efficiente e automatizzata tramite data analysis. Egli ritiene che le aziende orientate alla tecnologia abbiano già adottato i data lakes e si siano orientate verso l’implementazione di application programming interfaces (APIs) per i loro sottosistemi, permettendo un’automazione end-to-end. Vermorel prevede che le grandi aziende adotteranno sempre più i data lakes e le APIs nei prossimi cinque anni per una migliore decision-making.
Extended Summary
In questa intervista, Kieran Chandler discute dei data lakes con Joannes Vermorel, il fondatore di Lokad, un’azienda software specializzata nell’ottimizzazione della supply chain. Iniziano definendo i data lakes e le loro origini. I data lakes sono un tipo di database progettato per consolidare tutti i dati transazionali fondamentali di un’azienda, come vendite, acquisti e stock levels. Questi database sono destinati all’uso da parte delle applicazioni, piuttosto che degli esseri umani, permettendo ad app specifiche per dominio, guidate dai dati, di prendere decisioni intelligenti per il marketing, la supply chain, le risorse umane e altro ancora.
I data lakes hanno una storia che risale al data warehousing e ai data marts, tendenze di oltre 20 anni fa. Vermorel spiega che la principale differenza tra i data lakes e i warehouses risiede nella tecnologia e nella filosofia alla loro base. I data lakes sono più efficienti nell’archiviazione e nella gestione di grandi quantità di dati, mentre il cloud computing li ha resi più accessibili e convenienti.
Venti anni fa, un’azienda avrebbe dovuto acquistare un costoso apparecchio, come ad esempio uno di Oracle, per ospitare il proprio data warehouse. Ora, grazie alle piattaforme di cloud computing, le aziende possono avere data lakes pay-as-you-go che sono scalabili e a prezzi estremamente aggressivi. Questa flessibilità consente alle imprese di adattare facilmente il loro approccio all’archiviazione dei dati, se necessario.
La filosofia alla base dei data lakes si è evoluta anche rispetto ai data warehouses. L’approccio precedente metteva molta pressione sui dipartimenti IT per organizzare e gestire correttamente i dati. I data warehouses erano progettati con data marts per diverse divisioni, come marketing, supply chain e finanza. Ciò creava sfide nella gestione e nell’accesso ai dati tra i vari reparti.
I data lakes mirano a consolidare i dati in modo più centralizzato e accessibile, facilitando il processamento e la presa di decisioni intelligenti da parte delle applicazioni. Questo cambiamento di mentalità ha consentito una maggiore efficienza e flessibilità nella gestione e nell’utilizzo dei dati.
Dai vent’anni fa, il data warehousing era un metodo popolare per gestire e organizzare i dati. Questo approccio richiedeva un notevole impegno tecnico per collegare le varie tabelle dei dati e necessitava di un modello unificato dei dati aziendali. Tuttavia, questo metodo portava spesso i dipartimenti IT a essere sopraffatti dall’enorme quantità di lavoro, risultando in numerosi progetti falliti.
Oggi, i data lakes sono emersi come un approccio più snello ed efficiente alla gestione dei dati. I data lakes fungono da repository per i dati grezzi estratti da vari sistemi come il CRM, ERP, e le piattaforme web. Invece di tentare di organizzare o combinare i dati, questi vengono semplicemente scaricati nel data lake, che è in grado di gestire grandi quantità di dati senza problemi.
Una delle sfide nell’utilizzo dei data lakes è garantire che i dati siano accurati e aggiornati. I dipartimenti IT sono responsabili di assicurare che il data lake contenga una rappresentazione fedele dei sistemi originali, ma non devono necessariamente comprendere le implicazioni commerciali dei dati. La responsabilità di interpretare i dati all’interno del CRM, ad esempio, spetta ai reparti che li utilizzano, come vendite o marketing. Questo approccio permette un’interpretazione dei dati più specifica in base al problema, poiché differenti reparti possono avere esigenze e prospettive diverse.
Il panorama tecnologico è cambiato notevolmente dai tempi dei data warehouses, rendendo i data lakes un’opzione più praticabile. Innanzitutto, la qualità degli strumenti per spostare i dati su Internet è migliorata, facilitando la consolidazione dei dati provenienti da sistemi distribuiti, come le supply chain. Inoltre, l’infrastruttura internet è migliorata, rendendo possibile per anche le aziende più piccole trasferire grandi quantità di dati senza difficoltà.
Inoltre, le piattaforme di cloud computing hanno reso i data lakes più accessibili ed economici. Queste piattaforme consentono iterazioni rapide e un utilizzo on-demand, permettendo alle aziende di sperimentare i data lakes senza rischi finanziari significativi.
Nonostante gli strumenti di business intelligence siano stati utili per consentire alle aziende di ottenere informazioni dai propri dati, essi sono fondamentalmente destinati al consumo umano. Ciò significa che le aziende devono pagare i dipendenti per analizzare i dati anziché automatizzare il processo. I data lakes, al contrario, consentono un’analisi dei dati più efficiente e automatizzata, rendendoli un’opzione attraente per le aziende multinazionali che desiderano migliorare la gestione dei dati.
Vermorel spiega le limitazioni degli strumenti tradizionali di business intelligence (BI), i vantaggi dei data lakes e il futuro della gestione dei dati nell’ottimizzazione della supply chain.
Vermorel descrive la BI come una tecnologia datata che fornisce solo un’analisi dei dati di base in una modalità relativamente in tempo reale. Questa tecnologia era rivoluzionaria 30 anni fa, permettendo alle aziende di accedere e aggregare i propri dati, ma non offre insight o decisioni concrete. Al contrario, i data lakes fanno parte di un quadro più ampio, servendo da repository per i dati grezzi provenienti da varie fonti. Le applicazioni basate su machine learning possono poi elaborare efficacemente questi dati per generare decisioni operative che influenzano l’azienda e creano valore tangibile.
L’implementazione di un data lake dipende dalla complessità nell’accesso alle fonti di dati di un’azienda. Per le grandi aziende multinazionali, questo può essere un processo difficile, poiché ogni paese potrebbe avere il proprio sistema. Tuttavia, non ci sono alternative se un’azienda desidera ottenere insight e prendere decisioni basate sui dati. Vermorel crede che le piccole aziende orientate alla tecnologia abbiano già adottato i data lakes, e abbiano addirittura superato questo stadio implementando application programming interfaces (APIs) per i loro sottosistemi. Ciò consente un’ottimizzazione cross-funzionale e decisioni intelligenti.
Vermorel prevede che le grandi aziende adotteranno sempre più i data lakes nei prossimi cinque anni, man mano che diventeranno più accessibili e convenienti. Le aziende che non implementano i data lakes rischiano di essere superate da quelle che lo hanno già fatto. Tuttavia, i data lakes non rappresentano l’ultima evoluzione nella gestione dei dati. Vermorel suggerisce che le APIs sono il futuro, permettendo alle aziende non solo di leggere e analizzare i dati, ma anche di agire su di essi. Le APIs possono abilitare un’automazione end-to-end, generando decisioni automaticamente e implementandole all’interno del sistema.
Joannes Vermorel sottolinea l’importanza di andare oltre i tradizionali strumenti di BI e adottare i data lakes per un processo decisionale basato sui dati più efficiente nell’ottimizzazione della supply chain. Egli immagina un futuro in cui le grandi aziende implementano data lakes e APIs per automatizzare i loro processi e prendere decisioni più intelligenti.
Full Transcript
Kieran Chandler: Oggi su Lokad TV discuteremo un po’ di più del concetto di data lakes e comprenderemo perché quelle aziende dovrebbero interessarsene maggiormente. Quindi, Joannes, come sempre, forse dovremmo iniziare definendo un po’ meglio cosa sono i data lakes e da dove provengono.
Joannes Vermorel: Un data lake è tipicamente un tipo di database con alcune particolarità, concepito per consolidare praticamente tutti i dati fondamentali della tua azienda, specialmente tutti i dati transazionali come ciò che hai venduto, ciò che hai acquistato, i tuoi livelli di stock, e così via. L’intento e l’uso finale del data lake è che esso sia destinato alle applicazioni, non agli esseri umani. L’idea è di implementare un data lake in modo da poter avere applicazioni specifiche per dominio, fortemente guidate dai dati, in grado di utilizzare enormi quantità di dati dal data lake per generare decisioni intelligenti per il marketing, la supply chain, le risorse umane, o simili. Fondamentalmente, è un luogo in cui è possibile consolidare tutti i dati per fornirli in batch ad applicazioni intelligenti. Per quanto riguarda la seconda parte della tua domanda, i data lakes hanno una lunga storia, che risale all’idea del data warehousing e dei data marts.
Kieran Chandler: I data warehouses erano una tendenza che abbiamo visto probabilmente più di 20 anni fa. Quindi, cosa è cambiato tra allora e ora, e quali sono le differenze chiave?
Joannes Vermorel: Questo è interessante. Le parole d’ordine al giorno d’oggi sono “data lake” e “data scientist”, mentre venti anni fa si parlava di “data warehouse” e “data mining”, che sostanzialmente rappresentano la stessa evoluzione delle stesse idee, rivisitate vent’anni dopo. Ciò che è cambiato è parecchio. Innanzitutto, la tecnologia dei data lakes è cambiata, rendendoli molto più efficienti nell’archiviazione e nella gestione di grandi quantità di dati. Poi, è intervenuto il cloud computing, il che significa che al giorno d’oggi è possibile disporre di data lakes completamente on-demand con un modello di pagamento pay-as-you-go per terabyte. Questo è piuttosto diverso rispetto a 20 anni fa, quando bisognava acquistare un apparecchio molto costoso, come quelli di Oracle, per memorizzare tutti i dati. Ora, grazie alle piattaforme di cloud computing, si possono avere terabyte pay-as-you-go a prezzi estremamente competitivi.
Kieran Chandler: Questo riguarda l’aspetto tecnico. E per quanto riguarda la filosofia? Cosa è cambiato nella mentalità e nel modo in cui utilizziamo i data lakes rispetto ai data warehouses?
Joannes Vermorel: In effetti c’è stata una notevole evoluzione. Il problema con i data warehouses, come erano concepiti 20 anni fa, è che mettevano molta pressione sull’IT per organizzare correttamente i dati. Esisteva persino un data warehouse destinato a organizzare data marts, con un data mart previsto per ogni tipo di divisione, come marketing, supply chain, finanza, e così via. I data marts erano come sottoinsiemi all’interno del data warehouse. Il problema con questo approccio, che era in qualche modo simile per spirito ai data lakes attuali, è che richiedeva molta organizzazione e gestione da parte dell’IT.
Kieran Chandler: Per quanto riguarda la business intelligence, si prevedeva un alto livello, un alto grado di aspettative sul fatto che ci sarebbero stati dati già preparati, organizzati, ovvero con la correlazione tra clienti, vendite e resi. In sostanza, si incollavano insieme tutte le informazioni correlate, il che richiedeva un notevole sforzo, in effetti. Tecnicamente, si trattava, insomma, di unire tabelle, connettendo tutte quelle tabelle tramite giunzioni appropriate. Quindi, 20 anni fa, la filosofia consisteva nel fare molto, ed era abbastanza simile a quanto veniva fatto nella BI e in modo analogo a quanto si faceva naturalmente nei sistemi relazionali. Il problema con questo approccio era che la quantità di lavoro richiesta era completamente enorme, e si finiva per avere dipartimenti IT completamente sopraffatti dall’enorme quantità di richieste derivanti da questi progetti di data warehousing. Di conseguenza, spesso, fallivano semplicemente perché l’IT non riusciva a fornire il necessario. Ma cosa succede oggi? Voglio dire, sicuramente le cose diventeranno un po’ caotiche ora che abbiamo questi data lakes.
Joannes Vermorel: I data lakes, dal punto di vista della filosofia, sono molto più snelli perché l’idea è che un data lake sia semplicemente un ricevitore per un’estrazione pulita, un dump pulito di tutti i dati presenti in altri sistemi. Quindi, non si cerca di fare una rielaborazione elaborata dei dati provenienti dal CRM, oltre ai dati provenienti dall’ERP, e quelli provenienti dalla tua piattaforma web. Semplicemente si estraggono queste fonti di dati e le si scarica nel data lake. E il data lake si comporta bene grazie alla tecnologia, il che significa che puoi caricare una quantità enorme di dati e il sistema li gestirà senza problemi. Se sei sul cloud, ti verrà addebitato il relativo costo.
Kieran Chandler: Come fai a sapere che i dati che stai effettivamente utilizzando sono buoni? Voglio dire, come fai a tenere traccia di quali dati siano aggiornati? Cioè, se li scarichi tutti in questo data lake, come fai a controllarli?
Joannes Vermorel: La responsabilità dell’IT con un data lake è assicurarsi che il data lake contenga una rappresentazione accurata di ciò che è presente nei sistemi originali. Ma ciò non richiede alcuna comprensione di quanto avvenga dal punto di vista aziendale. Hai semplicemente un CRM che dispone di 200 tabelle, tabelle relazionali, e le specchi nel data lake, ed ecco tutto. Non è necessario comprendere ciò che accade nel CRM.
Kieran Chandler: Quindi, chi deve capire cosa sta succedendo all’interno del CRM?
Joannes Vermorel: A quanto pare, sono le stesse divisioni che vogliono sfruttare i dati, e il problema è che l’interpretazione dei dati è altamente specifica per ogni problema. Ad esempio, il modo in cui analizzi i dati di vendita è diverso se vuoi risolvere un problema di marketing o un problema di supply chain. Ecco perché – e questo è stato anche uno dei motivi principali per cui, vent’anni fa, molte iniziative di data warehousing fallirono – perché la visione era quella di produrre un modello unificato dell’azienda, ma poi si è scoperto che risultava estremamente frustrante per ogni divisione, dato che il marketing diceva: “Oh, non si adatta esattamente alla visione che ho del mio ambito,” e lo stesso diceva la supply chain, e la Finanza avrebbe detto altrettanto. Quindi, in contrasto, l’idea è che ora siano le divisioni stesse, come supply chain, marketing, finanza, risorse umane.
Kieran Chandler: Significa che oggi non falliranno. Voglio dire, ancora una volta, che ci sono un sacco di cose che cambiano. Una sfida particolare, soprattutto in ambito supply chain, è che per design ci occupiamo di sistemi distribuiti. Cosa intendo per distribuiti? Intendo che non è tutto in un unico posto, perché, per definizione, se hai più magazzini, questi non sono nello stesso luogo. I tuoi fornitori non sono nello stesso posto dei tuoi magazzini, e lo stesso vale per i tuoi clienti. Quindi, per definizione, stiamo parlando di sistemi dispersivi, e vuoi consolidare tutti quei dati in un unico posto, che è il tuo data lake, che tecnicamente deve avvenire tramite la rete.
Joannes Vermorel: Ovviamente, vent’anni fa internet era già stato inventato. Esisteva, ma la qualità degli strumenti per spostare dati attraverso internet era completamente diversa rispetto a quella che abbiamo oggi. E poi la rete, la qualità della rete stessa, era anch’essa completamente diversa. Oggigiorno, se vuoi spostare, diciamo, per un’azienda non così grande, un’azienda di 1.000 dipendenti, quindi sei consistente ma non una mega-corporation, vent’anni fa spostare un gigabyte di dati al giorno attraverso internet era complicato.
Voglio dire, avevi bisogno di avere accesso alla fibra, per esempio, a Parigi. Vent’anni fa c’era un solo posto a Parigi dove potevi avere accesso alla fibra, che era la zona vicino alla borsa. C’era come un chilometro quadrato in cui potevi facilmente ottenere accesso alla fibra. In qualsiasi altro luogo, dovevi posare la tua fibra se la volevi. Quindi, le mega-corporation potevano farlo, ma anche un’azienda consistente, sai, con 1.000 dipendenti, non poteva. Questo è cambiato. Ora è molto semplice. Gli strumenti sono migliori, e puoi spostare letteralmente gigabyte senza troppi problemi.
Ed il fatto che disponi di sistemi on-demand, quei data lakes non sono solo molto economici, grazie alle economie di scala di quelle piattaforme di cloud computing, ma il fatto che siano on-demand significa che puoi fare tentativi ed errori. Se provi a configurare un data lake e risulta un fallimento totale, puoi semplicemente dire “delete” e riprovare, e paghi solo per ciò che usi. Quindi, puoi iterare rapidamente. Non è come vent’anni fa, quando dovevi impegnarti ad acquistare un apparecchio molto costoso, e se sbagliavi, quello era un grosso problema.
Kieran Chandler: E scommetto che quelle aree della finanza probabilmente hanno ancora l’internet più veloce. Cosa diresti a una grande multinazionale che ha già una buona padronanza dei propri dati, che sta già comprendendo le cose utilizzando strumenti di business intelligence? Voglio dire, perché dovrebbero essere interessati a un data lake?
Joannes Vermorel: Il problema della business intelligence è che, fondamentalmente, è pensata per gli esseri umani. È utile, ma significa che ogni singolo minuto in cui le persone analizzano quei numeri è un minuto in cui stai effettivamente pagando un dipendente per guardare i numeri invece di fare qualcos’altro. Puoi molto facilmente produrre milioni di numeri, che richiederanno migliaia di ore di lavoro per essere elaborati, il che è estremamente costoso.
Quindi, il problema è che la business intelligence, come la vedo io, è un tipo di tecnologia piuttosto datata. Era un modo per ottenere un’analisi di base dei tuoi dati in maniera relativamente in tempo reale. Era molto interessante perché, se torniamo indietro di 30 anni, cioè ai tempi in cui è nata Business Objects, erano l’azienda che… E altrimenti, non avresti potuto sapere che non era possibile eseguire query sincronizzate in grado di fornirti queste informazioni: quante unità vengono vendute al giorno, per prodotto, e così via. Questo non era possibile con la business intelligence. Improvvisamente, è diventato possibile ottenere questo cubo, puoi persino avere ipercubi, e ancora meglio, puoi avere risultati molto, molto precisi. Ma poi, alla fine, stai semplicemente osservando un’aggregazione super basilare dei tuoi dati, e quest’aggregazione non corrisponde a una decisione. Non ti dice se dovresti aumentare o diminuire il prezzo, non ti dice se dovresti produrre di più o di meno, non ti dice se, da una partita di produzione di 1000 unità, dovresti spedire 100 unità in aereo per una consegna più rapida. Fondamentalmente, si tratta solo di ottenere intuizioni quantitative. Quindi, la grande differenza tra, sai, BI e data lake è che il data lake porta con sé l’intuizione che esso sia fondamentalmente un ingranaggio in un quadro più ampio nel quale, seduto davanti al data lake, tipicamente avrai un’app supportata dal machine learning che elaborerà i dati serviti in modo super efficiente dal data lake per generare decisioni automaticamente. E queste decisioni hanno un impatto fisico sulla tua azienda e creeranno un valore tangibile.
Kieran Chandler: Va bene, quindi se siamo d’accordo che forse gli strumenti di business intelligence abbiano in qualche modo le loro limitazioni, e se si tratta di implementare un data lake, quanto è effettivamente facile farlo? È semplicemente una questione di caricare tutti questi dati sul cloud e poi sei a posto?
Joannes Vermorel: La complessità nell’implementare un data lake è strettamente proporzionale alla complessità di accedere alle tue fonti di dati, intendendo letteralmente accedervi, non facendo qualcosa di intelligente con essi. Quindi, per le grandi multinazionali, significa che se ogni singolo paese nella tua azienda ha il proprio sistema, beh, indovina un po’? Avrai tanti tipi di data lakes da predisporre affinché tu possa portare i dati di ogni singolo paese nel data lake. Ma intendo, è sfortunato perché non hai altra alternativa, dato che l’unica opzione è avere un’integrazione diretta con i paesi, e questo risulta ancora più costoso, perché se hai due divisioni, diciamo marketing e supply chain, che vogliono accedere ai dati di vendita, pagherai quell’integrazione due volte. Quindi l’idea con un data lake è che, una volta creato, i dati sono all’interno del data lake, rendendoli molto adatti al resto dell’azienda per l’accesso. Quindi la complessità dipende interamente da ciò che possiedi. Ma, ancora una volta, se torniamo alla tua citazione iniziale, se non hai dati, sei solo un uomo con un’opinione. Ebbene, non hai altra alternativa per recuperare questi dati se vuoi effettuare qualsiasi tipo di misurazione.
Kieran Chandler: Riassumiamo un po’. Se ci sono così tanti aspetti positivi nei data lakes e sembrano piuttosto semplicistici, essendo fondamentalmente un grande contenitore di dati a fine giornata, perché non vengono adottati prontamente dall’industria in questo momento?
Joannes Vermorel: A quanto pare, le aziende tecnologiche molto piccole hanno adottato i data lakes già tempo fa, e sono andate oltre con quella che definirei la API-fication della loro azienda, il che significa che verrà implementata un’API (Application Programming Interface) in ogni sottosistema, che è come il passo successivo dopo il data lake. Quindi, direi che l’e-commerce smart, per esempio, ha già consolidato i propri dati, e così via.
Kieran Chandler: Oggi bisogna considerare entrambi: quelli provenienti dal sito web, ciò che paghi per il marketing sui motori di ricerca – tipo Google AdWords e simili – e gli ordini incrociati. Sono in grado di prendere decisioni intelligenti in termini di azioni di marketing diretto e simili. Per quanto riguarda le aziende puramente tecnologiche come Microsoft o Google, hanno fatto cose simili, sai, letteralmente per decenni. Voglio dire, Google esiste solo da due decenni, ma altre aziende tecnologiche lo fanno da un bel po’. Quindi, se lo fanno da decenni, che dire del futuro? Qual è il prossimo passo? Andremo mai a tuffarci in un oceano di dati a volte?
Joannes Vermorel: Sì, voglio dire, quello che vedo in futuro è che le aziende fortemente orientate alla supply chain, ora che i data lakes sono diventati molto accessibili e molto economici, implementeranno questi data lakes. Abbiamo notato tra i nostri clienti che molti clienti che un anno fa non possedevano un data lake, ora ne hanno uno. Direi che c’è stato un punto di svolta negli ultimi due anni per quanto riguarda i data lakes. Quindi, sospetto che la maggior parte delle grandi aziende, probabilmente entro i prossimi cinque anni, avrà effettivamente implementato i propri data lakes, perché altrimenti verrebbero completamente superate da tutte le grandi aziende che lo avranno fatto per loro.
Ma ci sono anche dei limiti, in particolare, un data lake è solo una copia in sola lettura di tutti i dati che risiedono in altri sottosistemi. Ecco perché dicevo che il passo successivo è far sì che tutti i sottosistemi espongano delle API, application programming interfaces, perché è quello che ha fatto Amazon. Queste API ti consentono di fare ancora di più: improvvisamente non sei più in sola lettura, puoi anche agire. L’idea è che puoi consolidare tutti i dati, leggerli, elaborarli, prendere tutte quelle decisioni, e poi cosa facciamo con quelle decisioni che sono state generate? La risposta è che puoi inviare il foglio di calcolo Excel alla divisione giusta affinché implementino le tue decisioni, ad esempio per gli acquisti. Ma se c’è un’API, puoi chiamare direttamente quell’API per iniettare semplicemente l’ordine d’acquisto per quel prodotto, di quella quantità, da quel fornitore, specificando il trasporto e via dicendo. Quindi, in realtà, se hai le API, puoi avere automazioni end-to-end in cui non solo generi la decisione automaticamente, ma poi implementi queste decisioni in modo fisico e automatico perché vengono reiniettate in uno dei sistemi.
Kieran Chandler: Ok, dobbiamo lasciarci qui, ma grazie per il tempo che ci hai dedicato oggi. Quindi, questo è tutto per questa settimana. Grazie mille per aver seguito e torneremo la prossima volta. Ciao per ora.