00:00:08 Data lake e la loro importanza.
00:00:39 Definizione dei data lake e il loro scopo nel business.
00:02:13 Evoluzione dei data lake rispetto ai data warehouse.
00:04:15 Cambiamento di mentalità e filosofia riguardo ai data lake.
00:07:43 Garantire l’accuratezza dei dati nei data lake.
00:10:06 Come la tecnologia ha migliorato l’archiviazione dati da 20 anni fa.
00:12:14 I vantaggi dei sistemi on-demand nei data lake.
00:13:31 Limitazioni dell’intelligence aziendale e il suo approccio obsoleto.
00:15:22 Confronto tra l’intelligence aziendale e i data lake e la loro capacità di supportare la presa di decisioni.
00:16:49 Complessità di implementazione: accesso alle fonti di dati e l’impatto sulle aziende multinazionali.
00:18:32 Adozione dei data lake: vantaggi per le aziende tecnologiche e il loro utilizzo nell’ottimizzazione cross-funzionale.
00:20:08 Il futuro dei data lake: aumento dell’accessibilità e dell’implementazione, prossimi passi con le API.
00:22:45 Conclusioni e considerazioni finali.

Riassunto

In questa intervista, Kieran Chandler e Joannes Vermorel, fondatore di Lokad, discutono dei data lake e del loro ruolo nell’ottimizzazione della supply chain. I data lake sono repository centralizzati di dati grezzi che consentono alle applicazioni basate su machine learning di prendere decisioni intelligenti. Vermorel evidenzia le limitazioni degli strumenti tradizionali di business intelligence, sottolineando che i data lake offrono un’analisi dei dati più efficiente e automatizzata. Egli ritiene che le aziende tecnologiche abbiano già adottato i data lake e si siano orientate verso l’implementazione di interfacce di programmazione delle applicazioni (API) per i loro sottosistemi, consentendo l’automazione end-to-end. Vermorel prevede che le grandi aziende adotteranno sempre più i data lake e le API nei prossimi cinque anni per una migliore presa di decisioni basata sui dati.

Riassunto Esteso

In questa intervista, Kieran Chandler discute dei data lake con Joannes Vermorel, fondatore di Lokad, un’azienda software specializzata nell’ottimizzazione della supply chain. Iniziano definendo i data lake e le loro origini. I data lake sono un tipo di database progettato per consolidare tutti i dati transazionali principali di un’azienda, come vendite, acquisti e livelli di stock. Questi database sono destinati all’uso da parte delle applicazioni, piuttosto che degli esseri umani, consentendo alle app basate sui dati di prendere decisioni intelligenti per il marketing, la supply chain, le risorse umane e altro ancora.

I data lake hanno una storia che risale all’archiviazione dati e ai data mart, tendenze di oltre 20 anni fa. Vermorel spiega che la differenza principale tra i data lake e i data warehouse risiede nella tecnologia e nella filosofia che li sostiene. I data lake sono più efficienti nel memorizzare e servire grandi quantità di dati, mentre il cloud computing li ha resi più accessibili e convenienti.

Vent’anni fa, un’azienda avrebbe dovuto acquistare un costoso dispositivo, come uno di Oracle, per ospitare il proprio data warehouse. Ora, con le piattaforme di cloud computing, le aziende possono avere data lake a pagamento scalabili e a prezzi competitivi. Questa flessibilità consente alle imprese di adattare facilmente il proprio approccio all’archiviazione dei dati, se necessario.

La filosofia che sta dietro ai data lake è anche evoluta rispetto ai data warehouse. L’approccio precedente metteva molta pressione sui reparti IT per organizzare e gestire correttamente i dati. I data warehouse erano progettati con data mart per diverse divisioni, come marketing, supply chain e finanza. Ciò creava sfide nella gestione e nell’accesso ai dati tra i diversi dipartimenti.

I data lake mirano a consolidare i dati in modo più centralizzato e accessibile, facilitando l’elaborazione delle applicazioni e la presa di decisioni intelligenti. Questo cambiamento di mentalità ha permesso una maggiore efficienza e flessibilità nella gestione e nell’utilizzo dei dati.

Vent’anni fa, l’archiviazione dati era un metodo popolare per gestire e organizzare i dati. Questo approccio richiedeva un elevato sforzo tecnico per collegare diverse tabelle di dati e richiedeva un modello unificato dei dati dell’azienda. Tuttavia, questo metodo spesso portava i reparti IT a essere sopraffatti dalla quantità di lavoro e risultava in molti progetti falliti.

Oggi, i data lake sono emersi come un approccio più snello ed efficiente alla gestione dei dati. I data lake fungono da repository per i dati grezzi estratti da vari sistemi come CRM, ERP e piattaforme web. Invece di cercare di organizzare o combinare i dati, vengono semplicemente depositati nel data lake, che può gestire grandi quantità di dati senza problemi.

Una delle sfide nell’utilizzo dei data lake è garantire che i dati siano accurati e aggiornati. I reparti IT sono responsabili di assicurare che il data lake contenga una riflessione accurata dei sistemi originali, ma non devono comprendere le implicazioni aziendali dei dati. La responsabilità di comprendere i dati all’interno del CRM, ad esempio, ricade sulle divisioni che lo utilizzano, come vendite o marketing. Questo approccio consente un’interpretazione dei dati più specifica del problema, poiché le diverse divisioni possono avere esigenze e prospettive diverse sui dati.

Il panorama tecnologico è cambiato significativamente dai tempi dei data warehouse, rendendo i data lake una opzione più fattibile. Innanzitutto, la qualità degli strumenti per spostare i dati su Internet è migliorata, rendendo più facile consolidare i dati da sistemi distribuiti, come le supply chain. Inoltre, l’infrastruttura Internet è migliorata, rendendo possibile anche per le piccole imprese spostare grandi quantità di dati senza difficoltà.

Inoltre, le piattaforme di cloud computing hanno reso i data lake più accessibili e convenienti. Queste piattaforme consentono iterazioni rapide e l’utilizzo on-demand, consentendo alle aziende di sperimentare con i data lake senza un rischio finanziario significativo.

Sebbene gli strumenti di business intelligence siano stati utili per le aziende per ottenere informazioni dai propri dati, sono fondamentalmente destinati al consumo umano. Ciò significa che le aziende devono pagare dipendenti per analizzare i dati anziché automatizzare il processo. I data lake, al contrario, consentono un’analisi dei dati più efficiente e automatizzata, rendendoli un’opzione interessante per le aziende multinazionali che desiderano migliorare la gestione dei dati.

Vermorel spiega i limiti degli strumenti tradizionali di business intelligence (BI), i vantaggi dei data lake e il futuro della gestione dei dati nell’ottimizzazione della supply chain.

Vermorel descrive la BI come una tecnologia datata che fornisce solo un’analisi di base dei dati in modo quasi in tempo reale. Questa tecnologia è stata rivoluzionaria 30 anni fa, consentendo alle aziende di accedere e aggregare i propri dati, ma non offre informazioni o decisioni operative. Al contrario, i data lake fanno parte di un quadro più ampio, fungendo da repository di archiviazione per dati grezzi provenienti da varie fonti. Le app basate sull’apprendimento automatico possono quindi elaborare efficientemente questi dati per generare decisioni operative che influenzano l’azienda e creano valore tangibile.

L’implementazione di un data lake dipende dalla complessità dell’accesso alle fonti di dati di un’azienda. Per le grandi aziende multinazionali, questo può essere un processo difficile, poiché ogni paese potrebbe avere il proprio sistema. Tuttavia, non ci sono alternative se un’azienda vuole ottenere informazioni e prendere decisioni basate sui dati. Vermorel ritiene che le piccole aziende tecnologiche abbiano già adottato i data lake e siano addirittura andate oltre implementando interfacce di programmazione delle applicazioni (API) per i loro sottosistemi. Ciò consente l’ottimizzazione interfunzionale e la presa di decisioni intelligenti.

Vermorel vede le grandi aziende che adottano sempre più i data lake nei prossimi cinque anni, poiché diventano più accessibili e convenienti. Le aziende che non implementano i data lake rischiano di essere superate da quelle che lo hanno già fatto. Tuttavia, i data lake non sono l’ultimo passo nella gestione dei dati. Vermorel suggerisce che le API sono il futuro, consentendo alle aziende non solo di leggere e analizzare i dati, ma anche di agire su di essi. Le API possono abilitare l’automazione end-to-end, generando decisioni automaticamente e implementandole all’interno del sistema.

Joannes Vermorel sottolinea l’importanza di andare oltre gli strumenti tradizionali di BI e di adottare i data lake per una più efficiente presa di decisioni basata sui dati nell’ottimizzazione della supply chain. Immagina un futuro in cui le grandi aziende implementano i data lake e le API per automatizzare i loro processi e prendere decisioni più intelligenti.

Trascrizione completa

Kieran Chandler: Oggi su Lokad TV, parleremo un po’ di più del concetto di data lake e capiremo perché le aziende dovrebbero interessarsene di più. Quindi Joannes, come sempre, forse dovremmo iniziare definendo un po’ meglio cosa sono i data lake e da dove vengono.

Joannes Vermorel: Un data lake è tipicamente un tipo di database con alcune particolarità, che è destinato a consolidare praticamente tutti i dati principali della tua azienda, in particolare tutti i dati transazionali come ciò che hai venduto, ciò che hai acquistato, i tuoi livelli di stock, e così via. L’intento e l’utilizzo finale del data lake è che dovrebbe essere per le app, non per gli esseri umani. L’idea è che si metta in atto un data lake in modo da poter avere app specifiche per il dominio che sono molto basate sui dati e possono utilizzare tonnellate di dati dal data lake per generare decisioni intelligenti per il marketing, le supply chain, le risorse umane o altro. Fondamentalmente, è un luogo in cui è possibile consolidare tutti i dati per servirli in batch alle app intelligenti. Per quanto riguarda la seconda parte della tua domanda, i data lake hanno una lunga storia, risalente all’idea di data warehousing e data mart.

Kieran Chandler: I data warehouse erano una tendenza che abbiamo visto probabilmente più di 20 anni fa. Quindi, cosa è cambiato tra allora e adesso, e quali sono le differenze chiave?

Joannes Vermorel: È interessante. Il termine di moda al giorno d’oggi è “data lake” e “data scientist”, mentre vent’anni fa era “data warehouse” e “data mining”, che sono fondamentalmente la stessa evoluzione delle stesse idee, solo rivisitate vent’anni dopo. Ciò che è cambiato sono parecchie cose. Innanzitutto, la tecnologia dei data lake è cambiata, quindi sono molto più efficienti nel memorizzare e servire grandi quantità di dati. Poi, abbiamo avuto il cloud computing nel mezzo, il che significa che al giorno d’oggi è possibile avere data lake completamente on-demand con una tariffazione pay-as-you-go per terabyte. Questo è abbastanza diverso rispetto a 20 anni fa, quando si doveva acquistare un apparecchio molto costoso, come quello di Oracle, per memorizzare tutti i dati. Oggi, con le piattaforme di cloud computing, è possibile avere terabyte pay-as-you-go e essere estremamente aggressivi in termini di prezzi.

Kieran Chandler: Questo riguarda più il lato tecnico delle cose. E per quanto riguarda la filosofia? Cosa è cambiato nella mentalità e nell’uso dei data lake rispetto ai data warehouse?

Joannes Vermorel: C’è stata effettivamente un’evoluzione significativa. Il problema dei data warehouse come erano concepiti vent’anni fa è che mettevano molta pressione sull’IT per organizzare correttamente i dati. Avevi persino un data warehouse che doveva organizzare i data mart, con un data mart previsto per ogni tipo di divisione, come marketing, supply chain, finanza, e così via. I data mart erano come sottoinsiemi o sussistenze all’interno del tuo data warehouse. Il problema di questo approccio, che era un po’ simile nello spirito ai data lake che abbiamo oggi, è che richiedeva molta organizzazione e gestione da parte dell’IT.

Kieran Chandler: Quello che è stato fatto per l’intelligence aziendale è che c’era un alto livello, un alto grado di aspettative sul fatto che ci sarebbe già stato un tipo di preparazione, organizzazione, sai, con cui hai collegato, sai, clienti a vendite a resi. Quindi, sai, unisci le cose insieme. Tutte le cose che vanno insieme, è un grande sforzo, in realtà. Tecnicamente, si tratta di unire tabelle, di collegare tutte quelle tabelle insieme con un giusto giunto Exeter. Quindi, vent’anni fa, la filosofia era di fare molto, ed era così che sarebbe stato abbastanza simile a ciò che veniva fatto per l’BI e abbastanza simile a ciò che veniva fatto naturalmente per i sistemi relazionali. Il problema di questo approccio era che la quantità di lavoro richiesta è completamente enorme, e quindi si finisce tipicamente con divisioni IT che erano completamente sopraffatte dalla quantità di requisiti che ricadevano su di loro a causa di questi progetti di data warehousing. Quindi, di conseguenza, spesso falliva perché, beh, l’IT non riusciva a consegnare. Ma cosa succede oggi? Voglio dire, sicuramente le cose si stanno un po’ confondendo ora che ci sono questi data lake.

Joannes Vermorel: I data lake, dal punto di vista filosofico, sono molto più snelli perché la filosofia è che il data lake è solo un destinatario per una pulita estrazione, ma una pulita estrazione di tutti i dati presenti in altri sistemi. Quindi, non cerchi di fare alcuna ricombinazione fantasiosa dei dati che provengono dal CRM, più i dati che provengono dall’ERP, più i dati che provengono dalla tua piattaforma web. Stai solo per estrarre quelle fonti di dati e scaricarle nel data lake. E il data lake si comporta bene grazie alla tecnologia, il che significa che puoi scaricare una grande quantità di dati e gestire il carico senza lamentarti. Se sei nel cloud, ti verrà addebitato.

Kieran Chandler: Come fai a sapere che i dati che stai effettivamente utilizzando sono dati validi? Voglio dire, come tieni traccia di quali dati sono aggiornati? Voglio dire, se li stai solo scaricando tutti in questo lago, come fai a tenerne traccia?

Joannes Vermorel: La responsabilità dell’IT con un data lake è assicurarsi che il data lake contenga una riflessione accurata di ciò che è presente nei sistemi originali. Ma ciò non richiede alcuna comprensione di ciò che sta accadendo dal punto di vista aziendale. Hai solo un CRM che ha 200 tabelle relazionali e le rifletti nel data lake, e questo è tutto. Non è necessario capire cosa sta succedendo nel CRM.

Kieran Chandler: Quindi, chi deve capire cosa sta succedendo all’interno del CRM?

Joannes Vermorel: Si scopre che sono le divisioni stesse che vogliono sfruttare i dati, e il problema è che l’interpretazione dei dati è altamente specifica del problema. Quindi, ad esempio, il modo in cui si guarda ai dati delle vendite è diverso se si vuole risolvere un problema di marketing o un problema di supply chain. Ecco perché, ed è stato anche uno dei motivi principali per cui, vent’anni fa, molte di quelle iniziative di data warehousing sono fallite. È perché la visione era quella di produrre un modello unificato dell’azienda, ma poi si è scoperto che era altamente frustrante per ogni divisione perché il marketing diceva: “Oh, non si adatta esattamente alla visione che ho del mio settore”, e la supply chain diceva la stessa cosa, e Finanza avrebbe detto la stessa cosa. Quindi, al contrario, l’idea è che ora è più come le divisioni stesse, come la supply chain, il marketing, la finanza, l’umano.

Kieran Chandler: Significa che non falliranno oggi. Voglio dire, ci sono un sacco di cose che cambiano. Una sfida particolare, soprattutto nella supply chain, è che per definizione stiamo affrontando sistemi distribuiti. Cosa intendo per distribuito? Intendo che non tutto è in un unico posto perché, per definizione, se hai più magazzini, non sono nello stesso posto. I tuoi fornitori non sono nello stesso posto dei tuoi magazzini, e nemmeno i tuoi clienti. Quindi, per definizione, stiamo guardando sistemi dispersi, e si desidera consolidare tutti questi dati in un unico luogo, che è il tuo data lake, che tecnicamente deve avvenire tramite la rete.

Joannes Vermorel: Ovviamente, vent’anni fa, internet era già stato inventato. Esisteva, ma la qualità degli strumenti per spostare i dati su internet era completamente diversa rispetto a quella che abbiamo oggi. E poi la rete stessa, la qualità della rete stessa, era anche completamente diversa. Oggi, se vuoi spostare, diciamo, per un’azienda non così grande, un’azienda con 1.000 dipendenti, quindi di dimensioni considerevoli ma non una mega-corporation. Vent’anni fa, se volevi spostare un gigabyte di dati al giorno su internet, era complicato.

Voglio dire, dovevi avere accesso alla fibra, ad esempio, a Parigi. Vent’anni fa c’era solo un luogo a Parigi dove potevi avere accesso alla fibra, che era l’area vicino alla borsa. C’era come un chilometro quadrato dove potevi facilmente avere accesso alla fibra. Altrove, dovevi posare la tua fibra se la volevi. Quindi, le mega-corporazioni potevano farlo, ma anche un’azienda di dimensioni considerevoli, sai, con 1.000 dipendenti, non poteva farlo. Questo è cambiato. Ora è molto semplice. Gli strumenti sono migliori, e puoi spostare letteralmente gigabyte senza troppi problemi.

E il fatto che hai sistemi on-demand, quei data lake non sono solo molto economici, grazie alle economie di scala di quelle piattaforme di cloud computing, ma il fatto che siano on-demand significa che puoi fare prove ed errori. Se provi solo a configurare un data lake e si rivela un completo fallimento, puoi semplicemente dire “elimina” e riprovare, e paghi solo per ciò che usi. Quindi, puoi iterare rapidamente. Non è come vent’anni fa quando dovevi impegnarti a comprare un apparecchio molto costoso, e se sbagliavi, era un grosso problema.

Kieran Chandler: E scommetto che quelle aree finanziarie hanno ancora la connessione internet più veloce. Cosa diresti a una grande azienda multinazionale che ha già una buona presa sui propri dati, che già comprende le cose utilizzando strumenti di business intelligence? Voglio dire, perché dovrebbero essere interessati a un data lake?

Joannes Vermorel: Il problema con la business intelligence è che, fondamentalmente, è pensata per gli esseri umani. È buona, ma significa che ogni minuto in cui le persone guardano quei numeri è un minuto in cui stai pagando un dipendente per guardare i numeri invece di fare qualcos’altro. Puoi facilmente produrre milioni di numeri, che richiederanno migliaia di ore di lavoro per essere elaborati, il che è estremamente costoso.

Quindi, il problema è che la business intelligence, come la vedo io, è un tipo di tecnologia abbastanza datata. Era un modo per ottenere un’analisi di base dei tuoi dati in modo relativamente in tempo reale. Era molto interessante perché, se torniamo indietro di 30 anni, che è il momento in cui è stata fondata Business Objects, erano l’azienda che. E altrimenti, semplicemente non potevi sapere che non potevi eseguire query sincronizzate che ti fornivano queste informazioni: quante unità vengono vendute al giorno, per prodotto, e così via. Questo non era possibile con la business intelligence. Improvvisamente, era possibile avere questo cubo, puoi persino avere ipercubi, e ancora meglio, puoi averlo molto, molto bello. Ma alla fine, stai solo guardando una super aggregazione di dati, e questa aggregazione non è una decisione. Non ti dice se dovresti aumentare o abbassare il prezzo, non ti dice se dovresti produrre di più o di meno, non ti dice se, da un lotto di produzione di 1000 unità, dovresti mettere 100 unità su un aereo per una consegna più veloce. Fondamentalmente, si tratta solo di ottenere informazioni quantitative. Quindi, la grande differenza tra, sai, la BI e il data lake è che il data lake arriva con l’idea che è fondamentalmente un ingranaggio in un quadro più ampio in cui, seduto di fronte al data lake, avrai tipicamente un’app basata sull’apprendimento automatico che elaborerà i dati serviti in modo super efficiente dal data lake per generare decisioni automaticamente. E queste decisioni sono qualcosa che ha un impatto fisico sulla tua azienda e che creerà un valore tangibile in un certo senso.

Kieran Chandler: Ok, quindi se concordiamo sul fatto che gli strumenti di business intelligence hanno dei limiti, e se si tratta di un’implementazione di un data lake, quanto è effettivamente facile farlo? È solo una questione di caricare tutti questi dati nel cloud e poi sei a posto?

Joannes Vermorel: La complessità nell’implementazione di un data lake è strettamente proporzionale alla complessità nell’accesso alle tue fonti di dati, nel senso letterale del termine, senza fare nulla di intelligente con esse. Quindi, questo significa che, per le grandi multinazionali, se hai ogni singolo paese della tua azienda che ha il proprio sistema, beh, indovina un po’? Avrai tanti tipi di data lake da creare per poter portare i dati da ogni singolo paese al data lake. Ma voglio dire, è sfortunato che tu non abbia alternative perché l’unica alternativa è avere un’integrazione diretta con i paesi direttamente, e questo è ancora più costoso perché se hai due divisioni, diciamo marketing e supply chain, che vogliono accedere ai dati sulle vendite, pagherai per questa integrazione due volte. Quindi l’idea con un data lake è che, mentre lo fai una volta, e poi è nel data lake, il che lo rende molto adatto al resto dell’azienda per accedere ai dati. Quindi la complessità dipende completamente da ciò che hai. Ma anche, ancora una volta, se torniamo alla tua citazione iniziale, se non hai dati, sei solo un uomo con un’opinione. Beh, non hai alternative per recuperare questi dati da nessuna parte se vuoi fare qualsiasi tipo di misurazione.

Kieran Chandler: Mettiamo insieme le cose adesso. Se ci sono così tanti aspetti positivi nei data lake e sembra piuttosto semplice, è solo un grande contenitore di dati alla fine della giornata, perché non viene adottato prontamente dall’industria al momento?

Joannes Vermorel: Si scopre che le piccole aziende tecnologiche hanno adottato i data lake molto tempo fa, e sono andate oltre con, direi, l’API-ficazione della loro azienda, il che significa che si mette un’API (Application Programming Interface) su ogni sottosistema, che è il passo successivo che avviene dopo il data lake. Quindi, direi che il commercio elettronico intelligente, ad esempio, ha già consolidato i loro dati, e così via.

Kieran Chandler: Devi dare un’occhiata sia oggi, che proviene dal sito web, a ciò che paghi per il marketing di merci sui motori di ricerca, sai, gli annunci di Google e così via, e agli ordini incrociati. Sono in grado di prendere decisioni intelligenti in termini di azioni di marketing diretto e così via. In termini di aziende puramente tecnologiche come Microsoft o Google, hanno fatto cose simili, sai, letteralmente da decenni. Voglio dire, Google esiste solo da due decenni, ma altre aziende come tutte le aziende tecnologiche lo fanno da parecchio tempo ormai. Quindi, se lo hanno fatto per decenni, cosa succederà in futuro? Faremo un tuffo in un oceano di dati a volte?

Joannes Vermorel: Sì, voglio dire, quello che vedo come prossimo passo è che le aziende che sono molto orientate alla supply chain, ora che i data lake sono diventati molto accessibili e convenienti, implementeranno questi data lake. Vediamo tra i nostri clienti che molti clienti che un anno fa non avevano un data lake ora ne hanno uno. Direi che c’è stato un punto di svolta negli ultimi due anni per quanto riguarda i data lake. Quindi, sospetto che la maggior parte delle grandi aziende, entro i prossimi probabilmente cinque anni, avranno effettivamente implementato i propri data lake, perché altrimenti sarebbero completamente superate da tutte le grandi aziende che lo avranno fatto per loro.

Ma ci sono anche dei limiti, in particolare, un data lake è solo una copia in sola lettura di tutti i dati che si trovano in altri sottosistemi. Ecco perché dicevo che il passo successivo è far esporre tutte le API dei sottosistemi, le interfacce di programmazione delle applicazioni, perché è quello che ha fatto Amazon. Queste API ti permettono di fare ancora di più, improvvisamente non sei solo in sola lettura, puoi anche agire. L’idea è che puoi consolidare tutti i dati, leggere, elaborare, prendere tutte quelle decisioni, e poi cosa facciamo con quelle decisioni che sono state calcolate? La risposta è che puoi inviare il foglio di calcolo Excel spreadsheet alla divisione corretta in modo che implementino le tue decisioni, come ad esempio gli acquisti. Ma se c’è un’API, puoi chiamare direttamente questa API per iniettare l’ordine di acquisto per questo prodotto, di questa quantità, da questo fornitore, specificando anche il trasporto e così via. Quindi puoi effettivamente, se hai le API, avere automazioni end-to-end in cui non solo generi automaticamente la decisione, ma poi implementi automaticamente fisicamente queste decisioni perché vengono reiniettate in uno dei sistemi.

Kieran Chandler: Ok, dobbiamo fermarci qui, ma grazie per il tuo tempo oggi. Quindi è tutto per questa settimana. Grazie mille per averci seguito, e ci rivedremo la prossima volta. Ciao per ora.