00:00:00 Introduzione dello show e impatto dell’AI sui lavori d’ufficio
00:02:20 Introduzione dei Large Language Models (LLMs)
00:03:27 La presa di coscienza di Joannes sull’AI generativa e GPT-4
00:05:44 Gli LLMs come macchina universale di templating
00:07:05 Joannes sul potenziale dell’automazione e il cambiamento della sua prospettiva
00:10:38 Sfide nell’automatizzare la comunicazione con i fornitori
00:12:24 Sintesi dell’impatto degli LLMs
00:14:11 Problemi banali nell’automazione
00:15:59 Portata di un evento a livello di estinzione
00:17:48 Comprensione del gergo industriale da parte dell’AI
00:19:34 Incertezze sull’impatto dell’AI sui lavori
00:21:52 Sistema di risposte automatizzate e importanza dell’automazione end-to-end
00:28:08 Aziende che già automatizzano i processi
00:30:36 Migliorare l’efficienza e guadagnare un vantaggio competitivo con l’AI
00:34:28 Prontezza del mercato per l’AI
00:36:27 Origini dello sviluppo dell’AI
00:38:55 Automatizzare le parti difficili nella supply chain
00:41:36 La società si arricchisce grazie all’automazione dei lavori
00:44:23 Futuro dello studio della supply chain science
00:46:54 Transizione alle domande del pubblico
00:50:12 Ripensare la roadmap tecnologica di Lokad
00:52:29 Inizio della sessione di Q&A
00:55:00 Prospettiva finanziaria nella supply chain
00:58:46 Domanda sul pricing e l’impatto sul risultato economico
01:01:00 LLMs per piccoli problemi banali e compiti
01:07:17 Intelligenza generale ed eventi di estinzione
01:09:49 Impatto dell’AI su piccole e medie imprese
01:13:02 Benefici dell’automazione in Lokad
01:17:55 Prevedere eventi di estinzione per chi non adotta la tecnologia
01:20:32 Parigi come esempio di progresso tramite automazione
01:22:20 Domanda sul successo della collaborazione tra AI e umano
01:26:19 Limitazioni dell’intelligenza umana di alto livello
01:28:31 Domanda sull’AI nelle supply chain dei piccoli paesi
01:32:25 L’AI come equalizer per i paesi in via di sviluppo
01:34:05 Semplicità e impatto della macchina da cucire
01:35:31 Evoluzione, non rivoluzione
01:36:19 Considerazioni finali
Sommario
In una conversazione tra Conor Doherty e Joannes Vermorel di Lokad, Vermorel prevede che intelligenza artificiale (AI) porterà a un’estinzione di massa dei lavori d’ufficio white-collar entro il 2030, molto prima delle previsioni precedenti. Egli attribuisce questo al successo dei Large Language Models (LLMs), che ritiene impatteranno tutti i lavori d’ufficio, in particolare nella supply chain. Vermorel sostiene che l’obiettivo debba essere l’automazione completa dei lavori ripetitivi, liberando notevoli miglioramenti in termini di produttività. Prevede che molte aziende inizieranno a rimuovere le persone da queste posizioni in pochi mesi. Vermorel suggerisce che le attività che richiedono un’intelligenza umana elevata, come le decisioni strategiche, siano ancora al di là delle capacità degli LLMs.
Sommario Esteso
In una recente conversazione tra Conor Doherty, Responsabile della Comunicazione di Lokad, e Joannes Vermorel, CEO e fondatore della stessa azienda, i due hanno discusso le implicazioni dell’intelligenza artificiale (AI) e dell’ottimizzazione della supply chain. Vermorel ha espresso la sua convinzione che l’AI porterà a un evento di estinzione di massa per i dipendenti white-collar dell’ufficio. Ha fatto riferimento a previsioni passate secondo cui l’AI avrebbe eliminato il 90% dei lavori white-collar entro il 2050, ma egli crede che ciò avverrà molto prima, entro il 2030.
Il punto di svolta, secondo Vermorel, è il successo dei Large Language Models (LLMs), che impatteranno tutti i lavori d’ufficio white-collar, soprattutto quelli nella supply chain. Vermorel ha ammesso di non aver colto subito la rivoluzione degli LLMs, realizzandone il potenziale circa 18 mesi fa, quando ha iniziato a lavorare con l’AI generativa. Ha condiviso la sua esperienza con GPT-4, un modello di OpenAI, e come questo gli abbia aperto gli occhi sul potenziale produttivo di tale tecnologia. Ha spiegato che GPT-4 è di un ordine di grandezza più intelligente di GPT-3.5, e una volta compreso il funzionamento, è possibile adattarlo anche per lavorare con GPT-3.5.
Vermorel ha descritto gli LLMs come una macchina universale di templating, incredibilmente potente e resiliente al rumore. Ha spiegato di aver riscritto l’intera roadmap di Lokad più di un anno fa, automatizzando un compito dopo l’altro negli ultimi 12 mesi. Ha espresso stupore per la portata di ciò che può essere ottenuto tramite l’automazione e per la difficoltà nel trovare problemi che non possano essere automatizzati. Ha aggiunto che Lokad ha automatizzato la parte più complessa, le decisioni quantitative, già un decennio fa, e che il resto è stato automatizzato negli ultimi 12 mesi con l’aiuto dei moderni LLMs.
Vermorel ha spiegato che l’automazione, in particolare per le attività linguistiche, ha già superato la capacità e l’intelligenza umana in termini di velocità e accuratezza. Ha fatto l’esempio di come i large language models (LLMs) siano bravi ad evitare errori comuni, come interpretare erroneamente il colore indicato in un nome di prodotto come se fosse il colore reale dello stesso. Vermorel ha paragonato gli LLMs a un servitore che conosce la terminologia e il gergo di ogni settore, risultando superiore alla persona media, meno familiare con termini tecnici specifici. Ha affermato che la vera domanda è: cosa non può essere automatizzato, poiché finora tutto ciò che hanno sperimentato ha funzionato.
Vermorel ha contestato l’idea che l’AI funzioni da co-pilota per aiutare gli umani a prendere decisioni, sostenendo che l’obiettivo debba essere l’automazione end-to-end completa per i lavori ripetitivi, capace di sbloccare significativi miglioramenti in termini di produttività. Ha osservato che i lavori non ripetitivi sopravvivranno, ma molte attività apparentemente non ripetitive su base giornaliera lo sono nel corso dell’anno. Ha confermato che i tempi per l’automazione saranno estremamente ridotti e che diverse aziende stanno già procedendo rapidamente in questa direzione.
Vermorel ha spiegato che le precedenti rivoluzioni tecnologiche erano limitate a settori specifici, mentre i large language models si applicano a quasi tutti i lavori white-collar, in particolare quelli d’ufficio. Ha evidenziato che il mercato si muoverà più lentamente rispetto all’automazione interna, poiché le aspettative del pubblico ampio determinano il ritmo. Ha sottolineato che ai clienti non importa se la produzione venga eseguita interamente in modo automatizzato o tramite impiegati.
Vermorel ha previsto che l’automazione dei lavori white-collar sarà una sorpresa, ricordando però che i lavori blue-collar hanno subito cambiamenti simili negli ultimi 150 anni. Ha citato l’esempio dei portatori d’acqua a Parigi, un lavoro estinto con l’introduzione degli impianti idraulici. Ha discusso di come l’automazione abbia già reso superflue certe attività, come il confronto riga per riga delle bozze contrattuali, ora svolto da Microsoft Word. Ha descritto il ritmo di questi cambiamenti come graduale, fino all’arrivo degli LLMs, che secondo lui fanno sentire come se si camminasse 20 anni nel futuro in appena un anno.
In risposta a una domanda sul futuro della supply chain science, Vermorel ha sostenuto che i fondamenti insegnati nei suoi corsi sulla supply chain non saranno automatizzati. Ha esortato a concentrarsi su queste questioni fondamentali anziché sulle banalità che saranno automatizzate dagli LLMs. In sintesi, ha affermato che gli LLMs rappresentano un evento di estinzione per le funzioni aziendali d’ufficio, prevedendo che molte aziende inizieranno a eliminare tali posizioni in pochi mesi, esortando ad un’azione rapida.
In risposta a una domanda su quali titoli di lavoro potrebbero diventare obsoleti, Vermorel ha elencato supply and demand planner, inventory analyst e category manager. Ha suggerito che ruoli come Supply Chain Scientist, che comprendono la creazione di numerical recipes e il pensiero strategico, non saranno automatizzati. Vermorel ha spiegato che Lokad ha automatizzato non solo decisioni fondamentali quali la pianificazione, la programmazione, gli acquisti, la produzione, l’allocazione e l’aggiornamento dei prezzi, ma anche i processi circostanti, come la gestione dei dati anagrafici, la comunicazione e le notifiche ai clienti e fornitori.
In risposta a una domanda rivolta ai giovani che entrano nel settore della supply chain, Vermorel ha suggerito di concentrarsi sulla comprensione strategica, il pensiero critico e sulle competenze di programmazione. Egli crede che gli LLMs non sostituiranno queste abilità, ma ne incrementeranno la produttività. Vermorel ha previsto che le soluzioni supply chain guidate dall’AI avranno un impatto più marcato sulle aziende più piccole rispetto a quelle più grandi, spiegando che l’elevata produttività di questi strumenti rende l’automazione accessibile anche alle piccole imprese, permettendo loro di competere con realtà più grandi.
Vermorel ha affermato che l’automazione in Lokad ha migliorato la qualità e aumentato la produttività. Ha osservato che è ancora presto per notare l’impatto sui tassi di abbonamento e altre metriche, a causa dei cicli di vendita lenti del enterprise software. Ha messo in guardia dal fare troppo affidamento sui numeri, citando il fallimento di Kodak nell’adattarsi alla fotografia digitale. Ha previsto che le aziende in grado di automatizzare i loro processi saranno più agili e affidabili, mentre quelle che non lo faranno non sopravvivranno, paragonando la situazione ad un evento di estinzione.
Vermorel ha sottolineato l’importanza di liberare le persone dai lavori noiosi per il miglioramento sia della supply chain che della crescita complessiva dell’azienda. Crede che ciò permetterà agli individui di pensare in modo strategico, evitando di essere distratti da compiti minori. Ha spiegato che la collaborazione tra umani e macchine non è quella idealizzata, ma si tratta piuttosto di automatizzare completamente le attività, come la traduzione del sito web di Lokad e i timestamp dei video di Lokad TV, ora eseguiti in automatico. Ha suggerito che la vera domanda è: cosa non può essere automatizzato?
Vermorel ha affermato che le attività che richiedono un’intelligenza umana elevata, come decisioni strategiche e questioni macro per l’azienda, restano al di là delle capacità degli LLMs. Ha spiegato che gli LLMs sono incredibilmente accessibili e non richiedono una forza lavoro eccezionalmente talentuosa o una connessione internet ad alta larghezza di banda. Ha sottolineato come questa tecnologia sia economica e possa rappresentare un grande equalizzatore per i paesi con risorse limitate.
Vermorel ha concordato con il paragone di Conor e ha messo in guardia le aziende affinché non perdano questa evoluzione. Ha suggerito che le aziende che non adotteranno questa tecnologia ora potrebbero non essere in grado di recuperare il ritardo in futuro.
Trascrizione Completa
Conor Doherty: Benvenuti a Lokad Live. Mi chiamo Conor. Sono il Responsabile della Comunicazione di Lokad. Nel nostro studio è presente il fondatore di Lokad, Joannes Vermorel. L’argomento di oggi potrebbe essere il più serio che abbiamo mai affrontato nello show: una discussione franca e distaccata sul vero stato dell’arte dell’AI e della supply chain e, soprattutto, su cosa significhi per le persone che operano in questo settore. Questa conversazione è pensata per essere interattiva, quindi se avete domande, vi preghiamo di inviarle nella chat live e risponderemo al maggior numero possibile durante il tempo a disposizione. Allora, Joannes, evitiamo giri di parole: perché siamo qui?
Joannes Vermorel: Credo che ci troviamo di fronte a qualcosa che probabilmente sarà definito un evento di estinzione di massa per i dipendenti white-collar dell’ufficio. Cinque anni fa, molti consulenti proponevano studi in cui si affermava che, entro il 2050, l’AI avrebbe eliminato il 90% dei lavori white-collar. Le ragioni e le tecnologie invocate in quei rapporti erano completamente infondate, e anche la tempistica si è rivelata errata. Tuttavia, l’unico dato vero era il 90%. E ora, a mio avviso, il periodo sarà molto più breve: non sarà il 2050, ma il 2030. Ciò che ha cambiato le carte in tavola è stato il successo degli LLMs (Large Language Models). Questi impatteranno praticamente tutti i lavori white-collar dell’ufficio, soprattutto quelli nella supply chain. Il cambiamento sta arrivando a una velocità impressionante, ben più rapida di quanto immaginassi 18 mesi fa.
Conor Doherty: Hai fatto riferimento a consulenti che speculavano sul corso di questa evoluzione o estinzione, come dici tu. Che cosa è esattamente accaduto lo scorso anno con l’emergere degli LLMs che ha accelerato questa evoluzione?
Joannes Vermorel: La vera rivoluzione risale a circa tre anni fa. Io l’ho mancata; ho compreso cosa stava succedendo solo circa 18 mesi fa. A quel tempo, ho iniziato a sperimentare con l’AI generativa. Abbiamo realizzato un’intervista a riguardo quasi un anno e mezzo fa. All’epoca osservavo queste tecnologie: l’AI generativa esisteva da 20 anni e progrediva ogni singolo anno. Cominciavo a rendermi conto che poteva essere usata a fini produttivi, anche se all’inizio si limitava a piccole applicazioni, come generare alcune illustrazioni per le lezioni.
Poi sono arrivati gli LLMs e i chatbot. Erano interessanti, ma li consideravo solo come gadget sofisticati, senza comprenderne appieno le potenzialità. La mia percezione è cambiata quando ho iniziato a lavorare con GPT-4, in versione beta, poco più di un anno fa. Ho realizzato che questa tecnologia è adatta alla produzione. Il salto è stato semplicemente enorme. Ho compreso, con GPT-4 – un modello di OpenAI – come GPT-3.5, presente da diversi anni, fosse concepito per essere utilizzato. La cosa sorprendente è che ci è voluto un secondo balzo, con GPT-4, per arrivare a capire: GPT-4 è di un ordine di grandezza più intelligente di GPT-3.5.
Ma una volta che inizi a capire come funziona, ed è molto più facile con GPT-4 perché GPT-4 è così tanto migliore, puoi adattare ciò che funziona e renderlo bello e fluido affinché funzioni anche con GPT-3.5. La consapevolezza è stata che l’LLM è incredibilmente potente, ma se vuoi usarlo per scopi produttivi, per l’impresa, per scopi aziendali, non si tratta di avere un chatbot. La cosa interessante è che hai una macchina di templating universale. Questo è ciò che è completamente incredibile. È molto resiliente al rumore. Poco più di un anno fa, ho realizzato che era a livello di produzione. Avevamo trascurato qualcosa che 18 mesi fa rappresentava un assoluto e stupefacente progresso. Ho riscritto interamente la roadmap di Lokad più di un anno fa. Nell’ultimo anno siamo stati freneticamente impegnati ad aggiornare praticamente tutto. Siamo rimasti piuttosto in silenzio in fatto di comunicazione su questo, ma nel corso degli ultimi 12 mesi abbiamo automatizzato una cosa dopo l’altra. Cose che qualche anno fa sembravano quasi impossibili da automatizzare sono state automatizzate.
Quando osservo i lavori nelle supply chains, posso vedere che l’entità di ciò che può essere realizzato come qualcosa di completamente robotizzato è semplicemente stupefacente. È addirittura difficile trovare oggi problemi che non possano essere automatizzati. In passato, automatizzare ogni singola attività era una sfida. Da Lokad, abbiamo automatizzato già un decennio fa quella che era la parte più difficile, ossia le decisioni quantitative. Le decisioni quantitative riguardavano per esempio quante unità acquistare o produrre, oppure se aumentare o diminuire il prezzo. Quelle risposte quantitative sono state automatizzate un decennio fa. Ma ciò che è accaduto negli ultimi 12 mesi è stato tutto il resto. Tutto il resto è diventato economico, super veloce e facile grazie a questi moderni LLM.
Conor Doherty: Non voglio fraintendere, perché la prossima domanda sarebbe probabilmente: “Bene, quali lavori spariranno?” Ma in realtà, vorrei tornare indietro di un passo. Come hai esplicitamente affermato un anno fa, ci siamo seduti qui e hai definito GPT-3.5 un “BS artist” paragonandolo a un gatto. Quindi, la domanda è: cosa esattamente, quando descrivi quella sensazione di vertigine, ti ha portato da “è un gatto” a “siamo in un evento di estinzione”?
Joannes Vermorel: È ancora piuttosto stupido, ma non è ciò che desideri. Il fatto è che gli LLM non servono a sostenere una discussione intelligente. È piacevole, e GPT-4 spinge piuttosto in quella direzione. Questo è stato davvero sorprendente. Ma ancora, il punto di forza sono quelle macchine di templating universale di cui parlavo. Facciamo un esempio. Vuoi inviare un ordine d’acquisto a un fornitore e ti accorgi che non hai il MOQ. Dovresti mandare un’email al fornitore dicendo: “A proposito, per quei prodotti, qual è il tuo MOQ, la quantità minima d’ordine? Dammi il numero.” Poi la persona risponderà e tu dovrai semplicemente aggiungere questo valore da qualche parte nel tuo sistema in modo da poter calcolare il resto. Questo fa parte del processo decisionale.
Lokad stava automatizzando questo processo. Quello che facevamo era: se conosciamo il MOQ, ti forniamo, insieme a ogni sorta di altro dato, la risposta corretta su quanto dovresti acquistare. Ma ottenere il valore del MOQ in sé era come un enigma: come lo gestisci? Non è un problema difficile. Puoi certamente creare un sistema automatizzato con un modello di email, e poi dovrai passare la risposta – e passare la risposta è complicato perché il fornitore potrebbe rispondere in modo da fornire, per esempio, due MOQs. Per questo prodotto, uno; per quell’altro, un altro. Come gestirlo? Fondamentalmente non è un problema difficile. Non è come un calcolo sofisticato. Ma questo era sicuramente un ostacolo che ci impediva di robotizzare l’intera esecuzione del processo end-to-end.
Potremmo automatizzare la parte decisionale, ma non l’esecuzione end-to-end della decisione, tenendo conto di ciò che deve accadere prima e dopo il passaggio decisionale. Ora, con gli LLM, dove hai quelle macchine di templating universale, se ricevi un’email tipo “qual è il MOQ riportato dal fornitore, bla, bla, bla”, puoi letteralmente automatizzare queste cose in modo super, super veloce.
Quindi, se chiedi a GPT, un LLM, di inventare cose, andrà in allucinazione. È questo che fanno. Ma se li usi correttamente – e li usi nel modo giusto, cioè: “ho un input, desidero una trasformazione, ed estraggo l’informazione dall’input trasformato” – ottieni qualcosa di incredibilmente robusto e a livello di produzione. E infatti, quando osservi cosa fanno gli addetti al back office, i lavoratori impiegatizi, stanno raccogliendo piccoli frammenti d’informazione qua e là. Passano circa il 90% del tempo in questa attività, un po’ di chiacchiere con l’ambiente circostante. E ora hai una macchina universale che automatizza tutto ciò ed è estremamente semplice ed economica.
Conor Doherty: Quindi, per riassumere tutto questo fino a questo punto, e ancora una volta, Lokad lo fa da anni: l’aspetto decisionale più quantitativo è stato automatizzato usando altre forme di IA. Oggi stai parlando degli elementi interpersonali, più qualitativi, che sono anch’essi soggetti ad automazione tramite LLM.
Joannes Vermorel: Esatto, pensa solo che vuoi inviare i tuoi ordini d’acquisto. C’è da calcolare la quantità, ed è questo ciò che Lokad ha fatto per oltre un decennio. Ma poi ci sono ogni sorta di piccole cose che devono accadere. Che succede se ci sono due prodotti duplicati? Quindi, hai ad esempio due prodotti, due volte la stessa referenza. Come gestisci ciò? La risposta in passato era che era complicato. Si poteva utilizzare un po’ di machine learning e un po’ di tecniche NLP specializzate per eliminare automaticamente i duplicati dal catalogo. Sì, in passato ci volevano, diciamo, 50 ore di ingegneria software per ottenere qualcosa che funzionasse.
Ora, con gli LLM, questa deduplicazione di cui parlo richiede letteralmente 20 minuti di lavoro e poi avrai una soluzione a livello di produzione per eliminare i duplicati. Vedi, l’entità di tutto ciò è assolutamente stupefacente. E ci sono tutte quelle piccole cose che ostacolavano, ed è per questo che le aziende hanno bisogno di tutte quelle persone, perché non si tratta del grande problema che richiede molto tempo. Il grande problema, come il calcolo della quantità, era già in qualche modo meccanizzato, ma erano i piccoli problemi ordinari – problemi di qualità dei dati, duplicazioni, un dato mancante come il MOQ – a ostacolare.
Quando un fornitore è in ritardo, vuoi mandare un’email per ottenere una stima rivista del tempo di arrivo, e poi ricevere la risposta. Queste cose non sono super complicate, ma in passato era già possibile automatizzarle; però ogni singola domanda e micro-attività come queste richiedeva circa 50 ore di ingegneria per essere risolta, e questo è tanto, perché se ne hai 100, parliamo di migliaia di ore uomo, e alla fine ti ritrovi con un progetto che, come ho discusso nelle lezioni, ha un costo di gestione che non è lineare, anzi super lineare.
Quindi, se raddoppi la complessità, in genere moltiplichi il costo di manutenzione non per due ma per quattro. Aggiungendo tutte queste cose, si creava un software mostruoso che era molto difficile da gestire, aggiornare ed estendere. Se, come blocco fondamentale, hai qualcosa come gli LLM in cui queste funzioni sono centralizzate, non solo quei compiti possono essere risolti in circa 20 minuti, ma la complessità complessiva del tuo prodotto software cresce molto più lentamente di quanto faceva in passato, perché il prodotto rimane estremamente semplice, ed è lo stesso espediente: questo LLM viene usato ad ogni passaggio per risolvere tutti quei piccoli imprevisti lungo il percorso.
Conor Doherty: Qual è allora la portata di tutto ciò quando parli di un evento a livello di estinzione? Puoi spiegare le implicazioni?
Joannes Vermorel: Ho lavorato con gli LLM e abbiamo automatizzato compiti a destra e a manca. Vedo altre aziende che fanno lo stesso, specialmente per quanto riguarda compiti linguistici come riorganizzare informazioni, riassumere dati, estrarre informazioni da un’email e così via. La cosa incredibile è che siamo già al di là delle capacità umane, al di là dell’intelligenza umana.
Quando dico “oltre l’intelligenza umana”, intendo in un tempo limitato. Se ti fornisco un’email in input e ti chiedo di estrarne l’informazione chiave in 20 secondi, a volte commetterai errori come essere umano. Se ti do mille email e ti chiedo di estrarre l’informazione chiave da ciascuna in 20-30 secondi, avrai un tasso di successo di forse il 98% e a volte farai errori.
Tuttavia, gli LLM non solo lo faranno in un secondo anziché in 30, ma la loro precisione sarà ben al di sopra di quella di una persona media, anche se addestrata. Ecco perché dico che siamo letteralmente oltre l’umano.
Per molte cose, come evitare errori da principiante, gli LLM sono incredibilmente efficaci. Ad esempio, se c’è un colore nel nome di un prodotto, magari quel colore non indica che il prodotto sia effettivamente di quel colore. Forse è uno strumento per fare un controllo e il colore nel nome non ha nulla a che vedere con il colore reale del prodotto. Questo è il genere di cose in cui gli LLM sono realmente eccezionali.
È come avere un servitore che conosce molto bene la terminologia e il gergo di praticamente ogni settore esistente sulla Terra. All’improvviso, hai qualcosa che è un po’ oltre l’umano, perché se prendi una persona a caso, essa non conosce immediatamente i termini tecnici specifici del tuo settore, e probabilmente, per mesi se non anni, farà errori per ignoranza, non sapendo che quel termine è fuorviante e, per esempio, si tratta di un termine che indica un colore ma non si riferisce a un colore in questo contesto. È più una caratteristica del prodotto o simili, e gli esempi sono infiniti.
E da Lokad, letteralmente, abbiamo meccanizzato una miriade di cose, e la vera domanda è: “Cosa non possiamo automatizzare?” Ed è una domanda difficile, perché finora praticamente ogni cosa che abbiamo provato ha funzionato direttamente, senza problemi. La cosa che lascia a bocca aperta è che, una volta compreso a cosa servono questi LLM, puoi automatizzare così tanto, davvero tanto.
Conor Doherty: Per prendere la posizione di un potenziale scettico, se metti a confronto i lavori impiegatizi e quelli manuali, per decenni si è parlato di come robot, macchine e altre forme di tecnologia avrebbero tolto gli strumenti dalle mani dei meccanici. Eppure in molti settori, come nell’MRO, ci sono parti del mondo dove c’è una carenza critica di tecnici in grado di lavorare sugli aerei. Quell’evento a livello di estinzione si è rivelato errato. Quanto sei sicuro di ciò che dici oggi, nel contesto di proclami simili fatti in passato? Cosa ti rende così certo?
Joannes Vermorel: Voglio dire, prima di tutto, ciò che mi rende sicuro e fiducioso è che lo stiamo facendo da un anno, e letteralmente, per farti un esempio delle cose che abbiamo meccanizzato da Lokad, le RFP, cioè le richieste di proposta. Riceviamo documenti Excel giganteschi inviati da grandi aziende con un numero insano di domande, tipo 600 domande. E all’inizio di quest’anno, credo fosse a maggio o qualcosa del genere, ho detto: “Ok, abbiamo un’altra RFP da 600 domande. Ci vogliono letteralmente una settimana, 10 giorni, intere giornate, per rispondere a tutto ciò. Voglio dire, è un vero tormento dover esaminare quei documenti massicci.” Scusate.
E poi ho deciso: “Ok, meccanizzo tutto questo e riciclo l’intera base di conoscenza che avevamo già da Lokad per creare una segreteria telefonica.” Sai, una segreteria telefonica. Quindi, avevamo già i documenti, avevamo tonnellate di informazioni, e il compito della macchina era semplicemente: “Scrivi una risposta alla domanda proprio come farebbe Lokad. Riutilizza la base di conoscenza che abbiamo. E se c’è una lacuna nella base, rispondi semplicemente ‘fail’, e poi ci occuperemo manualmente del resto.”
E letteralmente, realizzare una RFP richiedeva più di una settimana, e automatizzare il processo RFP mi ha preso una settimana. Quindi, nel momento in cui avevo “ingegnerizzato” i robot, avevo già un ritorno positivo. Sai, al termine della mia automazione, rigeneravo le risposte e la cosa presentava meno del 10% di domande alle quali dovevo ancora rispondere manualmente ed estendere la base di conoscenza di Lokad.
Ma la cosa interessante è stata quando abbiamo inviato le nostre risposte tramite il sistema online: hai un processo di invio, invii e poi ti ritrovi, diciamo, 600 domande, e ricevi una risposta automatizzata basata sulle tue risposte e sulle caselle selezionate. Ecco altre 100 domande che sono state generate. E così, abbiamo ripetuto il processo. Abbiamo pensato: oh, ne abbiamo già fatte 600.
A proposito, alla fine si trattava di più di 100 pagine di risposte, quindi un documento davvero molto, molto lungo da inviare. E poi lo invii, e il sistema che gestisce il processo RFP ti restituisce altre 100 domande. E ancora, abbiamo riutilizzato gli strumenti e in poche ore eravamo finalmente a posto. E da allora, tutte le RFP che abbiamo fatto, utilizziamo semplicemente questo strumento – ed è solo un esempio tra letteralmente decine.
Conor Doherty: Ci sono però aziende che adottano un atteggiamento molto diverso dal tuo. Credono che l’IA generativa, i large language models di cui stiamo parlando, diventeranno fondamentalmente una sorta di co-pilota per le persone attualmente nel settore, come demand planners e supply chain practitioners. Credono che non sarai sostituito dall’IA, ma che essa ti supporterà, sarà un co-pilota che ti aiuterà a prendere tutte le decisioni, sia quantitative che qualitative, che dici spariranno. Perché questo è sbagliato?
Joannes Vermorel: Quindi, questo era, a proposito, il tipo di cose che immaginavo prima della mia epifania, sai, 18 mesi fa. Se pensi in questo modo, no, gli LLM saranno una completa schifezza. Diventeranno un giocattolo e ti perderai completamente il punto. Ti perderai completamente il punto. Perché? Beh, vedi, innanzitutto, avere un’interfaccia utente conversazionale è un giocattolo. Non è – voglio dire, è carino avere GPT come complemento per il tuo motore di ricerca, tipo “va bene, va bene”. Ma se vuoi svolgere un lavoro ripetitivo, ciò che ti serve è una completa automazione end-to-end.
Quindi, in questo caso, LLM deve diventare un componente programmatico del tuo software. E, come ho detto, torniamo a questa macchina automatizzata per rispondere alle RFP. L’obiettivo non è avere un co-pilota che chiacchiere con noi per rispondere a questa RFP di 600 domande. Quello che volevamo era una macchina che prendesse il documento, ne estrapolasse tutte le domande e basta, capisci? E avere solo una breve lista di domande per cui la FAQ deve essere ampliata e basta, capisci? Non si tratta di avere un co-pilota con cui interagire e simili. È una completa perdita di tempo. Questo non è ciò che rappresenta l’automazione, la vera automazione.
E quindi, secondo me, le persone che pensano in questo modo non stanno pensando in modo chiaro. Pensano solo in termini incrementali. Si limitano ad aggiungere una nuova tecnologia per migliorare leggermente il modo in cui le cose vengono fatte, invece di ripensare completamente il processo e sbloccare un miglioramento della produttività di 100x.
Conor Doherty: Che lavori, in particolare, pensi possano sopravvivere all’evento di estinzione che stai descrivendo? Cosa rimane se l’aspetto quantitativo scompare, il qualitativo scompare e tutto viene automatizzato?
Joannes Vermorel: Quindi, ciò che rimane è tutto ciò che è strettamente non ripetitivo, ok. Ma a un livello elevato, perché, vedi, se guardi un impiegato di back office, sai, un impiegato in divisa, la gente direbbe: “Oh, non è ripetitivo. Guarda, devo inviare un’email, devo chiedere a un collega, devo fare un sacco di cose un po’ eterogenee.” Sì, ma nell’arco di un anno è sempre la stessa cosa a ripetersi continuamente. E in passato, e a proposito, questo era sempre imminente. Voglio dire, nelle ultime quattro decadi, l’industria del software era – e sono sempre stato convinto che non si trattasse di un “quando” o di un “se” in cui tutte quelle faccende banali sarebbero state automatizzate, era semplicemente una questione di “quando”.
E negli anni ‘80 ci furono diversi inverni dell’IA in cui la gente faceva affermazioni grandiose che poi non si sono concretizzate, né con i sistemi esperti né con il data mining. Quindi, i sistemi esperti erano tra la fine degli anni ‘80 e i primi anni ‘90, il data mining era intorno al 2000, ecc. C’era una sorta di ondata continua, ma la differenza è che ora funziona. Voglio dire, funziona e, letteralmente, Lokad dopo un anno ha automatizzato cose che non avrei mai pensato potessero essere fatte così facilmente e così rapidamente. E ho visto altre aziende fare lo stesso, e il risultato netto è assolutamente sbalorditivo e funziona. E inoltre, funziona senza, direi, richiedere competenze specializzate o oneri tecnici eccessivi. Queste tecnologie, cioè gli LLM, sono anche molto semplici da adottare.
Conor Doherty: Voglio solo chiarire una frase che hai appena detto lì. Hai detto di aver visto così tante aziende farlo. Stai suggerendo che, dietro le quinte, è già in corso una cosa del genere?
Joannes Vermorel: Sì, ed ecco perché credo che il lasso di tempo sarà molto compresso. Per questo ho detto 2030 come obiettivo finale, non 2050. Diverse aziende si stanno già muovendo a tutta velocità in questo senso. Se segui le notizie, vedrai che alcune aziende annunciano licenziamenti di circa 5.000 persone qua e là. Questo sta accadendo molto rapidamente e la velocità del mercato non sarà definita da quella dell’azienda media, ma da quella della più veloce. Perché, vedi, i risparmi sono così grandi che, se sei in ritardo, questo cambiamento tecnologico ti eliminerà.
E credo che l’IA sia meno significativa, in termini di risultati tecnologici, rispetto a Internet stesso. Sai, Internet è qualcosa di più grande. Ma in termini di competitività, ci sono volute circa due decadi per sistemare Internet. Sai, è stato un processo lento: stendere i cavi, ottenere connessioni Internet veloci e affidabili ovunque, aggiornare gradualmente tutto, il sistema operativo, sfruttare al massimo l’email, ecc.
Quindi, è stato un processo lento in cui, anche se eri in ritardo, non era evidente che ci fossero guadagni immediati di produttività. Quindi, se eri in ritardo alla festa di Internet e, invece di adottare l’email nel 1995, l’hai adottata solo nel 2002, eri in ritardo di sette anni, ma andava bene. I tuoi concorrenti non avevano ridotto i loro costi di un fattore 10x grazie a Internet.
E a proposito, Internet ha creato anche molta burocrazia, perché richiedeva una notevole amministrazione dei sistemi. Ha creato un sacco di problemi. Quindi, letteralmente, ci sono voluti due decenni perché le aziende assimilassero il tutto e migliorassero davvero. Qui la differenza è che, per migliorare, si tratta di un arco di tempo di qualche mese. E puoi ridurre drasticamente la manodopera necessaria per molte attività, e direi praticamente per ogni singola attività di back office, con le supply chain essendo una di queste, in pochi mesi. E credo che stavolta sarà molto diverso.
Conor Doherty: Quando hai detto che ci sono reparti differenti, non includi l’IT, ti stai concentrando specificamente sulle attività incentrate sulla supply chain?
Joannes Vermorel: Ogni reparto necessita della sua discussione. L’IT, in larga misura, sarà più difficile da automatizzare. Innanzitutto, perché robotizzare l’amministrazione di sistema crea ogni sorta di potenziali problemi di sicurezza. Sarà difficile. Verrà, ma sospetto che ci vorrà più tempo. E la maggior parte delle decisioni prese dall’IT sono già piuttosto complicate. Quindi, direi che per l’IT sospetto dei risparmi in produttività dell’ordine del 50%. E qui, si tratterà di un co-pilota. A proposito, è ciò che succede a Lokad.
Ora, hai una domanda su qualcosa come un oscuro piece of software. Prima trascorrevi mezz’ora sul web per approfondire la documentazione tecnica del fornitore. Ora, con ChatGPT, puoi farlo molto più velocemente. Bene, questo è il tipo di assistente co-pilota di cui stiamo parlando. Sì, questo riguarderà l’IT. Ma credo che, per altre funzioni, potrà essere molto più veloce e su una scala molto più ampia.
Conor Doherty: Quindi, in sostanza, sembra che il ROI per abbracciare la tecnologia ora sia la differenza tra avere davvero un ritorno sull’investimento e, fondamentalmente, estinguersi.
Joannes Vermorel: Sì, esattamente. Penso che si tratti di una svolta tecnologica netta. Credo sia davvero un errore pensare in termini di ROI, perché il ROI è così elevato che, se non cogli questa svolta, i tuoi concorrenti ti elimineranno. Vedi, è come se stessi lavorando nell’industria dell’abbigliamento e qualcuno avesse appena inventato la macchina da cucire. C’erano persone che usavano aghi, sai, per realizzare capi, e impiegavano circa tre giorni per fare una camicia. E poi, qualcuno inventa la macchina da cucire e produce una camicia in 5 minuti. Questa è la differenza di scala. Quindi, qual è il ROI della macchina da cucire? La risposta è: o hai una macchina da cucire o sei fuori dal mercato.
Conor Doherty: Hai fatto esempi in precedenza su Lokad TV riguardo alla Kodak. Hai menzionato esplicitamente la Kodak. Hanno inventato la fotocamera digitale e, non abbracciandola, sono falliti.
Joannes Vermorel: Sì, e il fatto è che quelle rivoluzioni erano in qualche modo limitate a un settore verticale. Sai, c’era la fotocamera digitale, sì, e moltissimi, intendo, il 90% degli operatori in questo mercato per l’attrezzatura fotografica argentica sono semplicemente falliti. Ma, ancora una volta, è stato un evento verticalizzato. Quindi, è stato un evento di estinzione, ma limitato a uno specifico settore.
Ora, la cosa interessante con gli LLM è che si applicano letteralmente a quasi tutti i lavori white collar e, più specificamente, a quelli di back office. Perché, vedi, il front office, quando parli con qualcuno, se hai bisogno di quel tocco personale e simili, anche se in teoria potessi meccanizzarlo, non è chiaro che il mercato sia disposto a farlo.
Ad esempio, Amazon, intorno all’anno 2000, permetteva tecnicamente di acquistare mobili online. Ma la gente non era pronta. L’e-commerce, a quei tempi, non godeva della fiducia necessaria per acquistare online un divano da 3.000 dollari. Ci è voluto un decennio. Così, un decennio dopo, ora si fa: sì, la gente dice, sì, puoi comprare un divano online. Puoi perfino acquistare un’auto online. È diventato parte della cultura.
Tecnicamente, nel 2000 avresti potuto vendere auto e mobili online. Non era un problema tecnico, ma più una questione di: la gente è pronta a farlo oppure no, o se ci vuole tempo. Quindi, direi che per il front office le cose accadranno un po’ più lentamente, perché anche se avresti potuto robotizzare – proprio come Amazon avrebbe potuto vendere mobili nel 2000 – questo segmento ha preso il volo solo un decennio dopo.
Il mercato si muoverà, direi, più lentamente perché seguirai il ritmo delle aspettative del pubblico più ampio. Quindi, sarà un po’ più lento. Ma per il back office, assolutamente no, non c’è nessun limite. A nessuno importa minimamente se l’esecuzione della tua produzione e il tuo programma produttivo sono completamente robotizzati o se hai un esercito di impiegati per farlo. Ai tuoi clienti non importa, a nessuno importa, se non all’interno.
Conor Doherty: Tranne gli impiegati, che stai sostenendo diventeranno superflui, è quello che stai dicendo.
Joannes Vermorel: Ancora una volta, Lokad non è stato quello a inventare gli LLM. È stato fatto da altre persone. Credo che sia stato inventato da persone come quelle di OpenAI. Hanno intrapreso quella strada senza sapere esattamente cosa stavano facendo, a proposito. È molto divertente, perché ci sono interviste a Sam Altman che ora dice: “Beh, se lo avessimo saputo, non avremmo istituito OpenAI come organizzazione no-profit. Non avremmo pubblicato ogni singolo trucco che abbiamo scoperto lungo il percorso.”
Quindi, vedi, erano davvero convinti di questa idea degli LLM. Era semplicemente una continuazione di sequenza: hai un pezzo di testo e lo continui. Penso che terrò una conferenza su questo argomento. Ci fu una serie di innovazioni che hanno fatto degli LLM, direi, la vera meraviglia tecnologica del nostro tempo. Ma, in definitiva, è stato, credo, inaspettato anche per le aziende che li hanno inventati. L’architettura Transformer ebbe origine da Google, ma non è stata Google a sbloccarla, bensì un’altra azienda. In conclusione, si è trattato in parte di un caso fortuito. Ovviamente, le opportunità sono arrivate a chi era ben preparato. C’erano persone che guardavano davvero nella giusta direzione, facendo cose molto intelligenti. Ma le conseguenze sono state incredibilmente sorprendenti.
È molto interessante perché anche i ricercatori di IA, come ad esempio Yann LeCun di Facebook, sono molto scettici riguardo al potere degli LLM. La mia esperienza diretta nel usarli è che sono davvero efficaci. Quindi, è molto interessante. È stata così sorprendente la novità che anche coloro che hanno fatto da pionieri del settore non riconoscono il punto di svolta che rappresentano.
Conor Doherty: Vale la pena segnare questo punto, perché, per fare una considerazione meta, il ruolo di Lokad in questo è solo quello dell’osservatore. Come hai descritto, abbiamo utilizzato entrambi gli aspetti dell’IA, sia per il quantitativo che per il qualitativo.
Joannes Vermorel: Lokad non sta conducendo ricerche per migliorare gli LMS. È un argomento super specializzato e ci sono aziende che lo fanno molto bene.
In Francia, abbiamo per esempio Mistral AI, un team molto forte che ci sta lavorando, e ora sfidano OpenAI. Quindi sì, bene, voglio vedere molta concorrenza in questo settore. Ma per Lokad questo ha molte conseguenze. Stiamo automatizzando la parte difficile nella supply chain, le decisioni quantitative: previsioni, ordini, allocazioni, pricing, tutto il materiale quantitativo. Ma ora, l’esecuzione end-to-end di tutto ciò, con tutte quelle piccole operazioni che bisogna svolgere prima – come acquisire le informazioni mancanti, che a volte mancano e bisogna cercarle, sia inviando un’email, sia cercandole online, ecc. ecc. – insomma, un sacco di piccole attività.
In passato dicevamo ai clienti: “Beh, se avete questo problema, per favore fatelo.” Potevamo automatizzarlo, e a volte lo facevamo, ma era piuttosto costoso. Quindi ora possiamo davvero robotizzarlo, e lo stesso per ciò che accade dopo la decisione, come il follow-up con i fornitori, il monitoraggio di piccole questioni e simili. Tutte queste attività banali e ripetitive possono essere robotizzate.
Dato che è già disponibile, non possiamo permetterci di non farlo. Questo è ciò che i nostri clienti più esigenti ci richiedono. Perché, ancora una volta, quando hai una macchina da cucire, non usarla non è un’opzione. Non puoi semplicemente dire: “Sai una cosa, faremo finta di non aver mai sentito parlare di macchine da cucire e continueremo a cucire camicie con gli aghi.” No, devi usarla.
Conor Doherty: Stai parlando di sopravvivenza a tutti i livelli. Sono i dipendenti, le aziende, l’intero settore, il mercato, tutto. Ciò che può essere automatizzato, lo sarà.
Joannes Vermorel: Sì, e a proposito, penso che questo sarà una sorpresa per i white collar. Ma se guardi ai blue collar negli ultimi 150 anni, sono passati da una rivoluzione all’altra. L’introduzione dell’elettricità è stata un’estinzione di massa. C’erano letteralmente migliaia di cose che, all’improvviso, sono state automatizzate. Ad esempio, 150 anni fa a Parigi, il lavoro più comune – che rappresentava quasi il 10% della popolazione – era quello del trasportatore d’acqua. Quindi circa il 10% delle persone con i secchi trasportava acqua, e questo era il lavoro numero uno, che poi è scomparso.
Quindi, ovviamente, l’aspetto positivo è che ogni volta che elimini questi lavori, la società nel suo insieme si arricchisce, perché le persone possono dedicarsi a cose più interessanti, di maggior valore, e tutto trova il suo equilibrio. Le cose si sistemeranno, proprio come è avvenuto negli ultimi 150 anni con tutte le rivoluzioni industriali. L’unica cosa sorprendente è che interessa una classe di persone – i lavori white collar – che finora erano stati, relativamente, protetti. Quindi ora, beh, è successo qui, ma sai, succederà di nuovo.
Conor Doherty: Non devi nemmeno tornare indietro di 150 anni. Voglio dire, nelle ultime decadi, la maggior parte delle persone ha vissuto alcuni eventi di estinzione in certi settori, come il VHS reso obsoleto dai DVD o l’email che ha reso inutile il fax.
Joannes Vermorel: Per esempio, i miei genitori, che hanno iniziato da Procter & Gamble più di 40 anni fa, mi raccontavano che, da neo-assunti, una delle cose che facevano era – ed era un lavoro affidato a una persona – durante le trattative contrattuali, prendere un giovane impiegato e fargli confrontare, riga per riga, i due documenti, quello che era una bozza e la controproposta del tuo supplier, partner o altro, segnando a penna le sezioni in cui c’erano differenze. E questo richiedeva ore.
E così pagavano molte persone solo per trovare le differenze. Ora, invece, Microsoft Word si limita a fare un diff dei documenti, oppure si usa il track changes, ed è fatto. Letteralmente, c’erano numerosi compiti che ormai sono scomparsi. Ma è successo, direi, gradualmente. Il punto era che queste operazioni avvenivano a un ritmo lento. La cosa interessante degli LLM è che rappresentano un salto notevole, e sembra davvero di aver fatto un balzo di 20 anni nel futuro in appena un anno, dopo aver messo in produzione queste tecnologie nell’ultimo anno.
Conor Doherty: Lokad collabora spesso con le università, formando persone per entrare nella supply chain. Significa questo che abbandoneremo tutto questo? È una perdita di tempo studiare qualsiasi scienza della supply chain perché sta scomparendo?
Joannes Vermorel: No, non credo. Quello che insegniamo non riguarda le attività banali, come inviare un’email a un fornitore per ottenere il MOQ più recente. Se guardi il contenuto della lezione, si tratta più di comprendere il costo in dollari di una rottura di stock e come ragionarci attorno.
Se vuoi una risposta da Chat GPT, inizierà a inventare assurdità. Anche se si tratta di GPT-4, non siamo ancora arrivati, non proprio. Le tematiche che affronto nelle lezioni non sono quelle che vengono automatizzate. Ma, osservando le aziende di supply chain, la percentuale di tempo che le persone nella supply chain dedicano a riflettere intensamente su questioni fondamentali – come cosa significhi veramente la qualità del servizio agli occhi dei nostri clienti – è davvero ridotta.
La maggior parte di ciò che tratto nelle mie lezioni riguarda domande fondamentali che sono molto spesso ingannevolmente semplici, come cosa significhi la parola futuro? Cosa vuol dire anticipare correttamente o adeguatamente il futuro? Queste sono domande realmente difficili e, se ci rifletti e sei in grado di fornire risposte pertinenti alla tua azienda, non sei sul punto di essere automatizzato. Ecco perché dico – e continuo a mantenere questa posizione – che gli LLM sono ancora incredibili “bullshitters”.
Quindi, se vuoi raggiungere questo livello di comprensione, non siamo ancora arrivati. Avrai allucinazioni e simili. Ma se ciò che vuoi è eliminare automaticamente tutte le attività routinarie, allora è fatta. Per questo dico: concentrati sui fondamentali, concentrati sulle domande che richiedono un pensiero profondo. Quello non andrà via. Ciò che sparirà sarà il rumore di fondo, le innumerevoli banalità. E questo problema verrà risolto grazie ai Large Language Models (LLMs).
Conor Doherty: Bene, ci sono alcune domande dal pubblico a cui rispondere e siamo già a 50 minuti. Molte di queste domande riguardano ciò con cui avrei in effetti concluso. Quindi, prima di passare alle domande del pubblico, vorrei, se possibile, fornire un riepilogo a livello esecutivo per chiunque abbia perso i primi minuti. E credo sia importante l’invito all’azione per tutti i segmenti – persone che lavorano dietro le quinte, CEO, e in generale in vari settori.
Joannes Vermorel: La risposta breve è che gli LLM, Large Language Models, rappresentano un evento di estinzione per le funzioni aziendali di back office che operano esclusivamente in ruoli impiegatizi, dove le persone si limitano a prendere dati, trasformarli, riorganizzarli e diffonderli. Considera la tua organizzazione a tutti i livelli: letteralmente hai armate di persone che fanno proprio questo. Prendono alcune email e, magari, 20 diverse piccole fonti dati eterogenee, fanno un po’ di elaborazione e fanno avanzare le cose di un passo.
Il punto è che tutto ciò è già automatizzabile. E parecchie aziende stanno procedendo a pieno ritmo per farlo proprio ora. Le notizie mostrano che non solo sono in produzione, ma hanno già iniziato a rimuovere persone da queste posizioni. E non parlo di una manciata qua e là: parlo di grandi aziende che annunciano “prima c’erano 6.000 persone per fare questo, ora ne abbiamo 50”. È avvenuto un gigantesco licenziamento in tal senso. Procedono a pieno ritmo e mi aspetto che questo processo si intensifichi ulteriormente.
Ancora una volta, i lavori impiegatizi del back office saranno il bersaglio. La supply chain è una di queste funzioni. Suppongo che ce ne saranno altre, tipo mezza dozzina, che subiranno lo stesso destino. Anche la contabilità sarà probabilmente massicciamente impattata, perché in contabilità c’è il ragionamento intelligente e ad alto livello su come organizzare la struttura contabile, e così via. Ma ci sono anche quelle attività routinarie: qualcuno mi invia un PDF, devo estrarre una mezza dozzina di informazioni rilevanti solo per generare la registrazione contabile che corrisponde a quel documento PDF. Ok, fatto. Può essere interamente automatizzato.
Quindi, tutto ciò scomparirà rapidissimo. E per alcune aziende, non è nemmeno il futuro: è già realtà. E parliamo di mesi. Il riepilogo esecutivo è: evento di estinzione, si tratta di mesi. Sì, bisogna agire in fretta. E, a proposito, Lokad – intendo dire che, quando me ne sono reso conto, ho passato i primi tre mesi del 2023 a ripensare l’intera roadmap tecnologica di Lokad, perché tutto ciò che avevo immaginato fino ad allora era destinato al fallimento.
Per noi è stata una svolta davvero drastica. Voglio dire, internamente a Lokad abbiamo automatizzato parecchie cose. E letteralmente eravamo così occupati a farlo che non ne parlavamo molto. Ma questo è stato il mio programma quotidiano da ormai un anno.
Conor Doherty: Prima di passare alle domande del pubblico, vale la pena sottolineare che, tradizionalmente, parlavamo molto di previsione probabilistica, ottimizzazione stocastica e altro ancora. Queste tematiche non facevano nemmeno parte di questa conversazione perché erano già sistemate – lo stato dell’arte da anni. Decisioni quantitative come quelle relative all’inventario, agli ordini di acquisto, all’allocazione, al pricing, per quanto riguarda almeno Lokad, erano risolte anni fa. Erano già state implementate. Le persone ne erano almeno parzialmente consapevoli. Il fulcro di oggi è tutto il resto.
Joannes Vermorel: Esattamente. Le attività routinarie, il rumore, le piccole faccende quotidiane, tutti quei mille piccoli incidenti che una volta richiedevano, diciamo, 10 anni nella supply chain. Ancora una volta, basta pensare a fare una domanda a caso a un partner, un trasportatore, un fornitore, e via dicendo. E, tra l’altro, le aziende assumevano regolarmente centinaia di persone con appena un mese di formazione: quelle persone sarebbero state in grado di operare. Ma pensa a qualsiasi cosa che richieda meno di sei mesi di formazione: probabilmente è qualcosa che un LLM può gestire, automatizzare.
Sai, se è qualcosa che si apprende in pochi mesi, va bene, può essere automatizzato. Se, invece, richiede dieci anni di esperienza, abilità, dedizione e pazienza, no. Però le cose facili, probabilmente, sarebbero comunque più strategiche: quella è la distinzione. Sì.
Conor Doherty: Bene. Consiglio di prendere un sorso d’acqua perché ci sono alcune domande da affrontare. Quindi, a tutti, grazie mille per le domande. Il nostro produttore ha raccolto le domande. Non ho accesso alla chat di YouTube, quindi non so quante siano state poste, ma quelle simili sono state raggruppate. Per qualsiasi domanda a cui non risponderemo oggi, forniremo risposte più dettagliate, sia in un video di approfondimento che su LinkedIn.
La prima domanda arriva da Constantine. Chiede: “Quali titoli di lavoro potrebbero diventare obsoleti? Vedi un futuro per i ruoli di previsione e pianificazione?”
Joannes Vermorel: Ruoli come pianificatore di domanda e offerta, analista di inventario, category manager e via dicendo, direi che sono finiti. Letteralmente, sono già scomparsi. Chi ci guarda potrebbe non essere d’accordo, ma i fatti sono questi. La parte della previsione, per esempio, è stata automatizzata da Lokad quasi un decennio fa. Ciò che non veniva automatizzato erano solitamente i piccoli incidenti legati ai dati, come prodotti duplicati o l’identificazione di quale prodotto sia il discendente di un altro. Per esempio, prendi due descrizioni di prodotto e dici: “questo è solo la quarta generazione di un dispositivo e quello è la quinta” – quindi questo è fondamentalmente lo stesso, solo un po’ migliore. È il tipo di cosa che un LLM può decisamente automatizzare. Quindi, tutto ciò è completamente automatizzabile ed è finito.
Ciò che non può essere automatizzato è qualcosa di più simile a un Supply Chain Scientist, colui che elabora le ricette numeriche per automatizzare tutto ciò che non è automatizzabile. Puoi automatizzare il lavoro, ma non puoi ancora automatizzare la creazione delle ricette numeriche e il pensiero strategico che trasforma tutto in dollari di errore, dollari di profitto. Devi essere in grado di avere quella prospettiva finanziaria che un LLM non è in grado di fornire. Ma tutti quei lavori gestionali banali, dove ci sono tante attività ripetitive, sono già scomparsi. E per la previsione è lo stesso. Questa è stata la posizione di Lokad per l’ultimo decennio. Quindi, non c’è nulla di nuovo.
Conor Doherty: Bene, sono sicuro che tutti saranno soddisfatti di quella risposta. Passiamo alla successiva. Grazie. La domanda successiva arriva da Sherar: “Joannes, potresti per favore approfondire i benefici dell’AI e della supply chain con esempi in tempo reale?”
Joannes Vermorel: Prima di tutto, definiamo cosa significa real-time. Nella supply chain non parliamo di real-time nello stesso senso necessario per mantenere in volo un aeromobile, che richiede tempi di risposta in millisecondi. Nella supply chain, anche se vuoi dare istruzioni a un truck per dirigere il traffico, un ritardo di un minuto non è così grave. Il real-time nella supply chain sarebbe, ad esempio, un robot in un magazzino che effettua il picking in modo automatizzato. La maggior parte dei problemi nella supply chain non sono in tempo reale. La stragrande maggioranza dei problemi può permettersi un ritardo di un’ora. Ci sono pochissime questioni nella supply chain che necessitano di una risposta in meno di un’ora.
Quindi, ancora una volta, con gli LLM vuoi ottenere informazioni, fare una ricerca sul web, raccogliere i risultati e riceverli indietro. Vuoi conoscere l’indirizzo di un fornitore e recuperarlo automaticamente. È molto semplice creare logiche che lo facciano in automatico. È facile. Stiamo parlando di tutte le decisioni fondamentali, tutto ciò che riguarda la pianificazione, la programmazione, l’acquisto, la produzione, l’allocazione, il pricing, l’aggiornamento. E poi abbiamo aggiunto tutto l’insieme attorno a questo, come la gestione dei master data, la comunicazione con la rete, l’avviso ai clienti sui ritardi, la notifica ai fornitori che hanno problemi e via dicendo, e tutto ciò può ora essere automatizzato. Non è super intelligente, ma rappresenta un secondo livello che può essere automatizzato.
Conor Doherty: Ma il punto è che non richiede necessariamente un pensiero laterale. Se si tratta, come hai detto, di templating, se si tratta semplicemente di “cerca questo tipo”, è quasi un’operazione booleana. Se questo, allora.
Joannes Vermorel: Sì, esattamente. E la grande differenza rispetto ai sistemi esperti degli anni ‘90 è che, quando dico che gli LLM sono macchine di templating universale e resilienti al rumore, intendo dire che non importa se l’email è formulata male. Non importa. Anzi, non importa nemmeno se l’email è in russo o in giapponese. Queste tecnologie possono leggere praticamente qualsiasi lingua, a meno che qualcuno non ti invii un messaggio scritto in una lingua rara, come un dialetto zulu. Se è scritto in una lingua parlata da 100 milioni di persone nel mondo, va bene. E direi che 100 milioni è un numero alto. Qualsiasi lingua parlata da almeno 10 milioni di persone, va bene.
Conor Doherty: La prossima domanda viene da Tamit. “Il prezzo non è forse indicativo dell’impatto percepito sul profitto netto, in particolare il pricing di Chat GPT rispetto a Gurobi o CPLEX?”
Joannes Vermorel: Gurobi e CPLEX sono risolutori matematici, quindi non appartengono nemmeno alla stessa categoria di prodotti. Sono strumenti completamente differenti e non affrontano nemmeno remotamente le stesse questioni. Con Gurobi e CPLEX, per il pubblico, si espone un problema espresso come una lista di vincoli e una funzione obiettivo, e loro ti forniscono la risposta. È un componente matematico. e non sono sicuro se l’episodio sia già stato pubblicato, ma ne abbiamo appena girato uno sull’ottimizzazione stocastica. No, sta per arrivare. In sostanza, il motivo per cui Gurobi e CPLEX risultano in qualche modo inadeguati per la supply chain è che non gestiscono la stocasticità. Ne discuteremo in un episodio diverso, ma si tratta di una categoria di strumenti completamente diversa. Gli LLM, invece, riguardano il templating del testo e l’esecuzione di ogni sorta di riformulazione, estrazione, analisi rapida sui dati testuali. E quando dico testo, intendo testo semplice, una sequenza di lettere, numeri e caratteri. Quindi sono problemi completamente differenti e non affrontano nemmeno remotamente le stesse questioni.
Conor Doherty: Come nel mio precedente tentativo di piantare il mio vessillo, molte persone ancora non comprendono appieno l’impatto dell’AI. È un evento di estinzione per quasi tutti i lavori, ad eccezione di quelli a livello molto elevato.
Joannes Vermorel: La ragione per cui, ad esempio, Gurobi e CPLEX risultano praticamente irrilevanti è che esistono da circa quattro decenni e, come abbiamo già detto – ne discuteremo in un altro episodio – non risolvono l’aspetto stocastico in maniera diretta. Quindi, questo è un punto di partenza nullo. E, anche se lo facessero, ci vorrebbe comunque qualcuno come un Supply Chain Scientist per utilizzarli. Non si tratta quindi di una vittoria facile, non è qualcosa che avvenga in poche ore. Gli LLM, per quei problemi molto banali e di piccola portata, sono il tipo di strumenti con cui puoi ottenere soluzioni in letteralmente pochi minuti.
Conor Doherty: Potrebbe il crescente numero di cause giudiziarie per diritti d’autore o compensi finanziari da parte di individui i cui dati hanno contribuito all’addestramento degli LLM potenzialmente ostacolare il progresso e l’adozione facendo aumentare i prezzi?
Joannes Vermorel: Dimenticalo. Alcune aziende stanno dimostrando di poter avere LLM che si avvicinano alle prestazioni di Open AI utilizzando un corpus molto più piccolo, come solo Wikipedia. Quindi, la risposta è no. Non stiamo parlando di gen AI per immagini che potrebbero violare la proprietà intellettuale della Disney o altro. Stiamo parlando di cose estremamente ordinarie, tipo: ecco un pezzo di testo, dimmi chi ha inviato l’email, qual è il MOQ, questa persona fornisce una risposta definitiva o vaga, o è sicura dell’accuratezza della risposta fornita. Queste sono le tipologie di quesiti per cui puoi ottenere una risposta automatica da un’email. È di questo che stiamo parlando. Quindi, questo diventerà un problema del tutto irrilevante.
Anche se le persone devono riaddestrare i loro LLM perché devono scartare il 3% del database di input, va bene. È quello che Mistral, questa azienda francese, ha dimostrato: puoi riaddestrare un LLM di livello produzione, diciamo pari a Open AI, con solo qualche centinaio di migliaia di Euro. Quindi, questo è già fatto. Non si torna indietro. Le soluzioni alternative a queste problematiche saranno nella migliore delle ipotesi solo un po’ di rumore, ma è ormai una questione risolta che non cambierà nulla.
Conor Doherty: E in definitiva, lo usi come una macchina per template. In pratica, gli dici esattamente cosa vuoi cercare e fornisci l’input tipo, “Trova in questa email l’informazione.”
Joannes Vermorel: E ancora, stiamo parlando di lavori di back-office. Non si tratta di scrivere il prossimo Harry Potter e poi essere citati in giudizio dagli avvocati di J.K. Rowling perché il tuo prodotto sta semplicemente allucinando una copia quasi identica di Harry Potter. Non è di questo che stiamo parlando. Pensa solo alle email: ripensa alle ultime 100 che hai scritto e a quanta ingegnosità, originalità e, direi, intelligenza a livello umano vi ci è messa. E, probabilmente, non così tanta. Voglio dire, anche se guardo cosa scrivo quotidianamente, la maggior parte è davvero ordinaria. Ed è proprio questo che viene automatizzato rapidissimamente.
Conor Doherty: Vale la pena aggiungere semplicemente un piccolo commento, e se l’impressione è stata che di Chat GPT si stia parlando, no, stiamo parlando degli LLM come tecnologia in sé e non specificamente nell’interazione online.
Joannes Vermorel: E, più specificamente, degli LLM come componente di programmazione. Proprio come hai un database relazionale, hai sottosistemi nel tuo software, come il database transazionale, il web server, ecc., e qui hai uno che è un LLM, ed è solo un modo per eseguire certi passaggi nel tuo programma. Non pensare agli LLM come qualcosa che viene confezionato con un’interfaccia chat. Quasi tutto ciò che ho automatizzato nell’ultimo anno non ha interfaccia. È letteralmente uno script che esegue qualcosa end-to-end, senza interfaccia utente. È un elemento di un intero stack, in altre parole.
Conor Doherty: James chiede, che consiglio daresti a un giovane che vuole entrare nel supply chain per quanto riguarda l’aggiornamento delle proprie competenze e come vendere al meglio questa competenza nel contesto dell’evento di estinzione che hai descritto?
Joannes Vermorel: Gli LLM ti costringono a migliorare il tuo livello di comprensione strategica. Imparare ricette banali come ABC analysis o simili non conviene. Dotati degli strumenti fondamentali che a GPT-4 mancano ancora, come la capacità di condurre un pensiero approfondito. Pensare a lungo e in profondità ai problemi porta a linee di ragionamento generalmente corrette. Essere in grado di produrre una sintesi su un problema che sia superiore a quella prodotta da GPT-4. Queste sono competenze molto valide su cui potrai fare affidamento per le tue capacità intellettuali di livello superiore, quelle che vanno ben oltre la macchina.
E queste sono proprio il tipo di competenze che credo non siamo ancora vicini ad automatizzare. Ad esempio, se osservi le voci nella comunità di ricerca, anche quelle molto critiche, potresti ascoltare cosa dice Yann LeCun. Lui afferma che, sì, gli LLM, sai, non sono la risposta all’intelligenza generale e su quel fronte sono d’accordo con lui. Dove non sono d’accordo è nel ritenere che non ci sia bisogno di intelligenza generale per affrontare un evento di estinzione dei lavori di back-office. Abbiamo solo bisogno degli LLM, che rappresentano un livello inferiore di intelligenza ma sono sufficienti per coprire il 90% della forza lavoro, e questo sarà piuttosto radicale. Per il restante 10%, vedremo.
Quindi, per un giovane che intraprende questa carriera, ad esempio seguendo le mie lezioni, vedrà che la maggior parte non riguarda il banale, non si tratta del quotidiano, non riguarda i piccoli dettagli, ma questioni fondamentali come “Qual è fondamentalmente il problema che stiamo cercando di risolvere?” Ho dedicato un intero capitolo alle personas: è difficile, quali sono i problemi che stiamo cercando di risolvere per questo supply chain e la risposta varia da settore a settore. È difficile.
Quali sono i programming paradigms rilevanti? Perché, come ho detto, gli LLM possono automatizzare una marea di cose, ma le ricette numeriche non si scrivono da sole. Sì, un LLM può aiutare ma manca quel giudizio di livello superiore per afferrare l’adeguatezza. Anche se il codice viene scritto con l’aiuto di una macchina, serve comunque, in larga misura – e credo che rimarrà così – un giudizio umano per valutare se è veramente adeguato.
Qui gli LLM saranno un potenziatore, ma non sostituiranno le competenze di programmazione. Quindi, se possiedi competenze di programmazione, le tue capacità diventeranno ancora più preziose perché sarai effettivamente più produttivo con le tecnologie LLM. Il mio focus, quindi, è sui fondamenti, sul pensiero critico, sull’analisi strategica e su tutti quegli argomenti pesanti come i paradigmi di programmazione e anche sugli strumenti matematici rilevanti. Ad esempio, una previsione probabilistica richiede, se vuoi essere in grado di ragionare correttamente a riguardo, una comprensione di alta qualità di quegli strumenti matematici, e questo non scomparirà. GPT-4 non lo automatizza.
Conor Doherty: Lionel chiede, come influenzano le AI-driven Supply Chain Solutions le piccole e medie imprese rispetto a quelle più grandi o alle grandi corporazioni?
Joannes Vermorel: Credo che l’effetto sarà ancor più pronunciato per le aziende più piccole. Perché? Perché le grandi aziende possono permettersi di avere burocrazie specializzate su larga scala, mentre le piccole no. Le aziende più piccole sapevano di non poter competere con le grandi perché non potevano avere un dipartimento con 200 persone e 10 specializzazioni differenti, e così via.
Ma la cosa interessante è che la produttività raggiunta con questi strumenti è così alta che, all’improvviso, abbracciare l’automazione diventa super accessibile anche per le piccole aziende. E a proposito, Lokad: ora siamo un’azienda di circa 60 dipendenti e ho automatizzato un sacco di cose qua e là, ed è possibile farlo in modo estremamente rapido.
La cosa interessante è che non serve un progetto con 20 ingegneri del software per ottenere risultati. I traguardi che puoi raggiungere in poche ore sono sbalorditivi se fatti nel modo giusto.
Quindi, secondo me, per le aziende di medie dimensioni – magari non le più piccole, ma un’azienda di medie dimensioni, tipo da 50 milioni di dollari in su – sarà possibile meccanizzare le operazioni a un ritmo incredibile e competere con quanto fanno le aziende super grandi, perché molto presto il collo di bottiglia sarà rappresentato dagli LLM e avrai accesso agli stessi LLM di, diciamo, Samsung, Apple o qualunque gigante ti venga in mente.
Hai accesso agli stessi strumenti. Quindi, letteralmente, se stai competendo in termini di analisi, sì, Apple probabilmente ha analisti della domanda molto più talentuosi di te, ma loro hanno accesso agli stessi LLM di te. È quindi una specie di grande equalizzatore in termini di capacità di automazione.
Conor Doherty: Prossima domanda da Nick, in che modo l’utilizzo degli LLM, come uno dei metodi pionieristici in Lokad, ha influenzato le metriche di performance della tua azienda, come il tasso di abbandono, le nuove sottoscrizioni e la soddisfazione dei clienti?
Joannes Vermorel: In generale, direi che siamo ancora a 12 mesi dal livello produttivo. Quello che abbiamo automatizzato ora possiede una qualità che supera le capacità umane. Puoi letteralmente vedere le cose che abbiamo automatizzato: vengono fatte meglio di prima e molto spesso con 100 volte meno personale rispetto a prima.
Per il pubblico che non lo conosce, in Lokad, in qualità di fornitore di software per imprese, parliamo di cicli di vendita lunghi. Mi piacerebbe poter chiudere contratti con i clienti in tre settimane, ma sfortunatamente, il processo dura più che altro tre anni. Scusate, un processo di RFP di 18 mesi che mi ha fatto impazzire. Questo con l’AI, e questo con l’AI che si occupa dell’RFP. Quindi, insomma, è lento. Però è proprio per questo che dico che le attività rivolte al front-end, come le vendite e simili, sono lente, mentre il feedback dei nostri clienti è stato incredibilmente positivo.
Può trattarsi di cose banali, come generare automaticamente un report per una discussione di due ore con un cliente. Il report è molto ben organizzato e cattura tutti i punti chiave discussi. Abbiamo una nostra tecnologia interna su come redigere questi memo di alta qualità dopo un incontro. Funziona a meraviglia e abbiamo ricevuto feedback molto positivi dai nostri clienti a riguardo.
La mia percezione è che le attività che abbiamo automatizzato vengono svolte meglio di prima e, al minimo, abbiamo raggiunto una produttività circa 20 volte superiore. È assolutamente sorprendente.
Per quanto riguarda il tasso di sottoscrizione e le altre metriche, è troppo presto per dirlo. Essendo un fornitore di software per imprese, i miei cicli di vendita sono incredibilmente lenti. Ne parleremo tra qualche anno.
Credo sia sbagliato basarsi troppo sui numeri. I numeri arrivano troppo poco e troppo tardi. Basta pensare a Kodak. Al momento in cui la fotografia digitale era niente, poi è diventata tutto. Se Kodak fosse stato come quel tizio in caduta libera che dice “finora tutto va bene”, no, sei in caduta libera e stai per schiantarti violentemente. Non hai ragione.
Quando le persone vedranno i numeri, le aziende avranno eserciti robotizzati. La mia previsione è che ci saranno aziende che andranno avanti in questa direzione e vedo quelle aziende diventare il Amazon del prossimo decennio.
Quindi, in definitiva, stanno procedendo a tutta velocità e, se penso a cinque anni di distanza, già vedo che quelle aziende saranno in grado di superare tutti i loro concorrenti con prezzi che i rivali semplicemente non riusciranno ad eguagliare. E poi, in termini di agilità, il problema con un esercito di persone è che, per definizione, se hai una tua organizzazione – sto parlando di una grande azienda – hai centinaia di persone coinvolte nella pianificazione, nel S&OP, nelle previsioni, e via dicendo: diventi lento.
Sei una grande burocrazia. Per definizione, se hai tipo 200 persone, non puoi essere agile. È semplicemente: hai troppe persone. Se riesci a ridurle a 20, allora puoi essere come una tigre, sai, super agile, super veloce. E ancora, ciò significa che quelle aziende supereranno i concorrenti in termini di costi e agilità in modo massiccio – è davvero tanto, davvero tanto.
Oltre a superare l’intelligenza umana, vinceranno anche per la qualità dell’esecuzione. C’è un detto nell’industria del software secondo cui tutto ciò che dipende da un intervento manuale è inaffidabile. Non puoi ottenere affidabilità se c’è un intervento manuale nel mezzo.
Quello che vedo è che, anche in termini di qualità dell’esecuzione, l’affidabilità supererà di gran lunga quella dei processi manuali. Ciò significa che, in termini di agilità, costi, affidabilità e prestazioni, è per questo che parlo di eventi di estinzione. Le aziende che si adatteranno sopravvivranno, quelle che non lo faranno spariranno entro un decennio.
Quindi, questo processo si svilupperà lentamente perché, ancora una volta, c’era dell’inerzia. In Francia, per esempio, discutevo con molti rivenditori e ricordo vividamente – era prima di iniziare Lokad, nel 2004, quando ero uno studente e stavo tornando dagli Stati Uniti, dove avevo trascorso due anni – e dicevo ai rivenditori in Francia: “Amazon vi finirà.” E la gente mi rispondeva: “Oh, l’e-commerce è solo una moda passeggera. Non hanno neanche lo 0,1% di quota di mercato, non ci interessa, è niente.”
E per me, era già scritto. Non c’era dubbio, era solo, ancora una volta, una questione di tempismo. Era già scritto. O, come rivenditore, abbracci l’e-commerce oppure, se non lo fai, Amazon e i suoi concorrenti ti finiranno. E questo scenario si è già concretizzato; ho visto parecchie di quelle aziende dichiarare bancarotta. Ci è voluto un decennio, ma è successo. E questo accadrà a molte altre aziende.
E ciò che rende gli LLM così interessanti è che non sono specifici per un settore. Alcuni settori saranno più colpiti, ma in definitiva qualsiasi ambito che preveda funzioni di supporto back-office sarà impattato massicciamente.
Conor Doherty: È importante aggiungere anche al punto che hai fatto, nell’esempio di Lokad, che le funzioni che hai descritto come automatizzate con gli LLM superano di gran lunga tutto il resto fatto con l’AI. Quindi, non si tratta semplicemente di “oh, abbiamo fatto qualche piccola cosa”. Quello di cui parli è una forza lavoro altamente qualificata nella quale tutte le attività banali, sia quantitative che qualitative, sono state automatizzate il più possibile, liberando così le menti brillanti per concentrarsi sulle questioni che veramente contano. Quindi, se un’azienda lo fa e un’altra no, è, fondamentalmente, darwinismo.
Joannes Vermorel: Esattamente. La bellezza sta nel fatto che è in atto una distruzione schumpeteriana. È per il bene maggiore che le aziende diventino più ricche. Per esempio, se Parigi avesse ancora il 10% della sua popolazione impegnata nel trasporto dell’acqua, Parigi sarebbe una città molto povera.
Parigi è diventata una città del primo mondo, solo perché, voglio dire, secondo i nostri standard moderni, solo perché non impieghiamo il 10% della popolazione a fare cose stupide. È liberando le persone dai lavori incredibilmente noiosi che possiamo permetterci di fare arte, essere creativi, essere inventivi.
In quelle aziende che gestiscono le supply chain, se tutti sono impegnati a spegnere incendi continuamente, a occuparsi di piccoli, minuti pasticci, granelli di sabbia nella macchina che deraglia tutto, ma non in modi grandiosi ed epici, semplicemente in modi stupidi, e questo consuma tutto l’ossigeno.
Quindi consideralo semplicemente come tutte quelle piccole cose, sono cose che consumano tutto l’ossigeno e poi non c’è, le persone non riescono nemmeno a pensare proprio perché ce n’è così tanto. Quindi, credo che sarà davvero qualcosa che andrà a beneficio della supply chain, perché improvvisamente le persone potranno pensare in modo strategico, senza essere intrappolate in questo miliardo di piccole distrazioni che non meritano la loro attenzione umana.
Facciamo avere un milione di assistenti semi-stupidi, perché questo è ciò che sono gli LLM, un milione di assistenti semi-stupidi che si occupano semplicemente di queste cose che non meritano intelligenza umana.
Conor Doherty: Ultime due domande. Questa è di Lionel. Da quali esempi di collaborazione di successo tra IA e umani nelle operazioni della supply chain possiamo imparare?
Joannes Vermorel: Non pensare in termini di collaborazioni. È un errore. Non ci sarà un co-pilota generico.
Alla fine sono sempre gli umani, ovviamente, e le macchine. Quindi sì, esiste una forma di cooperazione, ma non assume la forma che immagini. Non è un co-pilota. Quando ho automatizzato la macchina risponditrice per le RFP, com’era la cooperazione? Mi sono seduto alla mia scrivania, ho passato una settimana a codificare questa macchina risponditrice, e poi ho una macchina risponditrice.
Ogni volta che arriva una RFP, facciamo girare la macchina, otteniamo le risposte. Ecco com’è la cooperazione. E poi, quando OpenAI rilascia per esempio un GPT-4 turbo o qualunque nuovo modello, faccio un piccolo aggiornamento nel mio codice per sfruttare l’ultima novità, e torniamo in attività.
Questa è una cooperazione, ma nel senso che sto scrivendo del codice, e quando le cose cambiano, ripasso un po’ il mio codice. È il tipo di cooperazione di cui stiamo parlando. Non è come se stessi dialogando con una macchina. Non dialogo con GPT, o simili. Non è così che funziona. Non è così che si gioca la partita.
Quindi, non considerare gli LLM come qualcosa di collaborativo. La maggior parte delle cose che automatizziamo, le automatizziamo completamente, e poi non c’è più nessuno coinvolto. È semplicemente fatto.
Per fare degli esempi, il sito web di Lokad è interamente tradotto in modo automatico, e la sua bellezza, e puoi verificarlo online, sta nel fatto che non traduciamo l’inglese, traduciamo direttamente l’HTML. È come prendere l’HTML grezzo e ritradurlo, e abbiamo risparmiato il 90% dello sforzo perché improvvisamente possiamo iterare tutto, e gli LLM sono abbastanza intelligenti da sapere quale parte dell’HTML non deve essere toccata perché è un tag, e quale parte è l’inglese vero e proprio che necessita di traduzione. Bellissimo.
Quindi quello è già fatto. Per il pubblico, tutte le pagine che abbiamo per i video di Lokad TV dove avevamo i timestamp, una volta li facevamo manualmente, ora è fatto automaticamente. L’ho fatto, ora è fatto automaticamente.
Quindi, questo è l’esempio in cui vuoi prendere una discussione di un’ora, creare i timestamp automaticamente, fatto. Potrei citare cose più arcane, perché quelle dove otteniamo i maggiori benefici sono i lavori di back office a Lokad, quindi non sono rivolti al cliente, ma sono cose piuttosto arcane.
Il punto è che mi richiederebbe troppo tempo spiegare perché ne abbiamo bisogno in primo luogo, ma in definitiva gli esempi sono innumerevoli. Di solito ci proviamo e, entro il giorno, è automatizzato. Ecco come funziona. E sì, c’è un po’ di lavorare con i prompt, ma ancora una volta la domanda è: cosa non può essere automatizzato? Oggigiorno risulta più difficile rispondere a questa domanda che dire cosa può essere automatizzato.
Conor Doherty: È interessante che tu faccia questo punto, perché quando hai dato l’esempio di riassumere le discussioni, e questo si ricollega a ciò che hai appena detto, quanto oltre potremmo andare? Intendo, nel back office, la discussione ora è: come possiamo prendere i riassunti delle discussioni, diciamo con clienti o potenziali clienti o altro, e in base a quanto discusso, cercare automaticamente nel sito web, inserire link rilevanti nelle parti pertinenti, praticamente, cosa non possiamo fare? Ebbene, si scopre che possiamo. Ci stiamo lavorando. Ma è solo: cosa non si può fare? È difficile elencare ciò che non si può fare con un LLM.
Joannes Vermorel: In questo momento, tutto ciò che è veramente di alto livello, sto inventando il testo soltanto per la terminologia perché ci mancano le parole, ma direi che è l’intelligenza umana di alto livello, o forme superiori di intelligenza, cose per cui devi riflettere a lungo, potenzialmente per ore per ottenere una risposta, non qualcosa per cui puoi avere una risposta istintiva: se si tratta di qualcosa per cui puoi avere una risposta istintiva, gli LLM possono farlo anche loro.
Ma qualcosa, ancora, uh, cosa dovrebbe essere, uh, pensa solo a domande molto difficili come: cosa significa la qualità del servizio per i nostri clienti? Questa è una domanda molto difficile. Quali dovrebbero essere i nostri segmenti target prioritari? Domande macro per l’azienda, questo è il tipo di domande per cui si possono letteralmente impiegare settimane per ottenere la risposta, ed è proprio in questi ambiti che gli LLM risultano ancora carenti.
Se hai una domanda così importante da poter impiegare settimane per rispondere, l’intelligenza umana di alto livello ti darà una risposta migliore di GPT-4. Ma se è una domanda per cui hai solo, diciamo, 60 secondi di tempo mentale per ottenere la risposta, allora quella che riceverai da un essere umano non sarà super buona. Il tempo scorre. Se mi dai 60 secondi per rispondere a qualcosa, non sarà una buona risposta.
Conor Doherty: Il punto è, forse, una volta, ma non ogni 60 secondi, ogni ora, sette o otto ore al giorno, 300 giorni all’anno, 50 anni. Questa è la differenza.
Joannes Vermorel: Questa è la differenza. Ovviamente, se mi riposo per 30 minuti e poi sì. Ma l’LLM non si stanca. Puoi farlo girare e automatizzare letteralmente milioni di operazioni al giorno e non è nemmeno difficile.
Conor Doherty: Questa è l’ultima domanda di Lionel. Come possono i piccoli paesi sfruttare l’IA nella gestione della Supply Chain per superare le loro uniche sfide geografiche ed economiche, e quali sono le implicazioni per il mercato del lavoro locale?
Joannes Vermorel: La bellezza di questo è che gli LLM sono incredibilmente accessibili. I requisiti di larghezza di banda per usare gli LLM sono nulli. Puoi letteralmente inviare chilobyte di dati, e funziona. Gli LLM vengono operati a distanza, quindi se ti trovi in un paese povero, finché hai una connessione Internet a bassa larghezza di banda mediamente decente, va bene.
Queste cose non richiedono una connettività ad alta velocità. Quindi va bene. Non richiede una forza lavoro super talentuosa. Questa è la bellezza. Il prompt engineering è probabilmente, tra tutte le competenze quasi ingegneristiche che ho dovuto acquisire negli ultimi due decenni, la più semplice. È letteralmente qualcosa che, in poche ore, imparerai.
Ecco perché adesso ci sono bambini che fanno tutti i compiti con Chat GPT. Voglio dire, è facile, semplicemente facile come per un bambino. E qui dico: beh, l’adozione avverrà in fretta perché non è, voglio dire, non fidarti di chi ti dice: “Ho una laurea in prompt engineering.” Di cosa stai parlando? Sono cose per cui, se ci lavori un po’ per capirci, lo capirai letteralmente in pochi giorni. Non è difficile, anzi, è più difficile padroneggiare Excel che il prompt engineering.
In definitiva, se sei in un paese povero e remoto, è super accessibile. A proposito, ti ho detto che questa tecnologia è economica? È a buon mercato, estremamente economica. Pensaci, solo per dare un’idea al pubblico: guarda il nostro sito web, è gigantesco. Parliamo di mille pagine, mille pagine web. Quindi, se dovessimo stamparlo, probabilmente sarebbero circa 3.000 pagine A4. Quelle FAQ sono enormi, ancor di più.
Quindi, parliamo di qualcosa che è un sito web grande e robusto. Lo traduciamo in sette lingue. Il costo per fare una batch dalla versione inglese in tutte quelle lingue, e parliamo ancora di 3.000 pagine di testo se le conserviamo, è di $150 con OpenAI. Questo è quello che pago. E a proposito, il costo per farlo con freelance, come facevamo prima, era di circa $50.000 per lingua.
Quindi il costo è passato da qualcosa che era vicino allo zero, un quarto di milione o più per ottenere la traduzione, a $150. E a proposito, il costo sarà addirittura inferiore perché OpenAI ha appena abbassato il prezzo recentemente. E, a proposito, per farlo non stiamo nemmeno usando GPT-4, stiamo ancora usando GPT-3.5. E con Mistral, dovremmo provare, ma Mistral è ancora più economico.
Quindi probabilmente, tra tre anni, tradurre quelle massicce 3.000 pagine costerà qualcosa come $50. La bellezza di tutto ciò è che penso che per i paesi sviluppati questa sia un’enorme opportunità, un grande equalizzatore. Pensaci: non per spiccioli ma per dollari, puoi giocare con gli stessi strumenti dei grandi e sei allo stesso livello di chi ha milioni in mano, come Apple. Stai giocando con gli stessi strumenti.
Quindi, questo sarà un equalizzatore incredibile. E se sei intelligente e hai passione, imparerai lungo il percorso. E ancora, non è super difficile. Probabilmente è una delle rivoluzioni più incredibilmente accessibili. E credo che anche i paesi poveri ora, anche con connessioni internet pessime, possano sfruttare gli LLM. Non hai nemmeno bisogno della banda larga. Se hai 20 kilobyte al secondo in entrambe le direzioni in modo affidabile, va bene.
Conor Doherty: Credo che abbiamo parlato per più di un’ora e mezza. Quindi, se potessi riassumere tutto questo, Skynet?
Joannes Vermorel: No, non Skynet. Quella era la mia errata aspettativa di 18 mesi fa. Dicevo: oh, è stupida come sempre, quindi non è nulla. No, è una macchina di template universale, ed è un cambiamento di gioco. È la macchina da cucire per ciò che sarà per i colletti bianchi, ciò che le macchine da cucire hanno fatto per l’industria dell’abbigliamento.
La bellezza di tutto ciò è la semplicità. Anche al tempo, una macchina da cucire era di gran lunga più semplice di un orologio. Con gli standard del XIX secolo, non era una macchina complicata. Esistevano già macchine di complessità ordini di grandezza superiori. Eppure, era ingannevolmente semplice e quasi da un giorno all’altro ha accelerato l’industria dell’abbigliamento di 100 volte. Se pensi che le macchine da cucire non siano state una rivoluzione perché improvvisamente non si ha un produttore di stoffe end-to-end, ti stai perdendo il punto.
Non abbiamo Skynet. GPT-4 non sostituirà il pensiero strategico di alta qualità. Ma tutte le faccende banali, sì, lo farà. Questa è un’evoluzione. Il mio messaggio per il pubblico è: non perdere il treno. Molte aziende hanno già preso il treno. Alcune persone, a mio dispetto, l’hanno fatto prima. Ma ci sono molte persone a bordo del treno e i risultati sono così rapidi che se non agisci ora, non riuscirai a recuperare tra quattro anni. La discrepanza sarà così grande che sarà come un effetto Kodak, in cui sei fatto, anche se non eri una cattiva azienda in partenza.
Conor Doherty: Bene, non ho altre domande, Joannes. Ti ringrazio molto per il tuo tempo e grazie anche a voi per averci seguito. Ci vediamo la prossima volta.