00:00:00 Introduzione dello show e impatto dell’IA sui lavori di colletto bianco
00:02:20 Introduzione dei Large Language Models (LLM)
00:03:27 La realizzazione di Joannes riguardo all’IA generativa e GPT-4
00:05:44 I LLM come macchina di modellazione universale
00:07:05 Joannes sul potenziale di automazione e cambio di prospettiva
00:10:38 Sfide nell’automazione della comunicazione con i fornitori
00:12:24 Riassunto dell’impatto dei LLM
00:14:11 Problemi banali nell’automazione
00:15:59 Scala dell’evento di estinzione
00:17:48 Comprensione dell’IA del gergo industriale
00:19:34 L’effetto dell’IA sui lavori viene messo in discussione
00:21:52 Sistema di risposta automatica e importanza dell’automazione end-to-end
00:28:08 Aziende che già automatizzano i processi
00:30:36 Migliorare l’efficienza e ottenere un vantaggio competitivo con l’IA
00:34:28 Prontezza del mercato per l’IA
00:36:27 Origini dello sviluppo dell’IA
00:38:55 Automazione delle parti complesse nella supply chain
00:41:36 La società diventa più ricca con l’automazione dei lavori
00:44:23 Il futuro dello studio della scienza della supply chain
00:46:54 Transizione alle domande del pubblico
00:50:12 Ripensare la roadmap tecnologica di Lokad
00:52:29 Inizio della sessione di domande e risposte
00:55:00 Prospettiva finanziaria nella supply chain
00:58:46 Domanda sul prezzo e impatto sul margine di profitto
01:01:00 LLM per problemi e compiti piccoli e banali
01:07:17 Intelligenza generale ed eventi di estinzione
01:09:49 L’effetto dell’IA sulle piccole e medie imprese
01:13:02 Benefici dell’automazione in Lokad
01:17:55 Prevedere eventi di estinzione per i non adottanti
01:20:32 Parigi come esempio di progresso attraverso l’automazione
01:22:20 Domanda sull’IA di successo e collaborazione umana
01:26:19 Limitazioni dell’intelligenza umana di alto livello
01:28:31 Domanda sull’IA nelle supply chain dei piccoli paesi
01:32:25 L’IA come livellatrice per i paesi in via di sviluppo
01:34:05 Semplicità e impatto delle macchine per cucire
01:35:31 Evoluzione, non rivoluzione
01:36:19 Pensieri finali

Riassunto

In una conversazione tra Conor Doherty e Joannes Vermorel di Lokad, Vermorel predice che l’intelligenza artificiale (IA) porterà a una massiccia estinzione dei lavori di ufficio a colletto bianco entro il 2030, molto prima delle previsioni precedenti. Egli attribuisce ciò al successo dei Large Language Models (LLM), che secondo lui avranno un impatto su tutti i lavori di ufficio, in particolare nelle supply chain. Vermorel sostiene che l’obiettivo dovrebbe essere l’automazione completa dei lavori ripetitivi, sbloccando significativi miglioramenti di produttività. Egli prevede che molte aziende inizieranno a rimuovere le persone da queste posizioni entro mesi. Vermorel suggerisce che le attività che richiedono un’intelligenza umana di alto livello, come le decisioni strategiche, sono ancora al di là delle capacità dei LLM.

Riassunto Esteso

In una recente conversazione tra Conor Doherty, Responsabile delle Comunicazioni presso Lokad, e Joannes Vermorel, CEO e fondatore della stessa azienda, i due hanno discusso delle implicazioni dell’intelligenza artificiale (IA) e dell’ottimizzazione della supply chain. Vermorel ha espresso la sua convinzione che l’IA porterà a una massiccia estinzione dei lavoratori di ufficio a colletto bianco. Ha fatto riferimento a previsioni passate secondo cui l’IA avrebbe eliminato il 90% dei lavori di colletto bianco entro il 2050, ma crede che ciò accadrà molto prima, entro il 2030.

Il cambiamento epocale, secondo Vermorel, è il successo dei Large Language Models (LLM), che avranno un impatto su tutti i lavori di ufficio a colletto bianco, in particolare quelli nelle supply chain. Vermorel ha ammesso di aver inizialmente perso la rivoluzione dei LLM e di averne compreso il potenziale solo circa 18 mesi fa, quando ha iniziato a lavorare con l’IA generativa. Ha condiviso la sua esperienza con GPT-4, un modello di OpenAI, e come ciò gli abbia fatto comprendere il potenziale di questa tecnologia a livello di produzione. Ha spiegato che GPT-4 è un ordine di grandezza più intelligente di GPT-3.5 e una volta compreso come funziona, è possibile adattarlo anche a GPT-3.5.

Vermorel ha descritto i LLM come una macchina universale di modellazione, incredibilmente potente e resiliente al rumore. Ha condiviso di aver riscritto l’intero piano strategico di Lokad più di un anno fa e che negli ultimi 12 mesi hanno automatizzato una task dopo l’altra. Ha espresso la sua meraviglia per l’entità di ciò che può essere realizzato attraverso l’automazione e la difficoltà nel trovare problemi che non possono essere automatizzati. Ha condiviso che Lokad ha automatizzato la parte più difficile, le decisioni quantitative, dieci anni fa, e il resto è stato automatizzato negli ultimi 12 mesi con l’aiuto dei moderni LLM.

Vermorel ha spiegato che l’automazione, in particolare nelle attività linguistiche, ha già superato le competenze e l’intelligenza umana in termini di velocità e accuratezza. Ha dato un esempio di come i large language models (LLM) siano bravi a evitare errori comuni, come interpretare erroneamente il colore nel nome di un prodotto come il colore effettivo del prodotto. Vermorel ha paragonato i LLM a un servitore che è familiare con la terminologia e il gergo di ogni settore, rendendolo superiore a una persona media che potrebbe non essere familiare con termini tecnici specifici. Ha affermato che la vera domanda è cosa non può essere automatizzato, poiché finora tutto ciò che hanno provato ha funzionato.

Vermorel non è d’accordo con l’idea che l’IA agirà come copilota per aiutare gli esseri umani a prendere decisioni, sostenendo che l’obiettivo dovrebbe essere l’automazione completa end-to-end per i lavori ripetitivi, che può sbloccare significativi miglioramenti di produttività. Ha risposto che i lavori non ripetitivi sopravviveranno, ma molte attività che sembrano non ripetitive quotidianamente sono in realtà ripetitive nel corso di un anno. Ha confermato che il periodo di tempo per l’automazione sarà molto compresso e che molte aziende si stanno già muovendo rapidamente verso l’automazione.

Vermorel ha spiegato che le precedenti rivoluzioni tecnologiche erano limitate a settori specifici, ma i large language models si applicano a quasi tutti i lavori di colletto bianco, specialmente quelli di back-office. Ha spiegato che il mercato si muoverà più lentamente rispetto all’ufficio in termini di automazione, poiché le aspettative di un pubblico più ampio dettano il ritmo. Ha sottolineato che ai clienti non importa se l’esecuzione della produzione è completamente automatizzata o svolta da impiegati.

Vermorel ha previsto che l’automazione dei lavori di colletto bianco sarà una sorpresa, ma ha sottolineato che i lavori di colletto blu hanno subito cambiamenti simili negli ultimi 150 anni. Ha usato l’esempio dei portatori d’acqua a Parigi, un lavoro che è scomparso con l’introduzione dell’idraulica. Ha discusso di come l’automazione abbia già reso estinte alcune attività, come il confronto delle bozze di contratto riga per riga, un compito ora svolto da Microsoft Word. Ha descritto il ritmo di questi cambiamenti come graduale fino all’introduzione dei LLM, che afferma sembra camminare 20 anni nel futuro in un solo anno.

In risposta a una domanda sul futuro della scienza della supply chain, Vermorel ha affermato che i fondamenti insegnati nelle sue lezioni sulla supply chain non saranno automatizzati. Ha incoraggiato a concentrarsi su queste domande fondamentali e non sulle banalità che saranno automatizzate dai LLM. Ha riassunto che i LLM rappresentano un evento di estinzione per le funzioni aziendali di back office, prevedendo che molte aziende inizieranno a rimuovere le persone da queste posizioni. Ha descritto ciò come una questione di mesi e ha sollecitato un’azione rapida.

In risposta a una domanda su quali titoli di lavoro potrebbero diventare obsoleti, Vermorel ha elencato pianificatore di offerta e domanda, analista di inventario e category manager. Ha suggerito che ruoli come supply chain scientist, che coinvolgono la creazione di ricette numeriche e il pensiero strategico, non saranno automatizzati. Vermorel ha spiegato che Lokad ha automatizzato non solo decisioni fondamentali come la pianificazione, la pianificazione, l’acquisto, la produzione, l’allocazione e l’aggiornamento dei prezzi, ma anche i processi circostanti come la gestione dei dati di base, la comunicazione e le notifiche ai clienti e ai fornitori.

In risposta a una domanda su consigli per i giovani che entrano nella supply chain, Vermorel ha suggerito di concentrarsi sulla comprensione strategica, sul pensiero critico e sulle competenze di programmazione. Crede che i LLM non sostituiranno queste competenze, ma ne aumenteranno la produttività. Vermorel ha previsto che le soluzioni di supply chain basate sull’IA avranno un effetto più pronunciato sulle piccole aziende rispetto alle grandi. Ha spiegato che l’alta produttività di questi strumenti rende l’automazione accessibile alle piccole aziende, consentendo loro di competere con le aziende più grandi.

Vermorel ha condiviso che l’automazione presso Lokad ha migliorato la qualità e aumentato la produttività. Ha osservato che è troppo presto per vedere l’impatto sui tassi di abbonamento e altre metriche a causa dei cicli di vendita lenti del software aziendale. Ha messo in guardia dall’affidarsi ai numeri, usando l’esempio del fallimento di Kodak nell’adattarsi alla fotografia digitale. Ha previsto che le aziende che possono automatizzare i loro processi saranno più agili e affidabili, mentre quelle che non lo faranno non sopravviveranno. Ha paragonato ciò a un evento di estinzione.

Vermorel ha sottolineato l’importanza di liberare le persone da lavori noiosi per il miglioramento della supply chain e della crescita complessiva dell’azienda. Crede che ciò permetterà alle persone di pensare in modo strategico e non essere distratte da compiti minori. Ha spiegato che la cooperazione tra esseri umani e macchine non è come immaginato. Si tratta più di automatizzare completamente compiti, come la traduzione del sito web di Lokad e i timestamp dei video di Lokad TV, che ora vengono eseguiti automaticamente. Ha suggerito che la vera domanda è cosa non può essere automatizzato.

Vermorel ha suggerito che le attività che richiedono un’intelligenza umana di alto livello, come decisioni strategiche e domande macro per l’azienda, sono ancora al di là delle capacità degli LLM. Ha spiegato che gli LLM sono incredibilmente accessibili e non richiedono una forza lavoro super talentuosa o una connessione Internet ad alta larghezza di banda. Ha sottolineato che questa tecnologia è economica e può essere un grande livellatore per i paesi con risorse limitate.

Vermorel ha concordato con il confronto di Conor e ha avvertito le aziende di non perdere questa evoluzione. Ha suggerito che le aziende che non adottano questa tecnologia ora potrebbero non essere in grado di recuperare in futuro.

Trascrizione completa

Conor Doherty: Benvenuti a Lokad Live. Mi chiamo Conor. Sono il responsabile delle comunicazioni presso Lokad. E mi accompagna in studio il fondatore di Lokad, Joannes Vermorel. L’argomento di oggi potrebbe essere il più serio che abbiamo mai affrontato nello show. Una discussione franca e dispassionata sullo stato dell’arte dell’IA e della supply chain e, soprattutto, su cosa significhi per le persone in questo settore. Questo è pensato per essere una discussione interattiva, quindi se avete domande, vi preghiamo di inviarle nella chat dal vivo e risponderemo a tutte quelle che possiamo nel tempo a nostra disposizione. Quindi, Joannes, non nascondiamo più il punto principale. Perché siamo qui?

Joannes Vermorel: Credo che stiamo affrontando qualcosa che probabilmente sarà caratterizzato come un evento di estinzione di massa per i dipendenti dei servizi amministrativi. Cinque anni fa, c’erano molti consulenti che facevano studi e dicevano che entro il 2050, l’IA avrebbe eliminato il 90% dei posti di lavoro dei servizi amministrativi. Le ragioni e le tecnologie che venivano invocate in quei rapporti erano completamente fasulle, e si è scoperto che anche la tempistica era completamente fasulla. Ma l’unica cosa vera era il 90%. E la tempistica, come la vedo ora, sarà notevolmente accelerata. Non sarà il 2050, sarà il 2030. Ciò che ha cambiato tutto è stato il successo degli LLM (Large Language Models). Questo avrà un impatto su quasi tutti i lavori dei servizi amministrativi, in particolare quelli nelle supply chain. Il cambiamento sta arrivando molto velocemente, molto più velocemente di quanto pensassi 18 mesi fa.

Conor Doherty: Hai fatto riferimento ai consulenti prima, che speculavano sulla traiettoria di questa evoluzione o estinzione, come l’hai definita tu. Cosa è successo esattamente l’anno scorso con l’emergere degli LLM per accelerare questa evoluzione?

Joannes Vermorel: La vera rivoluzione è avvenuta circa tre anni fa. L’ho persa. Mi sono reso conto di cosa stava accadendo solo circa 18 mesi fa. In quel momento, ho iniziato a giocare con l’IA generativa. Abbiamo fatto un’intervista a riguardo quasi un anno e mezzo fa. All’epoca, stavo guardando queste tecnologie. L’IA generativa era presente da 20 anni e faceva progressi ogni anno. Stavo iniziando a capire che poteva essere utilizzata per scopi produttivi, ma erano piccoli tocchi come generare alcune illustrazioni per lezioni.

Poi ci sono stati gli LLM e i chatbot. Erano carini, ma pensavo fossero solo un gadget di moda. Non mi ero davvero reso conto di cosa potessero essere utilizzati. Poi ho ripreso i sensi quando ho iniziato a lavorare con GPT-4, la versione beta, un po’ più di un anno fa. Mi sono reso conto che questa tecnologia è di produzione. C’è stato un salto assolutamente enorme. Mi sono reso conto con GPT-4, un modello di OpenAI, di come GPT-3.5, che era presente da diversi anni, fosse destinato ad essere utilizzato. La cosa interessante è che ci è voluto un secondo passo avanti, GPT-4, per capire. GPT-4 è un ordine di grandezza più intelligente di GPT-3.5.

Ma una volta che inizi a capire come funziona, ed è molto più facile con GPT-4 perché GPT-4 è molto migliore, allora puoi adattare ciò che funziona e renderlo bello e fluido in modo che funzioni anche con GPT-3.5. La realizzazione è che l’LLM è incredibilmente potente, ma se vuoi usarlo per scopi produttivi, per le aziende, per scopi aziendali, non si tratta di avere un chatbot. La cosa interessante è che hai una macchina di modellazione universale. Questo è ciò che è completamente incredibile. Questo è molto resistente al rumore. Un po’ più di un anno fa, mi sono reso conto che era di produzione. Avevamo perso qualcosa che era una scoperta assolutamente sorprendente 18 mesi fa. Ho riscritto completamente la roadmap di Lokad più di un anno fa. Negli ultimi 12 mesi abbiamo aggiornato freneticamente praticamente tutto. Siamo stati abbastanza silenziosi in termini di comunicazione su questo, ma nel corso degli ultimi 12 mesi abbiamo automatizzato una cosa dopo l’altra. Cose che sembravano quasi impossibili da automatizzare alcuni anni fa sono state automatizzate.

Quando guardo i lavori nelle supply chain, posso vedere che la portata di ciò che può essere consegnato come qualcosa di completamente robotizzato è semplicemente sbalorditiva. È persino difficile trovare problemi al giorno d’oggi che non si possano automatizzare. In passato, automatizzare ogni singolo compito era una sfida. Da Lokad, abbiamo automatizzato un decennio fa ciò che era la parte più difficile, ovvero le decisioni quantitative. Le decisioni quantitative erano come capire quante unità acquistare, produrre, se dovresti aumentare o diminuire il tuo prezzo. Queste risposte quantitative sono state automatizzate un decennio fa. Ma ciò che è successo negli ultimi 12 mesi riguarda tutto il resto. Tutto il resto è diventato economico, super veloce e facile con questi moderni LLM.

Conor Doherty: Non voglio invertire le cose perché la domanda successiva sarebbe probabilmente: “Beh, quali lavori spariranno?” Ma in realtà, vorrei tornare indietro di un passo. Come hai esplicitamente affermato un anno fa, eravamo qui e hai definito GPT-3.5 un artista del BS e l’hai paragonato a un gatto. Quindi, la domanda è, cosa esattamente, quando descrivi quella sensazione di vertigine, cosa ti ha portato in quel viaggio da “è un gatto” a “siamo in un evento di estinzione”?

Joannes Vermorel: È ancora piuttosto stupido, ma non è quello che vuoi. Il punto è che gli LLM non servono a fare una discussione intelligente. È bello, e GPT-4 va abbastanza lontano in questa direzione. Questo è stato abbastanza sorprendente. Ma ancora una volta, la forza sono quelle macchine di modellazione universali che ho descritto. Prendiamo un esempio. Vuoi inviare un ordine di acquisto a un fornitore e ti rendi conto che non hai la MOQ. Dovresti inviare una e-mail al fornitore dicendo: “A proposito, per quei prodotti, qual è la tua MOQ, la tua quantità minima d’ordine? Dammi il valore.” Poi la persona risponderà e tu devi solo aggiungere questo valore da qualche parte nel tuo sistema in modo che tu possa calcolarlo. Questo fa parte del processo decisionale.

Lokad stava automatizzando questo. Quello che stavamo facendo è se conosciamo la MOQ, ti forniamo e tutti gli altri dati, ti forniamo la risposta corretta su quanto dovresti acquistare. Ma ottenere il valore MOQ stesso, era come un telefono, come affronti quella situazione? Non è un problema difficile. Puoi certamente creare un sistema automatizzato in cui hai un modello di e-mail e poi dovrai passare la risposta e passare la risposta è complicato perché il fornitore potrebbe rispondere qualcosa che ti dà come due MOQ. Per questo prodotto è questo, per quest’altro è qualcos’altro. Come affronti questa situazione? Questo non è fondamentalmente un problema difficile. Non è come un calcolo di fantasia. Ma questo era sicuramente qualcosa che ci impediva di robotizzare l’intera esecuzione del processo da un capo all’altro.

Potevamo automatizzare la parte decisionale ma non l’esecuzione completa della decisione tenendo conto di ciò che deve accadere prima e dopo la fase decisionale. Ora, con LLM, dove hai queste macchine di modellazione universali, se ricevi una e-mail che chiede qual è stata la MOQ segnalata dal fornitore, blah, blah, blah, puoi letteralmente automatizzare queste cose in modo super veloce.

Quindi, se chiedi a GPT, a un LLM, di inventare cose, avranno delle allucinazioni. È quello che fanno. Ma se li usi correttamente e li usi correttamente dicendo che hai un input, vuoi una trasformazione e ottieni le informazioni dall’input trasformato, ottieni qualcosa di incredibilmente robusto e di qualità produttiva. Questo è solo, e si scopre che quando guardi cosa fanno i lavoratori degli uffici, i lavoratori colletti bianchi, stanno cercando piccoli pezzi di informazione qua e là. Questo è come il 90% del loro tempo viene speso per fare questo, un po’ di chiacchiere con l’ambiente. E ora hai una macchina universale per automatizzare tutto questo ed è molto, molto semplice ed economico.

Conor Doherty: Quindi, per riassumere tutto fino a questo punto, e ancora una volta Lokad ha fatto questo per anni, l’aspetto decisionale più quantitativo è stato automatizzato utilizzando altre forme di intelligenza artificiale. Oggi stai parlando degli elementi più qualitativi e interpersonali che sono soggetti anche all’automazione tramite LLM.

Joannes Vermorel: Sì, pensa solo a voler inviare i tuoi ordini di acquisto. C’è il calcolo della quantità, è quello che Lokad fa da più di un decennio. Ma poi ci sono tutte le piccole cose che devono accadere. Cosa succede se ci sono due prodotti duplicati? Quindi hai due prodotti, è due volte la stessa referenza. Come lo vedi? La risposta in passato era complicata. Potevi creare un po’ di machine learning e un po’ di tecniche di elaborazione del linguaggio naturale specializzate, qualcosa per deduplicare automaticamente il tuo catalogo. Sì, in passato ci volevano, diciamo, 50 ore di ingegneria del software per ottenere qualcosa che funzionasse.

Ora, con LLM, questa deduplicazione di cui sto parlando richiede letteralmente 20 minuti di lavoro e poi avrai una soluzione di produzione per deduplicare. Quindi vedi che la portata è assolutamente sorprendente. E hai tutte queste piccole cose che erano sulla strada ecco perché le aziende hanno bisogno di tutte queste persone perché non è come il grande problema che richiede molto tempo. Il grande problema come calcolare questa quantità era già in qualche modo meccanizzato ma erano i piccoli problemi super banali che erano sulla strada, piccoli problemi di qualità dei dati, cose duplicate, un punto dati mancante come una MOQ.

Un fornitore è in ritardo, vuoi inviare una e-mail per ottenere una stima rivista del tempo di arrivo e poi ottenere la risposta. Questi tipi di cose, non sono super complicate ma prima era già possibile automatizzarle ma ancora ogni singola domanda e microtask del genere costava circa 50 ore di ingegneria per risolvere il problema e questo è molto perché se ne hai 100 di quelli, stiamo parlando di migliaia di ore-uomo e poi ti ritrovi con un progetto di cui ho parlato nelle lezioni, il costo di gestire un prodotto software non è lineare, è superlineare.

Quindi se raddoppi la complessità, tendi a moltiplicare il costo per mantenere questa cosa non per due ma per quattro. Quindi aggiungendo tutte queste cose, stavi creando un software mostro che era molto difficile da gestire, aggiornare ed estendere. Se puoi come mattoncino di base, hai qualcosa come LLMs dove queste cose sono centralizzate, allora non solo questi compiti possono essere risolti in 20 minuti ma la complessità complessiva del tuo prodotto software cresce molto più lentamente rispetto a quello che era prima perché è comunque un prodotto molto, molto semplice ed è lo stesso trucco, questo LLM, che viene utilizzato ad ogni passo per risolvere tutti quegli incidenti minori che si hanno lungo il percorso.

Conor Doherty: Qual è quindi la portata di tutto questo quando parli di evento di estinzione? Puoi spiegare le implicazioni?

Joannes Vermorel: Ho lavorato con LLM e abbiamo automatizzato compiti a destra e a sinistra. Vedo altre aziende che stanno facendo lo stesso, specialmente quando si tratta di compiti linguistici come riorganizzare informazioni, riassumere informazioni, estrarre informazioni da una e-mail e così via. La cosa incredibile è che siamo già oltre la capacità umana, oltre l’intelligenza umana.

Quando dico oltre l’intelligenza umana, intendo in un periodo di tempo limitato. Se ti do una e-mail di input e ti chiedo di estrarre le informazioni chiave in 20 secondi, a volte sbaglierai come umano. Se ti do mille e-mail e ti chiedo di estrarre le informazioni chiave da ognuna in 20-30 secondi, avrai un tasso di successo di forse il 98% e a volte sbaglierai.

Gli LLM, tuttavia, non solo lo faranno in un secondo invece di 30 secondi, ma la loro precisione sarà molto superiore a quella di una persona media, anche se addestrata. Ecco perché dico che siamo letteralmente oltre l’umano.

Per molte cose, come non commettere errori da principiante, gli LLM sono incredibilmente bravi. Ad esempio, se c’è un colore nel nome di un prodotto, forse il colore non significa che il prodotto è di quel colore. Forse è un dispositivo per fare un controllo e il colore nel nome non ha nulla a che fare con il colore effettivo del prodotto. Questo è il tipo di cose in cui gli LLM sono davvero incredibili.

È come avere un servitore che è molto familiare con la terminologia e il gergo di praticamente ogni settore esistente sulla Terra. Quindi, improvvisamente, hai qualcosa che è un po’ oltre l’umano perché se prendi una persona a caso, questa persona non è immediatamente familiare con i termini tecnici specifici del tuo settore e questa persona è probabile che per mesi, se non anni, commetta errori per ignoranza e non sapendo che questo termine è fuorviante e, ad esempio, questo è un termine che si riferisce a un colore ma non si riferisce a un colore in questo contesto. È più come una caratteristica del prodotto o altro e gli esempi continuano all’infinito.

E da Lokad, letteralmente, abbiamo meccanizzato un sacco di cose e la vera domanda è letteralmente “Cosa non possiamo automatizzare?” Ed è una domanda difficile perché finora praticamente ogni cosa che abbiamo provato ha funzionato praticamente subito. Ecco la cosa che fa impazzire è che una volta che capisci a cosa servono questi LLM, puoi automatizzare così tanto, così tanto.

Conor Doherty: Per prendere la posizione di un potenziale oppositore, se confrontiamo i lavori da colletto bianco e quelli da colletto blu, per decenni si è parlato di come robot, macchine e altre forme di tecnologia toglieranno gli strumenti dalle mani dei meccanici. Eppure in molti settori, come ad esempio l’MRO, ci sono parti del mondo in cui c’è una grave penuria di tecnici per lavorare sugli aerei. Quell’evento di estinzione era sbagliato. Quanto sei sicuro di ciò che stai dicendo oggi nel contesto di simili proclami che le persone hanno fatto? Cosa ti rende così sicuro?

Joannes Vermorel: Voglio dire, innanzitutto, ciò che mi rende sicuro è che lo facciamo da un anno e letteralmente, voglio dire, solo per darti un esempio delle cose che abbiamo meccanizzato a Lokad, le richieste di proposte. Riceviamo giganteschi documenti Excel inviati da grandi aziende con un numero folle di domande, come 600 domande. E all’inizio di quest’anno, penso che fosse a maggio o qualcosa del genere, ho detto: “Ok, abbiamo un’altra richiesta di proposte di 600 domande. Ci vogliono letteralmente una settimana, 10 giorni, intere giornate, per rispondere a tutto questo. Voglio dire, è così doloroso passare attraverso quei documenti enormi.” Scusa.

E poi ho deciso: “Ok, lo meccanizzo e riciclo tutta la base di conoscenza che avevamo già a Lokad e creo una macchina per rispondere.” Sai, una macchina per rispondere. Quindi, abbiamo già i documenti, abbiamo già un sacco di cose, e il compito della macchina era semplicemente: “Scrivi una risposta alla domanda proprio come farebbe Lokad. Riutilizza la base di conoscenza che abbiamo. E se c’è una lacuna nella base di conoscenza, rispondi ‘fallimento’ e poi lo faremo manualmente.”

E letteralmente, fare una richiesta di proposte richiedeva più di una settimana e automatizzare la cosa delle richieste di proposte mi ha richiesto una settimana. Quindi letteralmente, nel momento in cui avevo progettato i robot, avevo già un ritorno positivo. Sai, nel momento in cui ho completato la mia automazione, stavo rigenerando le risposte e la cosa con meno del 10% delle domande in cui dovevo ancora farlo manualmente ed estendere la base di conoscenza di Lokad.

Ma la cosa interessante è stata quando abbiamo inviato le nostre risposte, il sistema online, avevamo come un processo di invio online, invii e poi hai 600 domande, diciamo, e hai una risposta automatica basata sulle tue risposte e sulle caselle che hai spuntato. Ecco altre 100 domande che sono state generate. E quindi, abbiamo riapplicato. Quindi, pensavamo, oh, avevamo fatto 600 domande.

A proposito, alla fine erano più di 100 pagine di risposte, quindi era come un documento molto, molto lungo da inviare. E poi invii quello e poi il sistema che gestisce il processo di richiesta di proposte ti risponde con altre 100 domande. E di nuovo, abbiamo riutilizzato gli strumenti e in poche ore, alla fine, abbiamo finito. E poi tutte le richieste di proposte che abbiamo fatto da allora, sai, usiamo solo questo strumento ed è stato, ed è solo un esempio tra letteralmente decine.

Conor Doherty: Ci sono però aziende che hanno un atteggiamento molto diverso dal tuo. Credono che l’IA generativa, i grandi modelli di linguaggio di cui stiamo parlando, diventeranno fondamentalmente una sorta di copilota per le persone attualmente nel settore, come i pianificatori della domanda e gli esperti di supply chain. Credono che tu non verrai sostituito dall’IA, ma che ti supporterà, sarà un copilota che ti aiuterà a prendere tutte le decisioni, sia quantitative che qualitative, che tu dici che spariranno. Perché è sbagliato?

Joannes Vermorel: Quindi, quello era, a proposito, quello che stavo immaginando prima della mia epifania, sai, 18 mesi fa. Se pensi in quel modo, no, i LLM saranno una completa schifezza. Saranno solo un gadget e ti stai completamente perdendo il punto. Ti stai completamente perdendo il punto. Perché? Ehm, questa è la cosa. Se vuoi, innanzitutto avere un’interfaccia utente conversazionale, è un giocattolo. Non è, voglio dire, è bello avere GPT come sostituto del tuo motore di ricerca, va bene, ma se vuoi fare un lavoro ripetitivo, quello che vuoi è un’automazione completa end-to-end.

Quindi, in questo caso, LLM deve diventare un componente programmabile del tuo software. E, come ho detto, torniamo a questa macchina automatica di risposta alle richieste di proposte. L’obiettivo non è avere un copilota che chiacchiera con noi per rispondere a queste 600 domande della richiesta di proposte. Quello che volevamo era una macchina che prendesse il documento e tirasse fuori tutte le domande e basta, capisci. E avere solo una breve lista di domande in cui le FAQ devono essere estese e basta, capisci. Non si tratta di avere un copilota con cui puoi interagire e cose del genere. È una completa perdita di tempo. Questo non è ciò che l’automazione, l’automazione vera, significa.

E quindi, secondo me, le persone che la pensano in questo modo, non stanno pensando chiaramente. Pensano solo in termini incrementali. Pensano solo di aggiungere una nuova tecnologia per migliorare un po’ il modo in cui viene fatto, invece di ripensare completamente a come viene fatto e sbloccare un miglioramento della produttività del 100x nel processo.

Conor Doherty: Quali lavori in particolare pensi che sopravviveranno all’evento di estinzione che stai descrivendo? Cosa rimane se il lavoro quantitativo è scomparso, il lavoro qualitativo è scomparso e tutto è automatizzato?

Joannes Vermorel: Quello che rimane è tutto ciò che è strettamente non ripetitivo, ok. Ma a un livello elevato, perché vedi, se guardi un lavoratore di back office, sai, colletto bianco, quello che la gente direbbe, “Oh, non è ripetitivo. Guarda, devo inviare una email lì, devo chiedere a un collega lì, devo fare molte cose un po’ eterogenee.” Sì, ma nel corso di un anno, è sempre la stessa cosa che si ripete ancora e ancora e ancora. E in passato, e a proposito, questo è sempre stato incombente. Voglio dire, negli ultimi quattro decenni, l’industria del software era, e sono sempre stato convinto che non fosse una questione di quando, non era una questione di se tutte quelle cose banali sarebbero state automatizzate, era solo una questione di quando.

E negli anni ‘80, ci sono stati diversi inverni dell’IA in cui le persone hanno fatto grandi affermazioni e non si sono concretizzate con i sistemi esperti, con il data mining. Quindi, i sistemi esperti erano alla fine degli anni ‘80, all’inizio degli anni ‘90, il data mining era l’anno 2000, ecc. Quindi, c’è stata una serie di onde, ma la differenza è che ora funziona. Voglio dire, funziona e letteralmente, Lokad è stato un anno lungo e abbiamo automatizzato cose che non avrei pensato fossero possibili da fare così facilmente e così velocemente. E ho visto, ancora una volta, altre aziende farlo anche e il risultato netto è assolutamente sorprendente e funziona. E funziona anche senza, direi, tante competenze specializzate o tanti oneri tecnici. Queste tecnologie sono anche molto semplici da adottare.

Conor Doherty: Voglio solo chiarire una frase che hai appena detto. Hai detto di aver visto molte aziende farlo. Stai suggerendo che dietro le quinte è già quello che sta succedendo?

Joannes Vermorel: Sì, ed è per questo che credo che il periodo di tempo sarà molto compresso. Ecco perché ho detto il 2030 per il gioco finale, non il 2050. Molte aziende si stanno già muovendo alla massima velocità su questo. Se segui le notizie, vedrai che alcune aziende annunciano il licenziamento di 5.000 persone qua e là. Questo sta accadendo molto velocemente e la velocità del mercato non sarà definita dalla velocità dell’azienda solita o dell’azienda media, sarà definita dalla più veloce. Perché vedi, i risparmi sono così grandi che se sei in ritardo, questa svolta tecnologica ti distruggerà.

E credo che l’IA sia meno significativa in termini di risultato tecnologico rispetto all’Internet stesso. Sai, l’Internet stesso è più grande. Ma in termini di competitività, l’Internet ha impiegato circa due decenni per essere impostato. Sai, è stato un processo lento, posare i cavi, ottenere una connessione Internet veloce e affidabile ovunque, aggiornare gradualmente tutto, il sistema operativo, sfruttare al massimo l’email, ecc.

Quindi, è stato un processo lento in cui anche se eri un ritardatario, non era chiaro che ci fossero guadagni immediati di produttività. Quindi, se eri in ritardo rispetto alla festa di Internet e invece di adottare l’email nel 1995, l’hai adottata solo nel 2002, eri in ritardo di sette anni, ma andava più o meno bene. I tuoi concorrenti non avevano ridotto i loro costi di un fattore di 10 grazie a Internet.

E a proposito, Internet ha creato anche molte burocrazie perché era necessaria molta amministrazione di sistema. Ha creato tonnellate di problemi. Quindi, ci sono voluti letteralmente due decenni per le aziende per digerire e diventare davvero migliori con esso. Qui è diverso perché per diventare migliori con esso, è questione di mesi. E puoi ridurre drasticamente la quantità di manodopera necessaria per molte attività e direi praticamente ogni singola attività di back office, comprese le supply chain, in pochi mesi. Ed è qui che sarà, credo, molto diverso questa volta.

Conor Doherty: Quando hai detto che ci sono diversi dipartimenti, non stai includendo l’IT, ti stai concentrando specificamente sulle attività centrate sulla supply chain?

Joannes Vermorel: Ogni dipartimento ha bisogno della propria discussione. L’IT, in larga misura, sarà più difficile da automatizzare. Prima di tutto, perché robotizzare l’amministrazione di sistema crea tutti i tipi di potenziali problemi di sicurezza. Sarà difficile. Arriverà, ma sospetto che ci vorrà più tempo. E la maggior parte delle decisioni prese dall’IT sono già piuttosto complicate. Quindi, direi che per l’IT, sospetto che ci saranno risparmi di produttività dell’ordine del 50%. E qui, sarà una sorta di copilota. A proposito, è quello che succede in Lokad.

Ora, hai una domanda su qualcosa come un oscuro software. Prima spendevi mezz’ora sul web per arrivare alla documentazione tecnica del fornitore. Ora, con ChatGPT, puoi farlo ma molto più velocemente. Bene, è il tipo di assistente copilota di cui stiamo parlando. Sì, sarà l’IT. Ma credo che per altre funzioni possa essere molto più veloce e su una scala molto più grande.

Conor Doherty: Quindi, in sostanza, sembra che il ROI per abbracciare la tecnologia ora sia la differenza tra avere un ritorno sull’investimento e praticamente estinguersi.

Joannes Vermorel: Sì, esattamente. Penso che sia una sorta di brusca svolta tecnologica. Credo che sia davvero un errore pensare a quello del ROI perché il ROI è così grande che se non fai la svolta, i tuoi concorrenti ti estingueranno. Quindi, vedi, smetti di pensare. Pensa solo che sei nell’industria dell’abbigliamento e qualcuno ha appena inventato la macchina da cucire. Quindi, hai persone che usano gli aghi, sai, a fare l’abbigliamento e ci mettono tre giorni per fare una camicia. E poi, c’è qualcuno che inventa una macchina da cucire e fa una camicia in 5 minuti. Questa è la scala della differenza. Quindi, qual è il ROI della macchina da cucire? La risposta è che o hai una macchina da cucire o sei fuori dal mercato. Questo è tutto.

Conor Doherty: Hai dato esempi prima su Lokad TV riguardo a Kodak. Hai menzionato esplicitamente Kodak. Hanno inventato la fotocamera digitale e non l’hanno abbracciata e sono falliti.

Joannes Vermorel: Sì, e la cosa era che quelle rivoluzioni erano limitate a un solo settore. Sai, c’era la fotocamera digitale, sì, molti, voglio dire, il 90% dei giocatori in questo mercato per attrezzature fotografiche argentiche sono falliti. Ma ancora una volta, era qualcosa come un evento verticalizzato. Quindi, è stato un evento di estinzione ma limitato a un settore specifico.

Ora, la cosa interessante con gli LLM si applica letteralmente a praticamente tutti i lavori di colletto bianco e più specificamente a quelli di back-office. Perché vedi, l’ufficio frontale, se stai parlando con qualcuno, se hai bisogno di quel tocco personale e così via, anche se teoricamente potresti meccanizzare, non è chiaro che il mercato sia disposto a farlo.

Ad esempio, Amazon, nel, diciamo, anno 2000, potevi tecnicamente comprare mobili online. Ma le persone non erano pronte. Il commercio elettronico era ancora, non si fidavano abbastanza del commercio elettronico da comprare un divano da $3.000 online. Ci sono voluti dieci anni dopo. Quindi, dieci anni dopo, ora fa parte, direi, sì, le persone dicono, sì, puoi comprare un divano online. Puoi persino comprare una macchina online. È diventato parte della cultura.

Tecnicamente avresti potuto vendere auto e mobili nel 2000 online. Non era un problema tecnico. Era più una questione di, le persone sono disposte a farlo già, o ci vuole tempo? Quindi, direi che per l’ufficio frontale, le cose accadranno un po’ più lentamente perché anche se potresti robotizzare, proprio come Amazon avrebbe potuto vendere mobili nel 2000, ma questo segmento è decollato solo dieci anni dopo.

Il mercato si muoverà, direi, più lentamente perché ti muoverai al ritmo delle aspettative del pubblico più ampio. Quindi, sarà un po’ più lento. Ma per il back office, assolutamente no, non c’è un limite del genere. A nessuno importa minimamente se l’esecuzione della tua produzione e il tuo programma di produzione sono completamente robotizzati o se hai un esercito di impiegati per farlo. Ai tuoi clienti non importa, a nessuno importa, tranne internamente.

Conor Doherty: Tranne gli impiegati che, secondo te, saranno resi superflui, è quello che stai dicendo.

Joannes Vermorel: Ancora una volta, Lokad non è stata l’azienda che ha inventato gli LLM. È stato fatto da altre persone. Penso che sia stato inventato da persone come OpenAI. Sono andati in quella direzione, non sapevano cosa stavano facendo, tra l’altro. È molto divertente perché c’erano interviste a Sam Altman che ora dice, beh, se avessimo saputo, non avremmo creato OpenAI come un’organizzazione no profit. Non avremmo pubblicato ogni singolo trucco che abbiamo scoperto lungo il percorso.

Quindi, vedi, erano davvero interessati a questa idea di un LLM. Era solo una continuazione della sequenza. Hai un pezzo di testo e continui. Penso che farò una lezione su questo. C’è stata una serie di innovazioni che hanno reso gli LLM la vera, direi, meraviglia tecnologica del nostro tempo. Ma la cosa fondamentale è che è stata, credo, inaspettata anche per le aziende che hanno inventato tutto ciò. L’architettura Transformer è nata da Google, ma Google non è stato quello a sbloccarla, è stata un’altra azienda. Quindi, in definitiva, è stata un po’ un incidente. Ovviamente, le opportunità sono capitate a persone che erano ben preparate. C’erano persone che stavano facendo cose molto intelligenti, guardando nella giusta direzione. Ma le conseguenze sono state incredibilmente sorprendenti.

È molto interessante perché anche i ricercatori di intelligenza artificiale, come ad esempio Yann LeCun di Facebook, sono molto scettici sul potere degli LLM. La mia esperienza diretta nell’usarli è che sono una vera e propria cosa. Quindi, è molto interessante. È stata una sorpresa così grande che anche le persone che hanno aperto la strada in questo campo non vedono il punto di riferimento che rappresentano.

Conor Doherty: Vale la pena fare una piccola precisazione perché, come commento meta, il ruolo di Lokad in tutto questo è solo di osservatore. Come hai descritto, abbiamo utilizzato entrambi i lati dell’intelligenza artificiale, sia per il quantitativo che per il qualitativo.

Joannes Vermorel: Lokad non sta facendo ricerca per migliorare gli LLM. È un argomento super specializzato e ci sono aziende che lo stanno facendo molto bene.

In Francia, ad esempio, abbiamo Mistral AI, che è un team molto forte che lo sta facendo, e ora sono rivali di OpenAI. Quindi sì, bene, voglio vedere molta concorrenza in questo settore. Ma per Lokad, questo ha molte conseguenze. Automatizzavamo la parte difficile della supply chain, le decisioni quantitative: previsioni, ordini, allocazione, prezzi, tutte le cose quantitative. Ma ora, l’esecuzione end-to-end di tutto questo, con tutte le piccole cose che devi fare prima, come acquisire le informazioni mancanti, ci sono alcune cose che mancano, devi cercarle, inviare una e-mail, cercarle online, eccetera, eccetera, sai, molte cose che sono piccoli compiti.

In passato, dicevamo ai clienti, beh, se hai questo problema, per favore fallo. Potevamo automatizzarlo, e a volte lo facevamo, ma era abbastanza costoso. Quindi ora possiamo davvero robotizzare tutto questo, e lo stesso vale per ciò che accade dopo la decisione, come il follow-up con i fornitori, il follow-up su piccoli problemi e così via, tutte queste cose noiose e ripetitive, possono essere robotizzate anche loro.

A causa del fatto che è già là fuori, non possiamo permetterci di non farlo. Questo è ciò che i nostri clienti molto esigenti ci chiedono. Perché ancora una volta, non usare una macchina da cucire quando ne hai una non è un’opzione. Non puoi semplicemente dire, sai cosa, faremo finta di non aver mai sentito parlare di macchine da cucire e continueremo a cucire camicie con gli aghi. No, devi usarla.

Conor Doherty: Stai parlando di sopravvivenza a tutti i livelli. Sono i dipendenti, sono le aziende, è l’intera industria, il settore di mercato, tutto. Ciò che può essere automatizzato, lo sarà.

Joannes Vermorel: Sì, e tra l’altro, questo sarà una sorpresa, penso, per i colletti bianchi. Ma se guardi i colletti blu negli ultimi 150 anni, sono passati da una rivoluzione all’altra. L’introduzione dell’elettricità è stata un evento di estinzione di massa. C’erano come mille cose diverse che improvvisamente venivano automatizzate. Ancora 150 anni fa a Parigi, il lavoro più comune, che era quasi il 10% della popolazione, era svolto da persone che portavano l’acqua. Quindi c’era circa il 10% delle persone che avevano secchielli e portavano l’acqua, ed era il lavoro numero uno, ed è scomparso.

Quindi ovviamente, il lato positivo è che ogni volta che elimini quei lavori, la società nel suo complesso diventa più ricca perché significa che le persone stanno facendo cose più interessanti, di maggior valore, e le cose si sistemano. Le cose si sistemeranno come hanno fatto negli ultimi 150 anni per tutte le rivoluzioni industriali. L’unica cosa sorprendente è che tocca una classe di persone, ovvero i lavori dei colletti bianchi, che finora erano stati relativamente, e dico relativamente, protetti. Quindi ora, beh, è successo anche qui, ma sai, succederà di nuovo.

Conor Doherty: Non devi nemmeno tornare indietro di 150 anni. Voglio dire, negli ultimi decenni, la maggior parte delle persone ha vissuto alcuni eventi di estinzione in determinate aree, come il VHS che è stato reso obsoleto dai DVD, l’e-mail che ha reso obsoleti i fax.

Joannes Vermorel: Ad esempio, i miei genitori, che hanno iniziato alla Procter & Gamble, più di 40 anni fa, facevano cose che mi raccontavano quando erano impiegati alle prime armi. Ad esempio, una delle cose che facevano era prendere un giovane impiegato e farlo confrontare riga per riga i due documenti, quello che era una bozza e il ritorno, la controproposta del fornitore, del partner o di chiunque altro, e semplicemente segnare con una penna le sezioni che presentavano differenze. E ciò richiedeva ore.

E quindi stavano pagando molte persone solo per trovare le differenze. E ora, dove Microsoft Word fa semplicemente un confronto tra documenti, o si utilizzano le modifiche tracciate, ed è fatto. Quindi letteralmente, ci sono state molte attività che sono già estinte. Ma è successo, direi, gradualmente. Quello che è interessante con gli LLM è che è un passo abbastanza grande, ed è un passo in cui, voglio dire, letteralmente, abbiamo appena camminato 20 anni nel futuro in un solo anno. È così che ci si sente dopo aver messo queste tecnologie in produzione nell’ultimo anno.

Conor Doherty: Lokad collabora spesso con università, formando persone per entrare nella supply chain. Significa che abbandoneremo tutto questo? È un’attività inutile studiare la scienza della supply chain perché sta scomparendo?

Joannes Vermorel: No, non penso. Quello che insegniamo non sono le attività banali, come inviare un’e-mail a un fornitore per ottenere l’ultimo MOQ. Se guardi il contenuto della lezione, riguarda più la comprensione del costo in dollari di una mancanza di magazzino e come pensarci.

Se vuoi una risposta da Chat GPT, andranno in delirio con sciocchezze. Anche se si tratta di GPT-4, non siamo ancora lì, non proprio. Le cose di cui parlo nelle lezioni non sono le cose che vengono automatizzate. Ma quando guardo alle aziende della supply chain, la percentuale di tempo che le persone della supply chain trascorrono a riflettere a lungo e duramente su domande fondamentali come cosa significa davvero la qualità del servizio agli occhi dei nostri clienti è molto piccola.

La maggior parte di ciò che affronto nelle mie lezioni sono domande fondamentali che spesso sono ingannevolmente semplici, come ad esempio cosa significa la parola futuro? Cosa significa anticipare correttamente il futuro o adeguatamente? Queste sono domande veramente difficili e se stai pensando a queste domande e sei in grado di fornire risposte pertinenti alla tua azienda, non sei sull’orlo dell’automazione. Ecco perché dico, e mantengo ancora questa posizione, che gli LLM sono ancora incredibili chiacchieroni.

Quindi se vuoi raggiungere questo livello di comprensione, non siamo ancora lì. Avrai allucinazioni e altro ancora. Ma se quello che vuoi è eliminare automaticamente questa noia, allora è fatta. Ecco perché dico, concentrati sui fondamentali, concentrati sulle domande che richiedono di pensare a lungo e duramente. Questo non sta scomparendo. Quello che sta scomparendo è il rumore di fondo, le banalità infinite. Questo verrà risolto con i Large Language Models (LLM).

Conor Doherty: Bene, ci sono alcune domande del pubblico da affrontare e siamo stati qui per 50 minuti. Molte di queste domande riguardano ciò di cui vorrei parlare alla fine. Quindi prima di passare alle domande del pubblico, vorrei, se possibile, fare un riassunto a livello esecutivo per chiunque abbia perso i primi minuti. E penso che sia importante, il tuo appello all’azione per tutti i settori, quindi ancora una volta, persone che lavorano nel retrobottega, CEO, in tutti i settori.

Joannes Vermorel: La risposta breve è LLM, Large Language Models, rappresentano un evento di estinzione per le funzioni aziendali di back office che operano solo per lavori da colletto bianco, dove ci sono persone che prendono solo dati, li trasformano, li rimescolano e li spingono fuori. Sai, e guarda la tua organizzazione a tutti i livelli. Hai letteralmente eserciti di persone che fanno solo questo. Prendono alcune email e alcune fonti di dati piccole, diverse e eterogenee, fanno un po’ di calcoli e spostano le cose di un passo.

Il messaggio è che tutto questo è già possibile automatizzarlo. E molte aziende si stanno muovendo a piena velocità per farlo proprio ora. Puoi già vedere dalle notizie che non solo sono in produzione, ma hanno già iniziato a rimuovere le persone da queste posizioni. E non sto parlando di poche persone qua e là. Sto parlando di grandi aziende che fanno annunci come, avevamo 6.000 persone per fare questo, ora ne abbiamo 50. E c’è stata una gigantesca riduzione del personale. E procedono a piena velocità e mi aspetto che queste cose si intensifichino.

Di nuovo, i lavori da colletto bianco del back office saranno il bersaglio. La supply chain è una di quelle funzioni. Sospetto che ci siano una mezza dozzina di altre cose che lo faranno. Anche la contabilità probabilmente sarà fortemente colpita perché nella contabilità hai il ragionamento di alto livello intelligente che riguarda come vuoi organizzare la struttura contabile e altro ancora. Ma hai anche la noia. Qualcuno mi invia un PDF, devo estrarre mezza dozzina di informazioni rilevanti solo per generare l’operazione contabile che corrisponde a questo documento PDF. Ok, fatto. Questo può essere completamente automatizzato.

Quindi tutto questo sta scomparendo molto velocemente. E per alcune aziende, non è nemmeno il futuro, è già fatto. È già il presente. E stiamo parlando di mesi. Quindi, il riassunto esecutivo è, evento di estinzione, è questione di mesi. Sì, devi agire velocemente. E a proposito, Lokad, voglio dire, quando mi sono reso conto di questo, ho passato i primi tre mesi del 2023 a ripensare l’intera roadmap tecnologica di Lokad perché tutto ciò che avevo immaginato prima era andato in fumo.

Quindi per noi è stato un cambiamento piuttosto drastico. Voglio dire, internamente a Lokad, abbiamo automatizzato parecchie cose. E letteralmente eravamo così occupati a farlo che non ne parlavamo molto. Ma questo è stato il mio programma quotidiano per un anno adesso.

Conor Doherty: Prima di passare alle domande del pubblico, vale davvero la pena sottolineare che tradizionalmente avremmo parlato molto di previsione probabilistica, ottimizzazione stocastica, tutto quello. Questo non faceva nemmeno parte di questa conversazione perché è già risolto. È lo stato dell’arte da anni. Quindi quelle decisioni quantitative, vale la pena sottolineare, inventario, ordini di acquisto, allocazione, prezzi, per quanto riguarda almeno Lokad, sono state risolte anni fa. Sono già state fatte. Le persone ne sono almeno in parte o ambientemente consapevoli. L’obiettivo di oggi è parlare di tutto il resto che è stato lasciato.

Joannes Vermorel: Sì, esattamente. La routine, il rumore, le piccole cose ambientali, tutti quegli innumerevoli piccoli incidenti, che non richiedevano 10 anni nella supply chain. Pensate solo a fare una domanda casuale a un partner, a un trasportatore, a un fornitore e così via. E a proposito, le aziende assumevano regolarmente centinaia di persone con solo un mese di formazione. Queste persone erano in grado di operare. Ma pensate a qualcosa che richiede meno di sei mesi di formazione, molto probabilmente qualcosa che può essere gestito da un LLM, può essere automatizzato.

Sapete, se è qualcosa che una persona può imparare in pochi mesi, ok, può essere automatizzato. Se richiede dieci anni di competenza, dedizione e pazienza, no. Ma le cose facili, che probabilmente sarebbero comunque più strategiche, è questa la distinzione. Sì.

Conor Doherty: Bene. Consiglio di prendere un sorso d’acqua perché ci sono alcune domande da affrontare. Quindi grazie a tutti per le domande. Il nostro produttore ha raccolto le domande. Non ho accesso alla chat di YouTube, quindi non so quanti ne sono state fatte, ma quelle simili sono state raggruppate insieme. Le domande a cui non risponderemo oggi, forniremo risposte più dettagliate in un video successivo o su LinkedIn.

La prima domanda è di Constantine. Chiede: “Quali titoli di lavoro potrebbero diventare obsoleti? Vedi un futuro per i ruoli di previsione e pianificazione?”

Joannes Vermorel: Ruoli come pianificatore di offerta e domanda, analista di inventario, responsabili di categoria, tutto questo, direi che è finito. È letteralmente già finito. Le persone che stanno guardando potrebbero non essere d’accordo, ma state solo riportando. La parte di previsione, ad esempio, Lokad l’ha automatizzata quasi un decennio fa. Quello che non era automatizzato erano solitamente i piccoli incidenti di dati come prodotti duplicati o l’identificazione di quale prodotto è il discendente di un altro prodotto. Ad esempio, prendi due descrizioni di prodotti e dici, oh, questo è solo la quarta generazione di un dispositivo e questo è la quinta generazione. Quindi questo è praticamente lo stesso, un po’ migliore. Questo è il tipo di cosa che un LLM può sicuramente automatizzare. Quindi, tutto ciò è completamente automatizzabile ed è finito.

Ciò che non può essere automatizzato sarebbe qualcosa di più simile a un supply chain scientist, dove si creano le ricette numeriche che automatizzano tutto ciò che non è automatizzabile. Puoi automatizzare il lavoro, ma non puoi ancora automatizzare la creazione delle ricette numeriche e non puoi ancora automatizzare il pensiero strategico che porta a trasformare tutto in dollari di errore, dollari di profitto. Devi essere in grado di avere questa prospettiva finanziaria che un LLM non è in grado di avere. Ma tutti quei lavori di gestione banali in cui hai molte cose ripetitive, sono già finiti. E per la previsione, è la stessa cosa. Questa è stata la posizione di Lokad negli ultimi dieci anni. Quindi, voglio dire, non c’è niente di nuovo.

Conor Doherty: Beh, sono sicuro che tutti saranno soddisfatti di questa risposta. Passiamo alla prossima. Grazie. Passiamo alla domanda successiva di Sherar. “Joannes, potresti per favore approfondire i vantaggi dell’IA nella supply chain con esempi in tempo reale?”

Joannes Vermorel: Prima di tutto, definiamo il concetto di tempo reale. Nella supply chain, non stiamo parlando di tempo reale nel senso di mantenere un aereo in volo, che richiede tempi di risposta di millisecondi. Nella supply chain, anche se vuoi dare istruzioni a un autista di un camion per gestire il traffico, un ritardo di un minuto non è così grave. Nel contesto della supply chain, il tempo reale sarebbe un robot all’interno di un magazzino che effettua il picking automatico. La maggior parte dei problemi nella supply chain non sono in tempo reale. La stragrande maggioranza dei problemi può permettersi un ritardo di un’ora. Ci sono pochissime domande nella supply chain che richiedono una risposta entro meno di un’ora.

Quindi, ancora una volta, con gli LLM, vuoi ottenere informazioni, fare una ricerca sul web, recuperare i risultati, riportarli. Vuoi conoscere l’indirizzo di un fornitore e recuperarlo automaticamente. È molto semplice avere delle logiche che lo fanno automaticamente. È facile. Stiamo parlando di tutte le decisioni fondamentali, tutto ciò che riguarda la pianificazione, la pianificazione della produzione, l’allocazione, la determinazione dei prezzi, l’aggiornamento. E poi ciò che abbiamo aggiunto è tutto ciò che ruota attorno ad esso, come la gestione dei dati principali, la comunicazione con la rete, la notifica ai clienti dei ritardi, la notifica ai fornitori dei problemi e così via, tutto ciò può ora essere automatizzato. Non è super intelligente, ma è un secondo livello che può essere automatizzato anche esso.

Conor Doherty: Ma il punto è che non richiede necessariamente un pensiero laterale. Se è solo, il termine che hai usato è “templating”, se è solo, “Cerca questo tipo”, è quasi booleano. Se questo, allora.

Joannes Vermorel: Sì, esattamente. E la grande differenza tra, diciamo, i sistemi esperti degli anni ‘90 è che quando dico che gli LLM sono macchine universali di templating che sono resilienti al rumore, non importa se l’email è formulata male. Non importa. Voglio dire, non importa nemmeno se l’email è in russo o giapponese. Queste cose possono leggere praticamente ogni lingua. A meno che qualcuno non ti invii un messaggio scritto in una lingua rara come un dialetto zulu. Se è scritto in una qualsiasi lingua parlata da 100 milioni di persone nel mondo, è fatto. E direi che 100 milioni è un numero alto. Qualsiasi lingua parlata da almeno 10 milioni di persone nel mondo, va bene.

Conor Doherty: La prossima domanda è di Tamit. “Il prezzo stesso non rappresenta l’impatto previsto sul risultato finale, in particolare il prezzo di Chat GPT rispetto a Gurobi o CPLEX?”

Joannes Vermorel: Gurobi e CPLEX sono risolutori matematici, quindi non sono nemmeno nella stessa classe di prodotti. Sono strumenti completamente diversi e non affrontano nemmeno lontanamente le stesse cose. Sono risolutori matematici. Quindi, Gurobi e CPLEX, per il pubblico, si tratta di esporre un problema come un elenco di vincoli e una funzione obiettivo, e questo ti dà la risposta. È un componente matematico.

E non sono sicuro se l’episodio sia già stato pubblicato, ma ne abbiamo appena girato uno sull’ottimizzazione stocastica. No, arriverà presto. La conclusione è che il motivo per cui Gurobi e CPLEX non sono adatti alla supply chain è che non gestiscono la stocasticità. Ne parleremo in un episodio diverso, ma si tratta di una classe di strumenti completamente diversa. Gli LLM, si tratta di templare il testo e fare tutta una serie di riformulazioni del testo, estrazioni, analisi veloci sui dati testuali. E quando dico testo, intendo testo semplice, sequenza di lettere, numeri e caratteri. Quindi sono problemi completamente diversi e non affrontano nemmeno lontanamente le stesse cose.

Conor Doherty: Come il mio precedente tentativo di piantare una bandiera, molte persone ancora non capiscono appieno l’impatto dell’IA. È un evento di estinzione per quasi tutti i lavori, tranne quelli di alto livello.

Joannes Vermorel: Il motivo per cui, ad esempio, Gurobi e CPLEX non sono rilevanti. Voglio dire, quelle cose esistono da circa quattro decenni, e il problema è che, ancora una volta, ne parleremo in un altro episodio, non risolvono, non affrontano l’aspetto stocastico frontale. Quindi è un punto di partenza inesistente. E anche se lo facessero, avresti comunque bisogno di qualcuno come un supply chain scientist per utilizzarli. Quindi non è una soluzione rapida. Non è qualcosa che può accadere in poche ore. Gli LLM, per il tipo di problema molto banale, piccoli telefoni, sono il tipo di cose in cui puoi ottenere soluzioni letteralmente in pochi minuti.

Conor Doherty: L’aumento del numero di cause legali per royalty o compensi finanziari da parte di individui il cui dati hanno contribuito all’addestramento degli LLM potrebbe ostacolare il progresso e l’adozione aumentando i prezzi?

Joannes Vermorel: Dimenticalo. Alcune aziende stanno dimostrando che possono avere LLM che sono vicini alle prestazioni di Open AI utilizzando un corpus molto più piccolo, come ad esempio solo Wikipedia. Quindi, la risposta è no. Non stiamo parlando di gen AI per immagini che potrebbero violare la proprietà intellettuale di Disney o di chiunque altro. Stiamo parlando di cose super banali come “Ecco un pezzo di testo, dimmi chi ha inviato l’email, qual è la MOQ, questa persona dà una risposta definitiva o vaga, o questa persona è sicura dell’accuratezza della risposta data”. Queste sono le cose di cui puoi ottenere la risposta automaticamente da una email. Di questo stiamo parlando. Quindi sarà un non-problema completo.

Anche se le persone devono riaddestrare i loro LLM perché devono scartare il 3% del database di input, va bene. Quello che Mistral, questa azienda francese, ha dimostrato è che puoi riaddestrare un LLM di produzione di livello Open AI, diciamo, con solo qualche centinaio di migliaia di euro. Quindi, questo è già fatto. Non c’è via di ritorno. Ci sono soluzioni per queste cose che al massimo saranno un po’ di rumore, ma è già un affare concluso che non cambierà nulla.

Conor Doherty: E alla fine, lo stai usando come una macchina di templating. Di nuovo, gli dici esattamente cosa vuoi trovare e gli dai l’input come “Trova in questa email le informazioni”.

Joannes Vermorel: E ancora una volta, stiamo parlando di lavori di back-office. Non stiamo parlando di scrivere il prossimo Harry Potter e di essere citati in giudizio dagli avvocati di J.K. Rowling perché il tuo lavoro sta solo creando una copia vicina di Harry Potter. Non è di questo che stiamo parlando. Stiamo parlando di pensare alle email, pensare alle ultime 100 email che hai scritto e a quanto ingegno, originalità e intelligenza assoluta, direi, a livello umano ci sono dietro. E le probabilità sono, non così tante. Voglio dire, anche se guardo a quello che scrivo quotidianamente, la maggior parte non è come, sai, è molto banale. Ed è proprio quello che viene automatizzato molto velocemente.

Conor Doherty: Vale la pena aggiungere un piccolo commento a questo punto: se l’impressione è stata che Chat GPT stesso sia ciò di cui stiamo parlando, no, stiamo parlando di LLM come una tecnologia in sé e per sé, non specificamente quando interagisci online.

Joannes Vermorel: E più specificamente, LLM come componente di programmazione. Proprio come hai un database relazionale, hai sottosistemi nel tuo software, hai sottosistemi nel database transazionale, nel server web, eccetera, e qui hai uno che è LLM ed è solo un modo per fare determinati passaggi nel tuo programma. Non pensare a LLM come qualcosa che viene fornito con un’interfaccia di chat. Quasi tutto quello che ho automatizzato nell’ultimo anno non ha un’interfaccia. È letteralmente uno script che fa qualcosa dall’inizio alla fine, senza interfaccia utente. È un elemento di uno stack generale, in altre parole.

Conor Doherty: James chiede, quale consiglio daresti a un giovane che vuole entrare nella supply chain per quanto riguarda l’acquisizione di competenze e come può vendere al meglio questa competenza nel contesto dell’evento di estinzione che hai descritto?

Joannes Vermorel: LLM ti costringe a migliorare la tua comprensione strategica. Padroneggiare ricette stupide come l’analisi ABC o altro, è un punto di partenza improduttivo. Dotati degli strumenti finali che mancano ancora a GPT-4, come la capacità di condurre un pensiero approfondito. Pensare a lungo e duramente ai problemi porta a ragionamenti generalmente corretti. Sii in grado di produrre una sintesi su un problema che sia superiore a quella prodotta da GPT-4. Queste sono competenze molto valide che rimarranno dove ti concentri sulle tue capacità intellettuali di alto livello che vanno oltre la macchina.

E queste sono le competenze che, secondo me, non siamo ancora vicini ad automatizzare. Anche ad esempio, se guardi le voci nella comunità di ricerca che sono molto critiche, potresti guardare quello che dice Yann LeCun, ad esempio. Dice sì, LLM, sai, questa non è la risposta all’intelligenza generale e su questo punto, sono d’accordo con Yann LeCun. Dove non sono d’accordo è che credo che non abbiamo bisogno di un’intelligenza generale per affrontare comunque un evento di estinzione per i lavori di back office. Abbiamo solo bisogno di LLM e LLM è come un livello inferiore di intelligenza ma è sufficiente per coprire circa il 90% della forza lavoro e questo sarà abbastanza radicale. Per il 10% che rimane, vedremo.

Quindi, per un giovane che intraprende questa carriera, vai ad esempio alle mie lezioni, vedrai che la maggior parte non riguarda cose banali, non riguarda la routine, non riguarda i piccoli dettagli, riguarda domande fondamentali come “Quali sono fondamentalmente i problemi che stiamo cercando di risolvere?” Ho un intero capitolo su personae, è difficile, quali sono i problemi che stiamo cercando di risolvere per questa supply chain e la risposta varia da settore a settore. Questo è difficile.

Quali sono i paradigmi di programmazione rilevanti? Perché, come ho detto, LLM può automatizzare molte cose, ma le ricette numeriche non si scrivono da sole. Sì, LLM può aiutare, ma manca il tipo di giudizio a un livello superiore per cogliere l’adeguatezza. L’adeguatezza di così anche se il codice è scritto con l’aiuto di una macchina, hai comunque bisogno in larga misura e penso che rimarrà, di un giudizio a livello umano per vedere se è davvero adeguato.

Quindi qui LLM sarà un booster ma non sostituirà le competenze di programmazione. Quindi se hai competenze di programmazione, le tue competenze saranno ancora più preziose perché ora sarai effettivamente ancora più produttivo con le tecnologie LLM. Quindi il mio focus sono i fondamenti, il pensiero critico, l’analisi a livello strategico e poi tutti gli argomenti hardcore come i paradigmi di programmazione e anche strumenti matematici rilevanti. Ad esempio, una previsione probabilistica richiede ancora, se vuoi essere in grado di ragionare correttamente su di essa, devi avere una comprensione di alta qualità di quegli strumenti matematici e ancora una volta questo non sta scomparendo. Il GPT-4 non sta automatizzando questo.

Conor Doherty: Lionel chiede, come le soluzioni di supply chain basate sull’IA influenzano le piccole e medie imprese rispetto alle grandi o alle grandi aziende?

Joannes Vermorel: Credo che l’effetto sarà ancora più evidente per le piccole aziende. Perché? Perché le grandi aziende potevano permettersi di avere grandi burocrazie specializzate, le piccole aziende no. Le piccole aziende sapevano che non potevano competere con le grandi aziende perché non potevano avere un dipartimento con 200 persone e 10 specializzazioni diverse e così via.

Ma la cosa interessante è che la produttività è così alta con questo tipo di strumenti che improvvisamente impazzire con l’automazione diventa super accessibile anche per le piccole aziende. E a proposito, Lokad, siamo una società di 60 dipendenti ora e ho automatizzato un sacco di cose a destra e sinistra e può essere fatto in modo estremamente rapido.

Questa è la cosa interessante, non serve un progetto con 20 ingegneri del software per ottenere risultati. Puoi ottenere risultati sorprendenti in poche ore se lo fai nel modo giusto.

Quindi la mia opinione è che per le aziende di medie dimensioni, forse non molto piccole ma diciamo aziende di medie dimensioni, qualsiasi azienda che ha un fatturato di 50 milioni di dollari o più, sarà in grado di meccanizzare le cose a un ritmo incredibile e competere con ciò che fanno le aziende molto grandi perché il problema sarà molto rapidamente solo gli LLM e hai accesso agli stessi LLM esatti di Samsung o Apple o chiunque sia il gigante che hai in mente.

Hai accesso agli stessi strumenti. Quindi, letteralmente, se stai competendo in termini di analisti, sì, Apple probabilmente ha analisti della domanda molto più talentuosi di te, ma hanno accesso agli stessi LLM esatti che hai tu. Quindi è una sorta di grande livellatore in termini di capacità di automazione.

Conor Doherty: Prossima domanda da Nick, come l’utilizzo di LLM, come uno dei metodi pionieristici in Lokad, ha influenzato le metriche di performance aziendali come il tasso di churn, le nuove iscrizioni e la soddisfazione del cliente?

Joannes Vermorel: Nel complesso, direi che siamo ancora a 12 mesi dalla produzione. Ciò che abbiamo automatizzato ora ha una qualità superiore alla capacità umana. Puoi letteralmente vedere le cose che abbiamo automatizzato. È fatto meglio di prima e molto spesso con 100 volte meno manodopera di prima.

Per il pubblico che non è familiare, presso Lokad, come fornitore di software aziendale, stiamo parlando di cicli di vendita che sono lunghi. Mi piacerebbe poter chiudere accordi con i clienti in tre settimane, ma purtroppo è più un processo di tre anni. Mi dispiace, con un processo di RFP di 18 mesi che mi ha fatto impazzire. Questo è con l’IA, e questo è con l’IA per fare l’RFP. Quindi, voglio dire, è lento. Ma ancora una volta, ecco perché dico che le cose come le vendite e simili sono lente, ma il feedback dei nostri clienti è stato incredibilmente positivo.

Può essere solo cose banali come generare automaticamente un rapporto per una discussione di due ore con un cliente. Il rapporto è molto ben organizzato e cattura tutte le cose chiave discusse. Abbiamo la nostra tecnologia interna su come redigere queste memo di alta qualità dopo una riunione. Funziona splendidamente e abbiamo ricevuto feedback molto positivi dai nostri clienti a riguardo.

La mia percezione è che i compiti che abbiamo automatizzato sono fatti meglio di prima e al minimo abbiamo ottenuto una produttività di circa 20 volte. È assolutamente sorprendente.

Per quanto riguarda il tasso di abbonamento e altre metriche, è troppo presto per dirlo. Essendo un fornitore di software aziendale, i miei cicli di vendita sono incredibilmente lenti. Ne parleremo tra qualche anno.

Credo che sia sbagliato seguire i numeri. I numeri arrivano troppo tardi. Pensate a Kodak. Quando la fotografia digitale non era nulla fino a quando è diventata tutto. Se Kodak fosse stato come il ragazzo che sta cadendo a picco e dice finora tutto va bene, no, stai cadendo a picco, colpirai duro il suolo. Non hai ragione.

Quando le persone vedranno i numeri, le aziende avranno eserciti robotizzati. La mia previsione è che ci saranno aziende che andranno avanti su questo e vedo quelle aziende come l’Amazon del prossimo decennio.

Quindi, la conclusione è che si stanno muovendo a piena velocità e se penso a cinque anni nel futuro, posso già vedere che quelle aziende saranno in grado di superare tutti i loro concorrenti con prezzi che i loro concorrenti semplicemente non saranno in grado di eguagliare. E poi in termini di agilità, il problema quando hai un esercito di persone è che per definizione, se hai la tua organizzazione, sto parlando di una grande azienda, hai centinaia di persone coinvolte nella pianificazione, S&OP, previsioni, tutto questo, sei lento.

Sei una grande burocrazia. Non sei, per definizione, se hai come 200 persone, non puoi essere agile. Hai semplicemente troppe persone. Se puoi ridurle a 20 persone, allora puoi essere come una tigre, sai, super agile, super veloce. E ancora una volta, ciò significa che quelle aziende, supereranno massicciamente in termini di costo, supereranno massicciamente in termini di agilità, è molto, è davvero molto.

Oltre all’intelligenza umana, supereranno in termini di qualità dell’esecuzione. C’è un detto nell’industria del software che tutto ciò che dipende dall’intervento manuale è inaffidabile. Non puoi ottenere affidabilità se hai un intervento manuale in mezzo.

Quindi, quello che vedo è che, anche in termini di qualità dell’esecuzione, l’affidabilità sarà fuori scala rispetto ai processi manuali. Quindi, ciò significa che, sai, agilità, costo, affidabilità, performance, voglio dire, ecco perché dico eventi di estinzione. Saranno le aziende che lo faranno a sopravvivere, quelle che non lo faranno saranno scomparse, sai, entro un decennio.

Quindi, ci vorrà del tempo perché si sviluppi, perché c’è stata un po’ di inerzia. In Francia, ad esempio, stavo discutendo con molti rivenditori e ricordo vividamente, era prima di iniziare Lokad. Stavo dicendo loro, ed era il 2004, ero uno studente, tornavo dagli Stati Uniti, avevo trascorso due anni negli Stati Uniti, e stavo dicendo ai rivenditori in Francia, e stavo dicendo loro: “Amazon vi distruggerà”. E la gente mi diceva: “Oh, il commercio elettronico è solo una moda. Questo è solo, sai, non hanno nemmeno lo 0,1% di quota di mercato, non ci importa, non è niente”.

E per me, era già scritto. Non c’era alcun dubbio, era solo, ancora una volta, una questione di tempistica. Era già scritto. O come rivenditore, prendi la svolta del commercio elettronico, se non lo fai, allora Amazon e i loro simili ti distruggeranno. E questo si è verificato, tra l’altro. Ho visto parecchie di quelle aziende fallire. Ci sono voluti dieci anni per svilupparsi, ma è successo. E questo è ciò che accadrà a molte altre aziende.

E la cosa che rende molto interessante per le LLM è che non è specifico per settori. Alcuni settori saranno più colpiti, ma in generale tutto ciò che ha a che fare con le funzioni di supporto di back-office sarà colpito in modo massiccio.

Conor Doherty: È importante aggiungere anche al punto che hai fatto, nell’esempio di Lokad, che le funzioni che hai descritto che sono state automatizzate con LLM superano tutto il resto che è stato fatto con l’IA. Quindi, di nuovo, non è solo, “Oh, abbiamo alcune cose.” Quello di cui stai parlando è una forza lavoro altamente addestrata in cui tutto ciò che è noioso, sia quantitativo che qualitativo, è stato, per quanto umanamente possibile, automatizzato, liberando così tutte quelle persone intelligenti per concentrarsi sulle questioni effettive che contano. Quindi, se hai un’azienda che fa questo rispetto a una in cui non lo fa, è darwinismo, fondamentalmente.

Joannes Vermorel: Esattamente. La bellezza di tutto ciò è che è in atto una distruzione schumpeteriana. È per il bene delle aziende diventare più ricche. Ad esempio, se Parigi avesse ancora il 10% della sua popolazione che trasporta acqua, Parigi sarebbe una città molto povera.

Parigi è diventata una città del primo mondo, solo perché, secondo i nostri standard moderni, non occupiamo il 10% della popolazione a fare cose stupide. È liberando le persone dai lavori incredibilmente noiosi che possiamo permetterci di fare arte, di essere creativi, di essere inventivi.

In quelle aziende che gestiscono le catene di approvvigionamento, se tutti sono impegnati a spegnere incendi tutto il tempo, a occuparsi di piccoli disastri insignificanti, granelli di sabbia nella macchina che fanno deragliare tutto, ma non in modo grandioso, epico, solo in modo stupido, e tutto questo consuma tutto l’ossigeno.

Quindi pensa a tutte quelle piccole cose, sono cose che consumano tutto l’ossigeno, e poi non c’è, le persone non possono nemmeno pensare perché c’è così tanto di quello. Quindi, credo che sarà davvero qualcosa che sarà per il miglioramento della catena di approvvigionamento perché improvvisamente le persone saranno in grado di pensare strategicamente, di non essere impigliate in questa miriade di piccole distrazioni che non meritano la loro attenzione umana.

Abbiamo un milione di assistenti semi-stupidi, perché è quello che sono gli LLM, un milione di assistenti semi-stupidi che si occupano solo di queste cose che non meritano l’intelligenza umana.

Conor Doherty: Ultime due domande. Questa è di Lionel. Da quali esempi di collaborazione di successo tra intelligenza artificiale e umani nelle operazioni di catena di approvvigionamento possiamo imparare?

Joannes Vermorel: Non pensare in termini di collaborazioni. È un errore. Non ci sarà un copilota generico.

Alla fine ci sono sempre umani, ovviamente, e macchine. Quindi sì, c’è una forma di cooperazione, ma non ha la forma che immagini. Non è un copilota. Quando ho automatizzato la macchina per rispondere alle richieste di proposte, com’era fatta la cooperazione? Mi sono seduto alla mia scrivania, ho passato una settimana a programmare questa macchina per rispondere, e poi ho una macchina per rispondere.

Ogni volta che arriva una richiesta di proposta, facciamo girare la macchina, otteniamo le risposte. Ecco com’è fatta la cooperazione. E quando OpenAI rilascia un GPT-4 turbo o qualsiasi altro nuovo modello, faccio un piccolo aggiornamento nel mio codice per sfruttare l’ultima novità, e siamo di nuovo in affari.

Questa è una cooperazione, ma nel senso che sto programmando alcune cose, e quando le cose cambiano, rivedo un po’ il mio codice. Questo è il tipo di cooperazione di cui stiamo parlando. Non è come se stessi dialogando con una macchina. Non dialogo con GPT, o qualsiasi altra cosa. Non funziona così. Non è così che si gioca.

Quindi, non pensare agli LLM come a qualcosa di cooperativo. La maggior parte delle cose che automatizziamo, le automatizziamo completamente, e poi non c’è più nessuno coinvolto. È solo fatto.

Per dare degli esempi, il sito web di Lokad è completamente tradotto automaticamente, e la bellezza di ciò, e puoi controllarlo online, la bellezza di ciò è che traduciamo non l’inglese, traduciamo direttamente l’HTML. È come prendere l’HTML grezzo e ritradurlo, e abbiamo risparmiato il 90% dello sforzo perché improvvisamente possiamo iterare tutto, e gli LLM sono abbastanza intelligenti da sapere quale HTML non deve essere toccato perché è un tag, e quale è l’inglese effettivo che deve essere tradotto. Bellissimo.

Quindi questo è già fatto. Per il pubblico, tutte le pagine che abbiamo per i video di Lokad TV in cui avevamo i timestamp, prima, ad esempio, facevamo i timestamp manualmente, ora è fatto automaticamente. L’ho fatto, ora è fatto automaticamente.

Quindi, questo è il punto in cui vuoi prendere una discussione di un’ora, creare timestamp automaticamente, fatto. Potrei menzionare cose più arcane perché le cose in cui abbiamo il maggior beneficio sono i lavori di back-office presso Lokad, quindi non è come se fosse rivolto al cliente, ma è come cose arcane.

Il punto è che mi ci vorrebbe troppo tempo per spiegare perché abbiamo bisogno di questo in primo luogo, ma in definitiva gli esempi continuano all’infinito. Di solito cerchiamo di automatizzare entro la giornata. È così che si presenta. E sì, c’è un po’ di sperimentazione con i prompt, ma di nuovo la domanda è, cosa non può essere automatizzato? È una risposta più difficile da dare oggi che rispondere a cosa può essere automatizzato.

Conor Doherty: È interessante che tu faccia questo punto perché quando hai dato l’esempio di riassumere una discussione, e questo si riferisce a ciò che hai appena detto, fino a che punto potremmo arrivare? Voglio dire, nell’ufficio, adesso la discussione è, come possiamo prendere riassunti delle discussioni, diciamo con i clienti o con i potenziali clienti o chiunque altro, e in base a ciò che è stato discusso, cercare automaticamente nel sito web, inserire link pertinenti nelle parti pertinenti delle cose, solo, cosa non possiamo fare? Beh, si scopre che possiamo farlo. Stiamo lavorando su questo. Ma è solo, cosa non può essere fatto? È difficile fare una lista di ciò che non può essere fatto con un LLM.

Joannes Vermorel: Al momento, tutto ciò che è veramente di alto livello, sto inventando le parole perché ci mancano le parole, ma direi intelligenza umana di alto livello, o forme superiori di intelligenza, cose in cui devi pensare a lungo e duramente per potenzialmente ore per ottenere la risposta, non qualcosa in cui puoi avere una risposta istintiva, se è qualcosa in cui puoi avere una risposta istintiva, anche gli LLM possono farlo.

Ma qualcosa, di nuovo, um, cosa dovrebbe essere, um, il, pensa solo a domande molto difficili come, cosa significa qualità del servizio per i nostri clienti? Questa è una domanda molto difficile. Quali dovrebbero essere i nostri segmenti target prioritari? Domande macro per l’azienda, sono il tipo di domande in cui puoi letteralmente passare settimane per ottenere la risposta, e qui gli LLM sono ancora carenti.

Se hai una domanda così importante che puoi passare settimane a rispondere alla domanda, l’intelligenza umana di alto livello ti darà una risposta migliore rispetto a GPT-4. Ma se è una domanda in cui hai solo 60 secondi di tempo per pensare e ottenere la risposta, allora la risposta che otterrai da un essere umano non sarà molto buona. Il tempo scorre. Se mi dai 60 secondi per dare una risposta su qualsiasi cosa, non sarà una buona risposta.

Conor Doherty: Il punto è forse una volta, ma non ogni 60 secondi ogni ora sette o otto ore al giorno, 300 giorni all’anno, 50 anni. Questa è la differenza.

Joannes Vermorel: Questa è la differenza. Ovviamente, se riposo per 30 minuti e poi sì. Ma l’LLM non si stanca. Puoi farlo funzionare e puoi letteralmente automatizzare milioni di operazioni al giorno e non è nemmeno difficile.

Conor Doherty: Questa è l’ultima domanda da Lionel. Come possono i piccoli paesi sfruttare l’IA nella gestione della supply chain per superare le loro sfide geografiche ed economiche uniche, e quali sono le implicazioni per i mercati del lavoro locali?

Joannes Vermorel: La bellezza è che gli LLM sono incredibilmente accessibili. I requisiti di larghezza di banda per utilizzare gli LLM sono nulli. Puoi letteralmente inviare kilobyte di dati, e funziona. Gli LLM sono operati a distanza, quindi se sei in un paese povero, purché tu possa avere una connessione Internet a bassa larghezza di banda decente, sei a posto.

Queste cose non richiedono connessioni ad alta velocità. Quindi va bene. Non richiede una forza lavoro super talentuosa. Questa è la bellezza. L’ingegneria dei prompt è probabilmente, tra tutte le competenze quasi ingegneristiche che ho dovuto acquisire negli ultimi due decenni, la più facile. È letteralmente qualcosa in cui in poche ore lo capirai.

Ecco perché ci sono ora bambini che fanno tutti i loro compiti con Chat GPT. Voglio dire, è facile, facile come per un bambino. Ed è qui che dico, beh, l’adozione avverrà rapidamente perché non è, voglio dire, non credere a chi ti dice: “Ho una laurea in ingegneria dei prompt”. Di cosa stai parlando? È una di quelle cose in cui se ci lavori un po’ per prenderci la mano, ci prenderai la mano letteralmente in pochi giorni. Non è, non è difficile, voglio dire, è più difficile padroneggiare Excel che padroneggiare l’ingegneria dei prompt.

Quindi, in conclusione, se ti trovi in un paese povero e remoto, è super accessibile. A proposito, ti ho detto che questa tecnologia è economica? È economicissima. Pensa solo, solo per farti un’idea, guarda il nostro sito web, è gigantesco. Stiamo parlando di mille pagine, mille pagine web. Quindi, se dovessimo stamparlo, sarebbero probabilmente come 3.000 pagine A4. Quei FAQ sono enormi, più di così.

Quindi, stiamo parlando di qualcosa che è un sito web grande e grosso. Lo traduciamo in sette lingue. Il costo per fare una traduzione da inglese a tutte quelle lingue, e stiamo parlando di nuovo di 3.000 pagine di testo se lo conserviamo, è di $150 con OpenAI. Questo è quello che pago. E a proposito, il costo per farlo con i freelancer che usavamo prima era di circa $50.000 per lingua.

Quindi il costo è passato da qualcosa che era vicino allo zero, un quarto di milione o più di un quarto di milione per ottenere la traduzione, a $150. E a proposito, il costo sarà ancora più basso perché OpenAI ha appena abbassato il prezzo. E io ho, a proposito, per farlo, non stiamo nemmeno usando GPT-4, stiamo ancora usando GPT-3.5. E con Mistral, dovremmo provare, ma Mistral è ancora più economico.

Quindi probabilmente, tra tre anni, tradurre quelle enormi 3.000 pagine costerà circa $50. Quindi la bellezza è che penso che per i paesi sviluppati, questa sia un’opportunità enorme, questo è un grande livellatore. Pensa solo, non per centesimi ma per dollari, puoi giocare con gli stessi strumenti dei grandi e sei allo stesso livello delle persone che hanno milioni a disposizione come Apple. Stai giocando con gli stessi strumenti.

Quindi, questo sarà un incredibile livellatore. E se sei intelligente e hai un po’ di passione, imparerai lungo il cammino. E a proposito, anche questo non è super difficile. È probabilmente una delle rivoluzioni più incredibilmente accessibili. E credo che anche i paesi poveri ora abbiano, anche di nuovo, connessioni Internet scadenti sono sufficienti per trarre vantaggio dagli LLM. Non hai bisogno nemmeno di una connessione a banda larga. Se hai 20 kilobyte in entrambe le direzioni al secondo, affidabili, sei a posto.

Conor Doherty: Credo che abbiamo parlato per più di un’ora e mezza. Quindi, se posso solo riassumere tutto questo, Skynet?

Joannes Vermorel: No, non Skynet. Quella era la mia aspettativa sbagliata 18 mesi fa. Dicevo, oh, è stupido come sempre, quindi non è niente. No, è una macchina universale di modellazione, ed è un cambiamento di gioco. È la macchina da cucire di ciò che sarà per i colletti bianchi ciò che le macchine da cucire hanno fatto per l’industria dell’abbigliamento.

La bellezza di ciò è la semplicità. Anche all’epoca, una macchina da cucire era di ordini di grandezza più semplice di un orologio. Secondo gli standard del XIX secolo, non era una macchina complicata. Esistevano già macchine di ordini di grandezza più complicate. Eppure, era ingannevolmente semplice eppure, quasi da un giorno all’altro, ha accelerato l’industria dell’abbigliamento di 100 volte. Se pensi che le macchine da cucire non siano state una rivoluzione perché improvvisamente non hai più un produttore di tessuti da un capo all’altro, stai perdendo il punto. Con una macchina da cucire, puoi comunque realizzare abiti 100 volte più velocemente.

Non abbiamo Skynet. GPT-4 non sostituirà il pensiero strategico di alta qualità. Ma tutta la routine, sì, lo farà. Questa è un’evoluzione. Il mio messaggio al pubblico è, non perdete il treno. Molte aziende sono già salite a bordo del treno. Alcune persone, a mia vergogna, l’hanno fatto prima. Ma ci sono molte persone a bordo del treno e i risultati sono così rapidi che se non agisci ora, non sarai in grado di recuperare quattro anni dopo. La discrepanza sarà così grande che sarà come un effetto Kodak dove sarai fritto, anche se non eri una cattiva azienda in primo luogo.

Conor Doherty: Bene, non ho altre domande, Joannes. Grazie mille per il tuo tempo e grazie mille per aver guardato. Ci vediamo la prossima volta.