00:00:00 Introduzione all’intervista
00:01:00 Il percorso di Lokad di Rinat e le sfide della supply chain
00:03:59 L’evoluzione di Lokad e le intuizioni delle simulazioni
00:07:07 Complessità delle simulazioni e decisioni basate sugli agenti
00:09:15 Introduzione ai LLM e ottimizzazioni delle simulazioni
00:11:18 L’impatto di ChatGPT e le categorie di modelli
00:14:14 I LLM come strumenti cognitivi nelle aziende
00:17:10 I LLM migliorano le interazioni con i clienti e le inserzioni
00:20:30 Il ruolo limitato dei LLM nei calcoli della supply chain
00:23:07 I LLM migliorano la comunicazione nelle supply chain
00:27:49 Il ruolo di ChatGPT nell’analisi dei dati e nelle intuizioni
00:32:39 L’elaborazione del testo dei LLM e le sfide dei dati quantitativi
00:38:37 Miglioramento della ricerca aziendale e conclusioni sulle intuizioni dell’IA

Riassunto

In un recente dialogo, Conor Doherty di Lokad ha conversato con Joannes Vermorel e Rinat Abdullin sull’impatto dell’IA generativa sulle supply chain. Vermorel, CEO di Lokad, e Abdullin, consulente tecnico, hanno discusso dell’evoluzione dalla previsione delle serie temporali all’utilizzo di Large Language Models (LLM) come ChatGPT. Hanno esplorato il potenziale dei LLM per automatizzare compiti, migliorare la produttività e assistere nell’analisi dei dati senza sostituire i lavori. Mentre Vermorel è rimasto cauto riguardo ai LLM nella pianificazione, entrambi hanno riconosciuto la loro utilità nella composizione di soluzioni. L’intervista ha sottolineato il ruolo trasformativo dell’IA nella gestione della supply chain e l’importanza di integrare i LLM con strumenti specializzati.

Riassunto Esteso

In un recente intervista, Conor Doherty, Responsabile delle Comunicazioni presso Lokad, ha intrapreso una discussione stimolante con Joannes Vermorel, CEO e fondatore di Lokad, e Rinat Abdullin, consulente tecnico presso Trustbit e ex CTO di Lokad. La conversazione si è incentrata sul campo in rapida crescita dell’IA generativa e sulle sue implicazioni per la gestione della supply chain.

Rinat Abdullin, riflettendo sul suo periodo presso Lokad, ha raccontato delle prime sfide affrontate dall’azienda, in particolare nell’allineare la tecnologia alle esigenze dei clienti e nel rendere comprensibili e affidabili i complessi dati della supply chain. Joannes Vermorel ha confermato che le radici di Lokad risiedono nella previsione delle serie temporali, un elemento fondamentale nell’ottimizzazione della supply chain.

Man mano che il dialogo proseguiva, Abdullin si è addentrato nell’evoluzione della tecnologia di Lokad, evidenziando la tensione tra l’esplicabilità e le prestazioni dei modelli di machine learning. Ha condiviso le sue esperienze nell’utilizzo di simulazioni per svelare i misteri dei sistemi complessi, aprendo la strada a metodi computazionali più ottimizzati.

La conversazione si è poi spostata sui Large Language Models (LLM), con Vermorel che ha sottolineato il loro recente aumento di popolarità. Abdullin ha condiviso le sue prime esperienze con i modelli di linguaggio e la loro evoluzione in strumenti user-friendly come ChatGPT. Ha sottolineato il potenziale trasformativo dei LLM, paragonandoli a un dipartimento personale di assistenti capaci di svolgere una varietà di compiti, dalla stesura di documenti all’automazione della ricerca di informazioni all’interno di grandi silos di dati.

Abdullin ha affrontato le preoccupazioni riguardo alla sostituzione dei posti di lavoro da parte dei LLM, affermando che essi migliorano l’efficienza dei dipendenti anziché sostituirli. Ha citato esempi in cui la produttività è aumentata da dieci a cento volte. Ha anche osservato che mentre le supply chain sono state lente nell’adozione dei LLM, i reparti marketing sono stati rapidi nell’utilizzarli per le interazioni con i clienti e la riduzione dei costi.

Joannes Vermorel ha ampliato il potenziale dei LLM nell’automatizzare le comunicazioni aperte con i partner della supply chain, risparmiando tempo nelle email di routine e consentendo di concentrarsi su compiti più complessi. Ha elogiato i LLM per la loro finezza linguistica nell’adattare il tono delle comunicazioni, un compito che può richiedere molto tempo agli esseri umani.

Abdullin ha evidenziato le avanzate capacità di analisi dei dati di ChatGPT, che permettono ai responsabili delle decisioni aziendali di analizzare dati complessi senza bisogno di competenze di programmazione. Tuttavia, Joannes Vermorel ha mantenuto il suo scetticismo riguardo all’IA generativa nella pianificazione della supply chain, sottolineando che i LLM sono più adatti per generare analisi e report usa e getta.

Rinat Abdullin ha suggerito che i LLM potrebbero essere utilizzati in combinazione con strumenti specializzati per ottenere migliori risultati, in particolare nell’intersezione tra domini numerici, testuali e di codice. Joannes Vermorel ha concordato, precisando che i LLM sono più adatti per comporre programmi per risolvere problemi piuttosto che risolverli direttamente.

Alla fine, Rinat Abdullin ha incoraggiato le aziende ad abbracciare i LLM, poiché possono aggiungere un valore significativo se combinati con strumenti specializzati. Conor Doherty ha concluso l’intervista ringraziando Joannes e Rinat per le loro intuizioni nel dinamico campo dell’IA generativa e il suo ruolo nella definizione del futuro della gestione della supply chain.

Trascrizione Completa

Conor Doherty: Bentornati a Lokad TV. I progressi compiuti nell’IA generativa negli ultimi 12 mesi sono un risultato straordinario del progresso tecnologico. I LLM, o large language models, sono passati da un settore di nicchia al mainstream in meno di un anno. Qui per spiegare il significato, in particolare in un contesto di supply chain, è il primo CTO di Lokad, Rinat Abdullin. Rinat, benvenuto a Lokad.

Rinat Abdullin: È un piacere e un onore essere tornato. Ero a Lokad quando era appena iniziata in una piccola stanza, credo, all’università. E di tutte le aziende con cui ho lavorato da allora, compresi sette startup, Lokad è stata il posto più impegnativo e gratificante della mia vita.

Conor Doherty: Non devi dire nulla su Joannes direttamente, ma quando dici che è stato il più impegnativo, cosa ha reso Lokad così impegnativo? E poi, a contrasto, la difficoltà dei progetti futuri?

Rinat Abdullin: Eravamo una startup all’epoca, ed era un’interessante combinazione di cercare un equilibrio tra le tecnologie e ciò che il cliente voleva e aveva effettivamente bisogno. Bilanciare questo triangolo è sempre stato una sfida perché le tecnologie dell’epoca erano ancora in fase di sviluppo. Eravamo uno dei primi grandi clienti di Azure, appena iniziando a costruire una libreria scalabile per elaborare moltissime serie temporali dei clienti. Non c’era supporto; tutto doveva essere costruito da zero, e questo percorso ha richiesto molti anni. È continuato con la creazione di un DSL personalizzato per potenziare gli esperti di Lokad, ed è ancora in corso. Questa è una parte del triangolo. La seconda parte era che i clienti vogliono numeri migliori; vogliono che la loro attività funzioni in modo prevedibile senza avere soldi bloccati nell’inventario. Allo stesso tempo, vogliono che questi numeri siano comprensibili perché se fornisci ai clienti dei numeri che escono da una scatola nera magica, i dirigenti potrebbero dire: “Sì, funziona”, ma gli esperti della supply chain nei magazzini locali diranno: “Non capisco questi numeri. Non mi fido delle formule, e la mia sensazione, basata su 10-20 anni di esperienza, mi dice di ignorare tutto questo.” E ovviamente non puoi licenziare tutti. Bilanciare queste tre cose è stata una sfida sia per Lokad che per tutti i clienti con cui ho lavorato da allora.

Joannes Vermorel: Ascoltando Rinat, abbiamo lavorato con le serie temporali, è vero?

Rinat Abdullin: Sì, Lokad è stata letteralmente fondata come un servizio di previsione delle serie temporali, quindi so qualcosa sulle serie temporali, anche se poi abbiamo abbandonato quella strada anni dopo. Abbiamo lavorato con le serie temporali, ed è un blocco di base molto semplice. La tensione che Rinat ha menzionato riguardo alla spiegabilità è qualcosa che è stata finalmente affrontata, ma più di un decennio dopo la fondazione di Lokad. Abbiamo dovuto abbracciare la programmazione differenziabile in modo da avere finalmente modelli di machine learning ma spiegabili. È arrivato molto tardi. Per anni, avevamo la scelta tra modelli rudimentali che erano trasparenti ma non molto buoni, o modelli di machine learning che erano migliori ma scatole nere, creando tonnellate di problemi operativi. A volte non erano naturalmente migliori secondo tutte le dimensioni del problema. È stata una lotta immensa, e il percorso di Lokad è stato quasi un decennio di battaglie in salita. Rinat ha fatto la prima metà di un decennio di battaglie in salita, e poi ci sono state altre persone che hanno continuato a combattere per le altre. È stata una lunga serie di enormi problemi da affrontare.

Conor Doherty: Grazie, Rinat. Tornando a te, quando cerchiamo di spiegare cosa fa Lokad, lo facciamo attraverso una serie di articoli molto lunghi, lezioni, discussioni come questa. Ma quando stai cercando di rendere trasparente il machine learning in questo contesto, come ti approcci a questo?

Rinat Abdullin: Uno degli approcci che ha funzionato molto bene quando ho aiutato a creare un hackathon per un’azienda internazionale di logistica è stato attraverso le simulazioni. Quando si parla di logistica internazionale, ci sono molte variabili in gioco. Si ha merce che deve essere trasportata tra più sedi utilizzando diversi mezzi di trasporto. Ci sono aziende di trasporto su strada e altre aziende che competono sul mercato aperto per le consegne di merci dalla sede A alla sede B. Poi ci sono percorsi di consegna effettivi come strade, reti ferroviarie, forse una consegna nell’ultimo miglio da qualche parte. Mentre i camion trasportano la merce tra queste sedi, si verificano ritardi, ingorghi stradali e la merce potrebbe arrivare in un magazzino al di fuori dell’orario di lavoro, o l’area di scarico del magazzino potrebbe essere piena.

Volevamo modellare tutta questa complessità in modo che fosse comprensibile per gli studenti o i nuovi assunti dell’azienda. Quello che abbiamo fatto è stato piuttosto brutale. È molto simile a come gli antichi ricercatori cercavano di modellare il numero pi lanciando una moneta attraverso una simulazione. Quindi abbiamo costruito una mappa virtuale dell’Europa con strade principali e in questa mappa virtuale le strade avevano lunghezze, il tempo passava, i camion andavano avanti e indietro e le aziende di trasporto potevano decidere quale merce prendere e se la consegneranno in tempo. Questo era il punto di ingresso per i partecipanti all’hackathon perché potevano scrivere codice per agenti che prendevano decisioni come “Sono il conducente del camion A e porterò questa merce dalla sede A alla sede B”. Ma c’era un trucco: quando un camion trasporta la merce da una sede all’altra, proprio come nel mondo reale, costa denaro. Per guadagnare denaro, devi pagare le tasse, devi pagare il carburante, devi assicurarti che il conducente si riposi.

Poiché si tratta di una simulazione, non sono necessarie formule complesse; stai forzando la realtà. Esegui semplicemente uno script batch per NPC o per un gioco in sequenza e puoi avere molte regole comprensibili su un foglio di carta. Questo intero mondo era così comprensibile per le persone che abbiamo effettivamente creato due livelli di difficoltà. Nel primo livello, le aziende semplicemente guidavano i camion cercando di fare più soldi possibile. Nel secondo livello, i prezzi del carburante sono aumentati un po’, le aziende hanno dovuto compensare le emissioni di CO2 e i conducenti dei camion potevano stancarsi. Se il conducente del camion guidava per più di 12 o 14 ore, c’era una probabilità crescente di un incidente. Quando si verifica un incidente, il conducente del camion va a riposare e quella macchina non fa nulla, perdendo essenzialmente tempo. Abbiamo costruito questo ambiente, i partecipanti sono stati in grado di scrivere il codice per i loro agenti e quando si esegue una simulazione di eventi discreti a un ritmo accelerato, si ottengono essenzialmente mesi di tempo virtuale che passano in pochi secondi di tempo reale.

Siamo stati in grado di eseguire rapidamente molte simulazioni e dire: “Ehi squadre, le decisioni che i vostri agenti stavano prendendo in questo mondo virtuale, queste erano le distribuzioni dei tempi di consegna, questa era la distribuzione dei prezzi, queste erano le margine, queste erano il numero di incidenti che i vostri agenti stavano ottenendo”. Questo è essenzialmente l’approccio che di solito adotto quando devo cercare di spiegare un ambiente complesso. Iniziamo con la simulazione perché è simile a un gioco, è facile spiegare le regole, non è necessario fare alcuna programmazione differenziale. Ma quando si esegue questa simulazione, si tratta essenzialmente di un’analisi di Monte Carlo che tiene traccia delle dipendenze nei sistemi complessi. Ciò significa che, ad esempio, in alcuni casi non si ottiene una semplice distribuzione all’esterno, ma a causa dell’interferenza tra più elementi del sistema, si ottengono modelli di interferenza sulle distribuzioni esterne. Sembra una scatola nera, ma le persone possono capire le regole, possono cambiare le regole del gioco e poi, ad esempio, se un’azienda capisce finalmente come funziona questo ambiente e le piacciono i numeri che escono in modo lento perché la simulazione richiede ancora tempo, allora c’è un modo per ottimizzare il calcolo, dicendo: “Okay, questi sono i numeri che otteniamo dalla simulazione e passiamo direttamente alla programmazione differenziale con le probabilità per ottenere gli stessi numeri ma in modo più veloce”. È solo un’ottimizzazione delle prestazioni. Quindi è così che di solito mi approccio a questo.

Joannes Vermorel: Quello che è molto interessante è che durante l’ultimo anno è emersa una nuova classe di strumenti, LLM, ed è molto interessante perché è letteralmente un’intera classe di tecnologie che esisteva da circa mezzo decennio, ma erano molto di nicchia e solo gli esperti potevano davvero comprendere il loro potenziale perché all’epoca era principalmente una questione di potenziale. Forse, Rinat, come vedi il cambiamento introdotto da questa classe di strumenti LLM? Come lo confronti? Avevamo varie classi di strumenti per l’apprendimento automatico per le aziende, come la classificazione, la regressione, le simulazioni di Monte Carlo. Erano classi di strumenti che potevano essere messi insieme, e ora abbiamo un’altra classe di strumenti completamente diversi, LLM. Forse per il pubblico che potrebbe non essere familiare con LLM oltre a ChatGPT, come ti approcci a questo contesto di software aziendale, flussi di lavoro aziendali? Qual è la tua visione ad alto livello su questo?

Rinat: Sono stato in contatto con i modelli di linguaggio dal 2015, prima che il chatbot uscisse e lo rendesse popolare. Hai ragione che erano molto di nicchia. Venivano utilizzati nei traduttori di lingua, nel riconoscimento vocale e nei modelli di linguaggio che correggono gli errori di ortografia o aiutano a trovare testo in grandi corpora. Quando sono stati introdotti attraverso ChatGPT, la loro popolarità è aumentata. Una delle ragioni è che sono stati addestrati per essere utili e obbedienti alle persone.

E questo è effettivamente a volte il motivo per cui sono così irritanti perché quando si desidera ottenere risultati dal modello e inizia a scusarsi, dicendo ‘mi dispiace’ ripetutamente, può essere frustrante. Nella mia mentalità, separo i modelli su larga scala in due categorie. Una categoria di modelli lavora principalmente con i numeri, quindi stiamo parlando di regressione, Monte Carlo, reti neurali. L’altra classe di modelli, che sono i grandi modelli di linguaggio, sì, lavorano con i numeri, ma superficialmente lavorano con il testo, con grandi testi non strutturati, ed è da lì che deriva la loro utilità principale.

Questi modelli consentono a una macchina o all’automazione di essere collegati direttamente alle interazioni umane. Ad esempio, con le regressioni o le serie temporali, è necessario collegare il modello da qualche parte nel mezzo dei processi digitali aziendali. Da un lato c’è un database, nel mezzo c’è un motore di previsione e dall’altro lato potrebbe esserci un database o un CRM o un ERP. Nel miglior caso, si ottiene un rapporto, ma sono comunque numeri. Con LLM, ti colleghi direttamente nel mezzo del processo aziendale, nel mezzo dei flussi di lavoro umani.

Questo crea così tante possibilità, specialmente perché non richiede molto sforzo implementare qualcosa che era completamente impossibile o costoso un decennio fa. Ad esempio, personalmente, quando lavoro con LLM, inizio a sentire che ho il mio dipartimento privato di assistenti. Sono poliglotti, sono full-stack, a volte ingenui, ma sono anche intelligenti e non si lamentano mai. Ad esempio, chiedere loro di spostare un pulsante su un layout o riscrivere una lettera a un magistrato in Germania è molto utile, molto obbediente, a volte stupido, ma possono fare cose straordinarie.

Nelle classi aziendali di adozione di LLM che ho visto, si tratta principalmente di ciò che chiamano digitalizzazione aziendale. Aiuta le aziende ad automatizzare i flussi di lavoro che ruotano attorno alla ricerca di testo in un grande corpus. Ad esempio, un’azienda ha molti dati, ha le sue basi di conoscenza, ma queste basi di conoscenza sono essenzialmente silos. Potrebbero essere RFC, questionari o una Wikipedia che nessuno mantiene davvero aggiornata, e le persone devono svolgere un’attività che a volte richiede la ricerca di informazioni in luoghi oscuri. Questo richiede tempo, sforzo e soprattutto energia cognitiva.

Ciò che i LLM possono fare è svolgere un lavoro preparatorio. Possono redigere articoli, possono fare ricerche sui dati privati di un’azienda, dicendo: ‘Ok, stai compilando questa risposta per l’azienda, quindi in base ai flussi di lavoro dell’azienda e alle indicazioni codificate, questa è la mia bozza’. Per ogni elemento in questa checklist di risposta, possono mostrare da dove hanno ottenuto le informazioni. Quindi, la persona non ha più bisogno di svolgere il lavoro di routine e può passare a un lavoro più intellettualmente impegnativo per verificare se il modello ha fatto qualcosa di corretto. Questo consente di aumentare massicciamente l’efficienza di un’azienda.

Quando è stato lanciato ChatGPT, le persone erano davvero preoccupate che i LLM e l’IA avrebbero tolto loro il lavoro, ma non è così. Credetemi, ho aiutato i clienti a creare prodotti basati su LLM e ML per molto tempo, e ci vuole molto sforzo per produrre qualcosa che possa sostituire un essere umano. È quasi impossibile. Ma ciò che i LLM possono fare è rendere i dipendenti esistenti più efficienti, a volte anche 10-100 volte più efficienti. Questi sono casi eccezionali. Rendono semplicemente le persone più efficienti, ma non possono mai sostituire le persone. Deve sempre esserci un coinvolgimento umano.

Conor: Se posso approfondire questo punto, perché ancora una volta, il contesto della discussione è l’IA generativa, i LLM nel contesto della supply chain. Da quanto hai appena detto, Rinat, sembra che i LLM saranno potenziatori di produttività in generale. Ma vedi qualche caso d’uso specifico all’interno della supply chain, o è solo, come hai detto, ‘Ho un team di poliglotti, devo tradurre questa RFP in 10 lingue’?

Rinat: Dalla mia esperienza, le supply chain sono un po’ lente nell’adottare i LLM come parte centrale del processo. I LLM iniziano piuttosto a infiltrarsi dall’esterno. Quindi, un caso comune è che i dipartimenti marketing sono di solito i primi adottanti. Quando un’azienda ha, ad esempio, quando si trova di fronte agli utenti, il confine tra l’azienda e gli utenti, i clienti, è dove ho visto la maggiore adozione. Ad esempio, ci sono marketplace che vendono prodotti ai loro clienti e vogliono rendere questa interazione più piacevole e forse ridurre il costo di questa interazione con i clienti.

È già abbastanza fattibile costruire sistemi che esplorano automaticamente i cataloghi dei prodotti uno per uno, instancabilmente, senza sosta, 24 ore su 24, 7 giorni su 7, e vedono: ‘Ok, questo è un prodotto, ma è stato inserito dal fornitore della supply chain in modo errato’. Perché? Perché ho cercato ovunque su Internet, ho trovato le specifiche di questo prodotto, che sono simili, ho anche trovato la descrizione in PDF del produttore del prodotto e secondo la mia opinione, circa la metà di Internet ha questo numero corretto e tu hai questo numero sbagliato. Queste sono le referenze. Per favore, prendi una decisione se devi correggerlo automaticamente. ‘Oh caro manager, ho visto che hai corretto questa descrizione del prodotto, questa proprietà del prodotto. Vuoi che rigeneri la descrizione del prodotto con il numero aggiornato, non solo il numero ma anche il testo?’ E mentre ci sei, ho creato tre descrizioni del prodotto in modo che tu possa scegliere quella che ha senso. Ho anche creato un testo di marketing SEO, aggiornato le parole chiave sul tuo motore di pubblicazione, ho anche creato un annuncio su Twitter e un annuncio su LinkedIn.

Un altro confine tra i clienti e i rivenditori che si collegano alla supply chain è la lista dei prodotti sui marketplace. Immagina di essere un fornitore che deve lavorare con molti marketplace e il tuo catalogo è composto da 10.000 articoli con piccole variazioni, come pezzi di auto o pezzi di aereo. Vuoi automatizzare questo processo, soprattutto se il tuo inventario cambia molto velocemente. È abbastanza fattibile e l’ho già visto fatto. Ad esempio, ottieni un paio di immagini del prodotto, soprattutto se sono prodotti riutilizzati, soprattutto nella moda, funziona molto bene. Le fai passare attraverso il riconoscimento delle immagini, che funziona meglio quando è addestrato sulla moda e sullo stile. Ottieni i testi, le descrizioni, scegli le caselle, ridimensiona automaticamente le immagini e da tutto ciò generi una descrizione per le persone.

E poi, arriva una delle parti più interessanti. Crei anche una descrizione nascosta arricchita da LLM che viene utilizzata per la ricerca semantica. Cosa significa? Quindi, quando un cliente di una piattaforma di moda cerca un capo di abbigliamento, non cercherà sempre, ad esempio, una maglietta in stile boho con draghi, taglia M e sotto i 10 dollari. Cercherà qualcosa del tipo: “Ehi, stasera vado a una festa e ci saranno i miei amici, cosa posso indossare che si abbini ai miei pantaloncini?” Se hai descrizioni di prodotti e spiegazioni semantiche estratte dagli LLM dal prodotto e le cerchi, ma non per il testo completo perché chi sa come scrivono le persone “boho”, ma usi una ricerca basata sull’incorporamento, che è essenzialmente una ricerca basata su vettori, che è una ricerca sul significato del testo, non sulla formulazione esatta, allora ottieni risultati che all’esterno sembrano magici perché il modello inizia in qualche modo a suggerire cose che volevi chiedergli, non ciò che hai detto.

Conor: Grazie, Rinat. Joannes, cosa ne pensi? Voglio dire, quando osservo le supply chain, direi che funzionano per metà con i fogli di calcolo e per il resto con le comunicazioni banali con partner, fornitori, clienti e chiunque altro. I fogli di calcolo riguardano principalmente l’automazione della decisione sulla quantità, è quello che Lokad fa da oltre un decennio. La seconda parte, invece, non era principalmente automatizzata perché fino all’avvento degli LLM non c’era una vera tecnologia che potesse essere una risposta plausibile a ciò.

Joannes: Nel senso che le cose che richiedono comunicazione, o erano un flusso di lavoro molto stretto e quindi potevano essere automatizzate, e venivano automatizzate tramite, diciamo, EDI per inviare un ordine. Avremo un ponte che passa l’ordine e poi abbiamo un problema non testuale. Ma non è esattamente quello che le persone intendono quando dicono che passano metà del loro tempo sui fogli di calcolo e metà di quel tempo a gestire partner, clienti, trasportatori, fornitori. È più come dire: “Potresti accelerare questo ordine e, se sì, a quale prezzo?” È più sfumato e aperto.

Bisogna prendere questo caso limite e scrivere una e-mail sul caso, cercando di chiarire quale sia l’intento, cosa è in gioco, e ciò richiede mezz’ora. Poi si ripete con una situazione diversa, un problema diverso, e si produce un’altra e-mail. Alla fine si ha un reparto acquisti in cui tutti, durante otto ore di lavoro, trascorrono quattro ore sui fogli di calcolo e quattro ore scrivendo 20 e-mail a 20 partner. Qui vedo un enorme potenziale di miglioramento. Lokad sta già automatizzando la prima parte, ma con LLM c’è un enorme potenziale per automatizzare in gran parte, ma non completamente, la seconda parte. Fondamentalmente, permettendo alle persone, direi, di fornire supporto per comporre automaticamente comunicazioni che saranno ricevute dai tuoi partner. L’LLM è stato utilizzato per fornire una versione ragionevolmente contestualizzata della dichiarazione del problema e di ciò che ci aspettiamo dal partner.

Se la dichiarazione del problema ha confini ben definiti, allora hai l’EDI; diventa semplicemente qualcosa che fa parte del tuo flusso di lavoro completamente meccanizzato. Ma sto parlando del resto, delle cose che non sono del tutto allineate, come quando hai ordinato 1.000 unità e ne hanno consegnate 1.050. Non rifiuterai l’ordine perché hanno consegnato 50 unità in più. Ti piace questo fornitore, quindi accetterai e convaliderai l’ordine, lo riceverai e pagherai per 1.050 unità invece di 1.000. Ma vuoi comunicare in modo educato al tuo fornitore che preferiresti se si attenessero all’accordo originale, che prevedeva la spedizione di 1.000 unità e non 1.050. C’è un po’ di sfumatura qui in cui non vuoi interrompere il flusso di lavoro; è quasi corretto, ma vuoi comunque comunicare che non va bene consegnare sempre il 5% in più in modo che il fornitore possa addebitarti un po’ di più.

Questo è il tipo di situazione in cui gli LLM eccellono davvero, questa sorta di comunicazione indiretta in cui devi trasmettere un messaggio. Ci vorrebbe tempo per bilanciare la formulazione in modo che non sia troppo aggressiva, ma il partner capisca comunque che hai una forte preferenza perché si attenga strettamente alla quantità iniziale concordata. È il tipo di situazione in cui qualcuno può angosciarsi per un’ora a scrivere metà della email, e questo è il tipo di situazione in cui, con gli LLM moderni, è esattamente il tipo di cosa che non è super intelligente. Il tipo di intelligenza che hai in quegli LLM è linguistica, e se vuoi impostare il tono giusto, hanno capacità quasi sovrumane. Non sono necessariamente super intelligenti nel senso di capire l’immagine generale, capire la direzione giusta, ma se vuoi avere lo stesso testo con una sfumatura più scura, come voglio lo stesso testo ma leggermente più aggressivo o leggermente più morbido o leggermente più di supporto, sono molto bravi in questo.

Ci vorrebbero forse 20 minuti per farlo per mezza pagina, e un LLM può farlo letteralmente in pochi secondi. È esattamente il tipo di cosa in cui puoi avere un enorme aumento di produttività per quei tocchi delicati in cui le persone letteralmente passano ore. Se portiamo questo un po’ più in alto, immagina un’azienda che ha migliaia di comunicazioni come queste sui casi limite durante la giornata. Questa è una nuova capacità che gli LLM portano. Per i proprietari di aziende, per gli stakeholder per avere una visione d’insieme, ci vuole impegno, ma ora abbiamo gli LLM che sono molto bravi a scansionare enormi quantità di testi non strutturati e trovare modelli. Immagina che un LLM possa effettivamente leggere centinaia di rapporti o email o comunicazioni di andata e ritorno sul non inviare il 5% in più e alla fine della giornata fornire un riassunto conciso agli esecutivi dicendo: “Ehi, sembra che abbiamo un modello ripetitivo qui, sempre più fornitori nell’ultima settimana stanno cercando di inviarci più stock”.

Come sai, ChatGPT ha una straordinaria capacità chiamata analisi avanzata dei dati, ed è letteralmente come avere un dipartimento di analisti dei dati sotto il tuo controllo. Non sono esperti di supply chain, quindi avrai comunque bisogno di Lokad per quello, ma ciò che puoi fare è chiedere loro domande semplici come: “Ecco il mio file di database, ecco il mio file Excel, esegui un’analisi per me e individua le tendenze”. Questa è la parte straordinaria che è possibile principalmente online. Non puoi eseguirlo in locale o nell’API, ma ChatGPT elaborerà teorie, scriverà un codice, lo eseguirà, potrebbe incontrare errori, li correggerà, stamperà i risultati e creerà persino un grafico per te. L’intero flusso, dal momento in cui invii un foglio di calcolo Excel e una domanda al bel grafico, è completamente automatizzato. Si autoregola, si autoricorre e ottieni bei risultati. Questo dà ai decisori aziendali la possibilità di analizzare i dati da soli, anche se i dati sono memorizzati in sistemi complessi, di visualizzarli da soli senza dover conoscere Python, JavaScript, C o SQL. Penso che sia davvero gratificante e apra nuove opportunità commerciali e crei nuovo valore aziendale.

Conor: Circa sei mesi fa, abbiamo discusso di intelligenza artificiale generativa e del suo ruolo nella supply chain, e in generale eravamo un po’ scettici. Quando ascolti ciò che è stato descritto sugli sviluppi degli ultimi sei mesi, hai ancora la stessa prospettiva o ti sei ammorbidito un po’?

Joannes: La mia posizione rimane profondamente scettica su alcuni aspetti. Il mio scetticismo era essenzialmente una reazione alla maggior parte dei concorrenti di Lokad che dicono: “Stiamo solo applicando ChatGPT direttamente a terabyte di dati di transazione, e funzionerà”. La mia opinione è no, non penso proprio. Sono ancora molto scettico perché non è letteralmente così. Se dici che ciò che puoi fare è elencare un paio di tabelle con schemi, o far sì che lo strumento esegua automaticamente la scansione dello schema del database per calcolare analisi usa e getta come la dimensione media del carrello, si tratta di una proposta completamente diversa. In passato, questo doveva essere gestito dal team di business intelligence. Sto parlando di cose di base come qual è la dimensione media del carrello, quanto a lungo in media manteniamo i clienti, quante unità abbiamo venduto in Germania - domande molto semplici. Nelle grandi aziende, di solito ci sono decine di persone nelle divisioni di BI che producono rapporti usa e getta tutto il giorno. Per questo tipo di cose, credo che gli LLM possano davvero aiutare, ma questo non è assolutamente ciò che propongono i nostri concorrenti. Dicono: “Hai questi modelli, dai loro il tuo database di terabyte, dai loro accesso a Twitter e Instagram, e hai la tua pianificazione, la tua decisione, tutto, ed è completamente automatizzato”. Io dico no, nemmeno lontanamente. Siamo nel mondo della fantasia.

Rinat: Riguardo alla tua risposta a quella sfida, ho due pensieri da condividere. In primo luogo, riguardo al processo di utilizzo degli LLM per elaborare grandi quantità di dati, lavoro con vari LLM da parecchio tempo. Una delle prime domande che i clienti fanno di solito è se possono eseguire qualcosa come ChatGPT localmente presso la loro sede. Per rispondere a questa domanda, è necessario fare un benchmark degli LLM in diverse configurazioni e capire i costi. Gli LLM sono piuttosto costosi. Per eseguire un megabyte di testo attraverso gli LLM per la previsione, potrebbe costare un paio di euro, a seconda del modello. Se vuoi eseguirlo localmente sui migliori modelli disponibili, potrebbe costarti 10 o forse 20 euro.

E questo è ciò che fa GPT-3.5; è molto economico. Ma il punto è che non è nemmeno possibile eseguire terabyte o petabyte di dati attraverso gli LLM. In secondo luogo, gli LLM sono terribili con i numeri. Se qualcuno chiede a un LLM di fare calcoli matematici o elencare numeri primi, è un uso improprio. Gli LLM sono modelli linguistici; hanno una grande base di conoscenza e sono molto intelligenti, anche se hanno ancora delle limitazioni. Non chiedi a un LLM un problema matematico; invece, gli chiedi di formulare il problema, e poi il calcolo viene passato a un kernel Python specializzato o a qualcos’altro che farà molto meglio che sprecare l’operazione su un LLM.

Le cose più interessanti accadono al punto di contatto tra domini diversi. Ad esempio, abbiamo il vasto dominio numerico da un lato, il testo o i casi limite morbidi e sfumati dall’altro, e il codice come terza parte. Il codice non sono numeri, non è testo, è strutturato ma verificabile, e gli LLM sono eccezionalmente bravi a gestirlo. Questo crea nuovi casi che potrebbero essere applicabili alla supply chain, spingendo ulteriormente l’applicabilità di soluzioni come Lokad.

Ad esempio, un caso in cui ho applicato gli LLM per analizzare grandi quantità di testo al di fuori delle capacità degli LLM è formulando il problema agli LLM. Ad esempio, trovare testo in centinaia di gigabyte di relazioni annuali in tutto il mondo o aiutare a risolvere un problema numerico senza effettuare il calcolo effettivo. Vieni con una teoria su come affrontarlo perché sei intelligente, conosci la storia e questi sono i controlli che ti do.

Quando si parla di ricerca in un enorme database, chiedo all’LLM in una sintassi specifica di elaborare ricerche di embedding su cui lavorerò, di creare un elenco di parole chiave di arresto o una lista di parole chiave da potenziare. Quindi un altro sistema dedicato a questo e molto bravo nel processare su larga scala prenderà questa richiesta ben formulata dall’LLM e la eseguirà. È qui che arriva la parte migliore perché gli LLM sono capaci di perfezionare le ricerche.

Torni all’LLM e dici: “Ecco qual era il mio problema originale, questo è ciò che hai pensato, questa è la query che hai creato e questo è lo spreco che ha restituito. Per favore, adatta e adatta.” Perché lavorare con gli LLM è praticamente gratuito, si itera forse dieci volte, forse si fa una catena di pensiero, forse un albero di pensiero, con decisioni buone e decisioni cattive, e poi migliora. Lo stesso vale per i domini numerici. Ad esempio, i responsabili degli approvvigionamenti vogliono trovare un’idea su come bilanciare meglio le loro scorte. In teoria, possono dire: “Ecco una piccola simulazione del mio ambiente, che forse è abbastanza buona, e così puoi modificarla. Ora per favore fai una risoluzione fuzzy dei vincoli e cerca di trovare idee che potrebbero aiutarmi a bilanciare meglio le mie scorte.”

Questa è la possibilità che si apre quando si inizia a collegare più domini: numerico, codice e testo, e si utilizzano gli strumenti migliori disponibili per ciascun dominio insieme.

Conor: Grazie, Rinat. Joannes, cosa ne pensi?

Joannes: Solo per chiarire per il pubblico, la cosa interessante è che per molti problemi, il modo in cui si desidera affrontarli con un LLM è dire: “Per favore, componi un programma che risolverà il problema.” Non dirai: “Voglio che tu risolva il problema.” Dirai: “Componi un programma e poi imparerò il programma.” Ci sono altri trucchi, come dare all’LLM un compilatore per verificare se il programma viene compilato o uno strumento che consente di eseguire il programma un po’ per verificare che l’output abbia senso.

Non si tratta di far risolvere il problema direttamente all’LLM; è mediato. L’LLM produce un programma, quindi utilizza qualcos’altro che è ancora un output testuale perché se si utilizza un compilatore, il compilatore cercherà di compilare il programma. Se non funziona, fornisce un messaggio di errore. Gli LLM amano elaborare i messaggi di errore e risolvere i problemi associati. Siamo molto nel campo del testo.

Per la supply chain, la maggior parte delle situazioni sarà mediata. Vogliamo che l’LLM componga il programma che risolverà ciò che stiamo cercando di fare. Ad esempio, con il problema iniziale di trovare il fatturato in Belgio per l’anno scorso per i clienti sopra 1 milione di EUR, l’LLM non prenderà i dati dal database per farlo. Comporrà una query SQL che verrà eseguita dal tuo database stesso. Di nuovo, mediazione.

Cosa significa per il software aziendale? Hai, come parte del tuo ambiente software aziendale, piattaforme che supportano l’esecuzione della tua supply chain, almeno il livello decisionale, con capacità programmatiche? L’LLM non prenderà i dati delle transazioni grezze per produrre l’output; prenderà l’enunciato del problema, produrrà un programma ed è molto versatile nel tipo di programma che può produrre. Ma poi qualcosa nel tuo ambiente deve eseguire il programma. Che tipo di ambiente di programmazione puoi fornire all’LLM?

La maggior parte dei classici software aziendali non fornisce alcun ambiente. Hanno solo un database con un linguaggio che puoi usare, ma l’unico modo per interagire, ad esempio, con un grande ERP che dovrebbe permetterti di ottimizzare il tuo inventario, è impostare manualmente i livelli minimi e massimi di stock o i parametri di stock di sicurezza prodotto per prodotto. L’LLM può dirti la ricetta che devi applicare, ma se vuoi applicarla, dovrai passare attraverso le impostazioni manuali dell’ERP. Se l’ERP fornisce un’API, può comporre un programma che ti permetterà di farlo su larga scala tramite l’API, ma è comunque molto macchinoso rispetto a una soluzione nativa programmabile. Sarà comunque mediato attraverso il framework.

Richiede alcuni cambiamenti profondi e introduce la programmabilità della soluzione come cittadino di prima classe. Pubblicità sfacciata, Lokad ha una piattaforma programmabile. Non l’abbiamo fatto per gli LLM, è stato più o meno fortuna, ma l’abbiamo comunque fatto 10 anni fa per avere questo tipo di mentalità programmabile come nucleo della piattaforma e come cittadino di prima classe. È stata una coincidenza, non una visione lungimirante di ciò che sarebbe successo un decennio dopo con gli LLM.

Conor: Grazie, Joannes. Sono consapevole del tempo di tutti, quindi come di consueto, Rinat, ti passo la parola per un pensiero finale. C’è qualcosa che vuoi dire a tutti coloro che stanno guardando?

Rinat: Ci sono state un paio di bolle nella storia passata, come la bolla delle dot-com e la bolla finanziaria. Gli LLM e l’IA potrebbero anche essere una bolla, o potrebbero non esserlo. Anche mia madre conosce ChatGPT e come usarlo, il che è interessante. Incoraggio tutti a non avere paura dei nostri sovrani delle macchine perché Skynet non funzionerà così facilmente. Come qualcuno che sta cercando di stabilizzare queste cose in produzione, è molto sforzo e non funziona facilmente in modo affidabile. Quindi, prima di tutto, non abbiate paura degli LLM e, secondariamente, abbracciateli. Gli LLM insieme agli esseri umani e alle aziende possono creare molto più valore, specialmente se sono integrati da strumenti specializzati come la previsione di Lokad che si integrano molto bene nell’ambiente.

Conor: Grazie, Rinat. Joannes, grazie mille per il tuo tempo. Rinat, grazie mille per esserti unito a noi di nuovo. E grazie a tutti voi per aver guardato. Ci vediamo la prossima volta.