00:00:00 Introducción a la entrevista
00:01:00 El recorrido de Rinat en Lokad y los desafíos de la cadena de suministro
00:03:59 La evolución de Lokad y las ideas de simulación
00:07:07 Complejidades de la simulación y decisiones basadas en agentes
00:09:15 Introducción a los LLMs y optimizaciones de simulación
00:11:18 El impacto de ChatGPT y las categorías de modelos
00:14:14 Los LLMs como herramientas cognitivas en las empresas
00:17:10 Los LLMs mejorando las interacciones y listados de los clientes
00:20:30 El papel limitado de los LLMs en los cálculos de la cadena de suministro
00:23:07 Los LLMs mejorando la comunicación en las cadenas de suministro
00:27:49 El papel de ChatGPT en el análisis de datos y las ideas
00:32:39 El procesamiento de texto y los desafíos de datos cuantitativos de los LLMs
00:38:37 Refinando la búsqueda empresarial y cerrando las ideas de IA
Resumen
En un diálogo reciente, Conor Doherty de Lokad conversó con Joannes Vermorel y Rinat Abdullin sobre el impacto de la IA generativa en las cadenas de suministro. Vermorel, CEO de Lokad, y Abdullin, consultor técnico, discutieron la evolución desde la previsión de series temporales hasta el aprovechamiento de los Grandes Modelos de Lenguaje (LLMs) como ChatGPT. Exploraron el potencial de los LLMs para automatizar tareas, mejorar la productividad y ayudar en el análisis de datos sin desplazar empleos. Si bien Vermorel se mostró cauteloso acerca de los LLMs en la planificación, ambos reconocieron su utilidad en la composición de soluciones. La entrevista destacó el papel transformador de la IA en la gestión de la cadena de suministro y la importancia de integrar los LLMs con herramientas especializadas.
Resumen Extendido
En una entrevista reciente, Conor Doherty, Jefe de Comunicaciones de Lokad, participó en una discusión reflexiva con Joannes Vermorel, CEO y fundador de Lokad, y Rinat Abdullin, consultor técnico en Trustbit y ex CTO de Lokad. La conversación se centró en el floreciente campo de la IA generativa y sus implicaciones para la gestión de la cadena de suministro.
Rinat Abdullin, reflexionando sobre su tiempo en Lokad, recordó los desafíos iniciales que enfrentó la empresa, especialmente en la alineación de la tecnología con las necesidades de los clientes y en hacer que los datos complejos de la cadena de suministro fueran comprensibles y confiables. Joannes Vermorel confirmó que las raíces de Lokad estaban en la previsión de series temporales, un elemento fundamental en la optimización de la cadena de suministro.
A medida que avanzaba el diálogo, Abdullin profundizó en la evolución de la tecnología de Lokad, destacando la tensión entre la explicabilidad y el rendimiento de los modelos de aprendizaje automático. Compartió sus experiencias en el uso de simulaciones para desmitificar sistemas complejos, lo que abrió el camino a métodos computacionales más optimizados.
La conversación luego se centró en los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés), con Vermorel señalando su reciente aumento en popularidad. Abdullin compartió sus primeras experiencias con los modelos de lenguaje y su evolución hacia herramientas fáciles de usar como ChatGPT. Él enfatizó el potencial transformador de los LLMs, comparándolos con un departamento personal de asistentes capaces de realizar una variedad de tareas, desde redactar documentos hasta automatizar la búsqueda de información dentro de grandes silos de datos.
Abdullin abordó las preocupaciones sobre los LLMs reemplazando empleos, afirmando que mejoran la eficiencia de los empleados en lugar de reemplazarlos. Citó ejemplos donde la productividad aumentó de diez a cien veces. También señaló que si bien las cadenas de suministro han sido lentas en adoptar LLMs, los departamentos de marketing han sido rápidos en utilizarlos para interacciones con los clientes y reducción de costos.
Joannes Vermorel amplió el potencial de los LLMs en la automatización de comunicaciones abiertas con socios de la cadena de suministro, ahorrando tiempo en correos electrónicos rutinarios y permitiendo enfocarse en tareas más complejas. Elogió a los LLMs por su habilidad lingüística para ajustar el tono de las comunicaciones, una tarea que puede llevar mucho tiempo para los humanos.
Abdullin destacó las capacidades avanzadas de análisis de datos de ChatGPT, que permiten a los tomadores de decisiones empresariales analizar datos complejos sin necesidad de habilidades de programación. Sin embargo, Joannes Vermorel mantuvo su escepticismo sobre la IA generativa en la planificación de la cadena de suministro, enfatizando que los LLMs son más adecuados para generar análisis y reportes desechables.
Rinat Abdullin sugirió que los LLMs podrían utilizarse en conjunto con herramientas especializadas para obtener mejores resultados, especialmente en la intersección de dominios numéricos, textuales y de código. Joannes Vermorel estuvo de acuerdo, aclarando que los LLMs son más adecuados para componer programas para resolver problemas en lugar de resolverlos directamente.
Para concluir, Rinat Abdullin animó a las empresas a adoptar los LLMs, ya que pueden agregar un valor significativo cuando se combinan con herramientas especializadas. Conor Doherty concluyó la entrevista agradeciendo a Joannes y Rinat por sus ideas sobre el dinámico campo de la IA generativa y su papel en la configuración del futuro de la gestión de la cadena de suministro.
Transcripción Completa
Conor Doherty: Bienvenidos de nuevo a Lokad TV. El progreso logrado en la IA generativa en los últimos 12 meses es un logro extraordinario en términos de avance tecnológico. Los LLMs, o modelos de lenguaje grandes, han pasado de ser algo de nicho a ser algo común en menos de un año. Aquí para explicar la importancia, especialmente en el contexto de la cadena de suministro, está Rinat Abdullin, el primer CTO de Lokad. Rinat, bienvenido a Lokad.
Rinat Abdullin: Es un placer y un honor estar de vuelta. Estuve en Lokad cuando recién comenzaba en una pequeña habitación en la universidad. Y de todas las empresas con las que he trabajado desde entonces, incluyendo siete startups, Lokad fue el lugar más desafiante y gratificante de mi vida.
Conor Doherty: No tienes que decir nada sobre Joannes directamente, pero cuando dices que fue el más desafiante, ¿qué fue exactamente lo que hizo que Lokad fuera tan desafiante? Y luego, en contraste, ¿cuál es la dificultad de los proyectos futuros?
Rinat Abdullin: Éramos una startup en ese entonces, y fue una interesante combinación de tratar de encontrar una coincidencia entre las tecnologías y lo que el cliente quería y realmente necesitaba. Equilibrar este triángulo siempre fue un desafío porque las tecnologías en ese entonces eran incipientes. Fuimos uno de los primeros grandes clientes de Azure, comenzando a construir una biblioteca escalable para procesar muchas series de tiempo de los clientes. No había soporte; todo tenía que construirse desde cero, y ese viaje tomó muchos años. Continuó con la creación de un DSL personalizado para capacitar a los expertos en Lokad, y todavía está en curso. Esa es una parte del triángulo. La segunda parte era que los clientes querían mejores números; querían que su negocio funcionara de manera predecible sin dinero congelado en el inventario. Al mismo tiempo, querían que estos números fueran comprendidos porque si les proporcionas a los clientes algunos números que salen de una caja negra mágica, los ejecutivos podrían decir: “Sí, funciona”, pero los expertos en cadena de suministro en los almacenes locales dirán: “No entiendo estos números. No confío en las fórmulas, y mi intuición, basada en 10-20 años de experiencia, me dirá que no, no va a funcionar, así que lo voy a ignorar”. Y obviamente no puedes despedir a todos. Equilibrar estos tres aspectos ha sido un desafío en Lokad y con todos los clientes con los que he estado trabajando desde entonces.
Joannes Vermorel: Escuchando a Rinat, solíamos trabajar con series de tiempo, ¿es eso cierto?
Rinat Abdullin: Sí, Lokad fue literalmente fundada como un servicio de pronóstico de series de tiempo, así que sé algo sobre series de tiempo, incluso si nos alejamos de ese camino años después. Hemos estado trabajando con series de tiempo, y es un bloque de construcción muy básico. La tensión que mencionó Rinat sobre la explicabilidad también es algo que finalmente se abordó, pero más de una década después de que Lokad fuera fundada. Tuvimos que adoptar la programación diferenciable para finalmente tener modelos que fueran de aprendizaje automático pero explicables. Llegó muy tarde. Durante años, tuvimos que elegir entre modelos crudos que eran cajas blancas pero no muy buenos, o modelos de aprendizaje automático que eran mejores pero cajas negras, creando toneladas de problemas operativos. A veces no eran naturalmente mejores según todas las dimensiones del problema. Esa fue una lucha inmensa, y el viaje de Lokad ha sido casi una década de batallas cuesta arriba. Rinat hizo la primera mitad de una década de batallas cuesta arriba, y luego hubo otras personas que siguieron luchando por las demás. Ha sido una serie muy larga de problemas masivos que abordar.
Conor Doherty: Gracias, Rinat. Volviendo a ti, cuando intentamos explicar lo que Lokad hace, lo hacemos a través de una serie de artículos muy largos, conferencias, discusiones como esta. Pero cuando intentas explicar el aprendizaje automático de caja blanca en este contexto, ¿cómo te acercas a eso?
Rinat Abdullin: Uno de los enfoques que funcionó bastante bien cuando ayudé a crear un hackathon para una empresa de logística internacional fue a través de simulaciones. Cuando hablamos de logística internacional, hay muchas variables en juego. Tienes carga que debe ser transportada entre múltiples ubicaciones utilizando múltiples modos de transporte. Tienes empresas de transporte y otras empresas compitiendo en el mercado abierto para entregas de carga desde la ubicación A hasta la ubicación B. Luego tienes rutas de entrega reales como carreteras, redes ferroviarias, tal vez entrega de última milla en algún lugar. A medida que los camiones llevan la carga entre esas ubicaciones, se producen retrasos, atascos de tráfico y la carga puede llegar a un almacén fuera del horario de trabajo, o el área de descarga del almacén puede estar llena.
Queríamos modelar toda esta complejidad de una manera que fuera accesible para estudiantes o nuevos empleados de la empresa. Lo que hicimos fue bastante brutal. Es muy similar a cómo los antiguos investigadores intentaban modelar el número pi lanzando una moneda a través de una simulación. Así que construimos un mapa virtual de Europa con carreteras principales, y en este mapa virtual, las carreteras tenían longitudes, el tiempo pasaba, los camiones iban y venían, y las empresas de transporte podían decidir qué carga recogerían y si la entregarían a tiempo. Ese fue el punto de entrada para los participantes del hackathon porque podían programar agentes que tomaran decisiones como: “Soy el conductor del camión A y voy a recoger esta carga de la ubicación A a la ubicación B”. Pero había un truco: cuando un camión transporta carga de una ubicación a otra, al igual que en el mundo real, cuesta dinero. Para ganar dinero, tienes que pagar impuestos, tienes que pagar por combustible, tienes que asegurarte de que el conductor descanse.
Debido a que es una simulación, no necesitas fórmulas complejas; estás forzando la realidad. Simplemente ejecutas como un script por lotes a NPC o a un juego secuencialmente, y puedes tener muchas reglas explicables en una hoja de papel. Este mundo entero era tan comprensible para las personas que en realidad creamos dos niveles de dificultad. En el primer nivel, las empresas simplemente conducirían camiones tratando de ganar la mayor cantidad de dinero. En el segundo nivel, los precios de la gasolina subieron un poco, las empresas tuvieron que compensar las emisiones de CO2 y los conductores de camiones podían cansarse. Si el conductor del camión conducía durante más de 12 o 14 horas, entonces hay una mayor probabilidad de un accidente. Cuando hay un accidente, el conductor del camión descansa y esa máquina no hace nada, esencialmente perdiendo tiempo. Construimos este entorno, los participantes pudieron programar sus agentes, y cuando ejecutas una simulación de eventos discretos a una velocidad acelerada, esencialmente obtienes meses de tiempo virtual que pasan en segundos de tiempo real.
Pudimos realizar rápidamente muchas simulaciones y decir: “Oye equipos, las decisiones que sus agentes estaban tomando en este mundo virtual, estas eran las distribuciones de tiempo de entrega, esta era la distribución de precios, estos eran los márgenes, estos eran el número de accidentes que sus agentes estaban teniendo”. Ese es esencialmente el enfoque que normalmente tomo cuando necesito tratar de explicar un entorno complejo. Primero comienzo con la simulación porque es similar a un juego, es fácil explicar las reglas, no tienes que hacer ninguna programación diferencial. Pero cuando ejecutas esta simulación, esencialmente es un análisis de Monte Carlo que rastrea las dependencias en sistemas complejos. Esto significa que, por ejemplo, en algunos casos, no obtienes una distribución simple en el exterior, sino que debido a la interferencia entre múltiples elementos del sistema, obtienes patrones de interferencia en las distribuciones externas. Parece una caja negra, pero las personas pueden entender las reglas, pueden cambiar las reglas del juego y luego, por ejemplo, si una empresa finalmente comprende cómo funciona este entorno y le gustan los números que salen de manera lenta porque la simulación aún lleva tiempo, entonces hay una forma de optimizar el cálculo, diciendo: “Estos son los números que obtenemos de la simulación y cambiemos a la programación diferencial directamente con las probabilidades para obtener los mismos números pero de manera más rápida”. Es solo una optimización de rendimiento. Así es como normalmente abordaría eso.
Joannes Vermorel: Lo que es muy interesante es que durante el último año, ha surgido una nueva clase de herramientas, LLMs, y eso es muy interesante porque es literalmente una clase completa de tecnologías que han estado disponibles durante aproximadamente cinco años, pero eran muy especializadas y solo los expertos realmente podían comprender su potencial porque en su mayoría era sobre el potencial en ese momento. Tal vez, Rinat, ¿cómo ves qué cambió al introducir esta clase de herramientas de LLMs? ¿Cómo lo comparas? Teníamos varias clases de herramientas para el aprendizaje automático para empresas, como clasificación, regresión, simulaciones de Monte Carlo. Eran clases de herramientas que se podían combinar, y ahora tenemos otra clase de herramientas completamente diferentes, LLMs. Tal vez para la audiencia que puede no estar familiarizada con LLMs además de ChatGPT, ¿cómo lo entiendes en el contexto de software empresarial, flujos de trabajo empresariales? ¿Cuál es tu visión a alto nivel sobre eso?
Rinat: He estado en contacto con modelos de lenguaje desde 2015, antes de que saliera el chatbot y se hiciera popular. Es cierto que eran muy especializados. Se usaban en traductores de idiomas, reconocimiento de voz y modelos de lenguaje que corrigen errores ortográficos o ayudan a encontrar texto en grandes corpora. Cuando salieron a través de ChatGPT, su popularidad aumentó. Una razón para eso es porque se entrenaron para ser útiles y obedientes a las personas.
Y eso es en realidad a veces por lo que son tan irritantes, porque cuando quieres obtener resultados del modelo, y comienza a disculparse, diciendo ’lo siento’ repetidamente, puede ser frustrante. En mi mentalidad, básicamente separo los modelos a gran escala en dos categorías. Una categoría de modelos funciona principalmente con números, por lo que estamos hablando de regresiones, Monte Carlo, redes neuronales. La otra clase de modelos, que son los modelos de lenguaje grandes, sí, trabajan con números, pero en la superficie, trabajan con texto, con texto no estructurado grande, y ahí es donde proviene su usabilidad principal.
Estos modelos permiten que una máquina o automatización se conecte directamente a las interacciones humanas. Por ejemplo, con las regresiones o series de tiempo, necesitas conectar el modelo en algún lugar en medio de los procesos digitales comerciales. Hay una base de datos en un lado, un motor de pronóstico en el medio y tal vez una base de datos o CRM o ERP en el otro lado. En el mejor de los casos, obtienes un informe, pero siguen siendo números. Con LLMs, te conectas directamente en medio del proceso comercial, en medio de los flujos de trabajo humanos.
Esto crea tantas posibilidades, especialmente porque no requiere mucho esfuerzo implementar algo que hace una década era completamente imposible o costoso. Por ejemplo, personalmente, cuando estoy trabajando con LLMs, empiezo a sentir en este momento que tengo mi propio departamento privado de asistentes. Son políglotas, son de pila completa, a veces ingenuos, pero también son inteligentes y nunca se quejarán. Por ejemplo, pedirles que muevan un botón en un diseño o que reescriban una carta a un magistrado en Alemania es muy útil, muy obediente, a veces estúpido, pero pueden hacer grandes cosas.
En las clases empresariales de adopción de LLM que he visto, principalmente se trata de lo que llaman digitalización empresarial. Ayuda a las empresas a automatizar flujos de trabajo que giran en torno a encontrar texto en un corpus grande. Por ejemplo, una empresa tiene muchos datos, tiene sus bases de conocimiento, pero estas bases de conocimiento son esencialmente silos. Podrían ser RFC, cuestionarios o una Wikipedia que nadie realmente mantiene actualizada, y las personas necesitan realizar alguna actividad que a veces requiere encontrar información en lugares oscuros. Esto requiere tiempo, esfuerzo y especialmente energía cognitiva.
Lo que los LLMs pueden hacer es realizar un trabajo preparatorio. Pueden redactar artículos, pueden investigar en los datos privados de una empresa, diciendo: ‘Ok, estás compilando esta respuesta para la empresa, así que según los flujos de trabajo de tu empresa y las indicaciones codificadas, esto es mi borrador’. Para cada elemento en esta lista de verificación de respuesta, pueden mostrar de dónde obtuvieron la información. Entonces, la persona ya no necesita hacer el trabajo rutinario y puede pasar a trabajar en tareas intelectualmente más exigentes para verificar si el modelo acertó algo. Esto permite escalar enormemente la eficiencia de una empresa.
Cuando salió ChatGPT, la gente tenía mucho miedo de que los LLMs y la IA les quitaran sus empleos, pero no es así. Créeme, he estado ayudando a los clientes a crear productos que funcionan con LLMs y ML durante bastante tiempo, y se necesita mucho esfuerzo para producir algo que pueda reemplazar a un humano. Es casi imposible. Pero lo que los LLMs pueden hacer es hacer que los empleados existentes sean más eficientes, a veces incluso de 10 a 100 veces más eficientes. Estos son casos excepcionales. Simplemente hacen que las personas sean más eficientes, pero nunca pueden reemplazar a las personas. Siempre tiene que haber personas involucradas.
Conor: Si puedo profundizar en ese punto, porque nuevamente, el contexto de la discusión es la IA generativa, los LLMs en el contexto de la cadena de suministro. Según lo que acabas de decir, Rinat, parece que los LLMs serán impulsores de productividad en general. Pero ¿ves algún caso de uso específico dentro de la cadena de suministro, o es simplemente, como dijiste, ‘Tengo un equipo de políglotas, necesito traducir esta RFP a 10 idiomas’?
Rinat: En mi experiencia, las cadenas de suministro son un poco lentas para adoptar los LLMs en el núcleo del proceso. Los LLMs comienzan a infiltrarse desde el exterior. Entonces, un caso común es que los departamentos de marketing suelen ser los primeros en adoptarlos. Cuando una empresa tiene, por ejemplo, cuando se enfrenta a los usuarios, el borde entre la empresa y los usuarios, los clientes, es donde he visto la mayor adopción. Por ejemplo, hay marketplaces que venden productos a sus clientes y quieren hacer que esta interacción sea más agradable y tal vez reducir el costo de tener esta interacción con los clientes.
Ya es bastante factible construir sistemas que recorran automáticamente los catálogos de productos uno por uno, incansablemente, las 24 horas del día, los 7 días de la semana, y vean: ‘Ok, este es un producto, pero fue ingresado incorrectamente por el proveedor de la cadena de suministro’. ¿Por qué? Porque he buscado en Internet, encontré las especificaciones de este producto, que son similares, también encontré la descripción en PDF del fabricante del producto y, según mi creencia, aproximadamente la mitad de Internet tiene este número correcto y tú tienes este número incorrecto. Estas son las referencias. Por favor, toma una decisión si necesitas corregirlo automáticamente. ‘Oh, querido gerente, vi que corrigió esta descripción de producto, esta propiedad del producto. ¿Quieres que regenere la descripción del producto para tener el número actualizado, no solo el número sino también el texto?’ Y mientras estás en eso, he creado tres descripciones de producto para que elijas la que tenga sentido. También he creado un texto de marketing SEO, actualicé las palabras clave en tu motor de publicación, también he creado un anuncio en Twitter y un anuncio en LinkedIn.
Otro borde entre los clientes y los minoristas que se conectan a la cadena de suministro es la lista de productos en los marketplaces. Imagina que eres un proveedor que tiene que trabajar con muchos marketplaces y tu catálogo tiene 10,000 artículos con pequeñas variaciones, como piezas de automóviles o piezas de aviones. Quieres automatizar este proceso, especialmente si tu inventario cambia bastante rápido. Es bastante factible y ya lo he visto hecho. Por ejemplo, obtienes un par de imágenes del producto, especialmente si son productos reutilizados, especialmente en moda, funciona muy bien. Las pasas por reconocimiento de imágenes, que funciona mejor cuando está entrenado en moda y estilo. Obtienes los textos, las descripciones, eliges las casillas, redimensionas las imágenes automáticamente y a partir de eso, generas una descripción para las personas.
Y luego, una de las partes más bonitas viene. También creas una descripción oculta aumentada por LLM que se utiliza para la búsqueda semántica. ¿Qué significa eso? Entonces, cuando un cliente de una plataforma de moda intenta encontrar una prenda de vestir, no siempre buscaría, por ejemplo, una camisa de estilo boho que tenga dragones y sea de talla M y cueste menos de $10. Buscaría algo como ‘Oye, voy a una fiesta esta noche y mis amigos estarán allí, ¿qué puedo usar que complemente mis pantalones cortos?’ Si tienes descripciones de productos y explicaciones semánticas que fueron extraídas por los LLM de los productos, y los buscas, pero no por el texto completo porque quién sabe cómo la gente escribe boho, sino que utilizas una búsqueda basada en incrustaciones, que es básicamente una búsqueda basada en vectores, que es una búsqueda sobre el significado del texto, no las palabras exactas, entonces obtienes resultados que parecen mágicos porque el modelo de alguna manera comienza a sugerir cosas que querías preguntarle, no lo que has dicho.
Conor: Gracias, Rinat. Joannes, ¿qué opinas? Quiero decir, cuando observo las cadenas de suministro, diría que funcionan más o menos a medias. La mitad de las personas están hablando con hojas de cálculo y el resto son comunicaciones mundanas con socios, proveedores, clientes, y demás. Las hojas de cálculo se tratan realmente de automatizar la decisión de cantidad, eso es lo que Lokad ha estado haciendo durante una década. La segunda parte, en su mayoría no estaba automatizada porque hasta la llegada de los LLM no había una tecnología real que fuera una respuesta plausible a eso.
Joannes: Lo que significa que las cosas que requieren comunicación, o bien era un flujo de trabajo muy ajustado y luego se podía automatizar, y se automatizaba a través, digamos, de EDI para pasar un pedido. Vamos a tener un puente que pasa el pedido y luego tenemos un problema no textual. Pero eso no es exactamente lo que la gente quiere decir cuando dicen que las personas pasan la mitad de su tiempo en hojas de cálculo y la otra mitad de ese tiempo gestionando socios, clientes, transportistas, proveedores. Es más bien algo como ‘¿Podrías acelerar este pedido y, de ser así, a qué precio?’ Es más difuso y abierto.
Uno tiene que tomar este caso límite y escribir un correo electrónico sobre el caso, aclarando cuál es la intención, qué está en juego, y eso lleva media hora. Luego repites con una situación diferente, un problema diferente, y produces otro correo electrónico. Terminas con un departamento de compras donde todos, durante ocho horas de trabajo, pasan cuatro horas en su hoja de cálculo y cuatro horas escribiendo 20 correos electrónicos a 20 socios. Aquí veo un gran potencial para mejorar. Lokad ya está automatizando la primera parte literalmente, pero con LLM, hay un gran potencial para automatizar en gran medida, pero no completamente, la segunda parte. Básicamente, permitiendo a las personas, diría yo, brindar apoyo para auto-componer comunicaciones que serán recibidas por tus socios. El LLM se ha utilizado para proporcionar una versión razonablemente contextualizada del enunciado del problema y lo que esperamos del socio.
Si el enunciado del problema tiene límites bien definidos, entonces tienes EDI; simplemente se convierte en algo que forma parte de tu flujo de trabajo completamente mecanizado. Pero estoy hablando del resto, de las cosas que no están del todo alineadas, como cuando pediste 1,000 unidades y te entregaron 1,050. No vas a rechazar el pedido porque te entregaron 50 unidades de más. Te gusta este proveedor, así que aceptarás y validarás el pedido, lo recibirás y pagarás por 1,050 unidades en lugar de 1,000. Pero quieres comunicar de manera educada a tu proveedor que preferirías que se adhieran al acuerdo original, que era enviar 1,000 unidades y no 1,050. Aquí hay un poco de sutileza donde no quieres interrumpir el flujo de trabajo; es casi correcto, pero aún quieres comunicar que no está bien entregar siempre un 5% más para que el proveedor pueda cobrarte un poco más.
Esto es precisamente en lo que los LLM destacan, en este tipo de comunicación suave donde necesitas transmitir un mensaje. Tomaría tiempo equilibrar la redacción para que no sea demasiado agresiva, pero el socio aún entienda que tienes una fuerte preferencia de que se adhieran estrictamente a la cantidad inicial acordada. Es el tipo de cosa en la que alguien puede agonizar durante una hora para escribir esta mitad del correo electrónico, y es el tipo de cosa en la que, con los LLM modernos, eso es exactamente lo que no es súper inteligente. El tipo de inteligencia que tienen esos LLM es lingüística, y si quieres establecer el tono correcto, tienen capacidades casi sobrehumanas. No necesariamente son súper inteligentes en el sentido de entender correctamente el panorama general, entender la dirección correcta, pero si quieres tener exactamente el mismo texto con un tono más oscuro, como quiero el mismo texto pero ligeramente más agresivo o ligeramente más suave o ligeramente más de apoyo, son muy buenos en eso.
Te llevaría tal vez 20 minutos hacerlo para media página, y un LLM puede hacer eso literalmente en segundos. Eso es precisamente en lo que puedes tener un impulso de productividad masivo para esos toques suaves donde las personas literalmente pasan horas. Si llevamos esto un poco más alto, imagina una empresa que tiene miles de comunicaciones como esa sobre los casos límite a lo largo del día. Esa es una nueva capacidad que los LLMs traen. Para los propietarios de negocios, para los interesados en obtener el panorama general, requiere esfuerzo, pero ahora tenemos LLMs que son muy buenos escaneando cantidades masivas de textos no estructurados y encontrando patrones. Imagina que un LLM puede leer realmente cientos de informes o correos electrónicos o comunicaciones de ida y vuelta sobre no enviar un 5% extra y al final del día proporcionar un resumen conciso a los ejecutivos diciendo: “Oye, parece que tenemos un patrón repetitivo aquí de que cada vez más proveedores en la última semana están tratando de enviarnos más stock”.
Como sabes, ChatGPT tiene una increíble capacidad llamada análisis avanzado de datos, y esto es literalmente como tener un departamento de analistas de datos bajo tu control. No son expertos en supply chain, así que aún necesitarás a Lokad para eso, pero lo que puedes hacer es hacerles preguntas simples como: “Aquí está mi archivo de base de datos, aquí está mi archivo de Excel, haz un análisis para mí y encuentra las tendencias”. Esa es la parte increíble que es posible principalmente en línea. No puedes ejecutarlo localmente o en la API, pero ChatGPT creará teorías, escribirá un código, lo ejecutará, tal vez encontrará errores, los corregirá, imprimirá los resultados e incluso creará un gráfico para ti. Todo el flujo desde el momento en que le envías una hoja de cálculo de Excel y una pregunta hasta el bonito gráfico está completamente automatizado. Se corrige a sí mismo, se arregla a sí mismo y obtienes buenos resultados. Esto le da a los tomadores de decisiones empresariales la capacidad de analizar datos por sí mismos, incluso si los datos se almacenan en sistemas complejos, para visualizarlos por sí mismos sin necesidad de conocer Python, JavaScript, C o SQL. Creo que es realmente empoderador y abre nuevas oportunidades de negocio y crea nuevo valor empresarial.
Conor: Hace unos seis meses, tuvimos una discusión sobre la IA generativa y su papel en la cadena de suministro, y en general éramos algo escépticos. Cuando escuchas lo que se ha descrito sobre los avances en solo los últimos seis meses, ¿sigues teniendo la misma perspectiva o te has suavizado un poco?
Joannes: Mi posición sigue siendo profundamente escéptica en ciertos aspectos. Mi escepticismo fue básicamente una reacción a la mayoría de los competidores de Lokad que dicen: “Vamos a aplicar ChatGPT directamente a terabytes de datos de transacciones y funcionará”. Mi opinión es que no, no lo creo. Sigo siendo muy escéptico porque literalmente no es así. Si dices que lo que puedes hacer es enumerar un par de tablas con esquemas, o hacer que la herramienta sondee automáticamente el esquema de la base de datos para calcular análisis desechables como el tamaño promedio de la cesta, eso es una proposición completamente diferente. En el pasado, esto tendría que pasar por el equipo de inteligencia de negocios. Estoy hablando de cosas básicas como cuál es el tamaño promedio de la cesta, cuánto tiempo en promedio retenemos a los clientes, cuántas unidades hemos vendido en Alemania, preguntas muy básicas. En las grandes empresas, generalmente tienes docenas de personas en las divisiones de BI que producen informes desechables todo el día. Para este tipo de cosas, creo que los LLMs realmente pueden ayudar, pero eso no es absolutamente lo que proponen nuestros competidores. Ellos dicen: “Tienes estos modelos, les das tu base de datos de terabytes, les das acceso a Twitter e Instagram, y tienes tu planificación, tu decisión, todo, y es completamente automatizado”. Yo digo que no, ni siquiera cerca. Estamos en el mundo de la fantasía.
Rinat: Con respecto a tu respuesta a ese desafío, tengo dos pensamientos para compartir. Primero, sobre el proceso de usar LLMs para procesar grandes cantidades de datos, he estado trabajando con varios LLMs durante bastante tiempo. Una de las primeras preguntas que los clientes suelen hacer es si pueden ejecutar algo como ChatGPT localmente en sus instalaciones. Para responder a eso, se requiere hacer pruebas de referencia de los LLMs en diferentes configuraciones y calcular los costos. Los LLMs son bastante caros. Ejecutar un megabyte de texto a través de los LLMs para predecir podría costar un par de euros, dependiendo del modelo. Si quieres ejecutarlo localmente en los mejores modelos disponibles, podría costarte 10 o tal vez 20 euros.
Y eso es lo que hace GPT-3.5; es muy barato. Pero el punto es que ni siquiera es posible ejecutar terabytes o petabytes de datos a través de los LLMs. En segundo lugar, los LLMs son terribles con los números. Si alguien le pide a un LLM que haga cálculos matemáticos o liste números primos, eso es un mal uso. Los LLMs son modelos lingüísticos; tienen una gran base de conocimientos y son muy inteligentes, aunque aún tienen limitaciones. No le pides a un LLM un problema matemático; en cambio, le pides que formule el problema y luego se pasa el cálculo a un kernel de Python especializado u otra cosa que lo haga mucho mejor que desperdiciar la operación en un LLM.
Las cosas más interesantes ocurren en el punto de contacto entre diferentes dominios. Por ejemplo, tenemos el vasto dominio numérico por un lado, el texto o los casos límites suaves y difusos por otro, y el código como la tercera parte. El código no son números, no es texto, es estructurado pero verificable, y los LLMs son excepcionalmente buenos para lidiar con él. Esto crea nuevos casos que podrían ser aplicables a la cadena de suministro, llevando la aplicabilidad de soluciones como Lokad aún más lejos.
Por ejemplo, un caso en el que he estado aplicando LLMs para analizar grandes cantidades de texto fuera de las capacidades de los LLMs es formulando el problema al LLM. Por ejemplo, encontrar texto en cientos de gigabytes de informes anuales en todo el mundo o ayudar a resolver un problema numérico sin realizar el cálculo real. Se te ocurre una teoría de cómo abordarlo porque eres inteligente, conoces la historia y estos son los controles que te doy.
Cuando se habla de buscar en una enorme base de datos, le pido al LLM en una sintaxis específica que genere búsquedas de embedding en las que trabajaré, que genere una lista de palabras clave de detención o una lista blanca de palabras clave que impulsen. Luego, otro sistema dedicado a eso y muy bueno para procesar a gran escala tomará esta solicitud bien formada del LLM y la ejecutará. Ahí es donde viene la mejor parte porque los LLMs son capaces de refinar las búsquedas.
Vuelves al LLM y dices: “Este fue mi problema original, esto es lo que pensaste al respecto, esta es la consulta que se te ocurrió y esto es lo que devolvió. Por favor, ajusta y adapta”. Porque trabajar con LLMs es prácticamente gratis, iteras tal vez diez veces, tal vez haces una cadena de pensamiento, tal vez un árbol de pensamiento, con buenas decisiones y malas decisiones, y luego mejora. Lo mismo es aplicable a los dominios numéricos. Por ejemplo, los gerentes de suministro quieren tener una idea de cómo equilibrar mejor sus existencias. En teoría, pueden decir: “Aquí hay una pequeña simulación de mi entorno, que tal vez sea suficiente, y así es como puedes ajustarla. Ahora, por favor, haz una resolución de restricciones difusas e intenta encontrar ideas que puedan ayudarme a equilibrar mejor mis existencias”.
Esta es la posibilidad que se abre cuando comienzas a unir múltiples dominios: numérico, código y texto, y utilizas las mejores herramientas disponibles para cada dominio juntas.
Conor: Gracias, Rinat. Joannes, ¿qué piensas al respecto?
Joannes: Solo para aclarar para la audiencia, lo interesante es que para muchos problemas, la forma en que quieres abordarlo con un LLM es decir: “Por favor, compón un programa que resuelva el problema”. No dirás: “Quiero que resuelvas el problema”. Dirás: “Compón un programa y luego aprenderé el programa”. Hay trucos adicionales, como darle al LLM un compilador para verificar si el programa se compila o una herramienta que te permite ejecutar el programa un poco para verificar que la salida tenga sentido.
No se trata de que el LLM resuelva el problema directamente; está mediado. El LLM produce un programa, luego utiliza algo más que todavía es una salida textual porque si usas un compilador, el compilador intentará compilar el programa. Si no funciona, proporciona un mensaje de error. A los LLM les encanta procesar mensajes de error y solucionar los problemas asociados. Estamos muy metidos en el ámbito del texto.
Para la cadena de suministro, la mayoría de las situaciones estarán mediadas. Queremos que el LLM componga el programa que resolverá lo que estamos tratando de hacer. Por ejemplo, con el problema inicial de encontrar el volumen de negocios en Bélgica para el año pasado para clientes por encima de 1 millón de EUR, el LLM no tomará los datos de la base de datos para hacerlo. Compondrá una consulta SQL que se ejecutará en su propia base de datos. Nuevamente, mediación.
¿Qué significa eso para el software empresarial? ¿Tiene, como parte de su entorno de software empresarial, plataformas que admiten la ejecución de su cadena de suministro, al menos la capa de decisiones, con capacidad programática? El LLM no tomará los datos de transacciones en bruto para producir la salida; tomará la declaración del problema, producirá un programa y es muy versátil en el tipo de programa que puede producir. Pero luego algo en su entorno debe ejecutar el programa. ¿Qué tipo de entorno de programación puede proporcionar al LLM?
La mayoría de los software empresariales clásicos no proporcionan ningún entorno en absoluto. Solo tienen una base de datos con un lenguaje que se puede usar, pero la única forma de interactuar con, digamos, un gran ERP que se supone que le permite optimizar su inventario, es configurar manualmente los parámetros de nivel mínimo y máximo de existencias o las existencias de seguridad producto por producto. El LLM puede decirte la receta que necesitas aplicar, pero si quieres aplicarla, tendrás que pasar por la configuración manual del ERP. Si el ERP proporciona una API, puede componer un programa que te permita hacerlo a gran escala a través de la API, pero sigue siendo muy engorroso en comparación con tener una solución programática nativa. Aún estará mediado a través del marco de trabajo.
Requiere algunos cambios profundos e introduce la programabilidad de la solución como un ciudadano de primera clase. Sin vergüenza, Lokad tiene una plataforma programática. No lo hicimos para los LLM, fue más bien suerte, pero aún lo hicimos hace 10 años para tener este tipo de mentalidad programática como el núcleo de la plataforma y como un ciudadano de primera clase. Eso fue suerte, no una visión visionaria de lo que sucedería una década después con los LLM.
Conor: Gracias, Joannes. Tengo en cuenta el tiempo de todos, así que, como es costumbre, Rinat, te devuelvo la palabra para una reflexión final. ¿Hay algo que quieras decirle a todos los que están viendo?
Rinat: Hubo un par de burbujas en la historia pasada, como la burbuja de las punto com y la burbuja financiera. Los LLM y la IA también podrían ser una burbuja, o tal vez no. Incluso mi madre sabe sobre ChatGPT y cómo usarlo, lo cual es interesante. Animo a todos a no tener miedo de nuestros señores de las máquinas porque Skynet no funcionará tan fácilmente. Como alguien que está tratando de estabilizar estas cosas en producción, es mucho esfuerzo y no funciona de manera confiable fácilmente. Así que primero, no tengan miedo de los LLM y segundo, simplemente abrácenlos. Los LLM junto con los humanos y las empresas pueden crear mucho más valor, especialmente cuando se complementan con herramientas especializadas como la previsión de Lokad que se integran muy bien en el entorno.
Conor: Gracias, Rinat. Joannes, muchas gracias por tu tiempo. Rinat, muchas gracias por unirte de nuevo. Y gracias a todos por ver. Nos vemos la próxima vez.