00:00:00 Introducción del show y el impacto de la IA en los empleos administrativos de cuello blanco
00:02:20 Introducción de Large Language Models (LLMs)
00:03:27 La realización de Joannes sobre la IA generativa y GPT-4
00:05:44 LLMs como una máquina de plantillas universal
00:07:05 Joannes sobre el potencial de automatización y el cambio en su perspectiva
00:10:38 Desafíos en la automatización de la comunicación con proveedores
00:12:24 Resumen del impacto de los LLMs
00:14:11 Problemas mundanos en la automatización
00:15:59 Escala del evento de extinción
00:17:48 La comprensión de la IA del argot industrial
00:19:34 Se cuestiona el impacto de la IA en los empleos
00:21:52 Sistema de respuesta automatizada e importancia de la automatización de extremo a extremo
00:28:08 Empresas que ya automatizan procesos
00:30:36 Mejorar la eficiencia y obtener ventaja competitiva con la IA
00:34:28 Preparación del mercado para la IA
00:36:27 Orígenes del desarrollo de la IA
00:38:55 Automatizando las partes difíciles en supply chain
00:41:36 La sociedad se enriquece con la automatización de empleos
00:44:23 Futuro del estudio de la ciencia de supply chain
00:46:54 Transición a preguntas de la audiencia
00:50:12 Repensando la hoja de ruta tecnológica de Lokad
00:52:29 Comienza la sesión de preguntas y respuestas
00:55:00 Perspectiva financiera en supply chain
00:58:46 Pregunta sobre la fijación de precios y el impacto en el resultado final
01:01:00 LLMs para problemas y tareas pequeños y mundanos
01:07:17 Inteligencia general y eventos de extinción
01:09:49 El impacto de la IA en las pequeñas y medianas empresas
01:13:02 Beneficios de la automatización en Lokad
01:17:55 Prediciendo eventos de extinción para los no adoptantes
01:20:32 París como ejemplo de progreso a través de la automatización
01:22:20 Pregunta sobre la colaboración exitosa entre la IA y los humanos
01:26:19 Limitaciones de la inteligencia humana de alto nivel
01:28:31 Pregunta sobre la IA en supply chains de países pequeños
01:32:25 La IA como un factor de igualdad para los países en desarrollo
01:34:05 La simplicidad e impacto de la máquina de coser
01:35:31 Evolución, no revolución
01:36:19 Reflexiones finales

Resumen

En una conversación entre Conor Doherty y Joannes Vermorel de Lokad, Vermorel predice que la inteligencia artificial (IA) conducirá a una extinción masiva de empleos administrativos de cuello blanco en back office para 2030, mucho antes que las predicciones anteriores. Él atribuye esto al éxito de los Large Language Models (LLMs), los cuales cree que impactarán todos los trabajos de back office, particularmente en supply chains. Vermorel argumenta que el objetivo debe ser la automatización completa para trabajos repetitivos, desbloqueando mejoras significativas en productividad. Predice que muchas compañías comenzarán a eliminar personas de estas posiciones en cuestión de meses. Vermorel sugiere que las tareas que requieren inteligencia humana de alto nivel, como las decisiones estratégicas, siguen estando fuera del alcance de los LLMs.

Resumen Extendido

En una conversación reciente entre Conor Doherty, Jefe de Comunicación en Lokad, y Joannes Vermorel, CEO y fundador de la misma compañía, ambos discutieron las implicaciones de la inteligencia artificial (IA) y la optimización de supply chain. Vermorel expresó su convicción de que la IA conducirá a un evento de extinción masiva para los empleados administrativos de cuello blanco en back office. Se refirió a predicciones anteriores en las que se estimaba que la IA eliminaría el 90% de los empleos de cuello blanco para 2050, pero él cree que esto sucederá mucho antes, para 2030.

El factor revolucionario, según Vermorel, es el éxito de los Large Language Models (LLMs), que impactarán todos los empleos de cuello blanco en back office, especialmente aquellos en supply chains. Vermorel admitió que inicialmente se pasó por alto la revolución de los LLMs y solo se dio cuenta de su potencial hace aproximadamente 18 meses, cuando comenzó a trabajar con IA generativa. Compartió su experiencia con GPT-4, un modelo de OpenAI, y cómo le hizo comprender el potencial de esta tecnología a nivel de producción. Explicó que GPT-4 es un orden de magnitud más inteligente que GPT-3.5, y una vez que entiendes cómo funciona, puedes adaptarlo para trabajar también con GPT-3.5.

Vermorel describió a los LLMs como una máquina de plantillas universal, que es increíblemente poderosa y resistente al ruido. Comentó que reescribió toda la hoja de ruta de Lokad hace más de un año y que han estado automatizando una tarea tras otra durante los últimos 12 meses. Expresó su asombro ante la magnitud de lo que se puede entregar mediante la automatización y la dificultad de encontrar problemas que no puedan automatizarse. Comentó que Lokad automatizó la parte más difícil, las decisiones cuantitativas, hace una década, y el resto ha sido automatizado en los últimos 12 meses con la ayuda de los LLMs modernos.

Vermorel explicó que la automatización, particularmente en tareas lingüísticas, ya ha superado la habilidad e inteligencia humana en términos de velocidad y precisión. Dio un ejemplo de cómo los large language models (LLMs) son buenos para evitar errores comunes, como interpretar erróneamente el color en el nombre de un producto como el color real del producto. Vermorel comparó a los LLMs con un sirviente que está familiarizado con la terminología y el argot de cada industria, haciéndolo superior a una persona promedio que puede no estar familiarizada con términos técnicos específicos. Afirmó que la verdadera pregunta es qué no se puede automatizar, ya que, hasta ahora, todo lo que han intentado ha funcionado.

Vermorel no estuvo de acuerdo con la opinión de que la IA actuará como copiloto para ayudar a los humanos a tomar decisiones, argumentando que el objetivo debe ser la automatización completa de extremo a extremo de los trabajos repetitivos, lo que puede desbloquear mejoras significativas en la productividad. Respondió que los trabajos no repetitivos sobrevivirán, pero que muchas tareas que parecen no ser repetitivas a diario son, en realidad, repetitivas a lo largo del año. Confirmó que el plazo para la automatización será muy comprimido y que muchas compañías ya están avanzando rápidamente hacia la automatización.

Vermorel explicó que las revoluciones tecnológicas anteriores se limitaban a industrias específicas, pero los large language models se aplican a casi todos los empleos administrativos de cuello blanco, especialmente los de back office. Explicó que el mercado avanzará más lento que el back office en términos de automatización, ya que las expectativas de un público más amplio dictan el ritmo. Enfatizó que a los clientes no les importa si la ejecución de la producción está completamente automatizada o realizada por empleados administrativos.

Vermorel predijo que la automatización de los empleos de cuello blanco será una sorpresa, pero señaló que los empleos de cuello azul han estado experimentando cambios similares durante los últimos 150 años. Usó el ejemplo de los portadores de agua en París, un trabajo que se extinguió con la introducción de la plomería. Comentó cómo la automatización ya ha dejado obsoletas ciertas tareas, como comparar borradores de contratos línea por línea, tarea que ahora realiza Microsoft Word. Describió el ritmo de estos cambios como gradual hasta la introducción de los LLMs, lo que, según él, se siente como caminar 20 años hacia el futuro en tan solo un año.

En respuesta a una pregunta sobre el futuro de la ciencia de supply chain, Vermorel afirmó que los fundamentos enseñados en sus conferencias de supply chain no serán automatizados. Animó a centrarse en estas cuestiones fundamentales y no en las trivialidades que serán automatizadas por los LLMs. Resumió que los LLMs representan un evento de extinción para las funciones corporativas de back office, prediciendo que muchas compañías comenzarán a eliminar personas de estas posiciones. Describió esto como cuestión de meses y urgió a actuar rápidamente.

En respuesta a una pregunta sobre qué cargos podrían volverse obsoletos, Vermorel enumeró planificador de supply y demanda, analista de inventario y gerente de categoría. Sugirió que roles como supply chain scientist, que implican elaborar recetas numéricas y pensamiento estratégico, no serán automatizados. Vermorel explicó que Lokad ha automatizado no solo decisiones fundamentales como la planificación, la programación, la compra, la producción, la asignación y la actualización de precios, sino también los procesos circundantes como la gestión de datos maestros, la comunicación y las notificaciones a clientes y proveedores.

En respuesta a una pregunta sobre consejos para los jóvenes que ingresan al supply chain, Vermorel sugirió enfocarse en la comprensión estratégica, el pensamiento crítico y las habilidades de programación. Él cree que los LLMs no reemplazarán estas habilidades, sino que potenciarán la productividad. Vermorel predijo que las soluciones de supply chain impulsadas por la IA tendrán un efecto más pronunciado en las pequeñas empresas que en las grandes. Explicó que la alta productividad de estas herramientas hace que la automatización sea accesible para las empresas pequeñas, permitiéndoles competir con las empresas más grandes.

Vermorel comentó que la automatización en Lokad ha mejorado la calidad y aumentado la productividad. Señaló que es muy temprano para ver el impacto en las tasas de suscripción y otras métricas debido a los lentos ciclos de ventas del enterprise software. Advirtió contra depender de los números, usando el ejemplo del fracaso de Kodak para adaptarse a la fotografía digital. Predijo que las compañías que puedan automatizar sus procesos serán más ágiles y fiables, y aquellas que no lo hagan no sobrevivirán. Comparó esto con un evento de extinción.

Vermorel enfatizó la importancia de liberar a las personas de trabajos tediosos para el mejoramiento de supply chain y el crecimiento general de la compañía. Él cree que esto permitirá que las personas piensen estratégicamente y no se distraigan con tareas menores. Explicó que la cooperación entre humanos y máquinas no es como se había imaginado. Se trata más de automatizar completamente las tareas, como la traducción del sitio web de Lokad y las marcas de tiempo de los videos de Lokad TV, las cuales ahora se realizan automáticamente. Sugirió que la verdadera pregunta es qué no se puede automatizar.

Vermorel sugirió que las tareas que requieren inteligencia humana de alto nivel, tales como decisiones estratégicas y cuestiones macro para la compañía, aún están fuera del alcance de los LLMs. Explicó que los LLMs son increíblemente accesibles y no requieren de una fuerza laboral supertalentosa ni de una conexión a Internet de alta velocidad. Enfatizó que esta tecnología es económica y puede ser un gran factor de igualdad para los países con recursos limitados.

Vermorel estuvo de acuerdo con la comparación de Conor y advirtió a las compañías que no se queden atrás en esta evolución. Sugirió que las empresas que no adopten esta tecnología ahora podrían no ser capaces de ponerse al día en el futuro.

Transcripción Completa

Conor Doherty: Bienvenidos a Lokad Live. Mi nombre es Conor. Soy el Jefe de Comunicación en Lokad. Y conmigo en el estudio se encuentra el fundador de Lokad, Joannes Vermorel. El tema de hoy podría ser el más serio que hemos tenido en el show. Una discusión franca y desapasionada sobre el verdadero estado del arte de la IA y supply chain y, lo que es más importante, lo que significa para las personas en este ámbito. Se pretende que esta sea una discusión interactiva, así que si tienen preguntas, por favor envíenlas en el chat en vivo y responderemos tantas como podamos en el tiempo que tengamos. Entonces, Joannes, no demos más rodeos. ¿Por qué estamos aquí?

Joannes Vermorel: Creo que nos enfrentamos a algo que probablemente se caracterizará como un evento de extinción masiva para los empleados de cuello blanco en back office. Hace cinco años, había muchos consultores realizando estudios y afirmando que para 2050, la IA habría eliminado el 90% de los trabajos de cuello blanco. Las razones y las tecnologías invocadas en esos informes eran completamente falsas, y resultó que el plazo también era totalmente erróneo. Pero lo único que era cierto es el 90%. Y el plazo, tal como lo veo ahora, se acelerará enormemente. No será 2050, será 2030. Lo que lo cambió todo fue el éxito de los LLMs (Large Language Models). Esto impactará prácticamente todos los empleos de cuello blanco en back office, especialmente aquellos en supply chains. El cambio viene súper rápido, mucho más rápido de lo que pensaba hace 18 meses.

Conor Doherty: Antes mencionaste a consultores que especulaban sobre la trayectoria de esta evolución o extinción, como lo expresaste. ¿Qué fue exactamente lo que sucedió el año pasado con la aparición de los LLMs para acelerar esta evolución?

Joannes Vermorel: La verdadera revolución fue hace aproximadamente tres años. La pasé por alto. Solo me di cuenta de lo que estaba sucediendo hace unos 18 meses. En ese momento, comencé a experimentar con la IA generativa. Hicimos una entrevista sobre ello hace casi un año y medio. En ese entonces, estaba observando estas tecnologías. La IA generativa había existido durante 20 años y estaba avanzando cada año. Empecé a darme cuenta de que podía usarse para propósitos de producción, pero eran toques pequeños como generar algunas ilustraciones para las conferencias.

Joannes Vermorel: Luego llegaron los LLMs y los chatbots. Eran algo agradables, pero pensaba que eran solo un artilugio elegante. Realmente no me había dado cuenta de para qué podían usarse. Luego recuperé la razón cuando comencé a trabajar con GPT-4, en versión beta, hace poco más de un año. Me di cuenta de que esta tecnología es de nivel producción. Hubo un salto absolutamente enorme. Entendí con GPT-4, un modelo de OpenAI, cómo GPT-3.5, que había existido durante varios años, estaba destinado a usarse. Lo interesante es que se necesitó una segunda revolución, GPT-4, para que yo comprendiera. GPT-4 es un orden de magnitud más inteligente que GPT-3.5.

Pero una vez que empiezas a entender cómo funciona, y es mucho más fácil con GPT-4 porque GPT-4 es mucho mejor, entonces puedes adaptar lo que funciona y hacerlo bonito y fluido para que funcione también con GPT-3.5. La realización fue que el LLM es increíblemente poderoso, pero si quieres usarlo para propósitos de producción, para empresas, para propósitos corporativos, no se trata de tener un chatbot. Lo interesante es que tienes una máquina de plantillas universal. Esto es lo que es completamente increíble. Esto es muy resiliente al ruido. Hace un poco más de un año, me di cuenta de que ya era de grado producción. Habíamos pasado por alto algo que fue un avance absolutamente asombroso hace 18 meses. Reescribí completamente la hoja de ruta de Lokad hace más de un año. Hemos estado actualizando frenéticamente casi todo durante el último año. Hemos estado bastante callados en términos de comunicación sobre eso, pero en el transcurso de los últimos 12 meses, hemos estado automatizando una cosa tras otra. Cosas que parecían casi imposibles de automatizar hace unos años han sido automatizadas.

Cuando miro los trabajos en supply chains, veo que la magnitud de lo que se puede entregar como algo que está completamente robotizado es simplemente asombrosa. Es incluso difícil encontrar problemas hoy en día donde no puedas automatizar. En el pasado, automatizar cada tarea individual era un desafío. En Lokad, automatizamos hace una década lo que era la parte más difícil, que eran aquellas decisiones cuantitativas. Las decisiones cuantitativas eran como averiguar cuántas unidades comprar, producir, o si deberías aumentar o disminuir tu precio. Esas respuestas cuantitativas se automatizaron hace una década. Pero lo que pasó durante los últimos 12 meses fue todo lo demás. Todo lo demás se volvió barato, súper rápido y fácil con estos modernos LLMs.

Conor Doherty: No quiero darle la vuelta a esto porque la siguiente pregunta probablemente sería, “Bueno, ¿qué trabajos van a desaparecer?” Pero en realidad, quiero retroceder un paso. Como explícitamente dijiste hace un año, nos sentamos aquí y llamaste a GPT-3.5 un artista BS y lo comparaste con el de un gato. Entonces, la pregunta es, ¿qué fue exactamente, cuando describes esa sensación de vértigo, lo que te llevó a pasar de “es un gato” a “estamos en un evento de extinción”?

Joannes Vermorel: Sigue siendo bastante tonto, pero no es lo que deseas. La cuestión es que los LLMs no se tratan de tener una discusión inteligente. Es agradable, y GPT-4 va bastante lejos en esa dirección. Esto fue bastante asombroso. Pero nuevamente, la fortaleza son esas máquinas de plantillas universal que estaba describiendo. Vamos con un ejemplo. Quieres pasar una orden de compra a un proveedor y te das cuenta de que no tienes el MOQ. Deberías enviar un correo electrónico al proveedor diciendo, “Por cierto, para esos productos, ¿cuál es tu MOQ, tu cantidad mínima de pedido? Dime la cifra.” Luego la persona responderá y solo necesitas agregar este valor en algún lugar de tu sistema para que puedas calcularlo. Esto es parte del proceso de toma de decisiones.

Lokad estaba automatizando eso. Lo que hacíamos era que si conocemos el MOQ, te damos, junto con todo tipo de otros datos, la respuesta correcta sobre cuánto deberías comprar. Pero obtener el valor del MOQ en sí era como un teléfono que, ¿cómo se maneja eso? No es un problema difícil. Ciertamente, puedes crear un sistema automatizado donde tengas una plantilla de correo electrónico y luego tendrás que pasar la respuesta, y pasar la respuesta es complicado porque el proveedor podría responder algo que te dé como dos MOQs. Para este producto, es este; para este otro, es algo diferente. ¿Cómo manejas eso? Este no es fundamentalmente un problema difícil. Esto no es como un cálculo sofisticado. Pero esto era algo que, sin duda, estaba impidiendo que robotizáramos la ejecución completa del proceso de extremo a extremo.

Podíamos automatizar la parte de la toma de decisiones, pero no la ejecución de extremo a extremo de la decisión, tomando en cuenta lo que necesita suceder antes del paso de toma de decisiones y después del mismo. Ahora, con los LLMs, donde tienes esas máquinas de plantillas universales, si recibes un correo electrónico, digamos, “¿cuál fue el MOQ reportado por el proveedor?” bla, bla, bla, y literalmente puedes automatizar esas cosas súper, súper rápido.

Así que, si le pides a GPT, un LLM, que invente cosas, ellos alucinarán. Eso es lo que hacen. Pero si los usas correctamente, y usándolos correctamente dices, “Tengo una entrada, quiero una transformación, y obtengo la información de la entrada transformada”, ahí obtienes algo que es increíblemente robusto y de grado producción. Esto es simplemente, y resulta que cuando observas lo que hacen los trabajadores de back office, los trabajadores de cuello blanco, están buscando pequeños detalles de información aquí y allá. Esto es como el 90% de su tiempo, pasando un poco de charla con el entorno. Y ahora tienes una máquina universal para automatizar todo eso, y es muy, muy sencillo y barato.

Conor Doherty: Entonces, para resumir todo eso hasta este punto, y nuevamente Lokad ha estado haciendo esto durante años, el aspecto de la toma de decisiones más cuantitativa fue automatizado usando otras formas de IA. Hoy hablas de los elementos interpersonales cualitativos que también están sujetos a automatización a través de LLMs.

Joannes Vermorel: Sí, solo piensa que quieres pasar tus órdenes de compra. Hay que calcular la cantidad, eso es lo que Lokad ha estado haciendo durante más de una década. Pero luego tienes todo tipo de cosas pequeñas que deben ocurrir. ¿Qué pasa si hay dos productos que son duplicados? Así que tienes como dos productos, es dos veces la misma referencia. ¿Cómo lo ves? La respuesta fue que en el pasado eso era complicado. Podrías diseñar un poco de machine learning y un poco de técnicas especializadas de NLP, procesamiento de lenguaje natural, para desduplicar automáticamente tu catálogo. Sí, en el pasado solía tomar, digamos, 50 horas de ingeniería de software para lograr algo que funcionara.

Ahora, con LLM, esta desduplicación de la que estoy hablando es literalmente 20 minutos de trabajo y luego tendrás una solución de grado producción para desduplicar. Así que ves, la magnitud de esto es absolutamente asombrosa. Y tienes todas esas pequeñas cosas que estaban en el camino, y por eso las empresas necesitan tener a todas esas personas, porque no es el gran problema que toma mucho tiempo. El gran problema, como calcular esta cantidad, ya estaba algo mecanizado, pero eran los pequeños problemas súper mundanos los que estaban en el camino: pequeños problemas de calidad de datos, cosas duplicadas, o un punto de datos faltante como un MOQ.

Algún proveedor se retrasa, quieres enviar un correo electrónico para obtener un tiempo estimado de llegada revisado y luego obtener la respuesta. Estos tipos de cosas no son súper complicados, pero antes ya era posible automatizarlos; sin embargo, cada pregunta individual y microtarea como esa costaba algo como 50 horas de ingeniería para resolverlo, y eso es mucho porque si tienes como 100 de esos, estamos hablando de miles de horas-persona, y luego terminas con un proyecto que, como discutí en las conferencias, demuestra que el costo de gestionar un producto de software no es lineal, es súper lineal.

Entonces, si duplicas la complejidad, tiendes a multiplicar el costo de mantener esta cosa, no por dos, sino por cuatro. Así que, al agregar todas esas cosas, estabas creando como un monstruo de software que era muy difícil de gestionar, de actualizar y de extender. Si puedes, como un bloque de construcción, usar algo como los LLMs, donde esas cosas están centralizadas, entonces no solo esas tareas se pueden resolver en como 20 minutos, sino que la complejidad total de tu producto de software crece mucho más lento de lo que solía ser, porque sigue siendo un producto muy, muy simple, y es el mismo truco: este LLM, que se usa en cada paso para resolver todos esos pequeños accidentes que tienes a lo largo del camino.

Conor Doherty: ¿Cuál es entonces la escala de esto cuando hablas de un evento a nivel de extinción? ¿Puedes desglosar las implicaciones?

Joannes Vermorel: He estado trabajando con LLMs y hemos estado automatizando tareas por todos lados. Veo a otras empresas que están haciendo eso, especialmente cuando se trata de tareas lingüísticas como reordenar información, resumir información, extraer información de un correo electrónico y así sucesivamente. Lo increíble es que ya estamos más allá de la habilidad humana, más allá de la inteligencia humana.

Cuando digo más allá de la inteligencia humana, me refiero a en un tiempo limitado. Si te doy un correo electrónico de entrada y te pido que extraigas la información clave en 20 segundos, a veces lo harás mal como humano. Si te doy mil correos electrónicos y te pido que extraigas la información clave de cada uno en 20-30 segundos, tendrás una tasa de acierto de tal vez 98% y a veces te equivocarás.

Los LLMs, sin embargo, no solo lo harán en un segundo en lugar de 30 segundos, sino que su precisión estará muy por encima de lo que haría una persona promedio, incluso una que tenga entrenamiento. Por eso digo que literalmente estamos más allá de lo humano.

Para muchas cosas, como evitar errores de principiante, los LLMs son increíblemente buenos. Por ejemplo, si hay un color en el nombre de un producto, tal vez el color no signifique que el producto sea de ese color. Tal vez sea un dispositivo para hacer una verificación y el color en el nombre no tiene nada que ver con el color real del producto. Este es el tipo de cosas en las que los LLMs son realmente increíblemente buenos.

Es como tener un sirviente que está muy familiarizado con la terminología y la jerga de prácticamente cada vertical que existe en la Tierra. Entonces, de repente, tienes algo que está un poco más allá de lo humano, porque si tomas a una persona al azar, esa persona simplemente no está familiarizada de inmediato con los términos técnicos específicos de tu industria, y es probable que tarde meses, si no años, en cometer errores por ignorancia y no saber que ese término es engañoso, y, por ejemplo, este es un término que es un color pero no se refiere a un color en este contexto. Es más bien una característica del producto o algo similar, y los ejemplos siguen y siguen y siguen.

Y en Lokad, literalmente, hemos estado mecanizando toneladas de cosas, y la verdadera pregunta es literalmente, “¿Qué no podemos automatizar?” Y es una pregunta difícil porque, hasta ahora, prácticamente todo lo que hemos intentado ha funcionado directamente desde la caja. Eso es lo que es alucinante: una vez que entiendes para qué sirven esos LLMs, puedes automatizar tanto, tanto.

Conor Doherty: Para tomar la posición de un posible detractor, si comparas trabajos de cuello blanco y de cuello azul, durante décadas se ha hablado de cómo los robots, las máquinas y otras formas de tecnología quitarán las herramientas de las manos de los mecánicos. Sin embargo, en muchos sectores, como en MRO, hay partes del mundo donde existe un faltante de stock crítico de técnicos para trabajar en aviones. Ese evento a nivel de extinción fue equivocado. ¿Qué tan seguro estás de lo que estás diciendo hoy en el contexto de proclamaciones similares que la gente ha hecho? ¿Qué te hace tan seguro?

Joannes Vermorel: Quiero decir, primero, lo que me hace confiar y seguro es que lo hemos estado haciendo por un año, y literalmente, quiero darte un ejemplo de las cosas que hemos mecanizado en Lokad: RFPs, ya sabes, solicitudes de propuestas. Recibimos documentos gigantes de Excel enviados por grandes empresas con una cantidad insana de preguntas, como 600 preguntas. Y a principios de este año, creo que fue en mayo o algo así, dije, “Está bien, tenemos otra RFP de 600 preguntas. Literalmente toma una semana, 10 días, días completos, para responder todo eso. Quiero decir, es un fastidio tener que revisar esos documentos masivos.” Perdón.

Y luego decidí, “Está bien, solo voy a mecanizar eso y reciclar toda la base de conocimientos que ya teníamos en Lokad y hacer una máquina contestadora.” Ya sabes, una máquina contestadora. Entonces, ya tenemos los documentos, ya tenemos toneladas de cosas, y el trabajo de la máquina era solo, “Escribe una respuesta a la pregunta tal cual lo haría Lokad. Reutiliza la base de conocimientos que tenemos. Y si hay una brecha en la base de conocimientos, solo responde ‘fail’, y luego lo haremos manualmente.”

Y literalmente, hacer una RFP estaba tomando más de una semana, y automatizar la parte de la RFP me tomó una semana. Así que, literalmente, para cuando había diseñado los robots, ya tenía un retorno de inversión positivo. Ya sabes, para cuando completé mi automatización, estaba regenerando las respuestas y la cosa funcionaba con menos del 10% de las preguntas que aún tenía que hacer manualmente y ampliando la base de conocimientos de Lokad.

Pero lo interesante fue cuando enviamos nuestras respuestas, el sistema en línea—teníamos como un proceso de envío en línea—envías y luego tienes 600 preguntas, digamos, y recibes una respuesta automatizada basada en tus respuestas y en las casillas que marcaste. Aquí aparecen 100 preguntas más que se habían generado. Y así, volvimos a enviar. Entonces, pensamos, oh, habíamos respondido 600 preguntas.

Por cierto, al final fueron más de 100 páginas de respuestas, así que fue un documento muy, muy largo para enviar. Y luego lo envías y el sistema que gestiona el proceso de RFP simplemente te regresa 100 preguntas más. Y de nuevo, reutilizamos las herramientas y, en pocas horas, finalmente terminamos. Y luego, todas las RFPs que hemos hecho desde entonces, ya sabes, simplemente usamos esta herramienta y ha sido, y ese es solo un ejemplo entre literalmente docenas.

Conor Doherty: Sin embargo, hay empresas que tienen una actitud muy disímil a la tuya. Ellas creen que la IA generativa, los grandes modelos de lenguaje que estamos describiendo, básicamente se convertirán en algo así como un copiloto para las personas que actualmente trabajan en el área, como demand planners y supply chain practitioners. Ellos creen que no serás reemplazado por la IA, sino que te va a apoyar, te servirá como un copiloto para ayudarte a tomar todas las decisiones, tanto cuantitativas como cualitativas, que estás diciendo que desaparecerán. ¿Por qué eso está mal?

Joannes Vermorel: Entonces, eso fue, por cierto, lo que yo estaba imaginando antes de mi epifanía, ya sabes, hace 18 meses. Si piensas de esa manera, no, los LLMs van a ser una completa porquería. Van a ser un gadget y te estás perdiendo completamente el punto. Te estás perdiendo completamente el punto. ¿Por qué? Eh, esta es la cuestión. Si lo que deseas es, primero, tener una interfaz de usuario conversacional, es un juguete. No lo es; quiero decir, es agradable tener GPT en el lugar de tu motor de búsqueda, donde, “está bien, eso está bien.” Pero si quieres realizar un trabajo repetitivo, lo que quieres es simplemente una automatización completa de extremo a extremo.

Entonces, en este caso, LLM tiene que convertirse en un componente programático de tu software. Y, como dije, volvamos a esta máquina automatizada de respuesta a RFP. El objetivo no es tener un copiloto con el que podamos chatear para responder a este RFP de 600 preguntas. Lo que queríamos era una máquina que recibiera el documento, desglosara todas las preguntas y terminara con ello, ¿ves? Y simplemente tener una lista corta de preguntas en las que las FAQ necesiten ser ampliadas y ya, ¿ves? No se trata de tener un copiloto con el que puedas interactuar y demás. Eso es una completa pérdida de tiempo. Esto no es de lo que trata la automatización, la verdadera automatización.

Y así, en mi opinión, las personas que piensan de esta manera no están pensando con claridad. Simplemente piensan en términos incrementales. Piensan en agregar una nueva tecnología para mejorar un poco la forma en que se hace, en lugar de replantearse completamente cómo se hace y desbloquear una mejora de productividad de 100x en el proceso.

Conor Doherty: ¿Qué trabajos en particular crees que sobrevivirían al evento de extinción que estás describiendo? ¿Qué queda si lo cuantitativo desaparece, lo cualitativo desaparece y todo se automatiza?

Joannes Vermorel: Entonces, lo que queda es todo lo que es estrictamente no repetitivo, ¿vale? Pero a un alto nivel, porque ya ves, si miras a un trabajador de back office, ya sabes, de cuello blanco, la gente diría, “Oh, no es repetitivo. Mira, tengo que enviar un correo electrónico allí, tengo que preguntarle a un colega allá, tengo que hacer un montón de cosas que son un poco heterogéneas.” Sí, pero a lo largo de un año, siempre es lo mismo lo que se repite una y otra vez. Y en el pasado, y por cierto, eso siempre se avecinaba. Quiero decir, durante las últimas cuatro décadas, la industria del software fue, y siempre he estado convencido de que no era una cuestión de cuándo, no era una cuestión de si todas esas cosas mundanas se automatizarían, era simplemente una cuestión de cuándo.

Y en los años 80, hubo varios inviernos de la IA en los que la gente hacía afirmaciones grandiosas y no funcionó con los sistemas expertos, con la minería de datos. Así que, los sistemas expertos fueron a finales de los 80 y principios de los 90, la minería de datos fue en el año 2000, etc. Fue como una serie de oleadas, pero la diferencia es que ahora funciona. Quiero decir, funciona y, literalmente, Lokad ya ha cumplido un año y hemos automatizado cosas que no habría pensado posible hacer tan fácil y rápidamente. Y he visto, de nuevo, a otras compañías haciéndolo también, y el resultado neto es absolutamente asombroso y funciona. Y además, funciona sin, diría yo, tanta habilidad especializada o tanta sobrecarga técnica. Esas tecnologías, al igual que los LLMs, son muy sencillas de adoptar.

Conor Doherty: Solo quiero aclarar una frase que acabas de decir. Dijiste que has visto a tantas compañías haciendo eso. ¿Estás sugiriendo que, tras bastidores, eso es en cierto modo ya lo que está sucediendo?

Joannes Vermorel: Sí, y por eso creo que el plazo va a ser muy comprimido. Por eso dije 2030 para el fin del juego, no 2050. Bastantes compañías ya están avanzando a máxima velocidad en ello. Si sigues las noticias, verás que algunas compañías anuncian despidos de como 5,000 personas aquí y allá. Esto está sucediendo muy rápido y la velocidad del mercado no será definida por la velocidad de la compañía habitual o la compañía promedio, será definida por la más rápida. Porque, ya ves, los ahorros son tan grandes que, si te retrasas, este giro tecnológico te terminará.

Y creo que la IA es menos significativa en términos de logro tecnológico que el propio Internet. Ya sabes, el propio Internet es más grande. Pero en términos de competitividad, el Internet tardó como dos décadas en implementarse. Fue un proceso lento, tendiendo los cables, consiguiendo una conexión a Internet rápida y confiable en todas partes, actualizando todo gradualmente, el sistema operativo, aprovechando al máximo el correo electrónico, etc.

Así que, fue un proceso lento en el que, incluso si eras rezagado, no estaba claro que hubiera ganancias inmediatas de productividad. Entonces, si llegabas tarde a la fiesta del Internet, y en lugar de adoptar el correo electrónico en 1995, solo lo adoptaste en 2002, llegaste siete años tarde, pero eso estaba más o menos bien. Tus competidores no habían reducido sus costos por un factor de 10x gracias al Internet.

Y, por cierto, el Internet también creó mucha burocracia porque se necesitaba una gran administración de sistemas. Creó montones de problemas. Entonces, literalmente, tomó dos décadas para que las compañías lo asimilaran y mejoraran realmente con él. Lo que es diferente aquí es que, para mejorar con ello, se trata de cuestión de meses. Y puedes reducir drásticamente la cantidad de mano de obra que necesitas para muchas tareas, y diría que prácticamente cada tarea de back office, siendo las supply chain una de ellas, en cuestión de meses. Y ahí es donde creo que será muy diferente esta vez.

Conor Doherty: Cuando dijiste que hay diferentes departamentos, no estás incluyendo IT, ¿te estás enfocando específicamente en actividades centradas en supply chain?

Joannes Vermorel: Cada departamento necesita su propia discusión. IT, en gran medida, va a ser más difícil de automatizar. Primero, porque robotizar al administrador de sistemas genera todo tipo de problemas potenciales de seguridad. Va a ser difícil. Vendrá, pero sospecho que tomará más tiempo. Y la mayoría de las decisiones tomadas por IT ya son bastante complicadas. Así que, diré que para IT, sospecho que serán ahorros de productividad del orden del 50%. Y aquí, será como una especie de copiloto. Por cierto, eso es lo que sucede en Lokad.

Ahora, tienes una pregunta sobre algo como un software poco conocido. Solías pasar media hora en la web para, de alguna manera, profundizar en la documentación técnica del proveedor. Ahora, con ChatGPT, puedes hacerlo pero mucho más rápido. Bien, ese es el tipo de asistente copiloto del que estamos hablando. Sí, eso va a ser IT. Pero creo que para otras funciones, puede ser mucho más rápido y a una escala que será mucho mayor.

Conor Doherty: Básicamente, parece que el ROI por adoptar la tecnología ahora es la diferencia entre realmente obtener un retorno de la inversión y, básicamente, extinguirse.

Joannes Vermorel: Sí, o sea, exactamente. Creo que es una especie de giro tecnológico brusco. Creo que es realmente un error pensar en términos de ROI, porque el ROI es tan grande que, si no tomas el giro, tus competidores te acabarán. Así que, ya ves, deja de pensar. Imagina que estás en la industria de la confección y alguien acaba de inventar la máquina de coser. Es decir, había gente que trabajaba con agujas, ya sabes, haciendo prendas, y tardaban como tres días en hacer una camisa. Y luego, alguien inventa la máquina de coser y hacen una camisa en 5 minutos. Esa es la magnitud de la diferencia. Entonces, ¿cuál es el ROI de la máquina de coser? La respuesta es: o tienes una máquina de coser o sales del negocio. Esto es todo.

Conor Doherty: Diste ejemplos antes en Lokad TV sobre Kodak. Mencionaste explícitamente a Kodak. Inventaron la cámara digital y no la adoptaron, y quebraron.

Joannes Vermorel: Sí, y lo que sucedió fue que esas revoluciones estaban algo limitadas a una vertical. Ya sabes, estaba la cámara digital, sí, muchos, quiero decir, el 90% de los actores en este mercado de equipos fotográficos argenticos simplemente quebraron. Pero, de nuevo, eso fue algo así como un evento verticalizado. Así que, fue un evento de extinción, pero limitado a una vertical específica.

Ahora, lo interesante de los LLM es que se aplican literalmente a casi todos los trabajos de cuello blanco y, más específicamente, a los de back office. Porque ya ves, en el front office, si estás hablando con alguien, si necesitas ese toque personal y demás, incluso si en teoría pudieras mecanizarlo, no está claro que el mercado esté dispuesto a hacerlo.

Por ejemplo, Amazon, allá, digamos, en el año 2000, técnicamente podías comprar muebles online. Pero la gente no estaba preparada. E-commerce aún no generaba la confianza suficiente para comprar un sofá de $3,000 online. Tomó una década después. Así que, una década después, ahora es parte de, diría yo, sí, la gente dice, sí, puedes comprar un sofá online. Incluso puedes comprar un coche online. Se ha convertido en parte de la cultura.

Técnicamente, podrías haber vendido coches y muebles en el año 2000 online. No era un problema técnico. Era más bien la cuestión de si la gente estaba dispuesta a hacerlo o si se necesitaba tiempo. Entonces, diría que para el front office, las cosas sucederán un poco más despacio, porque aunque pudieras robotizar, tal como Amazon podría haber vendido muebles en el año 2000, este segmento despegó solo una década después.

El mercado se moverá, diría yo, más despacio porque se ajustará al ritmo de las expectativas del público en general. Así que, será un poco más lento. Pero para el back office, absolutamente no, no existe tal límite. A nadie le importa en lo más mínimo si la ejecución de tu producción y tu cronograma de producción están completamente robotizados o si tienes un ejército de empleados administrativos para hacerlo. A tus clientes no les importa, a nadie le importa, excepto internamente.

Conor Doherty: Excepto los empleados administrativos que, según argumentas, quedarán redundantes, es lo que dices.

Joannes Vermorel: De nuevo, Lokad no fue quien inventó el LLM. Fue hecho por otras personas. Creo que fue inventado por gente como OpenAI. Se metieron en eso, y, por cierto, no sabían lo que estaban haciendo. Es muy gracioso porque hubo entrevistas de Sam Altman, quien ahora dice, bueno, si lo hubiéramos sabido, no habríamos establecido OpenAI como una organización sin fines de lucro. No habríamos publicado cada truco que descubrimos en el camino.

Así que, ya ves, realmente estaban inmersos en esta idea de un LLM. Era simplemente una continuación de secuencia. Tienes un fragmento de texto y lo continúas. Creo que daré una conferencia sobre eso. Hubo una serie de innovaciones que convirtieron al LLM en, realmente, diría yo, la maravilla tecnológica de nuestro tiempo. Pero lo fundamental es que fue, creo, inesperado incluso para las compañías que lo inventaron. La arquitectura Transformer se originó en Google, pero Google no fue quien lo desbloqueó, fue otra compañía. En resumen, fue un pequeño accidente. Obviamente, le tocó a personas que estaban bien preparadas. Hubo gente que realmente estaba buscando, haciendo cosas muy inteligentes, mirando en la dirección correcta. Pero las consecuencias fueron increíblemente sorprendentes.

Es muy interesante porque incluso los investigadores en IA, como digamos Yann LeCun en Facebook, son muy escépticos acerca del poder de los LLM. Mi experiencia de primera mano usándolos es que son la verdadera apuesta. Así que, es muy interesante. Fue tal sorpresa que incluso las personas que han sido pioneras en el campo no perciben el hito que representan.

Conor Doherty: Vale la pena dejar una nota ahí, porque, para hacer un comentario meta, el papel de Lokad en esto es solo de observador. Como has descrito, hemos estado utilizando ambos aspectos de la IA, tanto para lo cuantitativo como para lo cualitativo.

Joannes Vermorel: Lokad no está investigando en mejorar los LLM. Es un tema super especializado y hay compañías que lo están haciendo muy bien.

En Francia, tenemos, por ejemplo, Mistral AI, que es un equipo muy fuerte que lo está haciendo, y ahora compiten con OpenAI. Así que sí, bueno, quiero ver mucha competencia en eso. Pero para Lokad, tiene muchas consecuencias. Estábamos automatizando la parte difícil en supply chain, las decisiones cuantitativas: forecast, pedidos, asignación, fijación de precios, todas las cosas cuantitativas. Pero ahora, la ejecución de extremo a extremo de eso, con todas las cosas minuciosas que necesitas hacer antes, como adquirir esos fragmentos de información que faltan, hay algunas cosas que no llegan, necesitas buscarlas, ya sea enviar un correo electrónico, ya sea buscarlas en línea, etc., etc., ya sabes, muchas cosas que son tareas pequeñas.

En el pasado, solíamos decir a los clientes, bueno, si tienen este problema, por favor háganlo. Podíamos automatizar eso, y a veces lo hacíamos, pero resultaba algo caro. Así que ahora realmente podemos robotizarlo, y lo mismo para lo que sucede después de la decisión, como el seguimiento con proveedores, el seguimiento de pequeños problemas y demás; todas esas cosas mundanas y repetitivas también se pueden robotizar.

Debido a que ya está disponible, no podemos permitirnos no hacerlo. Esto es lo que nuestros clientes, muy urgentes, nos exigen. Porque, de nuevo, cuando tienes una máquina de coser, no usarla simplemente no es una opción. No puedes decir, ya sabes qué, vamos a pretender que nunca hemos oído hablar de las máquinas de coser y seguiremos cosiendo camisas con agujas. No, tienes que usarla.

Conor Doherty: Estás hablando de ello, es supervivencia a todos los niveles. Son los empleados, las compañías, toda la industria, el sector del mercado, todo. Lo que se pueda automatizar, se automatizará.

Joannes Vermorel: Sí, y por cierto, esto será, creo, una sorpresa para los trabajadores de cuello blanco. Pero si miras a los de cuello azul en los últimos 150 años, han pasado de una revolución a otra. La introducción de la electricidad fue un evento de extinción masiva. Hubo como mil cosas diferentes en las que, de repente, se automatizaban. De nuevo, hace 150 años en París, el trabajo más común, que era casi algo así como el 10% de la población, era el de las personas que transportaban agua. Así que, había como que el 10% de la gente con cubos transportando agua, y ese era el trabajo número uno, y se extinguió.

Así que, obviamente, el lado positivo es que cada vez que eliminas esos trabajos, la sociedad en su conjunto se enriquece porque significa que las personas están haciendo cosas más interesantes, de mayor valor, y las cosas simplemente se ordenan. Las cosas se resolverán por sí solas, tal como lo hicieron durante los últimos 150 años en todas las revoluciones industriales. Lo único sorprendente es que afecta a una clase de personas, es decir, a los trabajos de cuello blanco, que hasta ahora habían estado relativamente, y digo relativamente, protegidos. Así que ahora, bueno, simplemente sucedió aquí, pero ya sabes, volverá a suceder.

Conor Doherty: Ni siquiera tienes que retroceder 150 años. Quiero decir, en las últimas décadas, la mayoría de las personas han vivido algunos eventos de extinción en ciertas áreas, como que el VHS fue dejado de lado por los DVDs o el fax quedó obsoleto por el correo electrónico.

Joannes Vermorel: Por ejemplo, mis padres, que empezaron en Procter & Gamble, fue hace más de 40 años, pero lo que hacían cuando me contaban, como empleados de nivel inicial, por ejemplo, una de las cosas que hacían era —y ese era el trabajo de una persona— que cuando había una negociación de contrato, tomaban a un empleado joven y le hacían comparar línea por línea los dos documentos, el que era un borrador y el retorno, la contraoferta de tu proveedor, socio, o lo que sea, y simplemente marcar con un bolígrafo las secciones que tenían diferencias. Y eso tardaba horas.

Así que pagaban a muchas personas solo para encontrar la diferencia. Y ahora, donde Microsoft Word simplemente hace un diff de documentos, o utilizas el seguimiento de cambios, y ya está. Así que, literalmente, había bastantes tareas que ya han quedado extintas. Pero sucedió, diría yo, de manera gradual. Eso era lo que pasaba, es que esas cosas ocurrían a un ritmo lento. Lo interesante con los LLMs es que es un gran paso, y ese es un paso en el que, literalmente, acabamos de caminar 20 años hacia el futuro en tan solo un año. Así es como se siente después de poner estas tecnologías en producción durante el último año.

Conor Doherty: Lokad colabora a menudo con universidades, capacitando a las personas para entrar en el supply chain. ¿Significa eso que vamos a abandonar todo esto? ¿Es una pérdida de tiempo estudiar cualquier supply chain science porque va a desaparecer?

Joannes Vermorel: No, no lo creo. Lo que enseñamos no son las tareas mundanas, como cómo enviar un email a un proveedor para obtener el último MOQ. Si observas el contenido de la conferencia, se trata más de entender el costo en dólares de un faltante de stock y cómo pensarlo.

Si quieres una respuesta de Chat GPT, van a alucinar tonterías. Incluso si es GPT-4, aún no hemos llegado, no del todo. Ese tipo de cosas de las que hablo en las conferencias no son las que se automatizan. Pero cuando miro a las empresas de supply chain, el porcentaje de tiempo que las personas en supply chain dedican a pensar profundamente en cuestiones fundamentales, como qué significa la calidad de servicio a ojos de nuestros clientes, es muy pequeño.

La mayoría de lo que abordo en mis conferencias son las preguntas fundamentales que, con mucha frecuencia, son engañosamente simples, como ¿qué significa la palabra futuro? ¿Qué significa anticipar correctamente el futuro o de manera adecuada? Estas son preguntas genuinamente difíciles y, si estás abordando esas cuestiones y eres capaz de aportar respuestas relevantes a tu empresa, no estás en el umbral de ser automatizado. Por eso digo, y sigo manteniendo esta posición, que los LLMs siguen siendo unos increíbles inventores de tonterías.

Así que, si quieres alcanzar este nivel de entendimiento, aún no hemos llegado. Vas a experimentar alucinaciones y demás. Pero si lo que quieres es deshacerte de este tedio de manera automática, entonces ya está resuelto. Por eso digo, enfócate en los fundamentos, concéntrate en las preguntas que requieren que pienses profunda y detenidamente. Eso no va a desaparecer. Lo que va a desaparecer es el ruido ambiental, las trivialidades interminables. Eso se va a resolver con los Large Language Models (LLMs).

Conor Doherty: Muy bien, hay algunas preguntas del público a las que atender y llevamos 50 minutos. Muchas de esas preguntas, de hecho, abordan lo que yo habría terminado. Así que, antes de pasar a las preguntas del público, supongo que me gustaría, si es posible, dar un resumen a nivel ejecutivo para cualquiera que se haya perdido los primeros minutos. Y creo que, de manera importante, es un llamado a la acción para todos los segmentos de, bueno, nuevamente, personas trabajando en la trastienda, CEOs, y en todos los sectores.

Joannes Vermorel: La respuesta corta es que los LLMs, Large Language Models, representan un evento de extinción para las funciones corporativas de back office que operan únicamente para trabajos de cuello blanco, donde tienes personas que simplemente toman datos, los transforman, reorganizan y los envían. Ya sabes, y mira tu organización en todos los niveles. Literalmente, tienes ejércitos de personas que hacen justamente eso. Recogen algunos correos y, tal vez, 20 fuentes de datos pequeñas, disímiles y heterogéneas, realizan un poco de procesamiento y mueven la información un paso.

El mensaje es que todo eso ya es posible de automatizar. Y bastantes empresas están avanzando a toda velocidad haciéndolo en este momento. Ya se puede ver en las noticias que no solo están en producción, sino que ya han empezado a remover personas de estos puestos. Y no me refiero a como unas pocas personas por aquí y por allá. Estoy hablando de grandes empresas que hacen anuncios como: teníamos 6,000 personas para hacer esto, ahora tenemos 50. Y hubo un despido gigantesco en esa área. Y proceden a toda velocidad, y espero que estas cosas se intensifiquen aún más.

De nuevo, los trabajos de cuello blanco de back office serán el objetivo. Supply chain es una de esas funciones. Sospecho que hay como media docena de otras cosas que también lo estarán. La contabilidad probablemente también se verá impactada masivamente porque en contabilidad tienes el razonamiento inteligente y súper inteligente de alto nivel, que es cómo quieres organizar tu estructura contable y demás. Pero también tienes lo mundano. Alguien me envía un PDF, necesito extraer media docena de informaciones relevantes solo para generar la entrada contable que corresponda con este documento PDF. Bien, eso se hace. Eso puede ser completamente automatizado.

Así que todo eso va a desaparecer súper rápido. Y, para algunas empresas, ni siquiera es el futuro, ya está hecho. Ya es el presente. Y estamos hablando de meses. Entonces, el resumen ejecutivo es: evento de extinción, es cuestión de meses. Sí, hay que actuar rápido. Y, por cierto, en Lokad, quiero decir, cuando me di cuenta de eso, pasé los primeros tres meses de 2023 replanteando toda la hoja de ruta tecnológica de Lokad, porque todo lo que había imaginado antes estaba acabado.

Así que, para nosotros, ha sido un giro bastante drástico. Quiero decir, internamente en Lokad, y hemos estado automatizando bastantes cosas. Y, literalmente, estábamos tan ocupados haciéndolo que no comunicábamos mucho al respecto. Pero ese ha sido mi horario diario durante un año ya.

Conor Doherty: Antes de pasar a las preguntas del público, realmente vale la pena señalar que, tradicionalmente, hablábamos mucho sobre forecast probabilístico, optimización estocástica y todo eso. Eso ni siquiera formaba parte de esta conversación porque ya está resuelto. Ha sido el estado del arte durante años. Así que esas decisiones cuantitativas —para destacar, inventario, órdenes de compra, asignación, pricing—, al menos en lo que respecta a Lokad, se resolvieron hace años. Ya estaba hecho. La esencia de hoy es que se habla de todo lo demás que quedó.

Joannes Vermorel: Sí, exactamente. Lo mundano, el ruido, las pequeñas cosas ambientales, todos esos mil pequeños incidentes, que no requerían como 10 años en supply chain. De nuevo, basta con pensar en hacer una pregunta al azar a un partner, a un transportista, a un proveedor, y demás. Y, por cierto, las empresas contrataban rutinariamente a cientos de personas con solo un mes de capacitación. Esas personas serían capaces de operar. Pero piensa en cualquier cosa que requiera menos de seis meses de capacitación, muy probablemente algo que un LLM pueda operar, pueda automatizar.

Ya sabes, si es algo que alguien aprende en solo unos pocos meses, bueno, eso puede ser automatizado. Si toma como diez años de habilidad, dedicación y paciencia, no. Pero lo fácil, que probablemente sería más estratégico de todas formas, es la distinción. Sí.

Conor Doherty: Muy bien. Recomiendo tomar un sorbo de agua porque hay algunas preguntas que atender. Así que, a todos, muchas gracias por sus preguntas. Nuestro productor ha recopilado las preguntas. No tengo acceso al chat de YouTube, así que no sé cuántas se hicieron, pero las que eran similares se agruparon. Cualquier pregunta que no respondamos hoy, proporcionaremos respuestas más detalladas ya sea en un video de seguimiento o en LinkedIn.

La primera pregunta es de Constantine. Él pregunta: “¿Qué títulos de trabajo podrían volverse obsoletos? ¿Ves un futuro para los roles de forecasting y planificación?”

Joannes Vermorel: Roles como supply and demand planner, inventory analyst, category managers, todo eso, diría que se ha ido. Literalmente, ya se ha ido. Es posible que quienes están viendo no estén de acuerdo, pero solo estás reportando. La parte de forecasting, por ejemplo, Lokad la automatizó casi hace una década. Lo que no se automatizaba eran, usualmente, los pequeños accidentes de datos, como productos duplicados o identificar cuál producto es el descendiente de otro producto. Por ejemplo, este producto es, simplemente, tomas dos descripciones de producto y dices: “oh, esto es simplemente la generación cuatro de un dispositivo y esa es la generación cinco”. Así que este es algo así, un poco mejor. Ese es el tipo de cosa que un LLM definitivamente puede automatizar. Así que, todo eso es completamente automatizable y ya se ha ido.

Lo que no se puede automatizar sería algo más como un Supply Chain Scientist, donde elaboras las recetas numéricas que automatizan todo lo que no es automatizable. Puedes automatizar el trabajo, pero aún no se puede automatizar la elaboración de las recetas numéricas y aún no se puede automatizar el pensamiento estratégico que implica convertir todo en dólares de error, dólares de ganancia. Necesitas ser capaz de tener esa perspectiva financiera que un LLM no es capaz de tener. Pero todos esos trabajos de gestión mundanos, donde hay muchas tareas repetitivas, ya han desaparecido. Y en cuanto a forecasting, es lo mismo. Esa ha sido la posición de Lokad durante la última década. Así que, no hay nada nuevo.

Conor Doherty: Bueno, estoy seguro de que todos estarán satisfechos con esa respuesta. Pasando a la siguiente. Gracias. Pasando a la siguiente pregunta de Sherar. “Joannes, ¿podrías elaborar sobre los beneficios de la IA y supply chain con ejemplos en tiempo real?”

Joannes Vermorel: Primero, definamos en tiempo real. En supply chain, no hablamos de en tiempo real en el mismo sentido que mantener un avión en vuelo, lo cual requiere tiempos de respuesta en milisegundos. En supply chain, incluso si quieres dar instrucciones a un camión para dirigir el tráfico, un retraso de un minuto no es tan malo. En supply chain, en tiempo real sería, por ejemplo, un robot dentro de un almacén realizando picking automatizado. La mayoría de los problemas en supply chain no son en tiempo real. La gran mayoría de los problemas pueden permitirse una demora de una hora. Hay muy pocas cuestiones de supply chain que necesiten una respuesta en menos de una hora.

Así que, de nuevo, con los LLMs quieres obtener información, hacer una búsqueda en la web, obtener los resultados y recuperarlos. Quieres saber la dirección de un proveedor y recuperarla automáticamente. Es muy sencillo tener algunas lógicas que lo hagan de forma automática. Es fácil. Estamos hablando de todas las decisiones fundamentales, todo lo que era planificación, programación, y todo eso, compras, producción, asignación, pricing, actualización. Y luego, lo que hemos añadido es todo el conjunto alrededor de ello, como la gestión de datos maestros, comunicarse con la red, notificar a los clientes sobre retrasos, notificar a los proveedores que tienen problemas y demás, todo eso ahora puede automatizarse. No es super inteligente, pero esa es una segunda capa que también puede automatizarse.

Conor Doherty: Pero el punto es que no requiere necesariamente pensamiento lateral. Si es solo, el término que usaste fue templating, si es solo, “Busca este tipo”, es casi Booleano. Si esto, entonces.

Joannes Vermorel: Sí, exactamente. Y donde, y la gran diferencia entre, digamos, los sistemas expertos de los años 90 es que cuando digo que los LLMs son máquinas universales de templating que son resilientes al ruido, es que no importa si el email está mal redactado. No importa. Quiero decir, ni siquiera importa si el email está en ruso o japonés. Esas cosas pueden leer prácticamente cualquier idioma. A menos que alguien te envíe un mensaje escrito en un idioma raro, como un dialecto zulú. Si está escrito en cualquier idioma que sea hablado por 100 millones de personas en todo el mundo, ya está. Y diría que 100 millones es mucho. Cualquier idioma que sea hablado por al menos 10 millones de personas en todo el mundo, estás bien.

Conor Doherty: La siguiente pregunta es de Tamit. “¿No es el pricing en sí mismo representativo del impacto percibido en la línea de fondo, particularmente el pricing de Chat GPT en relación con Gurobi o CPLEX?”

Joannes Vermorel: Gurobi y CPLEX son solvers matemáticos, así que ni siquiera están en la misma categoría de productos. Son herramientas completamente diferentes y ni remotamente abordan lo mismo. Son solvers matemáticos. Así que, Gurobi y CPLEX, para la audiencia, consiste en que planteas un problema expresado como una lista de restricciones y una función objetivo, y eso te da la respuesta. Es un componente matemático.

Y no estoy seguro de si el episodio ya ha sido publicado, pero acabamos de grabar uno sobre optimización estocástica. No, viene pronto. La conclusión es que la razón por la cual Gurobi y CPLEX es, en cierto modo, una opción descartada para supply chain es que no manejan la estocasticidad. Discutiremos eso en un episodio diferente, pero es una categoría completamente distinta de herramientas. Los LLMs se tratan de templating de texto y de hacer todo tipo de reformulación, extracción y análisis rápido de datos textuales. Y cuando digo texto, me refiero a texto plano, secuencia de letras, números y caracteres. Así que son problemas completamente diferentes. Y ni remotamente abordan lo mismo.

Conor Doherty: Como mi intento anterior de plantar una bandera, muchas personas aún no entienden completamente el impacto de la IA. Es un evento de extinción para casi todos los trabajos, excepto para aquellos en un nivel muy alto.

Joannes Vermorel: La razón es que, por ejemplo, Gurobi y CPLEX es como algo inexistente. Es decir, esas cosas han existido durante casi cuatro décadas, y el problema es que, nuevamente —lo discutiremos en otro episodio— no resuelven, no abordan el aspecto estocástico frontal. Así que esto es una opción descartada. Y luego, incluso si lo hicieran, aún necesitas a alguien como un Supply Chain Scientist para usarlos. Así que no es como una victoria rápida. No es algo que pueda suceder en horas. Los LLMs, para problemas muy mundanos, pequeños, de poca envergadura, son el tipo de cosas en las que puedes obtener soluciones en, literalmente, minutos.

Conor Doherty: ¿Podrían el creciente número de casos judiciales por regalías o compensación financiera de individuos cuyos datos contribuyeron al entrenamiento de LLMs potencialmente obstaculizar el progreso y la adopción al aumentar los precios?

Joannes Vermorel: Olvídalo. Algunas empresas están demostrando que pueden tener LLMs que se acercan al rendimiento de Open AI utilizando un corpus mucho más pequeño, como solo Wikipedia. Entonces, la respuesta es no. No estamos hablando de gen AI para imágenes que podrían infringir la propiedad intelectual de Disney o lo que sea. Estamos hablando de cosas súper mundanas como: aquí hay un texto, dime quién envió el correo electrónico, cuál es el MOQ, si esta persona da una respuesta definitiva o una respuesta vaga, o si esta persona tiene confianza en la precisión de la respuesta dada. Ese es el tipo de cosas de las que se puede obtener la respuesta automáticamente de un correo electrónico. De eso se trata. Así que eso va a ser un asunto completamente inexistente.

Aunque las personas tengan que volver a entrenar sus LLMs porque deben descartar el 3% de la base de datos de entrada, está bien. Eso es lo que Mistral, esta empresa francesa, ha demostrado: que puedes volver a entrenar un LLM de grado producción, digamos al nivel de Open AI, con solo unos pocos cientos de miles de euros. Así que, esto ya está hecho. No hay vuelta atrás. Hay soluciones alternativas, y esas cosas, en el mejor de los casos, serán solo un poco de ruido, pero ya es un hecho consumado que no va a cambiar nada.

Conor Doherty: Y, en última instancia, lo estás utilizando como una máquina de plantillas. Nuevamente, le estás indicando exactamente lo que quieres encontrar y proporcionándole la entrada, como, “Encuentra en este correo electrónico la información.”

Joannes Vermorel: Y nuevamente, estamos hablando de trabajos de back-office. No estamos hablando de escribir el próximo Harry Potter y que los abogados de J.K. Rowling te demanden porque tus cosas están simplemente alucinando una copia casi idéntica de Harry Potter. De eso no se trata. Se trata de, simplemente, piensa en el tipo de correos electrónicos, piensa en los últimos 100 correos electrónicos que has escrito y cuánta ingeniosidad, originalidad y, diría yo, inteligencia a nivel humano se invierte en ellos. Y lo más probable es que no sea tanto. Quiero decir, incluso si miro lo que escribo a diario, la mayoría es, ya sabes, muy mundana. Y eso es lo que se está automatizando a una velocidad increíble.

Conor Doherty: Vale la pena agregar un pequeño comentario: si se ha dado la impresión de que Chat GPT en sí es de lo que estamos hablando, no, estamos hablando de LLMs como tecnología en sí misma, y no específicamente cuando interactúas en línea.

Joannes Vermorel: Y, más específicamente, de los LLMs como un componente de programación. Así como tienes una base de datos relacional, tienes subsistemas en tu software, tienes subsistemas como la base de datos transaccional, el servidor web, etc., y aquí tienes uno que es LLM, y esa es solo una manera de ejecutar ciertos pasos en tu programa. No pienses en los LLMs como algo que viene empaquetado con una interfaz de chat. Casi todo lo que he automatizado durante el último año no tiene interfaz. Es literalmente un script que hace algo de principio a fin, sin interfaz de usuario. Es, en otras palabras, un elemento de una pila general.

Conor Doherty: James pregunta: ¿qué consejo le darías a una persona joven que busca entrar en supply chain en términos de capacitación y cómo puede vender mejor esta habilidad en el contexto del evento de extinción que has descrito?

Joannes Vermorel: Los LLMs te obligan a mejorar tu nivel en cuanto al entendimiento estratégico. Dominar recetas simples como análisis ABC o lo que sea, no es un punto de partida. Equípate con los instrumentos finales que aún le faltan a GPT-4, como la capacidad de realizar un pensamiento profundo. Pensar larga y detenidamente sobre problemas termina generando líneas de razonamiento que, en general, son correctas. Sé capaz de producir una síntesis sobre un problema que sea superior a la que produce GPT-4. Esas son habilidades muy válidas que se mantendrán cuando realmente se requiera ese nivel superior de capacidades intelectuales que está justo más allá de la máquina.

Y esas son el tipo de habilidades que creo que aún estamos lejos de automatizar. Incluso, por ejemplo, si miras las voces en la comunidad investigadora que son muy críticas, podrías observar lo que dice Yann LeCun, por ejemplo. Él dice: sí, los LLMs, ya sabes, esto no es la respuesta para la inteligencia general y, en ese aspecto, estoy de acuerdo con Yann LeCun. Donde no estoy de acuerdo es en que creo que no necesitamos inteligencia general para aún enfrentar un evento de extinción en los trabajos de back-office. Solo necesitamos LLMs, y los LLMs son como un nivel inferior de inteligencia, pero son suficientes para abarcar alrededor del 90% de la mano de obra, y eso va a ser bastante radical. Lo veremos para el 10% que quede.

Así que, para una persona joven que entra en la carrera, ve, por ejemplo, mis conferencias; verás que la mayoría no trata sobre lo trivial, esto no se trata sobre lo monótono, no se trata de pequeños detalles, sino de preguntas fundamentales como “¿Cuáles son, en esencia, los problemas que estamos tratando de resolver?” Tengo un capítulo entero sobre personas; es difícil: ¿cuáles son los problemas que estamos tratando de resolver en este supply chain y la respuesta varía de un sector a otro? Esto es difícil.

¿Cuáles son los paradigmas de programación que son relevantes? Porque, nuevamente, dije que los LLMs pueden automatizar toneladas de cosas, pero las recetas numéricas no se escriben solas. Sí, los LLM pueden ayudar, pero carecen del tipo de juicio de nivel superior para captar la adecuación. Así que, incluso si el código se escribe con la ayuda de una máquina, aún se necesita, en gran medida —y creo que eso se mantendrá— un juicio a nivel humano para realmente ver si es realmente adecuado.

Así que, aquí los LLMs serán un impulso, pero no reemplazarán las habilidades de programación. Entonces, si tienes habilidades de programación, tus habilidades van a ser aún más valiosas, porque ahora serás, en realidad, incluso más productivo con las tecnologías de LLM. Mi enfoque es en los fundamentos, el pensamiento crítico, el análisis a nivel estratégico y luego todos los temas complejos como los paradigmas de programación e incluso los instrumentos matemáticos relevantes. Por ejemplo, un forecast probabilístico aún requiere, si deseas razonar correctamente sobre ello, que tengas un entendimiento de alta calidad de esos instrumentos matemáticos, y de nuevo, eso no va a desaparecer. El GPT-4 no está automatizando eso.

Conor Doherty: Lionel pregunta: ¿cómo afectan las soluciones de Supply Chain impulsadas por IA a las pequeñas y medianas empresas en comparación con las empresas más grandes o las grandes corporaciones?

Joannes Vermorel: Creo que el efecto será aún más pronunciado para las empresas más pequeñas. ¿Por qué? Porque las grandes empresas pueden permitirse tener grandes burocracias especializadas, pero las empresas pequeñas no. Las empresas pequeñas sabían que no podían competir con las grandes porque no podían contar con un departamento de 200 personas y 10 especializaciones diferentes, entre otras cosas.

Pero lo interesante es que la productividad es tan alta con ese tipo de herramientas que, de repente, volverse loco con la automatización se vuelve súper accesible, incluso para las empresas pequeñas. Y, por cierto, en Lokad, ahora somos una empresa de alrededor de 60 empleados y he estado automatizando toneladas de cosas por aquí y por allá, y se puede hacer de manera súper rápida.

Lo interesante es que no se necesita un proyecto con 20 ingenieros de software para hacer las cosas. Los logros que puedes obtener en cuestión de horas son asombrosos si se hace correctamente.

Así que, mi opinión es que para empresas medianas —tal vez no las muy pequeñas, pero digamos una empresa mediana, cualquier empresa que esté en torno a los 50 millones de dólares o más— podrán mecanizar las cosas a un ritmo increíble y rivalizar con lo que están haciendo las empresas súper grandes, porque muy rápidamente el cuello de botella será solo los LLMs y tendrás acceso a los mismos LLMs que, digamos, Samsung o Apple o el gigante que tengas en mente.

Tienes acceso a las mismas herramientas. Así que, literalmente, si estuvieras compitiendo en términos de analistas, sí, Apple probablemente tiene analistas de demanda muchísimo más talentosos que tú, pero ellos tienen acceso a los mismos LLMs que tú. Es una especie de gran ecualizador en términos de capacidad de automatización.

Conor Doherty: Siguiente pregunta de Nick: ¿cómo ha influido la utilización de los LLMs, como uno de los métodos pioneros en Lokad, en los indicadores de rendimiento de tu negocio, tales como la tasa de abandono, las nuevas suscripciones y la satisfacción del cliente?

Joannes Vermorel: En general, diría que aún estamos a 12 meses de haber alcanzado el grado de producción. Lo que hemos automatizado ahora tiene una calidad que supera la capacidad humana. Literalmente, puedes ver el tipo de cosas que hemos automatizado. Se hace mejor que antes y, muy frecuentemente, con 100 veces menos mano de obra de la que solíamos contar.

Para el público que no está familiarizado, en Lokad, como proveedor de software empresarial, hablamos de ciclos de venta largos. Me encantaría poder cerrar tratos con los clientes en tres semanas, pero desafortunadamente, es más bien un proceso de tres años. Lo siento, con un proceso de RFP de 18 meses que me volvió loco. Eso es con IA, y eso es para hacer el RFP con IA. O sea, es lento. Pero, de nuevo, por eso digo que las cosas de cara al cliente, como las ventas y similares, son lentas, aunque la retroalimentación de nuestros clientes ha sido increíblemente positiva.

Puede ser simplemente cosas mundanas, como generar automáticamente un informe para una discusión de dos horas con un cliente. El informe está muy bien organizado y captura todos los puntos clave que se han discutido. Tenemos nuestra propia tecnología interna sobre cómo elaborar estos memorandos de alta calidad después de una reunión. Funciona de maravilla y hemos recibido comentarios muy positivos de nuestros clientes al respecto.

Mi percepción es que las tareas que hemos automatizado se hacen mejor que antes y, como mínimo, hemos logrado algo como una productividad 20 veces mayor. Eso es absolutamente asombroso.

En cuanto a la tasa de suscripción y otros indicadores, es demasiado pronto para decirlo. Siendo un proveedor de software empresarial, mis ciclos de venta son increíblemente lentos. Discutiremos eso en unos años.

Creo que es incorrecto seguir los números. Los números llegan demasiado poco y demasiado tarde. Solo piensa en Kodak. Cuando la fotografía digital pasó de ser nada a ser todo, si Kodak fuera como el tipo que está en caída libre y dice que hasta ahora todo está bien, no, estás en caída libre, vas a golpear el suelo con fuerza. No estás en lo correcto.

Para cuando la gente vea los números, las empresas tendrán ejércitos robotizados. Mi predicción es que habrá empresas avanzando en eso y veo a esas empresas siendo el Amazon de la próxima década.

Entonces, en resumen, se están moviendo a toda velocidad, y si pienso a cinco años en el futuro, ya puedo ver que esas empresas podrán sobrecompetir a todos sus pares con precios que sus competidores simplemente no podrían rivalizar. Y luego, en términos de agilidad, el problema cuando tienes un ejército de personas es que, por definición, si tienes tu propia organización —estoy hablando de una gran empresa—, tienes cientos de personas involucradas en la planificación, S&OP, forecast, todo eso, y eres lento.

Eres una gran burocracia. Por definición, si tienes como 200 personas, no puedes ser ágil. Es simplemente que tienes demasiadas personas. Si puedes reducir ese número a 20 personas, entonces puedes ser como un tigre, es decir, súper ágil, súper rápido. Y, de nuevo, eso significa que esas empresas competirán enormemente en costo y en agilidad; es mucho, realmente mucho.

Más allá de la inteligencia humana, competirán en la calidad de la ejecución. Hay un dicho en la industria del software que todo lo que depende de la intervención manual es poco fiable. No se puede lograr confiabilidad si hay una intervención manual en medio.

Entonces, lo que veo es que, incluso en términos de calidad de ejecución, la confiabilidad quedará por las nubes en comparación con los procesos manuales. Eso significa que, ya sabes, agilidad, costo, confiabilidad, rendimiento; es decir, de nuevo, por eso hablo de eventos de extinción. Las empresas que lo hagan sobrevivirán, y las que no, desaparecerán en el transcurso de una década.

Entonces, se desarrollará lentamente porque, nuevamente, existía cierta inercia. En Francia, por ejemplo, estaba conversando con muchos minoristas, y recuerdo vívidamente que, antes de comenzar Lokad —era 2004, yo era estudiante— les decía, acababa de volver de Estados Unidos, pasé dos años en EE. UU., y les decía a los minoristas en Francia: “Amazon te va a acabar.” Y la gente me respondía: “Oh, el e-commerce es solo una moda pasajera. Esto es solo, ya sabes, no tienen 0.1% de cuota de mercado, no nos importa, no es nada.”

Y para mí, ya estaba escrito. No había duda, era simplemente, de nuevo, cuestión de tiempo. Ya estaba escrito. O como minorista, tomas el rumbo del e-commerce, o si no, entonces Amazon y sus pares te acabarán. Y eso se ha desarrollado, por cierto. He visto a bastantes de esas empresas quebrar. Tomó una década desarrollarse, pero sucedió. Y eso es lo que va a ocurrir para muchas otras empresas.

Y lo que lo hace muy interesante para los LLMs es que no es específico de sectores. Algunos sectores se verán más impactados, pero en definitiva, todo lo que tenga funciones de soporte de back-office se verá impactado de manera masiva.

Conor Doherty: Es importante agregar también al punto que hiciste, en el ejemplo de Lokad, que las funciones que describiste y que han sido automatizadas con LLMs superan todo lo demás que se ha hecho con IA. Así que, de nuevo, no es simplemente, “Oh, tenemos algunas cosas.” De lo que estás hablando es de una fuerza laboral altamente capacitada donde todas las tareas mundanas y monótonas, tanto cuantitativas como cualitativas, han sido, en la medida de lo humanamente posible, automatizadas, liberando a ese personal inteligente para centrarse en los problemas reales que importan. Entonces, y si tienes una empresa que hace eso frente a otra que no lo hace, es, básicamente, Darwinismo.

Joannes Vermorel: Exactamente. La belleza de esto es que es la destrucción schumpeteriana en acción. Es para el bien mayor que las empresas se hagan más ricas. Por ejemplo, si París todavía tuviera al 10% de su población llevando agua, París sería una ciudad muy pobre.

París se ha convertido en una ciudad de primer mundo, solo porque, quiero decir, según nuestros estándares modernos, solo porque no ocupamos el 10% de la población haciendo cosas estúpidas. Es al liberar a las personas de trabajos increíblemente tediosos que podemos dedicarnos al arte, ser creativos, ser inventivos.

En aquellas empresas que operan supply chains, si todo el mundo está continuamente apagando incendios, lidiando con pequeños y minúsculos líos, granos de arena en la máquina que simplemente descarrilan todo, pero no de forma grandiosa o épica, sino de forma estúpida, y está consumiendo todo el oxígeno.

Así que piénsalo como todas esas pequeñas cosas, son cosas que simplemente consumen todo el oxígeno, y luego la gente ni siquiera puede pensar debido a que hay tanto de ello. Así que, creo que va a ser realmente algo para el mejoramiento de supply chain porque de repente la gente podrá pensar estratégicamente, sin quedar atrapada en este trillón de pequeñas distracciones que no merecen su atención humana.

Tengamos un millón de asistentes semi-tontos, porque eso es lo que son los LLMs, un millón de asistentes semi-tontos que se encargan de estas cosas que no merecen la inteligencia humana.

Conor Doherty: Últimas dos preguntas. Esta es de Lionel. ¿De qué ejemplos de exitosa colaboración entre IA y humanos en las operaciones de supply chain podemos aprender?

Joannes Vermorel: No piensen en términos de colaboraciones. Eso es un error. No habrá un co-piloto genérico.

Al final, son siempre los humanos, obviamente, y las máquinas. Así que sí, hay una forma de cooperación, pero no toma la forma que ustedes imaginan. No es un co-piloto. Cuando estuve automatizando la máquina contestadora de RFP, ¿cómo se veía la cooperación? Me senté en mi escritorio, pasé una semana programando esa máquina contestadora y, luego, tengo una máquina contestadora.

Cada vez que llega una RFP, ejecutamos la máquina, obtenemos las respuestas. Así es como se ve la cooperación. Y luego, cuando OpenAI lanza algo como GPT-4 turbo o cualquier modelo nuevo, hago una pequeña actualización en mi código para aprovechar lo último, y volvemos al negocio.

Esta es una cooperación, pero en el sentido de que estoy programando algunas cosas y, cuando algo cambia, reviso un poco mi código. Esa es la clase de cooperación de la que estamos hablando. No es como si estuviera dialogando con una máquina. No dialogo con GPT, ni nada por el estilo. Así no es como funciona. Así no se juega el juego.

Así que, no piensen en los LLMs como algo cooperativo. La mayoría de las cosas que automatizamos, las automatizamos completamente, y luego ya no hay nadie involucrado. Simplemente se hace.

Para dar ejemplos, el sitio web de Lokad se traduce completamente de forma automática, y lo bello de esto, y pueden investigarlo en línea, es que no traducimos el inglés, traducimos directamente el HTML. Es como tomar el HTML sin procesar y retraducirlo, y hemos ahorrado el 90% del esfuerzo porque, de repente, podemos iterar todo, y los LLMs son lo suficientemente inteligentes para saber qué parte del HTML no debe tocarse porque es una etiqueta, y qué es inglés real que necesita ser traducido. Bello.

Así que eso ya está hecho. Para la audiencia, todas las páginas que tenemos para los videos de Lokad TV en los que teníamos marcas de tiempo, solíamos, por ejemplo, agregar marcas de tiempo manualmente, ahora se hace automáticamente. Lo hice, ahora se hace automáticamente.

Así que, eso es lo que sucede cuando quieres tomar una discusión de una hora, crear marcas de tiempo automáticamente y listo. Podría mencionar cosas que son más arcanas porque lo que más beneficios nos aporta son trabajos de back-office en Lokad, así que no es como de cara al cliente, sino cosas bastante arcanas.

El punto es que me llevaría demasiado tiempo explicar por qué necesitamos eso en primer lugar, pero en resumen los ejemplos son interminables. Habitualmente lo intentamos y, en el mismo día, se automatiza. Así es como se ve. Y sí, hay un poco de ajuste con los prompts, pero, de nuevo, la pregunta es: ¿qué no se puede automatizar? Hoy en día es más difícil responder a qué puede automatizarse.

Conor Doherty: Es interesante que menciones ese punto, porque cuando diste el ejemplo de resumir discusiones, y esto habla más de lo que acabas de decir, ¿hasta dónde podríamos llegar? Quiero decir, en el back-office, la discusión ahora es: ¿cómo podemos tomar resúmenes de discusiones, digamos con clientes o con prospectos o lo que sea, y, basándonos en lo discutido, buscar automáticamente en el sitio web, insertar enlaces relevantes en las partes pertinentes, simplemente, ¿qué no podemos hacer? Pues resulta que podemos. Estamos trabajando en ello. Pero es solo, ¿qué no se puede hacer? Es difícil hacer una lista de lo que no se puede hacer con un LLM.

Joannes Vermorel: En este momento, todo lo que es verdaderamente de alto nivel, lo estoy inventando solo en términos de redacción porque nos faltan las palabras, pero diría inteligencia humana de alto nivel, o formas superiores de inteligencia, cosas en las que necesitas pensar larga y arduamente, potencialmente durante horas para obtener la respuesta; no es algo en lo que puedas tener una respuesta instintiva, porque si es algo en lo que se puede tener una respuesta instintiva, los LLMs también pueden hacerlo.

Pero algo, nuevamente, um, lo que debería ser, um, simplemente piensa en preguntas muy difíciles, tales como, ¿qué significa la calidad del servicio para nuestros clientes? Esta es una pregunta muy difícil. ¿Cuáles deberían ser nuestros segmentos objetivo prioritarios? Preguntas macro para la empresa, ese es el tipo de preguntas en las que literalmente se pueden pasar semanas para obtener la respuesta, y ahí es donde los LLMs aún se quedan cortos.

Si tienes una pregunta que es tan importante que puedes dedicar semanas a responderla, la inteligencia humana de alto nivel te dará una mejor respuesta que GPT-4. Pero si es una pregunta en la que solo tienes, digamos, 60 segundos de tiempo cerebral para obtener la respuesta, entonces la respuesta que obtendrás de un humano no será súper buena. El reloj está corriendo. Si me das 60 segundos para dar una respuesta sobre cualquier cosa, no va a ser una buena respuesta.

Conor Doherty: La cuestión es, tal vez una vez, pero no cada 60 segundos, cada hora, siete u ocho horas al día, 300 días al año, 50 años. Esa es la diferencia.

Joannes Vermorel: Esa es la diferencia. Obviamente, si descanso durante 30 minutos y luego, sí. Pero el LLM no se cansa. Puedes ejecutarlo y literalmente automatizar millones de operaciones al día y ni siquiera es difícil.

Conor Doherty: Esta es la última pregunta de Lionel. ¿Cómo pueden los países pequeños aprovechar la IA en la gestión de supply chain para superar sus desafíos geográficos y económicos únicos, y cuáles son las implicaciones para los mercados laborales locales?

Joannes Vermorel: Lo bello es que los LLMs son increíblemente accesibles. Los requerimientos de ancho de banda para usar los LLMs son mínimos. Literalmente puedes enviar kilobytes de datos, y funciona. Los LLMs se operan de forma remota, así que si estás en un país pobre, siempre y cuando tengas una conexión a Internet de baja, pero razonable, estás bien.

Estas cosas no requieren conectividad de alta velocidad. Así que está bien. No se necesita una fuerza laboral súper talentosa. Eso es lo bello de esto. La ingeniería de prompts es, probablemente, de todas las habilidades de cuasi-ingeniería que tuve que adquirir en las últimas dos décadas, la más fácil. Literalmente es algo que, en cuestión de horas, dominarás.

Por eso ahora hay niños que hacen toda su tarea con Chat GPT. Quiero decir, es fácil, tan fácil como a nivel infantil. Y ahí es donde digo, bueno, la adopción va a suceder rápido, porque no, quiero decir, no escuchen a alguien que les diga, “Tengo un prompt engineering degree.” ¿De qué estás hablando? Es el tipo de cosas en las que, si trabajas un poco para entenderlo, lo dominarás en cuestión de días. No es, no es difícil; quiero decir, es más difícil dominar Excel que dominar la ingeniería de prompts.

Así que, en resumen, si estás en un país pobre y remoto, es súper accesible. Por cierto, ¿te dije que esta tecnología es barata? Es barata de la manera más extrema. Barata de verdad. Piensa en ello, solo para que la audiencia se haga una idea, mira nuestro sitio web, es gigantesco. Estamos hablando de mil páginas, mil páginas web. Así que, si lo imprimiéramos, probablemente serían como 3,000 páginas A4. Esas FAQs son enormes, incluso más.

Así que, estamos hablando de algo que es un sitio web grande y robusto. Lo traducimos a siete idiomas. El costo de hacer un lote de traducción del inglés a todos esos idiomas, y estamos hablando nuevamente de 3,000 páginas de texto si lo conservamos, es de $150 con OpenAI. Eso es lo que pago. Y, por cierto, el costo de hacerlo con freelancers, como solíamos hacerlo, era de alrededor de $50,000 por idioma.

Así que el costo pasó de algo que estaba cerca de cero, un cuarto de millón o más de un cuarto de millón para obtener la traducción, a $150. Y, por cierto, el costo será aún más bajo porque OpenAI acaba de reducir el precio recientemente. Y, para hacerlo, ni siquiera estamos usando GPT-4, seguimos usando GPT-3.5. Y con Mistral, deberíamos intentarlo, pero Mistral es aún más barato.

Así que probablemente, dentro de tres años, traducir esas masivas 3,000 páginas costará algo así como $50. Lo bello de esto es que creo que, para los países desarrollados, esta es una oportunidad enorme, un gran igualador. Piénsalo: no por centavos, sino por dólares, puedes jugar con las mismas herramientas que los grandes y estar al mismo nivel que las personas que tienen, como, millones en sus manos, como Apple. Estás jugando con las mismas herramientas.

Así que, eso va a ser un igualador increíble. Y si eres inteligente y tienes algo de pasión, aprenderás en el camino. Y eso, de nuevo, no es súper difícil. Probablemente sea una de las revoluciones más increíblemente accesibles. Y creo que incluso los países pobres ahora tienen, incluso con conexiones a Internet mediocres, lo suficiente para aprovechar los LLMs. Ni siquiera necesitas banda ancha. Si tienes 20 kilobytes en ambas direcciones por segundo, de forma confiable, estás bien.

Conor Doherty: Creo que hemos hablado más de una hora y media. Entonces, si pudiera resumir todo esto, ¿Skynet?

Joannes Vermorel: No, no Skynet. Esa fue mi equivocada expectativa hace 18 meses. Yo decía, oh, es tan tonto como siempre, así que no es nada. No, es una máquina de plantillas universal, y eso es un cambio de juego. Es la máquina de coser de lo que serán para los empleados de oficina, lo que las máquinas de coser hicieron por la industria textil.

Lo bello de esto es la simplicidad. Incluso en su época, una máquina de coser era órdenes de magnitud más simple que un reloj. Según los estándares del siglo XIX, no era una máquina complicada. Ya existían máquinas que eran órdenes de magnitud más complicadas. Sin embargo, era engañosamente simple y, casi de la noche a la mañana, aceleró la industria textil 100 veces. Si piensas que las máquinas de coser no fueron una revolución porque de repente no tienes un fabricante de telas de principio a fin, estás perdiendo el punto. Con una máquina de coser, aún puedes confeccionar prendas 100 veces más rápido.

No tenemos Skynet. GPT-4 no va a reemplazar el pensamiento estratégico de alta calidad. Pero todo lo monótono, sí, lo hará. Esto es una evolución. Mi mensaje para la audiencia es: no pierdan el tren. Muchas empresas ya se han subido al tren. Algunas personas, para mi vergüenza, lo hicieron antes. Pero hay mucha gente a bordo y los resultados son tan rápidos que, si no actúas ahora, no podrás ponerte al día dentro de cuatro años. La discrepancia será tan grande que será como un efecto Kodak: estarás acabado, incluso si en un principio no fuiste una mala compañía.

Conor Doherty: Muy bien, no tengo más preguntas, Joannes. Muchas gracias por tu tiempo y muchas gracias por vernos. Nos vemos la próxima vez.