00:00:00 Impacto de Generative AI en supply chain
00:02:06 La realidad de las promociones en AI
00:03:35 Comparando el potencial y la exageración de generative AI
00:04:56 Perspectiva positiva sobre el potencial de la AI
00:06:54 Riesgos de la adopción prematura de tecnología
00:08:21 Aprovechando la AI para un crecimiento impulsado por la curiosidad
00:10:14 Generative AI como una Wikipedia inteligente moderna
00:11:34 Los modelos de lenguaje ofrecen perspectivas sobre procesos
00:13:39 Ampliando la retroalimentación de clientes a través de LLMs
00:15:37 Evolución de interfaces de usuario con lenguaje natural
00:17:38 Generación de documentos mediante análisis de LLM
00:19:43 El impacto de ver a los LLMs como colegas
00:21:37 Toma de decisiones futura con colegas digitales
00:26:46 Delegar tareas a agentes de AI de manera sabia
00:29:02 Ganancias de eficiencia en la planificación de la demanda
00:30:58 Perspectivas sobre la dinámica de forecast-precios
00:32:51 Las transcripciones de revisión de la demanda mejoran la madurez
00:35:08 Joannes explora el potencial futuro de la AI
00:37:14 Vincular discusiones de reuniones resulta desafiante para los LLMs
00:40:26 Las reuniones de revisión de la demanda aumentan el rendimiento
00:44:34 Las herramientas de AI cambian la participación en las reuniones
00:48:49 La evolución de la comunicación resalta problemas de privacidad
00:52:39 La tecnología impacta las prácticas de secreto empresarial
00:55:43 Generative AI explora cambios en la percepción
00:57:00 La compleja realidad de la AI en algoritmos vs. GenAI
00:58:10 Generative AI como sucesor del blockchain
00:59:45 La disfunción cultural causa desperdicio de dinero
01:00:38 La intuición previene el desperdicio financiero por GenAI
01:03:00 Enseñanzas prácticas de supply chain a nivel directivo
01:05:39 La mecanización de tareas intelectuales en la era moderna
01:09:02 Perspectivas sobre la productividad a través de la automatización
01:11:02 Conclusión de la entrevista con una despedida
Resumen
El bombo de GenAI supera a los balances. Los beneficios a corto plazo son modestos: aceleración de tareas administrativas, triage más inteligente, disciplina en las reuniones, con humanos en el proceso. A largo plazo, podría rivalizar con la containerización, si se alinean los incentivos. Las prohibiciones meramente desplazan el uso a los teléfonos; las barreras protectoras superan las prohibiciones. La “brecha de valor” indica un teatro en las compras, no la tecnología; los líderes necesitan mechanical sympathy y pruebas, no RFPs de 600 preguntas. Los LLMs no aprenden; el contexto y RAG siguen siendo cuellos de botella, por lo que la curación es importante. En el nivel directivo: mecanizar el trabajo intelectual o quedarse rezagado. En la planta: menos trabajo monótono, mejores configuraciones por defecto. Los optimistas dicen cinco años; los pesimistas, veinte. De cualquier manera, el teatro de hojas de cálculo de hoy vive de tiempo prestado.
Resumen Ampliado
Generative AI ha generado más bombo que balances. El panel concuerda en que los efectos a corto plazo en supply chain son modestos pero reales: aceleración administrativa, mejor triage de documentos y alivio de tareas repetitivas. A largo plazo, el cambio podría ser tan trascendental como la containerización, si las organizaciones alinean incentivos y expectativas. La exageración promete “soluciones”; la realidad ofrece trade-offs.
Dos fuerzas tiran en direcciones opuestas. Por un lado, beneficios prácticos: los modelos de lenguaje actúan como herramientas de referencia inteligentes, estabilizan los casos frágiles de RPA, extraen señales de la retroalimentación en formato libre de clientes y proveedores, y permiten el dashboarding conversacional. También pueden servir como un “digital colleague” entrenado, que impulsa las reuniones hacia la acción y la madurez, siempre que un humano permanezca en el proceso. Por otro lado, importan los límites técnicos: los LLMs de hoy en día no aprenden realmente; operan dentro de parámetros estáticos y ventanas de contexto en constante crecimiento que pueden distraer. El llamado “knowledge flywheel” sigue siendo un problema organizacional disfrazado de uno técnico. RAG ayuda, pero la escala y el filtrado por relevancia aún imponen costos.
Las decisiones políticas tienen consecuencias. Las empresas que intenten prohibir los LLMs descubrirán formas alternativas en dispositivos personales, porque el ahorro de tiempo es demasiado grande para ignorarlo. Barreras sensatas — privacidad, manejo de datos y gasto — superan las prohibiciones generales que incentivan el shadow IT. La transparencia, utilizada juiciosamente, puede mejorar el rendimiento end-to-end; el secreto como reflejo a menudo preserva la disfunción más que la ventaja.
El “GenAI value gap” dice menos sobre la AI que sobre los rituales de compras. Cuando a los ejecutivos les falta “mechanical sympathy” por una tecnología, dan luz verde a pilotos diseñados para “resolver el hambre mundial” y luego declaran el campo como una decepción. La cura no es otra palabra de moda, sino una mejor gobernanza: pruebas de concepto con datos reales, resultados medibles y una narrativa que conecta la disponibilidad con los ingresos y el margen, en lugar de tratar el supply chain como un silo.
A nivel directivo, el caso es simple: el siglo XXI mecaniza el trabajo intelectual de la misma manera que el siglo XX mecanizó el trabajo físico; los competidores que automatizan las tareas administrativas se moverán más rápido y con menos errores. En la planta, el argumento debe ser práctico: herramientas que eliminen el tedio, ofrezcan mejores configuraciones por defecto y hagan que los planificadores sean más efectivos, sin convertir los sistemas en cajas negras.
Los plazos dividen a optimistas y pesimistas. Si los modelos mejoran el manejo del contexto y las organizaciones aprenden a curar el conocimiento, se podrían lograr avances significativos en cinco años; si la cultura y los procesos se retrasan, veinte es más realista. De cualquier modo, el status quo—muros de dashboards, tedio de hojas de cálculo y procesos de selección de teatro—no sobrevivirá al encuentro con una eficiencia compuesta.
Transcripción Completa
Conor Doherty: El supply chain ha estado lleno de comentarios sobre generative AI durante al menos dos años. Sin embargo, en septiembre de 2025, el tono ha cambiado un poco. Ahora la gente se hace una pregunta ligeramente diferente: ¿qué diferencia ha hecho? Y una pregunta adicional: ¿esa diferencia ha sido positiva o negativa?
Ahora, el invitado de hoy, Knut Alicke, se une a Joannes y a mí en el estudio de París para discutir ese mismo tema. Knut es partner emeritus en McKinsey. Ha enseñado gestión de supply chain durante más de 25 años y, lo que es más impresionante, es realmente bueno con el saxofón.
Antes de entrar en la discusión, ya conocen el procedimiento: si les gusta lo que hacemos en Lokad y desean apoyarnos, sígannos en LinkedIn y suscríbanse al canal de YouTube. Y con esto, les presento la conversación de hoy con Knut Alicke.
Knut, gracias por acompañarnos. Es genial tenerte en el estudio. Creo que es tu tercera aparición en LokadTV.
Knut Alicke: Sí, creo que sí, y la primera vez en que estoy aquí en persona, así que es realmente genial estar aquí. Y de hecho, eres la primera persona en sentarte en el nuevo sofá de Lokad—tú y Joannes estrenándolo, profesionalmente, por supuesto.
Para empezar, Knut, estoy seguro de que mucha gente ya te conoce. Eres partner emeritus en McKinsey; has enseñado supply chain science y gestión de supply chain durante 25 años. Así que mi primera pregunta para abrir la mesa: ¿dónde encuentras también tiempo para tocar el saxofón?
En realidad, volviendo atrás, disfruté mucho tocar el saxofón, y pasé mi tiempo en el ejército en la banda. Ahí fue donde me entusiasmó practicar mucho más que los estudiantes normales. Intento mantener mi nivel; esto consiste en practicar durante la noche o el fin de semana y asegurarme de que siempre tengas una banda que te mantenga ocupado.
Conor Doherty: Solo apunto: tocaste música en el ejército. Así que, de hecho, has vivido varias vidas. ¿Eso influye realmente en la forma en que abordas los negocios y el supply chain?
Knut Alicke: No lo creo. Era demasiado joven para ser influenciado por eso en aquel entonces. Tenía 19 años, y simplemente disfruté de un año de practicar desde la mañana hasta la noche y luego de asistir a conciertos muy agradables en Hamburgo. Ahí es donde disfruté yendo a muchos conciertos de jazz y mejorando.
Conor Doherty: Creo que todos somos aficionados al jazz aquí, pero también somos fanáticos de generative AI, que creo es lo que nos reunió en el estudio. Joannes, llegaré a ti en un momento, pero primero, Knut, expón el contexto. Te plantearé una afirmación y luego una pregunta, y después podrás continuar.
La afirmación es: el supply chain— y diría que el mundo en general— ha estado lleno de comentarios sobre generative AI durante al menos, digamos, dos años. Ha cambiado el panorama del supply chain. Esa es la afirmación. Y la pregunta es: ¿estás de acuerdo con eso? Y de ser así, ¿ha mejorado o empeorado las cosas?
Knut Alicke: Diría que aún no ha cambiado significativamente. Lo que veo es que GenAI cambiará de manera significativa la forma en que gestionamos y operamos los supply chains. Siempre lo comparo con la invención del contenedor de envío: algo que cambió los flujos globales de mercancías, lo hizo más eficiente, más fácil y estandarizado. Veo eso ahora con GenAI; estamos en un punto similar en el tiempo.
Al mismo tiempo, está claramente exagerado en estos días. La gente siempre sobreestima el impacto de una nueva tecnología a corto plazo y lo subestima a largo plazo. Si observas lo que es posible hoy en día con GenAI— todos usamos ChatGPT— y piensas en lo que es posible en supply chain para ayudar a mejorar el rendimiento y facilitar la vida de los planificadores, hay mucho que veremos en los próximos años. Pero también debemos decir que son los primeros días; solo han pasado dos años, y los modelos están mejorando tanto. Cambiará, y estoy seguro de que entraremos en ejemplos más detallados más adelante.
Conor Doherty: Joannes, ¿estás de acuerdo con Knut? ¿Ha sido para mejor o para peor?
Joannes Vermorel: Diría muy claramente que para mejor, pero aún es muy pequeño. Las pequeñas piezas son muy buenas; esas herramientas son extremadamente útiles. En este momento estamos hablando de personas que usan GPT de forma paralela para acelerar algo que habría sido una tarea muy administrativa, y eso es muy bueno.
Los modelos han progresado enormemente. El hecho de tener un contexto más amplio significa que puedes subir documentos bastante largos y decir: “Por favor, encuentra en este acuerdo si hay un término específico para esto y aquello.” En el pasado, revisar un documento de 50 páginas te habría tomado una hora para encontrar si se discute esa parte; aquí puedes hacerlo en medio minuto. Así que realmente es algo muy positivo.
Entonces veremos en el futuro—estoy de acuerdo con tu afirmación sobre el impacto a corto y largo plazo. En este momento, como hemos estado enseñando, una de las cosas que va a ser muy complicada con esta generative AI es que hoy en día los estudiantes pueden literalmente hacer trampa en todas sus tareas. Ya no existe el trabajo casero de los estudiantes; ChatGPT simplemente lo hará. Para un profesor, es casi imposible distinguirlo, salvo diciendo: “Voy a dar una mala calificación a todos los estudiantes que me entreguen una copia sin errores ortográficos,” porque si no hay errores ortográficos, asumiré que fue escrito por ChatGPT.
Tener personas que potencialmente han sido mal educadas por esta brecha puede crear problemas. Pero para las empresas, en términos de generative AI, las que realmente están asumiendo riesgos con estas tecnologías son más como aquellas que se involucran por completo en vibe coding. Ese es el tipo de cosa que ni siquiera ha comenzado en supply chain.
Según tengo entendido, la gente aún utiliza de manera muy superficial. Los pocos usos en los que se aplica, realmente corresponden a frutos al alcance, victorias rápidas, sin duda. Los usos más peligrosos, elaborados y con impacto, hasta donde entiendo, ni siquiera han comenzado.
Knut Alicke: Permítanme comentar sobre esto—un par de ideas. Si comparamos hace 25 años, cuando comenzó internet, había muchas empresas que básicamente bloqueaban internet. A su personal no se le permitía usar internet porque temían que leyesen las noticias y no hicieran su trabajo o se dedicaran a asuntos privados. Hoy en día es normal y está aportando mucho valor.
Muchas grandes empresas ahora también bloquean ChatGPT u otros modelos de lenguaje grandes. Eso es lo peor que se puede hacer. Necesitas asegurarte de educar a tu gente sobre cómo usar estos modelos. Debes proporcionar un ambiente en el que puedan usarlos sin subir secretos, etc. Al final, deseas una organización curiosa que esté aprendiendo y explorando las oportunidades.
Lo mismo con los estudiantes: cuando enseño, les pido a mis alumnos, “Por favor, resuelvan esta pregunta también con ChatGPT, y luego descubran en qué está yendo bien y en qué está yendo mal”, para habilitarlos e incluso animarlos a usarlo. De lo contrario, nunca aprenderemos lo que es posible.
Joannes Vermorel: Creo que las empresas que bloquean los LLMs van a redescubrir lo que ocurrió a principios de los 2000, cuando la gente simplemente se conectaba a internet a través de su dispositivo móvil y una conexión EDGE en ese entonces, solo porque en algún momento se eludía la limitación por lo molesta que era. La gente simplemente haría eso con su teléfono móvil. Si lo bloqueas a nivel corporativo, la gente usará su cuenta personal en su smartphone y lo hará, porque para las tareas administrativas las ganancias de productividad son tan grandes que resistirse es extremadamente difícil.
Es muy difícil justificar nuevamente a alguien que esta persona deba pasar tres horas haciendo algo hiper tedioso cuando existe una herramienta que puede hacerlo en cinco minutos. En cuanto esta persona se sienta moralmente justificada para esa única cosa, la tentación de usarla para todas las demás cosas es muy grande.
Conor Doherty: Esto vuelve a la perspectiva a corto/largo plazo. A corto plazo, Knut, ¿cuáles consideras que son los impactos positivos principales que ha tenido generative AI en el contexto de supply chain?
Knut Alicke: Lo que vemos mucho— y eso ya está funcionando— es que si no entiendes algo, lo utilizas como una Wikipedia muy inteligente. Buscas información y aprendes. Vemos casos en los que tareas muy administrativas y repetitivas pueden abordarse con lo que llamaría una automatización robótica de procesos inteligente. La RPA tenía dificultades cuando los procesos cambiaban un poco; había que reprogramar el proceso. Aquí se observan primeros éxitos.
Si voy un poco más adelante, la visión que tendría para una aplicación GenAI es: los procesos típicos en supply chain están bien definidos—desde un punto de vista algorítmico claramente definidos—pero la realidad cuenta otra historia. La gente encuentra maneras de eludirlo: cambios manuales en los números, falta de confianza, lo que sea. El resultado no es el esperado.
Aquí es donde entra el poder de los modelos de lenguaje: en los datos no ves las razones por las que los procesos no funcionan. Solo ves que forecast accuracy baja. ¿Por qué es así? Porque esa persona cambió los números—y no entiendes por qué. ¿Por qué no tener un “supply chain avatar”, un Joannes digital, dialogando con la persona que cambió el número, y poco a poco descubrir lo que está pasando? La verdadera razón puede ser que no confían en el planificador; quieren servir a sus clientes; en el pasado se produjo un faltante de stock. Luego solucionas esto construyendo confianza o aumentando el inventario. Aquí es donde los modelos pueden agregar mucho valor.
Conor Doherty: Eso es casi como una herramienta para mejorar un proceso indirectamente—una interacción discursiva: “¿Por qué hiciste eso?” Joannes, ¿hay otros ejemplos de integrar LLMs de modo que cambien un proceso en gran parte sin supervisión?
Joannes Vermorel: Sí. Por ejemplo, si piensas en la calidad del servicio: muchas empresas tienen diversas variantes del Net Promoter Score. Encuestan a su clientela una vez a la semana, una vez al mes; B2C podría tomar una muestra. La manera tradicional son preguntas de opción múltiple—muy poca resolución. ¿Por qué haces eso? Porque si lo haces de otra forma, terminas con entre 200 y 500 respuestas de formato libre y es difícil hacer algo con ello.
Con los LLMs, de repente no tienes que forzar a tu clientela a darte retroalimentación según tus categorías preestablecidas. Quizás el cliente se queje de algo de lo que ni siquiera te habías dado cuenta que era un problema: “Recibí un dispositivo con un enchufe americano en lugar de uno británico. Lo solucioné, pero fue molesto.” Tu lista de verificación “¿El producto estaba dañado? Sí/No?” dice que no—pero sigue siendo un problema.
Tradicionalmente, cualquier cosa en formato libre era un fastidio. Lo mismo ocurre con los proveedores. Con los LLMs, puedes imaginar sistemas en los que los socios dan información en formato libre y los LLMs la procesan en estadísticas sin supuestos rígidos que encasillen el problema en categorías ordenadas. Eso te permite repensar un proceso de manera bastante profunda.
Knut Alicke: Para profundizar en esto, todo lo relacionado con la creación de dashboards. Cuando implementas un nuevo sistema, gran parte del tiempo se dedica a definir lo que quieres ver, y luego se codifica de forma fija. Todos tienen nuevas ideas. Imagina un mundo en el que hablas con tu sistema—tu LLM—y dices, “Quiero ver esto y aquello. Por favor, resalta esto en el eje x, aquello en el eje y,” y luego lo ves. Si te gusta, se estandariza; si no, lo refinas.
La interfaz de usuario será una interfaz de lenguaje natural en la que encuentres lo que necesitas. Además, el sistema debería proporcionar cosas que pasaste por alto. Pides un KPI y otro, pero olvidas el nivel de servicio—súper importante. Entonces este Joannes digital podría decir, “Interesante que te fijes en estos dos, pero, ¿también revisaste el servicio? ¿Viste cómo se correlaciona el servicio con el inventario? ¿Hay algo en gestación?”
Joannes Vermorel: En Lokad, estamos abordando el mismo problema pero de una manera muy diferente. El problema típico con los dashboards es que, muy rápidamente en entornos empresariales, tenemos muros de métricas—toneladas de números. El problema se convierte en: ¿a qué me estoy mirando exactamente?
Toma lead time medido en días. ¿Son días hábiles o días calendario? ¿Eliminamos los valores atípicos? Si algo nunca se entregó, ¿se cuenta como infinito? ¿Como mil? Existen toneladas de convenciones. Nuestro enfoque no es la composición dinámica de un dashboard, sino generar documentación extremadamente detallada sobre la marcha haciendo que el LLM examine todo el código que condujo a este número y compile en English lo que importa. ¿Cuál es el alcance? ¿Qué filtramos? ¿Cuán lejos en el pasado?
Nos ahogamos en dashboards y números, y la semántica es complicada. Esa es la batalla que estamos librando.
Knut Alicke: Permíteme aportar otra idea que exploré con un cliente: en lean manufacturing conocemos los Cinco Porqués—o todo aquel que cría niños conoce los Cinco Porqués. Preguntas por qué algo está sucediendo, y vuelves a preguntar por qué, hasta llegar a la causa raíz. Eso es súper poderoso. A partir de tus muros de KPIs: si algo falla, utiliza el LLM para profundizar más y más hasta encontrar realmente la razón y dónde cambiar un parámetro—el inventario, por ejemplo—para mejorar el rendimiento.
Joannes Vermorel: Absolutamente. De nuevo, la forma en que la gente suele percibir cualquier tecnología nueva, especialmente la IA, es como una herramienta para usar. Pero la forma en que hablas de ella, Knut, la enmarca como un colega con el que interactúas—un miembro digital del equipo.
Conor Doherty: ¿Sería esa una descripción justa?
Knut Alicke: Sí, lo es. Pensemos en contratar a un nuevo colega recién salido de la universidad. Él o ella llega y es entrenado; tenemos un mentor, un coach. El nuevo colega primero realiza tareas simples, luego tareas más complicadas. Al principio podría decidir comprar cosas por 10 euros; con el tiempo, son 100,000 euros. Desarrollamos a este colega. Nadie espera que un recién llegado lo sepa todo.
Curiosamente, cuando implementamos una herramienta de planificación, el planificador espera que la herramienta haga magia y lo sepa todo. ¿Por qué no tener un bot GenAI como un colega digital? También necesitamos entrenarlo: contexto del negocio, detalles sobre cierto cliente que siempre se queja, que no seguimos “loudest shout first serve,” y demás. Entrenamos el modelo para entender nuestro contexto específico.
El modelo llega con una velocidad enorme—la capacidad de manejar y analizar datos de forma imposible para los humanos. Si combinamos eso con conocimiento específico, tenemos un verdadero colega digital. Preveo un futuro en el que personas de negocio experimentadas hablen con este modelo como si fuera un colega y mejoren significativamente la calidad de sus decisiones. No necesitan hacer las tareas aburridas—copiar y pegar en Excel—y se les presenta: “¿Has pensado en esto? ¿Revisaste aquello?” Luego, combinándolo con su experiencia, llegan a una decisión mucho mejor.
Conor Doherty: Me gusta la metáfora—o mejor dicho, el símil. Si tomas el ejemplo de un mentor: no eliges a cualquiera. Se requiere un conjunto de habilidades para enseñar de manera efectiva. ¿Cuáles son las habilidades importantes para que ese mentor entrene a un LLM? ¿Tienes que ser un programador experto o un científico informático?
Knut Alicke: Debes ser abierto, curioso, transparente. Un buen mentor no solo entrena, sino que también está abierto a recibir retroalimentación—un dar y recibir. Empecé a entrenar una copia digital de mí mismo—un Knut digital. En algún momento estaba muy frustrado porque sentía, “Este Knut digital no sabe nada. No me conoce.” Luego me di cuenta: si ese fuera un colega real, yo también estaría frustrado pero continuaría entrenando y desarrollándolo. Con un colega digital, mi yo digital también necesita desarrollarse. Lo mismo.
Joannes Vermorel: Aquí estamos tocando una limitación profunda de GenAI: en este momento los LLMs no están aprendiendo nada. Técnicamente, lo que tienes es un modelo preentrenado—inyectas una fracción considerable de internet, Wikipedia y más, en el entrenamiento, y obtienes un modelo estático. Los parámetros no cambian. ChatGPT no tiene memoria alguna; es sin estado. Lo único que puedes ajustar es el contexto.
Afortunadamente, durante el último año los contextos han crecido enormemente. El modelo más reciente—por ejemplo, GPT-5 a nivel de API—estamos hablando de una ventana de contexto de 400,000 tokens. Es enorme. No puedes utilizarlo todo para entradas; puedes usar, en lo que recuerdo, algo como 270,000 tokens como entradas; el resto se utiliza para el razonamiento porque necesitas espacio para ello.
Pero lo complicado del paradigma actual es que tenemos modelos que poseen una especie de inteligencia cristalizada, pero es estática. Puedes proporcionar más contexto, pero la cosa no puede volverse realmente más inteligente; se mantiene tan inteligente como en el primer día. Puedes enriquecer el contexto.
¿Quién va a mantener ese contexto? En términos técnicos, se habla de un volante de conocimiento. ¿Quién lo mantiene? ¿Es el mismo LLM el que mantiene el volante—añadiendo o eliminando pepitas de información de su propio banco de conocimiento? ChatGPT hace eso si se lo permites—registrará pepitas sobre ti y las reinyectará. Pero agregar demasiadas cosas en el contexto se convierte en una distracción. Puedes añadir cientos de páginas de contexto, pero el LLM, para responder cualquier pregunta, tiene que cargar ese contexto, y eso puede empeorar el rendimiento con trivialidades irrelevantes.
Entonces, para tener a un agente LLM como un verdadero colega, tienes una superinteligencia en algunos aspectos y en otros es extremadamente tonto porque no puede aprender nada jamás—al menos en el paradigma actual.
Conor Doherty: Incluso tomando ambas afirmaciones al pie de la letra, aún hay tareas que podrías confiar a este colega digital y otras que mantendrías en manos humanas. Knut, primero: ¿qué tareas te sentirías cómodo delegando rápidamente a un colega digital, y cuáles mantendrías a cargo de personas?
Knut Alicke: No estoy seguro de que delegaría algo al 100%. Aún tendría al humano en el circuito—eso es súper importante. Por ejemplo: cuando hacemos diagnósticos, recopilas datos, haces análisis; en supply chain luego entrevistas a personas para entender el forecast, la revisión de la demanda, S&OP, y así sucesivamente. Eso no necesariamente revela toda la verdad. Es como un Gemba walk en manufactura: en una sala de reuniones, explican el proceso bonito y reluciente; en el piso de producción, se ve diferente.
Aquí veo que GenAI aporta mucho valor al observar el proceso. Imagina una reunión de revisión de demanda. A menudo, la presentación no está bien preparada, la agenda no se sigue, no se definen acciones. Muchas personas se conectan con el video apagado, el micrófono apagado, sin contribuir; solo unas pocas hablan. Si tienes a tu bot GenAI escuchando y proporcionando retroalimentación al facilitador—“Haz esto, aquí algo está mal”—, también puedes paralelizar esto masivamente. Si tienes 200 planificadores de demanda, puedes entrenar a los 200: “Miren, aquí podrían hacerlo mejor o de forma diferente.” Así es como entrenas a las personas.
Donde vemos aplicaciones hoy: compras. Los agentes ya pueden aportar valor en el gasto de long tail donde tienes muchas categorías o productos pequeños que nunca se revisan adecuadamente debido al tiempo y la falta de personas. Que un agente realice el análisis, haga comparaciones y desencadene una renegociación de precios—esto puede aportar valor como una fruta madura de bajo rendimiento hoy. Es posible de manera relativamente no supervisada con un bajo presupuesto para el long tail; no harías eso para artículos de alto valor, pero para el long tail empieza, y luego pasas a otras categorías.
Conor Doherty: El ejemplo que describiste—tu bot de IA supervisando reuniones—en el aire, explicaste un experimento simulando exactamente eso. ¿Puedes explicar eso de nuevo?
Knut Alicke: Creé un conjunto de datos sintético—una empresa sintética—para experimentar con datos similares a los reales. Realicé análisis: “¿Qué está pasando con este forecast? ¿Puedes hacer un forecast también? ¿Qué sucede con la fijación de precios? ¿Correlación con las promociones?” Luego también creé entradas manuales: tomé a dos planificadores de demanda. Uno estaba aumentando el forecast; el otro estaba mejorando el forecast. El KPI clásico, forecast value add, para el primero fue muy malo; para el segundo, bueno.
Luego hablé con ChatGPT en modo de voz y afirmé que era el planificador de demanda número uno porque quería entender cómo reaccionaría el modelo. El modelo tenía todo el contexto sobre la empresa, SKUs, clientes, fluctuaciones, el sesgo positivo del primer planificador. Me quejé de que la gente de supply chain no me entendía, que la gente de producción nunca entregaba lo que yo quería, y por eso necesito aumentar el forecast. Exageré un poco, pero reflejé la realidad.
Lo que ocurrió fue interesante: el bot escuchó y poco a poco comenzó a recomendar qué hacer de manera diferente. No dijo de inmediato, “Tu forecast es estúpido; siempre estás aumentando en un 30%.” Comenzó de forma lenta y cuidadosa con sugerencias, consejos y trucos.
Otro experimento: creé 20 transcripciones de una reunión de revisión de demanda—inventadas, con problemas como micrófono apagado, video apagado, falta de contribución. Entrené al modelo explicándole cómo vería una reunión de revisión de demanda de primer nivel, qué debería incluir y qué no, problemas típicos. Luego le pedí que evaluara qué estaba fallando y definí un modelo de madurez, desde muy básico hasta de primer nivel. Le pedí al modelo que calificara la madurez de la transcripción. La calificación fue muy buena; los hallazgos fueron consistentes—probablemente los mismos hallazgos que yo habría obtenido, porque entrené al modelo.
Si ahora imaginas un bot escuchando reuniones reales y reflexionando sobre lo que oyó, eso crea un gran impulso en la eficiencia. Imagina a 20 personas conectadas y 15 con video apagado, micrófono apagado—no necesitan conectarse. ¿Qué puedes hacer con el tiempo ahorrado? Hay mucho por mejorar. No solo estás haciendo un diagnóstico; como ya tienes el contexto, puedes pasar inmediatamente a la mejora continua.
Joannes Vermorel: Creo que, de alguna forma, un futuro así se hará realidad. Ya sea con el paradigma actual de los LLM, el principal problema es el dato o el volante de conocimiento: el LLM no puede aprender, por lo que debe decidir cómo dividir fragmentos de conocimiento y almacenarlos para un uso posterior. Ese problema no está resuelto adecuadamente. Mañana podríamos considerar un descendiente o una teoría alternativa a los LLM donde el aprendizaje sea inherente.
Volviendo al caso: tener una escucha pasiva en toda la empresa, autoarchivando y organizando—ideas que se intercambian, automatización que actualiza tu biblioteca de conocimientos y entendimiento para el mapa mental actual de la empresa—eso tendría un valor gigantesco.
En este momento tenemos aproximaciones: grabar dos horas de reuniones y producir notas de reunión muy limpias. Eso es útil; ahorra tiempo. Pero no es algo que luego puedas invocar fácilmente. El LLM tendría que volver a escanear todo para encontrar si se discutió un punto específico. A menos que se lo pidas, no establecerá por sí solo conexiones entre “esto se discutió” y “esto también se discutió en dos reuniones diferentes; tenemos contradicciones.”
Nos falta aprendizaje. Está ausente. No hay momentos de “aha” para el modelo. Procesa la ventana de contexto de forma lineal con una inteligencia estática y rígida que es extremadamente capaz de maneras muy inhumanas—pero el aprendizaje es muy profundo y presenta limitaciones.
Una cosa que es extraña: en cuanto a la gestión de datos, sospecho que los modelos mejorarán automáticamente sin importar la tecnología, porque van a ingerir más ejemplos. Si le pides a ChatGPT ahora que componga un prompt, es mucho mejor que hace dos años. ¿Por qué? No porque la tecnología central haya evolucionado en ese frente, sino porque ahora hay toneladas de ejemplos en la web de buenos prompts retroalimentados al modelo. Cientos de miles de personas publicaron consejos y trucos; ChatGPT los reintegra como parte del entrenamiento.
Así que para la gestión del conocimiento: si suficientes personas publican consejos sobre lo que cuenta como buenos fragmentos de conocimiento, estas herramientas mejorarán porque integran muchas heurísticas.
Knut Alicke: Basándome en tu ejemplo de notas de reuniones— no esperaría que el bot supiera todo. Por eso, volviendo a la idea de la tripulación digital— digital Joannes o digital Conor o digital Knut— empiezas siendo un humano en el proceso. Tienes la transcripción; marcas, “Esto sale mal, esto sale mal.” Construyes el contexto cada vez más. Después de hacer esto diez veces, el modelo ya puede detectar el 80% de las cosas. Ese es el clásico 80/20. En mi experiencia durante 25 años, el 80% siempre es lo mismo; puedes entrenarlo. Luego tienes casos especiales donde añades contexto adicional.
Estoy de acuerdo en que no expulsa, por ejemplo, “¿Necesitamos realmente esta reunión de revisión de demanda?” Eso no sería un resultado. Pero para mejorar la estructura y los resultados—y con esto, una supply chain de mejor desempeño—esto será posible pronto.
Joannes Vermorel: En Lokad, parte de los prompts que ahora incluimos cuando resumimos reuniones de planificación: añadimos pistas como, “Cada vez que se mencione una fecha o un precio en dólares o euros, aislarlo y verificar si hay una llamada a la acción asociada a la fecha.” Lo hacemos en dos pases para crear un memo de alta calidad: escanear la discusión, pausar en las fechas, capturar las llamadas a la acción; lo mismo para las cantidades financieras—¿cuáles son las apuestas? Damos al LLM, como parte del prompt, consejos para identificar las cosas verdaderamente útiles.
Esa es la receta de Lokad. Ahora imagina que Lokad lo publica en la web, y cientos de miles de personas también publican sus consejos. “Para estas reuniones, aquí está la lista de elementos para obtener un resumen muy efectivo.” Por eso digo que las ruedas de conocimiento progresarán porque la gente publica consejos y trucos.
Pero el problema central no resuelto es cómo gestionar el conocimiento a gran escala. La aproximación más cercana es RAG (Retrieval-Augmented Generation), pero sigue siendo rudimentario y no escala muy bien. En una gran empresa rápidamente se excede la capacidad del LLM. Incluso si no superas la ventana de tokens—ahora muy larga—si incorporas cientos de páginas de cosas casi irrelevantes, no obtienes un rendimiento muy bueno. Necesitas algo mejor.
Hay formas de reparar la situación con cinta adhesiva: escaneos lineales, multipasos. Primer pase para eliminar lo irrelevante—pero todo eso es cinta adhesiva alrededor del hecho de que el aprendizaje es ciudadano de segunda clase en el paradigma actual.
Conor Doherty: Volviendo al lado humano: algunas personas son encantadoras para conversar fuera de cámara, pero si les colocas una cámara y un micrófono frente a ellas y saben que están siendo grabadas, se ponen tímidas. Cambia la disposición a comprometerse porque hay un registro permanente. Aplica eso a una reunión de planificación de demanda donde la gente sabe que hay una herramienta de IA escuchando, grabando, analizando, archivando y posiblemente determinando métricas de rendimiento. ¿Ves que eso sea un problema para el compromiso y la participación?
Knut Alicke: Para la primera reunión, sí. Para la segunda reunión, la mitad. Luego disminuye. En lean, con el Gemba walk, cuando observas el ensamblaje, la primera observación muestra a las personas intentando hacerlo todo de la mejor manera. Vuelves al día siguiente, y al siguiente—el apego al proceso disminuye y vuelven a sus hábitos normales. El quinto día muestra más problemas.
Como consultor que se conecta a estas reuniones, la primera reunión transcurre relativamente bien; luego te reconectas y reconectas, y la gente se da cuenta, “Oh, eso es normal,” y ves lo que está pasando. Lo que aún no está claro es cómo convencer a la gente de que este bot no lo está haciendo mal.
Una forma podría ser crear un avatar de supply chain—eres un hombre atractivo, así que se parecería a ti—y luego la gente genera confianza y comienza a hablar con el avatar de manera normal. Aún habrá personas que no acepten hablar; eso sería su pérdida.
Conor Doherty: Sobre las barreras de seguridad—incorporar tecnología pero asegurando la seguridad y la protección. Un ejemplo fundamental son las reuniones con clientes, planificadores de demanda, diagnósticos: se discute mucha información sensible—números, fechas, valores. La gente podría tener preocupaciones sobre la seguridad y las barreras.
Joannes Vermorel: Absolutamente. Una de las cosas que enseñé a mis estudiantes de informática hace casi 20 años, cuando el email aún era algo nuevo: trata cada email como si fuera a hacerse público para siempre. Una vez que envías un email, no tienes control. Puede ser reenviado. Yo decía, “Asume que todos tus emails se volcarán en Usenet”—en ese momento, el equivalente a Reddit—y por lo tanto escribe en consecuencia.
Estamos entrando en un mundo muy extraño donde será muy difícil en los próximos 20 años resistirse a las herramientas de escucha pasiva que graban todo. Puedo ver tantas mejoras en la productividad; será difícil resistirse. Una empresa lo adoptará y se dará cuenta de que está ahorrando mucho tiempo. Hablamos de 20 años, no de dos.
Los emails tal como los practicamos hoy se sentirían extraños para la gente de los años 70. La idea de que una conversación privada siempre está en riesgo de ser enviada a la prensa nacional habría sonado a locura. La idea de que un email que escribiste fue reenviado a docenas de personas ocurre todo el tiempo. La gente no siente que tengas que pedir permiso para reenviar un email. Una carta postal era privada; reenviarla a un tercero no estaba bien.
Knut Alicke: Volviendo a la capacitación: asegúrate de que la gente sepa qué debe compartirse y qué no. Otro ejemplo de nuestro libro: un colaborador contó la historia de que en su proceso de S&OP quería invitar a los tres proveedores más importantes. Todos se quejaron, “No podemos; ellos sabrán nuestro plan de producción.” Él dijo, “Eso es exactamente lo que quiero compartir, para que puedan prepararse.” Son los tres más importantes, no miles.
Con la transparencia, se puede mejorar. A menudo hay temor: “Si ellos saben lo que hacemos…” Sí, pero si ellos saben, pueden prepararse mejor y la supply chain general es mejor. Lo mismo con estos modelos—pero claramente, si hay un secreto real, no quieres que esté en la prensa a la mañana siguiente.
Joannes Vermorel: Mi opinión es que cambia la organización. Por ejemplo, la generación de mis padres que trabajaba en Procter & Gamble: tenían una estructura internamente casi militar; la jerarquía era extremadamente estricta; la privacidad y el secreto eran primordiales; la información se distribuía según la necesidad de saber. Esto ha evolucionado enormemente. Procter & Gamble hoy en día no es nada parecido a hace 50 años.
Esta tecnología desplazará el mercado hacia empresas que digan, “Si todo es público, tenemos poco que ocultar porque nuestra ventaja competitiva no proviene de eso.” Sí, a veces mantener las cartas cerca del pecho sería una ventaja, pero puedes tener un negocio donde los secretos no son importantes. Desplazará a las empresas más hacia esta dirección.
Será difícil asegurar verdaderamente estas herramientas. Por ejemplo, cuando audito startups tecnológicas, lo hago sin ningún dispositivo—solo con bolígrafo, papel, cuaderno—así que no voy a filtrar nada accidentalmente. Todo es analógico; filtrar los datos significa robar mi cuaderno, y tengo una escritura muy ilegible, por lo que está semi-ofuscado además.
En general, con los emails las empresas han adoptado más apertura; no pueden operar fácilmente con secretos como hace 50 años. Ahora cualquiera puede grabar un video y subirlo a TikTok; eso crea complicaciones. Si hay cosas que el público no debería ver, tal vez no deberíamos tenerlas, porque alguien subirá un video: condiciones de trabajo, una cocina sucia. Esta tecnología lo impulsará aún más, complicando cuál es tu ventaja competitiva en un mundo con muy pocos secretos. Esa es una conversación continua a lo largo de 20 años, porque estas tecnologías tomarán tiempo para desplegarse.
Conor Doherty: Las barreras son multifacéticas: seguridad y gasto. Algunos argumentan que la IA generativa ha transformado la supply chain para peor, señalando la “brecha de valor de la IA generativa”—enormes inversiones con poco retorno; el purgatorio de pilotos. En ambas perspectivas, ¿eso colorea tu percepción del impacto transformador de GenAI?
Knut Alicke: Como se discutió anteriormente, aún no estamos allí. Todavía estamos en la fase inicial. Escuché a un colega inteligente decir: cuando hagas un piloto, pregunta al CEO o al líder de la unidad de negocio si usa ChatGPT a diario. Con esto, saben lo que es posible y lo que no lo es. Me pareció sumamente intrigante.
Si el jefe tiene una idea de lo que es posible, entonces o bien no hay piloto porque es demasiado pronto, o el piloto se configura con el alcance y las expectativas correctas. De lo contrario, los pilotos se configuran para resolver el hambre mundial y solo pueden fallar.
Mucha gente aún se confunde y mezcla GenAI con IA y digital y algoritmos. Parece que es la nueva palabra para usar siempre, y luego todo lo que haces es ahora GenAI—eso no es cierto. Redúcelo a donde pueda aportar valor y a lo que es posible; entonces veremos impacto en los próximos dos años.
Otro pensamiento: muy a menudo la idea de impacto es demasiado local. En la supply chain, el mayor impacto del trabajo adecuado sigue siendo la disponibilidad. La disponibilidad implica mayor margen, mayores ingresos. Aún mucha gente percibe la supply chain solo como costos e inventario. Integra todo de extremo a extremo, analiza tu impacto, y entonces verás un impulso en el rendimiento global.
Joannes Vermorel: Creo que es un reemplazo perfecto para blockchain. Hablando más seriamente: como todas las palabras de moda, generalmente hay algún detalle tecnológico que es genuino. Pero siendo parte del mundo de los proveedores de software empresariales, los procesos de compra de software para empresas grandes son desastrosos. Se desperdicia mucho dinero. GenAI resulta ser en lo que se desperdicia el dinero. Si no tuviéramos GenAI, el dinero se desperdiciaría en otra palabra de moda.
La causalidad no es “GenAI crea el desperdicio.” La causalidad es “el proceso de compra es disfuncional; por ende, se desperdicia dinero,” y el desperdicio recae en la palabra de moda del día. Hace dos o tres años era blockchain; hace cinco años big data; hace 10 años data mining.
Tu punto sobre el jefe jugando con ChatGPT: la clave es la simpatía mecánica. ¿Puedes sentir en tu interior lo que la cosa puede y no puede hacer? Lo mismo para blockchain/crypto: ¿alguna vez has comprado Bitcoin, lo has usado? ¿Te das cuenta de cómo funciona? Si no puedes comprender la tecnología, esto no es bueno.
Desafortunadamente, volvemos al proceso desastroso que termina con una RFP de 600 preguntas. Estamos en el extremo receptor y recibimos preguntas como, “¿Es a prueba de fuego la sala que usas para tu archivo de fax?”—una pregunta que recibimos hace un mes.
Knut Alicke: Estoy de acuerdo, y otra observación: el proceso de selección de software es tan extraño. Siempre pregunto a los clientes, “¿Por qué necesitan estas 500 especificaciones?” Todas las compañías de software, por defecto, tacharán cualquier cosa, porque una compañía de software vende una visión, no la realidad. Luego entras en reuniones muy vistosas donde lo prometen todo.
Supongamos que quieres comprar un coche nuevo. ¿Lo compras viendo un video de YouTube de 30 segundos? Probablemente no. Quieres sentarte en el coche, tocarlo, conducirlo. ¿Por qué no haces eso con tu software? ¿Por qué no haces una prueba de concepto en la que demuestres que funciona?
Esto vuelve a la capacidad: la gente necesita entender de forma general qué es lo que contiene. Todos enseñamos, así que necesitamos enseñar una supply chain aún más práctica y llevar esto a la junta directiva. Por eso hicimos nuestro libro “Source to Sold”, para llevar todo eso al nivel de la junta y asegurarnos de que entienden la narrativa—lo que funciona, lo que no, y dónde está el impacto.
Conor Doherty: Para que conste, había anotado “JV—mechanical sympathy.” Sabía que dirías eso. Nos conocemos desde hace ya un tiempo.
Esto nos acerca al final—dos preguntas clave. Una es a nivel de la junta; la otra es para la persona en el terreno. Knut, empieza con la junta: ¿cómo presentas el valor transformador a nivel directivo para convencer, y luego cómo lo presentas a nivel operativo?
Knut Alicke: A nivel de la junta, piensa en el lenguaje que la junta utiliza: visión, crecimiento, margen. Necesitas construir tu historia para respaldar que esta nueva tecnología ayudará a implementar tu visión—a ser mejor para el cliente, para el consumidor, a ser más rentable.
En el piso de producción: todo es cierto de lo que le dijiste a la junta, pero necesitas obtener aceptación de que esto ayuda a las personas en su vida diaria. Si es solo otra herramienta que parece una caja negra, que complica la vida, no funcionará. Debe facilitar la vida y ayudar a las personas a contribuir al rendimiento global.
Si haces el Gemba en un almacén, las personas que recogen siempre tienen 5,000 ideas para mejorar. No es que sean estúpidas o no quieran; saben, pero a menudo no se les pregunta. Lo mismo sucede con los planificadores. Necesitas contar la historia: “Aquí tenemos algo que te ayuda a ser un mejor planificador, facilita tu vida y hace tu trabajo más interesante, porque hay cosas nuevas y geniales por explorar.”
Joannes Vermorel: Presentar a la junta: el siglo XXI es el siglo de la mecanización del trabajo intelectual. El siglo XX fue la mecanización del trabajo físico. Si no mecanizas a tus ejércitos de empleados de oficina—empleados de oficina—tus competidores lo harán. Ellos entregarán más con menos personas y más rápido. Si tienes menos personas, puedes ser más rápido.
Tienes que observar lo que hacen los ejércitos de empleados de oficina. En la planificación de la supply chain, muchas empresas tienen cientos de personas revisando las mismas hojas de cálculo todos los días—decenas de miles de líneas. El mayor desafío es: ¿cuándo serán esos trabajos completamente robotizados? No es “si,” es “cuándo.” Podemos discrepar si será en cinco o 50 años.
Conor Doherty: Esa iba a ser mi última pregunta—gracias.
Joannes Vermorel: Estoy en el lado optimista. Sé que Knut piensa que pasará por un largo período mejorando la vida de esas personas. Pero podemos estar de acuerdo en que el status quo es insatisfactorio. Alguna empresa logrará hacerlo mejor que el status quo.
Para personas más operativas: en Lokad robotizamos, lo cual es una discusión complicada. ¿Estás dispuesto a aceptar algo que hará tu trabajo más desafiante pero también más interesante? La tediosa rutina de las hojas de cálculo es, de alguna manera, un consuelo, pero es increíblemente aburrida.
Si te sientes demasiado cómodo en una tarea extremadamente aburrida, eso no es bueno. Si tienes la voluntad de desafiar y elevar tu trabajo, esta es la oportunidad de tu vida para ser parte de la revolución en la mecanización del trabajo. Formarás parte de las personas que realizan tareas mucho más inteligentes, a un nivel superior a la automatización mundana.
Esta es parte de la visión de Lokad: robotizar la tarea y contar con personas que supervisen la automatización. Existe otro grupo— hacer que las personas sean muchísimo más productivas. Dos perspectivas válidas para romper el status quo de la tediosa rutina de las hojas de cálculo.
Conor Doherty: Knut, es costumbre entregar la reflexión final al invitado. ¿Podrías ampliar tu perspectiva? Joannes parece sugerir que la toma de control por parte de la IA en el proceso de decision-making podría ser más abrupta que tu posición. Para aquellos no familiarizados con tu postura, ¿cómo ves la evolución a corto y mediano plazo?
Knut Alicke: Mi esperanza—permíteme ofrecer dos versiones: la optimista y la pesimista. La optimista: los modelos serán mejores; podrán aprender a través del contexto o de nuevas innovaciones. Con ello, haremos la vida de los planificadores mucho más simple y la calidad de las decisiones mucho mejor, lo que implicará un reto intelectual mucho mayor—lo cual no agradará a todo el mundo. Esto probablemente sucederá en los próximos cinco años.
La pesimista—los pesimistas son optimistas experimentados: mirando atrás 25 años, antes de McKinsey trabajé en una startup desarrollando software de planificación para electrónica de consumo. La calidad del software y de las decisiones que teníamos en aquel entonces fue, en retrospectiva, asombrosa. Aún tengo muchos clientes que ni siquiera se acercan a ese nivel. Con esto en mente, diría que el pesimista afirma que lo lograremos, pero probablemente en 20 años.
Conor Doherty: Así que hemos tenido lo optimista, lo pesimista; lo apocalíptico sería Skynet mañana—la próxima semana—¿sería eso apropiado?
Knut Alicke: Skynet no sucederá—pero de todos modos, no como un evento.
Conor Doherty: Si estás viendo esto en el futuro, envíame un mensaje; házmelo saber. No tengo más preguntas, caballeros. Joannes, gracias por acompañarme. Knut, has sido encantador. Muchas gracias por acompañarnos en el estudio. Y a todos los demás, les digo: regresen al trabajo.