00:00:00 Introducción; Bamboo Rose y alcance del PLM en retail
00:02:21 Problemas del PLM en retail: ciclo de vida, coordinación, escala
00:04:15 La profundidad en aeroespacial versus los catálogos masivos pero superficiales en retail
00:09:45 De silos a procesos adaptativos con contexto compartido
00:12:56 La clasificación tarifaria zero-shot reemplaza el trabajo manual
00:16:42 La GenAI procesa documentos PLM no estructurados a escala
00:21:38 LLMs orquestan; ecosistemas emergentes de agente a agente
00:24:26 Pragmáticas del intercambio de datos; minimizar las responsabilidades de PII
00:28:53 Lógica/UI reducidos; los datos y metadatos se centralizan
00:34:23 La automatización colapsa los flujos de trabajo nacidos de la división del trabajo
00:37:48 Configurar redes de agentes: objetivos, restricciones, permisos
00:44:30 Hacia colecciones auto-generadas e intercambios con proveedores
00:49:55 Impacto de la IA: defender, extender, añadir
00:55:04 La optimización cuant decide; LLMs manejan documentos y comunicaciones
00:59:08 Beneficios: velocidad, exactitud; la automatización de back-office acelera
Resumen
Rupert Schiessl (Chief AI Officer de Bamboo Rose) se une a Joannes Vermorel (CEO de Lokad) y a Conor Doherty (Director de Marketing) para debatir cómo la IA generativa transforma la gestión del ciclo de vida del producto (PLM). Schiessl explica los módulos en silos clásicos del PLM en retail (planificación→distribución) y sostiene que los sistemas basados en IA/agentes pueden disolver silos, adaptar los procesos de forma dinámica y automatizar tareas intensivas en texto y no estructuradas (por ejemplo, clasificación tarifaria, creación de tech-pack). Vermorel contrasta un PLM profundo y de décadas (ej., aeroespacial) con los catálogos masivos pero superficiales del retail, señalando que los LLMs destacan en la orquestación, generación de documentos y en los workflows) de pre/post-decisión, mientras que la optimización cuantitativa sigue gestionando precios y assortment. Ambos prevén que las capas de lógica/UI se reducirán a medida que los datos y metadatos se vuelvan centrales, con ecosistemas de agente a agente emergiendo y grandes porciones del trabajo de back-office automatizadas.
Resumen Extendido
Conor Doherty (Director de Marketing de Lokad) encuadra la conversación en torno a “repensar el PLM en la era de la IA,” pidiéndole al Chief Strategy & AI Officer de Bamboo Rose, Rupert Schiessl, que defina el PLM en retail y cómo la IA lo transforma. Schiessl describe el PLM como la coordinación del recorrido del producto—desde la ideación y el diseño hasta el sourcing y la distribución—a través de miles hasta cientos de miles de artículos y diversos roles (diseñadores, desarrolladores, analistas de sourcing, supply chain). Históricamente, los vendedores descomponían la complejidad en módulos en silos (planificación, diseño, desarrollo, sourcing, órdenes de compra, logística). Eso funcionaba cuando los procesos eran estables, pero la volatilidad reciente (pandemia, cambios en el comercio) hace que los flujos de trabajo rígidos y predefinidos sean frágiles. La IA ofrece una manera de disolver los silos, hacer que los módulos “se comuniquen” y adaptar los procesos de forma dinámica.
Joannes Vermorel (CEO de Lokad) amplía la perspectiva: el PLM varía según el sector. En aeroespacial, cada producto es profundo (terabytes de datos de pruebas y cumplimiento) y de larga duración; en retail, cada producto es superficial, pero los catálogos son vastos y de rápida rotación. El reto del retail es la complejidad del assortment, el multi-sourcing y la agilidad. Vermorel sostiene que los silos limitan la optimización; la IA moderna permite la automatización de decisiones y elimina muchas tareas mundanas que antes requerían ejércitos de coordinadores (por ejemplo, la creación de etiquetas para tiendas bajo estrictos límites de caracteres). Los LLMs no son ideales para la optimización numérica (por ejemplo, precios), pero se destacan en tareas intensivas en texto y como capas de orquestación en torno a otros algoritmos.
Un logro concreto: la clasificación arancelaria (HTS). Schiessl explica que la selección de códigos de arancel a partir de regulaciones extensas y actualizadas con frecuencia se ha hecho de forma manual; con la IA, los modelos asimilan los reglamentos más recientes y realizan una “classificación zero-shot”, reemplazando los flujos de trabajo que antes requerían conjuntos de datos etiquetados y reentrenamiento constante. Vermorel señala que el método zero-shot cambia la economía: se codifican reglas y contexto en lugar de acumular ejemplos. Ganancias similares se aplican a entradas no estructuradas—PDFs de proveedores, archivos de Illustrator/SVG, catálogos y respuestas a RFP—donde la IA puede extraer, conciliar y direccionar la información.
De cara al futuro, tanto Schiessl como Vermorel anticipan ecosistemas de agente a agente: los proveedores exponen agentes con catálogos compartibles; los agentes de los retailers los consultan. Esto promete menos infraestructuras en PDF frágiles, pero plantea cuestiones de gobernanza: ¿qué puede compartir un agente y cómo se evitan filtraciones o errores? Vermorel minimiza el tópico de “los datos como joyas de la corona” para la mayoría de los retailers (los catálogos de productos suelen ser públicos; los datos personales representan una responsabilidad a minimizar), mientras insiste en una higiene de datos rigurosa.
En cuanto a la arquitectura de software, Schiessl plantea una provocación: “La IA mata la capa de lógica.” En la pila clásica—datos (inferior), lógica de negocio (intermedia), UI (superior)—los LLMs ahora pueden generar lógica sensible al contexto y UIs adaptativas a la demanda. El valor se concentra en los datos y metadatos que lo describen; los vendedores deben reforzar los datos, enriquecerlos con capas semánticas/metadatos y permitir que los LLMs/agentes compongan flujos de forma dinámica. Vermorel está de acuerdo, añadiendo que mucha de la “lógica” empresarial simplemente coordina la división del trabajo. Cuando la automatización toma el control, las capas de flujos de trabajo, KPIs y permisos se reducen a indicadores de salud de las automatizaciones. La evolución del anti-spam—de junglas de parámetros a un servicio de fondo invisible—ilustra este colapso.
Prácticamente, Schiessl identifica tres niveles de impacto de la IA: (1) Defender—automatizar los pasos existentes para ganar velocidad y exactitud (por ejemplo, aranceles); (2) Extender—reconfigurar los procesos (conectar diseño↔costeo en tiempo real; fusionar pasos); (3) Añadir—crear nuevas capacidades (por ejemplo, generación casi automática de tech-pack a través de BOMs, cumplimiento y tallas). Vermorel reparte la carga de trabajo del PLM: usar optimización cuantitativa/estocástica para la composición del assortment, y luego desplegar LLMs para generar la documentación extensa y automatizar las interacciones con los proveedores antes y después de las decisiones centrales.
Para los interesados no técnicos, Schiessl posiciona la IA como un alivio sistemático: menos retrasos, mejor disponibilidad y cumplimiento, relaciones mejoradas con los proveedores y ahorros en costos y tiempo—proporcionados paso a paso, no de golpe. La predicción final de Vermorel es contundente: la IA automatizará una gran parte del trabajo de PLM de oficina y administrativo durante la próxima década, especialmente en tareas que simplemente trasladan información entre formatos.
Transcripción completa
Conor Doherty: Bienvenidos de nuevo. Hoy me acompaña en el estudio Rupert Schiessl, quien es el Chief Strategy and AI Officer en Bamboo Rose. Hoy hablará con Joannes y conmigo sobre repensar la gestión del ciclo de vida del producto en la era de la IA. Antes de llegar a eso, ya conocen la consigna: suscríbanse a nuestro canal LokadTV aquí en YouTube y consideren seguirnos en LinkedIn. Recientemente superamos los 25,000 seguidores, y me gustaría alcanzar los 30,000 lo antes posible. Hablando en serio, estamos tratando de construir una comunidad—su apoyo es importante para nosotros. Con eso dicho, les presento la conversación de hoy con Rupert Schiessl.
Conor Doherty: Primera pregunta. En mi introducción te presenté como el Chief Strategy and AI Officer en Bamboo Rose. ¿Quién es Bamboo Rose, y qué haces allí?
Rupert Schiessl: Bamboo Rose es un vendedor de software. Vendemos una solución llamada total PLM, que ayuda a nuestros clientes—principalmente retailers—a gestionar todo el ciclo de vida de los productos, desde la planificación y el diseño hasta la distribución. Eso es lo que Bamboo Rose ha estado haciendo durante 25 años. Lo hacemos para grandes marcas como American Eagle, Urban Outfitters, Wolf, Walmart, etc. Mi papel es incorporar, en un sentido amplio, la IA en todo este stack, porque como discutiremos, la IA está transformando mucho de lo que hacen los vendedores de PLM, pero en general lo que hacen las empresas de software y software-as-a-service.
Existen muchas oportunidades para mejorar las soluciones para nuestros clientes con la IA, con GenAI, con agentes. Ese es mi trabajo: unir el stack existente—todo el conocimiento e inteligencia encapsulados en nuestra solución—con la IA y hacer que nuestro software sea usable con IA.
Conor Doherty: Mencionaste el retail específicamente. Cuando vendes el concepto de gestión del ciclo de vida del producto, ¿cuáles son los problemas que la gente intenta resolver, o cómo les explicas exactamente cuáles son esos problemas?
Rupert Schiessl: Por lo que indica el nombre, se trata de gestionar todo el ciclo de vida de un producto—desde su diseño y creación, e incluso antes, “¿Debería crear un producto?”—hasta el punto de distribución, o incluso el reciclaje o el momento en que los productos se convierten en desecho. En este ciclo ocurren muchas cosas diferentes: muchas personas trabajando juntas, muchos clientes, vendedores y suppliers reuniéndose, y nuestro software tiene la misión de coordinar todo esto. Especialmente para grandes empresas con muchos productos—miles, decenas de miles, o compañías como Walmart, cientos de miles—no se puede hacer eso manualmente con una hoja de Excel.
Por lo tanto, debes crear procesos, organizarlos, establecer derechos de acceso y reunir a todas estas personas—los diseñadores con los desarrolladores de producto, los analistas de sourcing, los managers de supply chain—para que trabajen en conjunto en este proceso complejo de manera coordinada y colaborativa.
Conor Doherty: Joannes, ¿agregarías algo a la definición del planteamiento del problema del PLM en retail?
Joannes Vermorel: Para el retail, tiene mucho sentido presentarlo de esa manera. El PLM es un mercado enorme, y dependiendo del sector puede significar cosas muy diferentes. Por ejemplo, el sector aeroespacial: cada producto es potencialmente un terabyte de información, con miles de experimentos realizados para demostrar que el producto es seguro en todas las condiciones de vuelo posibles. Tienes todos los registros de los experimentos, todas las pruebas, e incluso simulaciones realizadas en computadoras para demostrar que tu diseño es seguro, sólido, cumple con las normativas, y todo lo demás. Esto es extremadamente recursivo: un módulo tiene una lista de submódulos que a su vez pueden tener submódulos, y cada uno cuenta con pruebas de cumplimiento y detalles de ingeniería. Estos elementos tienen una vida extremadamente larga, de décadas.
En el otro extremo del espectro, el desafío es diferente: el conocimiento es relativamente escaso por producto. Para un retailer—incluso Walmart—dudo que para la mayoría de los productos tengan más de unas pocas docenas de páginas de documentación. Quizás algunos recursos multimedia, pero en general es relativamente superficial, y decenas de miles de productos se mantienen en rotación. Así que el desafío no es un producto con un ciclo de vida inmensamente complejo que se extienda por décadas; son decenas de miles de productos rotando rápidamente, y se desea mantener una agilidad extrema. El mismo producto puede ser abastecido por media docena de empresas; puede que desees cambiar de fuente y garantizar la continuidad incluso si continúas obteniendo el producto de otro proveedor.
Mi opinión es que el PLM depende mucho del sector, y el desafío para el retail es gestionar una complejidad de assortment por las nubes—Walmart claramente tiene cientos de miles de productos si observamos su portafolio.
Rupert Schiessl: Estoy totalmente de acuerdo en cuanto al sector. Esa es realmente nuestra aproximación dentro de Bamboo Rose: muy enfocada en el retail, muy fuerte en moda, y cada vez más en alimentos, donde se incorporan muchos ingredientes y restricciones legales, y luego mercancía general. En el ámbito de la moda, no se trata de aeronaútica, pero los productos pueden ser complejos: diferentes tallas, distintos componentes, y productos más complejos como indumentaria, zapatos o productos deportivos pueden volverse bastante complejos y requieren un diseño colaborativo y todos esos diferentes pasos que integramos en nuestro software.
Conor Doherty: Antes de entrar en cómo la IA está revolucionando el PLM, ¿cómo han gestionado históricamente las empresas en retail los problemas que acabas de describir? ¿Qué funcionó con ese enfoque y qué no fue tan bueno?
Rupert Schiessl: Históricamente, la reacción intuitiva ante un proceso complejo es descomponerlo en muchos procesos—lo que se convirtió en silos. Eso es lo que ha ocurrido en el PLM durante los últimos 20–30 años. Dentro del PLM tendrás planificación, diseño, desarrollo, sourcing, órdenes de compra, logística, etc. Así es como la mayoría de los software vendors en el mercado de PLM trabajan hoy en día: módulos diferentes, los clientes compran uno u otro, los módulos funcionan en conjunto y diferentes equipos utilizan los módulos. Lo que funcionó es que este es un muy buen enfoque para procesos complejos porque tienes el proceso predefinido, y una vez que la solución está implementada—a veces con proyectos de despliegue muy largos—funciona muy bien para reproducir el proceso para el que fue diseñada.
Ahora, en los últimos años, con las disruptions en supply chain y demás, los procesos y productos cambian muy a menudo, muy rápidamente. Los productos para los que fue diseñado el software ya no se corresponden con estos procesos, y los productos en silos y predefinidos son difíciles de adaptar o pueden volverse obsoletos porque fueron diseñados para procesos que ya no existen. Esta es una de las mejores oportunidades que vemos en Bamboo Rose: incorporar la IA como solución para adaptar los procesos más rápidamente, romper los silos, lograr que los elementos se comuniquen entre sí, compartir información río arriba y río abajo, y hacer los procesos más flexibles.
Conor Doherty: Joannes, eres un gran fan de los silos en supply chain, ¿verdad?
Joannes Vermorel: Gran fan. Los silos definen los límites de lo que se puede optimizar. Cuando tienes silos, significa que clases enteras de optimización o caminos ni siquiera están abiertos para ti. Si quieres mantener las cosas manejables con un alto grado de división del trabajo entre decenas de personas, de alguna manera necesitas esos silos; la alternativa—todos hablando con todos—no se escala más allá de un equipo de cinco o quizás diez.
Pero con tecnologías más modernas, hay una oportunidad para replantear el soporte para la decisión, la automatización de decisiones o, simplemente, la automatización. Muchos pasos eran extremadamente mundanos pero consumían mucho tiempo, y no había manera de automatizarlos. Con eso me refiero a todo lo relacionado con el texto hasta hace muy poco—como elegir una etiqueta que encajara bien dentro de 80 caracteres para las etiquetas en tiendas. Tenías que elegir cuidadosamente un nombre que se ajustara al límite. No era un valor agregado masivo, pero no había alternativa, y se invertían cientos o miles de horas-hombre al año en un problema mundano. Ahora, mucho de eso ha desaparecido, y la gente puede centrarse en los problemas más estratégicos.
Rupert Schiessl: Tenemos un caso de uso muy similar con nuestros clientes en torno a aranceles—seleccionar el número HTS correcto en los EE.UU. Muchos de nuestros clientes tienen sede en EE.UU. Ese es el número de arancel que se utiliza para importar un producto a los EE.UU.; ese es el sistema global universal que aún existe. Tienen que seleccionar el número correcto basado en las características del producto, y tienen cierta flexibilidad para elegir una tasa arancelaria mejor cuando son posibles diferentes opciones. Hasta hoy, eso era, y aún es, un proceso completamente manual. Ahora la IA puede intervenir, leer las regulaciones más recientes, entender para qué están concebidos los números HTS, y unir todo esto. Hay un proceso básico completo reemplazado gracias a GenAI, lo cual no era posible antes.
Joannes Vermorel: Eso se llama clasificación zero-shot. El término técnico significa que estás construyendo un clasificador de machine learning sin ningún ejemplo previo. Tienes la especificación de la ley compilada y empaquetada como parte del prompt, luego un preprocesamiento razonable para convertir PDFs y cualquier otra fuente que tengas sobre los productos a markdown. Luego tu clasificador—un LLM—opera sin entrenamiento específico.
El concepto es interesante con GenAI: de repente puedes construir clasificadores sin recolectar primero una base de datos de ejemplos, que era lo que se hacía hace cinco años. En aquel entonces, la gente decía, “Usaremos un random forest: primero clasifiquemos manualmente, digamos, 1,000 ejemplos, y luego usemos este clasificador para clasificar el resto.” Pero esos 1,000 ejemplos eran costosos y lentos. La belleza con GenAI es que puedes tener clasificación zero-shot: establecer las reglas y la lógica—que pueden ser vagas y subjetivas—y luego contar con un clasificador medianamente decente que funcione sin datos previos.
Eso desbloquea muchos casos de uso que anteriormente no eran económicamente viables. Podrías construir tu base de datos para mil productos en aranceles, pero los aranceles evolucionan rápidamente, y se convertiría en, “Hagámoslo manualmente de todas formas; es más rápido.” Así que sí, absolutamente.
Conor Doherty: El ejemplo de los aranceles es fácil de comprender porque es inmediato. Pero la lógica subyacente—introducir la IA en el flujo de trabajo—existe independientemente de un enorme evento macro. Si hablamos de maximizar el retorno de una inversión para una decisión, eso es cierto tanto con aranceles fluctuantes como sin ellos. Rupert, ¿cómo explicas la propuesta de valor de introducir la IA en PLM en general?
Rupert Schiessl: Probablemente haya dos clases. Una es el ejemplo de los aranceles: mantenemos el mismo proceso, pero como explicó Joannes, podemos adaptar los datos y trabajar más fácilmente sin recopilar fuentes de datos, porque tenemos modelos preentrenados capaces de entender las fuentes de datos como lo hacen los humanos. Para el caso de uso de aranceles, simplemente subimos el PDF con las 4,000 páginas de regulación—si cambia cada día, solo sube la nueva versión—y el modelo puede leerlo, lo cual ningún humano sería capaz de hacer. Eso es transformador no solo para los aranceles, sino para tantas fuentes de datos no estructuradas: PDFs, imágenes, diseños, actualizados todo el tiempo.
Los diseñadores crean archivos SVG de Adobe Illustrator y los modifican—mover botones en los hombros un poco hacia la izquierda crea una nueva versión que debe ser vista y revisada por un desarrollador de producto. Muchos PDFs llegan de los proveedores cuando responden a RFPs y RFIs; no quieren llenar formularios, quieren enviar la información ya disponible: catálogos, folletos. Hasta hoy, los gerentes de abastecimiento tenían que revisar todo esto. Ahora eso es reemplazable por GenAI.
La segunda transformación es la organización—la forma en que se toman los procesos y las decisiones dentro del software. Ahora somos capaces de adaptarnos dentro de los diferentes silos y módulos a lo que ocurrió antes. Supongamos que un proveedor se declara en quiebra o ya no puede entregar: tienes que adaptar el plan o tu surtido, o adaptar el diseño—tal vez sea un proveedor de botones o de un material específico. Todo este proceso tomaba mucho tiempo; tal vez en la moda simplemente no se hacía porque el ciclo de vida es demasiado corto. Ahora eso es posible con la IA: puedes monitorear la base de datos todo el tiempo, tener procesos que se adapten, replantear automáticamente, recrear un surtido, cambiar precios, cambiar diseños e interconectar el proceso de forma dinámica.
Joannes Vermorel: Los LLM no son muy buenos para llevar a cabo actividades muy estructuradas. Si quieres recorrer una lista de 10,000 productos, necesitas un bucle, y va a ser lento con un LLM. Los LLM son buenos siempre que involucran texto. Por ejemplo, la optimización de precios: un LLM es adecuado para ayudarte a escribir el código para una estrategia de precios, pero no para ingresar características y decir, “Dame el precio.” No es una buena herramienta para eso.
Lo que veo a futuro es agente a agente. Google acaba de lanzar una especificación de protocolo para agente a agente hace unas semanas. La idea es que, así como las empresas exponen un sitio web, podrían exponer públicamente un agente. Lo que alimentas al agente es lo que estés dispuesto a compartir con el mundo en general. Si eres un proveedor, tendrías tu catálogo disponible; este agente podría ser consultado por tus clientes para obtener información, y tú mantienes la base de datos que alimenta al agente. Tus clientes podrían consultar estos agentes—diseñados para otros agentes—eliminando el problema de tener que revisar PDFs y medios no muy adecuados para el procesamiento por LLM. Cada vez que tienes PDFs, primero debes convertirlos a texto; esto elimina capas de obstáculos.
Rupert Schiessl: Eso es definitivamente interesante: el cumplimiento de diferentes redes de agentes de clientes y proveedores. Lo que está muy relacionado—y ya es una pregunta que nos hacen—es: “Soy el proveedor y comparto mis datos contigo, el cliente. ¿Cómo aseguro que no tomarás toda la información? ¿Cómo garantizo que solo tomes lo que quiero compartir?” Eso se convertirá en uno de los problemas más importantes en los próximos años. ¿Cómo podemos controlar lo que los agentes comparten? ¿Cómo podemos asegurarnos de que no cometan errores? Los agentes hablarán con agentes, eso es seguro, pero ¿cómo podemos controlar qué datos salen, especialmente fuera de la empresa? Habrá enormes oportunidades, enormes desafíos y probablemente enormes incidentes en estos campos—con suerte, sin involucrar a ninguna de nuestras compañías.
Joannes Vermorel: Actualmente hay muchos problemas de TI—ransomware, por ejemplo—mucho más críticos y serios. Mi creencia: para la mayoría de las empresas, los datos no son ni de lejos tan críticos como se piensa, a menos que seas ASML con procesos físicos superavanzados, o SpaceX con motores de cohetes—entonces sí tienes activos extremadamente sensibles. Pero el 99% de las empresas tienen muy pocos datos que sean realmente críticos. Los datos que son algo críticos son más como pasivos que activos. Si eres un minorista, probablemente no quieras la información personal de tus clientes; es un pasivo. Si la filtras, es un problema mayor de prensa; no incrementará fundamentalmente tu negocio.
Entonces, el catálogo de productos—cualquiera puede extraerlo del ecommerce. Hay valor en tenerlo internamente bien organizado; no digo lo contrario. Lo que digo es que, si estos datos se comparten un poco demasiado con colegas, no es el fin del mundo. Los datos que no quieres compartir—la información personal de tus clientes—son un pasivo. En Lokad, para casi todos nuestros clientes, nos aseguramos de no tener datos personales en absoluto, porque es un pasivo. Incluso en el caso de que Lokad fuera vulnerado—lo cual nunca ha sucedido pero podría—la idea es que solo tenemos información que no sería dañina desde el punto de vista de relaciones públicas: información comercial, lista de productos, lista de flujos, stock levels. No quieres que tus stock levels se compartan con la competencia, pero si se publicaran en Reddit, no sería el fin del mundo para tu empresa.
Conor Doherty: Puede que no sea el fin del mundo, pero en “The End of Software as We Know It,” ese artículo de LinkedIn que escribiste, Rupert, escribiste que la IA mata la capa lógica. ¿Cuál era el argumento clave que estabas avanzando, y cómo mata la IA la capa lógica de PLM?
Rupert Schiessl: El título es un poco provocador, pero probablemente es lo que está sucediendo. He estado en el mundo del software durante 17 años; como proveedor de software, lo que más nos enorgullece es la lógica y la lógica de negocio que construimos—reproduciendo los procesos de negocio de los clientes de una manera elegante y genérica, de modo que se pueden resolver muchos problemas con un mínimo de código. Además, tienes una interfaz de usuario bellamente diseñada para interactuar con esta lógica. En la base de la pila está la data, interconectada para reflejar los procesos y la lógica de negocio de los clientes que usan el software. Esa era la forma tradicional.
Ahora, como dijo Joannes, los LLM no van a producir algoritmos de precios, optimización o forecast—esos están matemáticamente optimizados—pero sí son capaces de producir código y describir flujos lógicos. Estos algoritmos pueden adaptar la lógica y los procesos predefinidos por los proveedores de software de una manera más dinámica, interactiva y consciente del contexto—basándose en el entorno económico actual, qué proveedor está respondiendo, o qué usuario está utilizando el software. El proceso puede no ser el mismo y puede ser adaptado de forma dinámica por el LLM, sin que un programador anticipe cada proceso. Ese es un cambio importante.
También impacta la interfaz de usuario. Las UIs se diseñaron de una manera sólida y estable, como la lógica, para anticipar casos y requerimientos de los usuarios. Los diseñadores no ven lo mismo que las finanzas. Ahora, con agentes que escriben código y agentes lógicos—estos algoritmos de GenAI—puedes generar la UI dependiendo de lo que salga de la base de datos, cuál es el proceso y quién es la persona que está frente a mí. Juntando todo esto, la lógica está como desapareciendo; las interfaces de usuario están desapareciendo. Lo único que permanece es la data y la lógica de negocio en la data. El valor de la capa de datos aumenta. Tenemos que mejorar las formas en que protegemos estos datos y crear capas de metadata que expliquen nuestra data para que el LLM entienda lo que está sucediendo y la haga accesible para agentes internos y para agentes de otras compañías—clientes y proveedores.
Joannes Vermorel: Si observas los sistemas de registro—software empresarial diseñado para tener un equivalente electrónico de algo en tu empresa: productos y sus ciclos de vida, stock levels, órdenes, etc.—la gran mayoría de la lógica existe para apoyar la división del trabajo. Si logras automatizar, no tienes que gestionar esta división del trabajo. De repente, no necesitas capas de UIs, lógica, flujos de trabajo y demás para algo automatizado. En muchas piezas de software empresarial, la división del trabajo supera el 90% de la lógica.
Creas etapas, flujos de trabajo, supervisión, KPIs, llamadas a la acción, etc. Si puedes automatizar, ¿necesitas esas etapas granulares, flujos de trabajo, KPIs? Todo eso desaparece. Tal vez lo reduzcas a un indicador técnico que diga si tu automatización está funcionando en buenas condiciones—verde o no—y eso es todo. Para entender el efecto de la automatización, piensa en el anti-spam. En los años 90, el software corporativo anti-spam era extremadamente complejo: montones de reglas, supervisión, cientos de parámetros. Hoy en día, ¿qué pasa con tu anti-spam? Nada. Existe, funciona, y no te importa. Hay una carpeta de spam que nunca miras. La lógica desaparece al desbloquear la automatización para cosas que antes no eran posibles.
Sí, con los LLM puedes auto-componer consultas SQL para producir reportes, ahorrando algo de lógica, pero eso es pequeño comparado con eliminar artefactos que solo existían para lidiar con tener muchas personas. Si tienes mucha gente, necesitas administradores con diferentes derechos, gerentes, ámbitos de visibilidad, etc. A los proveedores de software empresarial les encanta introducir características orientadas a muchas personas, pero si eliminas la necesidad de tener mucha gente, la mayor parte de la utilidad de esas características desaparece.
Rupert Schiessl: Lo que también está cambiando es que todo el proceso se vuelve más orientado a la entrada. En lugar de configurar todo el proceso, los flujos de trabajo y las responsabilidades compartidas, estableces límites, restricciones, constricciones y objetivos. Luego, el nuevo tipo de software se autoorganiza—como lo haría una organización humana—con un orquestador y equipos trabajando juntos porque se los indicaste. Eso es necesario en las organizaciones humanas: reglas y jerarquías.
Ese es el movimiento principal: cambiar la forma en que nosotros, los proveedores de software, tenemos que trabajar. Tenemos que construir software que permita a los clientes configurar reglas y organizaciones para estas herramientas de automatización, en lugar de construir todos los procesos.
Conor Doherty: En el artículo, hablaste sobre la IA y que surgirán nuevas reglas o procedimientos orientados a objetivos—que la IA se autoaprenderá. ¿Podrías explicar un poco más?
Rupert Schiessl: En lugar de anticipar cada paso, configuras una organización de diferentes agentes trabajando juntos—herramientas de IA basadas en LLM—describiendo cómo trabajan juntos, quién puede hablar con quién, los límites de lo que pueden hacer, a qué herramientas pueden acceder, ya sean internas o no, sus derechos de usuario y a qué datos pueden acceder. Una vez que eso se configura, los dejas actuar—todavía en tareas muy básicas por el momento, pero volviéndose más complejas—y los dejas trabajar juntos para resolver las tareas u objetivos que estableciste al principio.
Conor Doherty: Contrastamos la visión actual del PLM con el viejo mundo de silos centrados en las personas. ¿Cómo rompes esos silos y te acercas a lo que acabas de describir?
Rupert Schiessl: En Bamboo Rose, tenemos seis elementos—los seis silos que van desde la planificación hasta la distribución—y además aportamos lo que llamamos inteligencia de decisiones. Podríamos llamarlo IA; es la forma en que tomamos decisiones que son compatibles tanto aguas arriba como aguas abajo, tomadas colaborativamente a través de los silos. Dentro de la inteligencia de decisiones permitimos a los clientes configurar reglas y objetivos que desean corregir, y luego los diferentes procesos se ejecutan automáticamente.
Por el momento, estamos haciendo eso en tareas específicas. Hablamos de encontrar el número de tarifa correcto: antes, un proceso con unos pocos pasos integrados; ahora simplemente dices, “Encuentra el número de tarifa correcto para este producto,” y el agente recorre las partes, obtiene la información necesaria, extrae la información legal más reciente, ejecuta el clasificador para consolidarlo, lo valida y lo explica, y luego rellena el campo para el usuario con el número HTS correcto junto con una explicación.
Eso avanza hacia procesos más complejos como la creación de tech-pack—a very important part of PLM: describir técnicamente la lista de materiales y los puntos de medición en la moda y la confección. A veces son 50–100 páginas para un solo producto: todas las restricciones de cumplimiento y legales, algodón orgánico o no, todas las tallas, y luego se envía eso a un proveedor. Hoy, cuando los clientes quieren un nuevo jersey, ya sea que copien de un producto similar y lo adapten—which still takes time—or crean un nuevo producto y parten desde cero. Eso consume mucho tiempo: es necesario producir esas 50–100 páginas de información técnica.
Una red de agentes puede analizar productos recientes—algunos clientes tienen cientos de miles de artículos en la base de datos—encontrar información de productos similares, obtener las restricciones legales más recientes y reunirlo todo para redactar el tech pack. Esa es la automatización de un proceso complejo realizado completa o casi completamente por una red de agentes—por IA. Nuestra Estrella del Norte es: el cliente quiere llevar los productos al mercado y a los centros de distribución. Lo que sucede entre todos los pasos es trabajo que debe hacerse, pero que los clientes delegarían a una IA si fuera posible. La visión final del PLM es: “Generar la colección para el próximo año y llevarla al mercado,” y funciona de manera automatizada. Quizás habrá startups creando el unicornio de un solo empleado—quizás la distribución de moda pueda ser una de esas.
Conor Doherty: Joannes, ¿alguna opinión?
Joannes Vermorel: Para la aplicabilidad, debemos distinguir entre componer una selección—qué prendas, rangos de tallas, colores, patrones, estilos—y la documentación que la acompaña. Los LLMs no son adecuados para componer selecciones: no se puede alimentar a un LLM con un catálogo de 20,000 variantes y esperar un equilibrio significativo de la profundidad del color a través de los tipos de producto. Se necesitan otras clases de algoritmos—optimización clásica o estocástica—para componer la selección en sí. Una vez que se tiene la descripción de alto nivel de la selección ideal, para cada producto comienza el proceso de recopilar requisitos y redactar los documentos. Ahí es donde los LLMs realmente brillan.
Los LLMs son muy buenos para manejar cosas no estructuradas—principalmente texto, y un poco imágenes—pero no para cálculos. Se pueden utilizar para cálculos generando código que luego se ejecuta—en diferentes capas. Así, los LLMs pueden ayudarte a escribir el código para analizar y reequilibrar la selección, y luego ayudar a generar las miles de páginas de documentación entre muchos productos—a huge timesaver. Piensa en una lógica de pre-plantilla muy inteligente que adapta lo fácil de manera predeterminada; luego intervienen los humanos para hacer ajustes donde al modelo le falta información. A veces, poner a disposición del modelo toda la información relevante resulta más costoso que un paso humano, por lo que hay compromisos. Pero para la mayor parte del trabajo y la automatización de la mayor parte del intercambio entre lo que la empresa quiere y lo que el proveedor puede proponer, hay una gran cantidad de papeleo que los LLMs pueden automatizar para que todos estén en la misma sintonía.
Rupert Schiessl: Gracias por la redacción precisa. Los LLMs deben verse como orquestadores de otras herramientas y algoritmos ya existentes. Dentro de Bamboo Rose o dentro de los PLMs existen algoritmos para crear una BOM, analizarla o buscar en ella. Los LLMs no están construidos para eso, pero pueden saber que estos algoritmos existen, decidir cuándo usarlos como herramientas y sacar a la luz información para llevarlo al siguiente paso del proceso.
Conor Doherty: Si empiezo a resumir todas las etapas del PLM, Rupert, ¿dónde ves que la IA—LLMs, generative AI, o cualquier algoritmo—tendrá el impacto positivo más significativo?
Rupert Schiessl: Diría que hay tres niveles. Primero, defensive AI: tomar un proceso y automatizar el mismo proceso con IA, haciéndolo más rápido, más robusto, ahorrando tiempo a los empleados—sin cambiar los procesos generales, solo más rápido, más preciso, y de mayor rendimiento. Segundo, extend: transformar los procesos, adaptarlos dinámicamente como hemos descrito—fusionar procesos y automatizarlos, rediseñar procesos utilizando IA. Es más complejo de configurar, pero aporta más valor.
Tercero, append: crear algo nuevo gracias a la IA—lo que no era posible antes—sobre la base de tu proceso. Las empresas pueden inventar nuevos productos, ofertas, servicios con IA. Se puede pensar de inmediato en la industria farmacéutica: todo su proceso de transformación y creación de productos ahora puede automatizarse, permitiendo la creación de nuevos productos con GenAI en plazos mucho más cortos. Para nosotros en Bamboo Rose, tenemos muchas funciones de automatización en el primer nivel para implementar ahorros inmediatos de tiempo y costos. Tenemos procesos que se pueden fusionar y transformar—la creación de tech-pack es un proceso típico que involucra a varias personas. Otro que hemos implementado recientemente: permitir que los diseñadores de moda tengan acceso inmediato a la estimación de costos. Antes, los diseñadores enviaban a los desarrolladores de producto para obtener el costo, lo recibían de vuelta, hacían cambios, y lo enviaban de nuevo. Ahora estos procesos están conectados, y recalculamos la estimación de costos en función de los cambios en el diseño.
Por supuesto, el último nivel—append—nos permite transformar cómo los clientes diseñan y lanzan productos y tal vez brindarles la posibilidad de crear nuevos productos o mejores servicios.
Conor Doherty: Gracias, Rupert. Joannes, ¿cómo está ayudando la IA a los clientes de Lokad?
Joannes Vermorel: Tenemos un enfoque ligeramente diferente porque la robotización completa de las decisiones de supply chain comenzó hace más de una década para nosotros, y la mayor parte no involucra GenAI en absoluto. Optimización predictiva para flujos de bienes físicos—eso es lo que estamos haciendo: decidir cuándo comprar, a dónde enviar, dónde almacenar, qué producir, dónde despachar y ajustar los precios. Esas decisiones son altamente cuantitativas y han dependido de recetas numéricas durante más de una década. Ya estaban robotizadas sin IA generativa.
GenAI facilita el mantenimiento del código y tareas como limpiar el catálogo de productos cuando las personas no cuentan con un PLM organizado adecuadamente y los datos están un poco desordenados. Pero para nosotros, la automatización completa comenzó hace mucho tiempo. Con GenAI ahora, las cosas antes y después de las decisiones cuantitativas pueden ser automatizadas. Antes: digamos que el MOQ que tienes de un proveedor está desactualizado—quieres información nueva. En el pasado, el proceso era manual: escribir correos electrónicos o usar plantillas para recopilar información, y las respuestas no eran muy claras. Con los LLM, eso se puede automatizar por completo.
Después de que se toma la decisión: supongamos que decides intentar acelerar un pedido ya realizado a un proveedor. Eso significa interactuar con el proveedor y quizás ir y venir—“Sí, podemos, pero hay un costo adicional.” La respuesta no es simple ni binaria. Las interacciones posteriores al proceso con terceros se pueden automatizar con GenAI, incluso si la decisión principal—identificar candidatos para acelerar—no involucra GenAI y es un cálculo muy analítico.
Conor Doherty: Tengo en cuenta el tiempo. Como reflexión final para las personas no técnicas: ¿cómo presentan la propuesta de valor de incorporar la IA en un flujo de trabajo de PLM para que el 100% de los oyentes pueda captar el valor?
Rupert Schiessl: Para nuestros clientes, el proceso de PLM suele ser largo, doloroso en diferentes etapas y no es óptimo. Los clientes pierden oportunidades porque algunos proveedores ya no están y no pueden enviar productos. Existen muchos puntos de dolor a lo largo de todo el recorrido del producto. La IA no resolverá todo mañana, pero es una gran oportunidad para solucionar estos puntos de dolor uno a uno: generar más accuracy, mejor disponibilidad de productos, mejor calidad de productos, mejor cumplimiento de productos y una mejor relación con los proveedores, ya que los minoristas demandarán menos tiempo de los proveedores. Existen beneficios para todas las partes que participan a lo largo de toda la cadena, y de forma más rápida que antes. Todo funcionará de manera más fluida. Tomará tiempo; nuestro trabajo como proveedor de software es llevar esta tecnología a nuestros clientes dentro del stack que ya conocen, lo cual describe cómo se debe gestionar el ciclo de vida del producto. Nuestros clientes se beneficiarán de ahorros en costos, ahorros de tiempo y de una mejor calidad de producto que pueden lograr con nuestro software.
Conor Doherty: Joannes, antes de concluir, ¿algo que agregar?
Joannes Vermorel: La IA se dirige probablemente al 90% de los trabajadores de oficina. Muchas operaciones rutinarias en el PLM serán automatizadas en la próxima década. Si una tarea no aporta un valor añadido significativo — mayormente reorganizar o reordenar información de un formato a otro —, eso se automatizará en las próximas décadas. Esa será una transformación mayor porque, para esas empresas, estamos hablando de hordas de trabajadores de oficina que serán automatizados —por hoy, eso es todo.
Conor Doherty: Bueno, caballeros, no tengo más preguntas. Rupert, muchas gracias por tu tiempo y por acompañarnos en el estudio para esta conversación. Conor Doherty: Y a todos los demás, les digo: vuelvan al trabajo.