00:00:00 Introducción de los participantes del debate y el formato del debate
00:02:56 Comentarios iniciales de Joannes
00:09:53 Comentarios iniciales de Jeff
00:16:56 Réplica de Joannes
00:21:47 Réplica de Jeff
00:26:53 Conclusiones de Joannes
00:28:56 Conclusiones de Jeff
00:31:05 Preguntas de seguimiento
00:48:36 Preguntas del público
01:18:57 Revisión de las perspectivas iniciales y conclusiones

Resumen

En un debate moderado por Conor Doherty, se exploró el tema “¿Es Forecast Value Added (FVA) una best practice o una pérdida de tiempo?” por Jeff Baker y Joannes Vermorel. Jeff Baker, con amplia experiencia en supply chain management, argumentó a favor de FVA, enfatizando su valor cuando se aplica de manera correcta y estructurada, subrayando la importancia de abordar los sesgos y aprovechar las aportaciones de expertos. Por el contrario, Joannes Vermorel, CEO de Lokad, sostuvo que FVA puede ser ineficiente, abogando en cambio por la financial optimization de supply chain decisions con probabilistic forecasts. El debate destacó las perspectivas contrastantes sobre el papel de FVA en supply chain management, proporcionando ideas para mejorar los procesos de toma de decisiones.

Resumen Ampliado

En un reciente debate moderado por Conor Doherty, Director de Comunicación en Lokad y anfitrión del canal de YouTube LokadTV, se examinó a fondo el tema “¿Es Forecast Value Added (FVA) una best practice o una pérdida de tiempo?”. El debate contó con dos figuras prominentes en la industria de supply chain: Jeff Baker y Joannes Vermorel.

Jeff Baker, quien apoya el uso de FVA, es el Fundador y Director General de Libra SCM, Líder del Curso en MITx MicroMasters en SCM, y Editor Asociado de Foresight, la International Journal of Applied Forecasting. Con más de 25 años de experiencia en supply chain management, Jeff frecuentemente habla y escribe sobre Sales and Operations Planning (S&OP) y FVA.

Por el lado opuesto, Joannes Vermorel, CEO y Fundador de Lokad, una empresa de software con sede en París dedicada a la optimización financiera de supply chain decisions, argumentó en contra del uso de FVA. Joannes es bien conocido por sus amplias publicaciones sobre temas de supply chain y sus conferencias y debates públicos regulares con líderes de la industria.

Conor Doherty comenzó el debate presentando el tema y dando a cada participante la oportunidad de presentarse. Tras las presentaciones, cada participante expuso sus puntos de vista sobre FVA.

Jeff Baker argumentó que FVA es una práctica valiosa cuando se aplica correctamente. Enfatizó que los ajustes al forecast deben ser guiados y estructurados. Según Jeff, los ajustes deberían basarse en la dirección del ajuste (ya sea al alza o a la baja), en la previsibilidad inherente de la time series, y en el tamaño de la modificación. Subrayó la importancia de buscar aumentos sustanciales en lugar de hacer pequeños ajustes.

Jeff también destacó la necesidad de contar con inputs estructurados, donde las suposiciones se expongan claramente y se basen en nuevos datos que tal vez aún no han sido modelados. Abogó por un enfoque proactivo para identificar y abordar los sesgos, entender las motivaciones detrás de ellos, y aprender de los errores pasados. Jeff cree que un buen juicio se basa en la experiencia, la cual a su vez se fundamenta en un mal juicio. Al volver a las suposiciones y validarlas, las organizaciones pueden abordar problemas como el exceso de forecast debido a una falta de confianza en el supply chain.

Además, Jeff argumentó que los expertos en ventas y marketing están mejor capacitados para contextualizar la información que los supply chain scientists. Sugerió que los inputs valiosos de estos expertos deberían automatizarse con el tiempo, pero reconoció que no vivimos en un mundo con datos puros infinitos. Por lo tanto, es esencial recolectar los datos correctos de varias fuentes, incluyendo manufactura, ventas y marketing.

Por otro lado, Joannes Vermorel argumentó en contra del uso de FVA. Sostuvo que FVA puede ser una pérdida de tiempo y que no siempre conduce a una mejor toma de decisiones. Joannes enfatizó la importancia de centrarse en la optimización financiera y aprovechar los probabilistic forecasts para tomar automáticamente decisiones de supply chain más informadas. Argumentó que depender excesivamente de FVA podría llevar a ineficiencias y desviar la atención de aspectos más críticos del supply chain management.

El debate incluyó preguntas de seguimiento y un intercambio libre entre los participantes, lo que les permitió profundizar en sus argumentos y abordar los puntos del otro. La discusión concluyó con una sesión de preguntas y respuestas, donde el público tuvo la oportunidad de enviar preguntas en vivo en el chat.

En resumen, el debate destacó las perspectivas divergentes sobre el valor de FVA en supply chain management. Jeff Baker abogó por un enfoque guiado y estructurado a FVA, enfatizando la importancia de aprender de la experiencia y abordar los sesgos. Joannes Vermorel, sin embargo, argumentó que FVA podría ser una pérdida de tiempo y destacó la necesidad de la optimización financiera de supply chain decisions en lugar de las modificaciones de forecast. El debate proporcionó ideas valiosas sobre las complejidades del forecast en supply chain y los diversos enfoques para mejorar la toma de decisiones en este campo.

Transcripción Completa

Conor Doherty: Bienvenidos a la tercera edición de los Debates de Supply Chain de Lokad. Hoy, tengo el placer de presentar un debate muy esperado entre Jeff Baker y Joannes Vermorel. Jeff imparte Supply Chain Dynamics en el MIT Center for Transportation and Logistics y es el fundador y director general de Libra SCM. Mientras tanto, a mi izquierda, Joannes es el fundador y CEO de Lokad. Es un ingeniero por la École Normale Supérieure en Francia y enseñó ingeniería de software allí durante seis años.

Ahora, el tema del debate de hoy es “Forecast Value Added (FVA): ¿Una best practice o una pérdida de tiempo?” Jeff argumentará que FVA es, de hecho, una best practice, mientras que Joannes sostendrá que es una pérdida de tiempo. Ahora, lo más rápido posible, trataré de repasar los parámetros del debate, las indicaciones, para que podamos pasar a lo interesante.

Primero, habrá comentarios iniciales, de un máximo de 7 minutos cada uno. Según lo acordado de antemano, Joannes hablará primero. Luego, cada orador tendrá una réplica de 5 minutos. Esto será seguido por una conclusión de dos minutos de cada orador, momento en el cual plantearé algunas preguntas de seguimiento. Estas preguntas pueden ser enviadas por los espectadores en cualquier momento durante el evento en el chat en vivo.

Ahora, en preparación para el debate, ambos oradores acordaron la siguiente definición: Forecast Value Added (FVA) es una herramienta simple para evaluar el desempeño de cada etapa y colaborador en un proceso de forecast. Su objetivo es eliminar el desperdicio eliminando procesos y actividades de cualquier tipo que no logren aumentar la forecast accuracy o reducir el sesgo.

Esa definición, así como las biografías completas de ambos oradores, se encuentran en un documento de Google abierto que puedes encontrar en la sección de comentarios o en el chat de comentarios de este video. Durante la sección del debate, cronometraré estrictamente a ambos oradores y les recordaré educadamente cuando se les esté acabando el tiempo con un simple carraspeo. Pero recomiendo que cada persona se cronometré para saber cuándo se está acabando el tiempo.

Casi terminamos. Los oradores deben permanecer completamente en silencio durante el turno de cada uno, así que por favor no se interrumpan, al menos no durante la sección cronometrada. Y por último, una autopromoción sin vergüenza: mientras estén aquí, si disfrutan estos debates y les gusta lo que hacemos, les animo a suscribirse al canal de YouTube de Lokad y a seguirnos en LinkedIn. Y con esto, ¿es Forecast Value Added una best practice o una pérdida de tiempo? Joannes, por favor, tus comentarios iniciales.

Joannes Vermorel: Primero, me gustaría agradecer a Jeff por ser tan deportivo y aceptar este debate. En términos simples, FVA es una herramienta para rastrear los aumentos y disminuciones en la accuracy. Ahora, ¿es FVA una best practice? Para que algo sea considerado una best practice, debe, por definición, reflejar el entendimiento de la comunidad sobre cuál es la forma más efectiva de alcanzar un objetivo particular. Sin embargo, el forecast no es un objetivo en sí mismo, ni ocurre en un vacío.

El forecast es una herramienta que usamos para alcanzar un objetivo específico. Algunos pueden argumentar que el objetivo del forecast es lograr una mayor accuracy. Esta es una posición muy controvertida. En mi opinión, el forecast es solo una herramienta más que nos ayuda a tomar mejores decisiones de negocio, es decir, decisiones de negocio que generan más dinero. Entonces, la pregunta es, ¿acerca FVA, midiendo los aumentos o disminuciones en la accuracy, de alcanzar el objetivo de generar más dinero? No estoy convencido, y por ahora, presentaré tres críticas para sustentar mi posición.

Primero, aunque FVA no fue diseñado originalmente para facilitar el collaborative forecasting, FVA sí proporciona, por diseño, un marco para medir el impacto en la accuracy del collaborative forecasting. Esto es importante. FVA no dice que debas usar las best forecasting practices. FVA dice que aquí está el impacto en la accuracy de lo que estés haciendo. ¿Por qué es esto importante? Bueno, ¿cuál es la best practice en la comunidad del forecast?

Desde la década de 1980, Spyros Makridakis ha organizado una serie de competencias de forecasting públicas (las competencias M) para encontrar esas best practices. Desde la M4 en 2018, dichas competencias han demostrado consistentemente la superioridad de los métodos algorítmicos. De hecho, probablemente el mayor experto en capacidades de forecast humano, Philip Tetlock, afirmó que siempre que un algoritmo de forecast esté disponible, este algoritmo debe ser utilizado. ¿La razón? El algoritmo invariablemente ofrece una accuracy superior comparado con el juicio humano. Este algoritmo y, obviamente, el experto que lo utiliza constituyen la best practice.

Entonces, si el collaborative forecasting y las manual overrides no son la best practice, y demostrablemente no lo son, entonces que las compañías las midan con FVA tampoco es best practice y, sostengo, una pérdida de tiempo. Algunos podrían decir, pero Joannes, FVA no aboga explícitamente por el collaborative forecasting o las manual overrides. Está bien, pero así es como se utiliza popularmente, incluso en los escritos de Jeff.

Sin embargo, mi segunda crítica se basa en algo sobre lo que se construye FVA, y eso es la perspectiva de la time series. FVA requiere de forecasts clásicos de time series, también conocidos como point forecasts. Al menos, FVA aboga por usar un naive forecast, simplemente una copia del último valor real como línea base para comparar las manual overrides de forecast. Este no-change forecast es una time series. ¿Pero es la time series una best practice? Nuevamente, no. Los point forecasts no son solo herramientas de forecast incompletas; pueden ser francamente engañosos, por ejemplo, en escenarios de alta varianza. Esto se debe a que los point forecasts no consideran la incertidumbre.

De hecho, la competencia de forecasting M5 incluyó un desafío aparte, el desafío de la incertidumbre, que se centró en las predicciones de quantile, en el que Lokad participó y ganó a nivel de SKU, por cierto. En realidad, ya existe una clase de forecasts mucho mejor, y esos son los probabilistic forecasts. A diferencia de las time series, los probabilistic forecasts no señalan un único futuro posible, por ejemplo, la demanda de la próxima semana. En cambio, se consideran todos los futuros posibles y sus respectivas probabilidades. ¿Por qué es importante? Es importante porque identificar todos los escenarios futuros posibles es esencial para seleccionar la mejor opción posible. Esto es crucial siempre que se involucren riesgos financieros, lo que ocurre todo el tiempo en lo que respecta a los supply chains.

Sin embargo, FVA no es compatible con el probabilistic forecasting. ¿Por qué? Porque el probabilistic forecasting significa analizar distribuciones de probabilidad y no time series. Y seamos realistas, las personas en ventas y marketing no van a editar manualmente distribuciones de probabilidad con o sin FVA. Eso es absolutamente inaceptable. Si las time series no son best practice, y ciertamente no lo son cuando se trata de gestión de riesgos, entonces utilizar FVA para comparar manual overrides de accuracy tampoco es best practice. Sostendría que es una pérdida de tiempo.

Mi tercera crítica es que el forecast value added no mide valor; mide accuracy. ¿Y el accuracy añade valor? No necesariamente. Un forecast más accuracy no añade valor por sí solo. En muchas situaciones reales, un forecast con 90% de accuracy y otro con 60% de accuracy conducen a las mismas decisiones de inventario si existen MOQs u otras restricciones. Si el resultado financiero de la decisión no cambia, entonces medir el incremento en la accuracy no aporta valor al negocio. Por lo tanto, desde una perspectiva empresarial, es absolutamente incorrecto decir que el accuracy por sí solo añade valor. Si fuese el caso, ¿cómo podría entonces concentrarse en la accuracy con FVA ser la best practice? No lo es.

Aunque personalmente no uses FVA para apoyar el collaborative forecasting, otros sí lo hacen. FVA sigue basándose en forecasts de time series, que ignoran la incertidumbre, y en la idea de que un aumento en la accuracy equivale a un aumento en el valor, lo que contradice los entornos empresariales. Todas estas son malas prácticas, y por lo tanto, sostengo que FVA en sí mismo no puede ser best practice. Es, en mi opinión, una pérdida de tiempo. Gracias.

Conor Doherty: Aún te quedan 15 segundos, Joannes.

Joannes Vermorel: Está bien, gracias.

Conor Doherty: Bueno, muchas gracias, Joannes, por tus comentarios iniciales. Jeff, en este momento, te invito a que hagas tus comentarios de apertura.

Jeff Baker: Sí, genial. Gracias, Conor. Gracias, Joannes. Realmente agradezco la oportunidad de participar en esta conversación. Entonces, obviamente, estoy a favor del uso de FVA como una mejor práctica. Esto proviene del hecho de que todas las supply chains necesitan planificar, ¿verdad? Necesitamos tomar decisiones con mucha anticipación, quizás dos o tres meses para establecer un calendario de fabricación, para colaborar con los proveedores, quizás programándolo con seis meses de anticipación. Necesitamos un buen forecast para asegurarnos, ya sabes, de que si tenemos pequeños cambios en la capacidad, quizá en el personal, o tal vez un co-fabricante que queramos incorporar. Así que tenemos que tomar estas decisiones a largo plazo, y terminamos revisándolas.

Tengo un par de citas favoritas en supply chain. Una es, “El plan no es nada, pero planificar lo es todo.” Así que necesitamos tener este plan para situarnos en la posición correcta. Ahora, mi segunda cita favorita en supply chain es de Mike Tyson: “Todo el mundo tiene un plan hasta que le pegan en la cara.” Esto apunta al hecho de que sabemos que vamos a recibir algunos golpes en supply chain. El objetivo es tomar la mejor decisión posible con la mayor probabilidad de éxito en la ejecución. La mejor manera de hacerlo es involucrar a nuestros expertos funcionales. Ventas y marketing tienen conocimientos locales que pueden utilizarse para mejorar el forecast y, por lo tanto, deben incluirse en el proceso de consenso. Involucrar a esos expertos de manera estructurada nos proporciona los mejores datos que necesitamos para tomar mejores decisiones. Y FVA es una herramienta efectiva para medir la efectividad de esos insumos.

Ahora, la salvedad es que, sí, potencialmente podrías abrir la puerta al sesgo, pero desde mi perspectiva, lo que necesitamos hacer es trabajar en corregir ese sesgo, no eliminarlo por completo. Tenemos que ser cross-functional. Hemos estado predicando que la cross-funcionalidad es el camino a seguir desde hace muchos, muchos años. No quiero volver a un silo funcional en el que cada uno es responsable solamente de su propia decisión, y no de sus impactos en los demás. Para hacer esto de la mejor manera, creo que hay que tener ajustes guiados, nuevamente, es donde FVA destaca. Me proporciona esos productos que son de alto valor pero tienen un alto error. Ese es el terreno fértil para buscar mejores insumos allí.

Si tengo un gran impacto que se espera —algún efecto adverso material que se avecina, o también podría ser un efecto positivo— necesitamos poder planificar para ello. Entonces, lo primero es que esos ajustes deben estar guiados. La tesis que hice para mi Maestría decía que debemos observar la dirección del ajuste: ¿sube o baja? ¿Cuál es la forecastabilidad inherente de la serie de tiempo? ¿Cuál es el tamaño del override? Y asegurémonos de que, si vamos a agregar valor, busquemos un aumento sustancial —no solo estar afinando las cosas.

A continuación, está la estructura. No voy a permitir que alguien de ventas o marketing me dé simplemente un número arbitrario. Voy a preguntar: ¿Cuáles son sus supuestos de entrada? ¿Se basa esto en nuevos datos que ni siquiera hemos modelado todavía? Luego profundizaré, preguntando: ¿Es este un escenario optimista? ¿Un escenario pesimista? ¿Cuál es el caso más probable? ¿Qué tendría que suceder? ¿Qué tendría que ser cierto para que este escenario se haga realidad en el futuro? De esa manera, lo que estamos tratando de hacer es erradicar proactivamente las causas del sesgo y comprender las motivaciones detrás de ellas.

Una vez que hacemos eso, entonces sí, el mes siguiente examinamos esos ajustes para decir, “¿Agregó valor o no?” Lo que me gusta decir es que el buen juicio se basa en la experiencia. La experiencia se basa en un mal juicio. Así, aprendemos de nuestros errores. Volvemos a los supuestos, validamos, y podríamos encontrar algo que—oye, ¿sabes qué?—quizás los vendedores están constantemente sobre-forecasting porque no tienen confianza en la supply chain. Eso no es solo sesgo, es un problema de confianza, y podemos empezar a abordarlo.

Además, ellos son los que contextualizan esa información mejor que nosotros. No creo que vayamos a tener un Supply Chain Scientist que sea experto en todas las sutilezas del marketing o en todas las sutilezas del forecasting. Voy a depender de esos expertos, usarlos para que me proporcionen esos datos. Ahora, si con el tiempo encuentro que esos insumos son valiosos, intentaré automatizarlos. No tengo ningún argumento en contra de la automatización para recolectar los datos correctos. Pero el problema es que no vivimos en un mundo con datos puros infinitos. Si existen datos de fabricación, si existen datos de ventas, si existen datos de marketing, a menudo tenemos que salir proactivamente a buscarlos.

Si hacemos bien eso, puede que muchas de estas decisiones las podamos automatizar. Los ajustes no son necesarios solo porque tengamos un proceso FVA en un sistema de forecast. De hecho, el mantra número uno del forecasting debería ser “No hacer daño.” Kraft Heinz, una de las compañías de alimentos y bebidas más grandes de Norteamérica, tiene la métrica “low-touch forecasting percent.” ¿Cómo me aseguro de que no lo toque cada vez? Creo que Deming lo dijo mejor: “No solo hagas algo, quédate parado.” Porque se dio cuenta de que la tendencia natural de alguien es pensar, “Están esperando que haga un input, más vale que haga un input para demostrar que estoy ocupado.” No, esa es totalmente la manera equivocada de verlo.

Al observar la evidencia de que la reducción de errores es valiosa, podemos señalar al Institute for Business Forecasting and Planning. Ellos realizaron una encuesta a ocho compañías de CPG y encontraron que por una reducción del 1% en el error del forecast, las compañías obtienen $1.7 millones en beneficios por cada mil millones de dólares en ingresos, al evitar el costo del forecast. Eso incluye evitar descuentos, transbordos, productos obsoletos, exceso de inventario y el inmovilización de capital de trabajo. Las compañías también reducen el costo de under-forecasting en alrededor de $1 millón por cada mil millones en ingresos, evitando ventas perdidas, multas por llenado de cajas, y costos incrementados de producción o envío acelerado.

IBF ha visto esto en su investigación. Gartner ha encontrado beneficios similares: una reducción del 2 al 7% en inventory value, una disminución del 4 al 9% en el inventario obsoleto, y una reducción del 3 al 9% en el costo de transporte. La magnitud de estos números hace que sea atractivo perseguir vías para mejorar la precisión del forecast, especialmente en áreas donde un artículo tiene alto valor y alto error, o si sabemos de antemano que eventos externos impactarán la supply chain de una manera u otra. Gracias.

Conor Doherty: Bueno, gracias, Jeff. Además, todavía tienes 15 segundos si lo deseas.

Jeff Baker: Tengo 13, pero estoy bien.

Conor Doherty: Correcto. Bueno, Jeff, muchas gracias por tu declaración de apertura. En este momento, procederemos a la réplica. Joannes, 5 minutos cuando estés listo.

Joannes Vermorel: Gracias, Jeff, por tus comentarios de apertura. Creo que argumentas tu posición muy bien, aunque pienso que hay algunos puntos que me gustaría aclarar. No estoy desafiando la intención de que las personas intenten hacer algo bueno para la empresa. Lo que busco es desafiar la realidad del resultado real.

Primero, si creemos que la precisión es lo mejor, algo que vale la pena perseguir, entonces la realidad, como señalé en mi declaración inicial, es que FVA no refleja las mejores prácticas de forecasting. Si una empresa realmente persigue la precisión, entonces, al no realizar esos forecasts colaborativos, obtendrá resultados más precisos. Lamentablemente, eso es lo que se ha demostrado empíricamente.

En segundo lugar, los overrides en sí mismos son una forma muy burocrática de abordar el problema. Tan pronto como implementas un mecanismo —sí, la gente puede decir “do no harm”—, pero si estableces un mecanismo burocrático, se utilizará. FVA implica montar una mini-burocracia o mini-tecnocracia con elementos de software involucrados. Habrá personas verificando si aquellos de ventas y marketing realmente están haciendo las correcciones y todo eso. Y, para mí, allana el camino para algo que generará mucho trabajo burocrático.

Porque la realidad es que, cuando comienzas a observar cómo se ven esos forecasts y ajustes, estamos hablando de decenas de miles de series de tiempo, cada una con como 50 puntos o más, ya sabes, forecast semanal con un año de antelación. Pero eso me lleva a otra crítica, y es que al centrarse en la precisión de forma aislada, creo que FVA desasigna dinero y ciega a las empresas a formas mucho más efectivas en las que las personas podrían contribuir al proceso de forecasting. Y para ser perfectamente claro, nunca he argumentado que los miembros de ventas, marketing y finanzas no pudieran contribuir de manera significativa al proceso de forecasting. Soy perfectamente consciente de que cualquier miembro relevante del personal puede tener valiosa información en su mente, información que podría resultar financieramente beneficiosa para la empresa.

Sin embargo, lo que no comparto es la idea de que las personas deban esperar hasta que se produzca un forecast puntual para luego manipularlo con overrides manuales a fin de aumentar la precisión. Esto, como dije, no son las mejores prácticas de forecasting, y aun así es lo que usualmente se hace con FVA. Sin embargo, existe una manera constructiva de involucrar a la gente en el proceso de forecasting. Consiste en contribuir a los algoritmos de forecasting que generan el forecast y, posteriormente, a los algoritmos que generan las decisiones. En realidad, esto significa asistir al experto en forecasting. En Lokad, este sería un Supply Chain Scientist encargado de escribir y perfeccionar estos algoritmos proporcionando experiencia en el dominio y conocimientos especializados. Esto no significa que todos en ventas y marketing tengan que leer distribuciones de probabilidad y escribir scripts en Python. En cambio, ellos ayudan proporcionando al experto en forecasting los insights accionables que puedan ser útiles, y luego el experto traduce esos insights en líneas de código.

Y finalmente, los algoritmos automatizados se ejecutan y generan el forecast. Al final del día, esos insights son solo piezas de información, y se distribuyen, estoy de acuerdo, por toda la empresa. Sin embargo, el experto en forecasting es la persona que sabe cómo traducir todo esto en un forecast significativo y en un conjunto sensato de decisiones de supply chain. Pueden estar disponibles toneladas de datos excelentes, pero es el experto en forecasting —y solo él— quien debe decidir cómo se deben utilizar esos datos para producir o revisar un forecast. Esta es la mejor práctica respaldada por décadas de resultados experimentales en forecasting. Y, lamentablemente, FVA no tiene cabida en este esquema. Al medir la precisión en lugar de contribuir directamente a la mejora del algoritmo de forecast, lo más amable que se puede decir es que FVA es una distracción. Sin embargo, yo lo llamaría una pérdida de tiempo.

Conor Doherty: Joannes, aún tienes 20 segundos más.

Joannes Vermorel: Estoy bien, gracias.

Conor Doherty: Está bien, gracias. Jeff, en este momento te veo sonriendo. Siéntete libre de responder con tu réplica de cinco minutos.

Jeff Baker: Creo que estabas en silencio, por cierto.

Sí, disculpa. No, es una perspectiva interesante. Quiero reflexionar sobre un par de cosas. Primero, mencionaste la competencia M5 y a Makridakis. Algo que me gustaría señalar es que el 92% de esas personas perdieron frente a un benchmark de un algoritmo de suavizado exponencial muy simple. Así que, hay un argumento a favor de la simplicidad. Creo que hay una diferencia entre las mejores prácticas y la vanguardia. Quiero asegurarme de que tengamos una distinción allí, porque muchas veces lo más simple es en realidad mejor y más aceptable para las personas que lo usan. Desde el punto de vista de la explicabilidad, si estamos en una reunión de S&OP en una revisión de demanda, es mucho más fácil explicar de dónde viene eso y obtener más compromiso al respecto.

La otra cosa que mencionaste sobre las series de tiempo centradas solo en un punto. Es una mejor práctica no solo proporcionar la serie de tiempo, sino también cuáles serán los intervalos de predicción, ¿verdad? Y eso se relaciona con la precisión. Así que, sí, una buena práctica puede ser la serie de tiempo más transmitir a las personas cuáles son los intervalos de predicción alrededor de ella. Estamos de acuerdo en que un forecast puntual es una pieza de información. Un forecast puntual más los intervalos de predicción es más valioso.

Mencionaste que los forecasts probabilísticos no son susceptibles al FVA. Creo que si miras uno de los números recientes de Foresight, verás un artículo de Stefan De Kok sobre forecasting probabilístico y una variante de esto, stochastic value added, que creo apunta al valor de este marco. Soy algo agnóstico respecto a mi forecasting method. Sin embargo, hagas lo que hagas, quiero observar una mejora a medida que agrego diferentes inputs a mi forecast. ¿Cómo lo estoy mejorando? Luego, también asegurarme de que tenemos un uso eficiente y efectivo de nuestros recursos. Ese tradeoff entero entre el costo de la inexactitud y el costo de generar el forecast es algo que se conoce desde 1971. Hay un artículo en Harvard Business Review sobre cómo equilibrar el costo de pasar demasiado tiempo generando un forecast versus la precisión que obtengo. En lenguaje coloquial, ¿vale la pena el esfuerzo? Con base en esos números que obtengo, para una empresa de tamaño razonable, hay muchos beneficios, y puedo permitirme que algunas personas examinen eso.

No creo que el forecasting colaborativo sea burocrático. Creo que necesitas involucrar a esas personas en el proceso para que puedan crear valor agregado a través del sistema. Estos inputs son geniales. Siempre van a ocurrir eventos. Las supply chains no se están volviendo menos complejas; se están volviendo más complejas, más dinámicas, más con el efecto mariposa. Por ello, necesitamos que las personas sean capaces de contextualizar esa información y tomar la mejor decisión en el momento en que la decisión debe ser tomada. Así que, desde esa perspectiva, tiene que ser colaborativo. Si soy colaborativo, siempre estoy trabajando con ventas y marketing. Se vuelve, ya sabes, no estoy abarcando todo; estoy buscando lo que ha cambiado. Si continúo haciendo eso, tengo esa relación. Puedo entonces obtener esos inputs y tener una mejor relación con ellos.

Lo contrario es tener un proceso ad hoc en el que involucro a ventas y marketing a mi discreción cuando quiero. Casi garantizo que la calidad de tus inputs de ventas y marketing se va a disminuir significativamente si no forman parte de un proceso programado regularmente. Lo que siempre oigo de los vendedores es, “Estoy demasiado ocupado vendiendo, déjame en paz.” Así que, si quieres obtener ese input, tienes que involucrarlos en el proceso.

You mentioned the disconnect with actual business value. You can’t make good decisions with bad data. The argument is, I need that better forecast. There is no argument for a decrease in forecast accuracy. I need to make sure I’m using the best data I can for decision-making. Will that be tied directly to an ROI? Can I calculate the ROI of one decision in isolation for the entire supply chain? It’s not going to happen. I would love to say it is, but my decision from a forecasting standpoint is completely separate from the functional decisions that manufacturing makes, purchasing makes, warehousing, transportation. Any of those things can lead to a poor ROI. My role is to be as accurate as possible. Thank you.

Conor Doherty: Muchas gracias, Jeff. Disculpa por hablar justo al final, pero tenía que recordártelo.

Jeff Baker: No hay problema.

Conor Doherty: En este punto, gracias, Jeff. Me dirigiré a Joannes. Por favor, tus comentarios de cierre, dos minutos.

Joannes Vermorel: Señoras y señores, el tema del debate fue: “¿Es FVA una best practice o una pérdida de tiempo?” A lo largo de este debate, han escuchado mucha información, pero por favor tengan en cuenta algunas cosas al decidir qué piensan sobre FVA. Número uno, si utilizan FVA como parte de un proceso colaborativo de forecasting continuo entendido como microgestión de los puntos de forecasting, eso no es best practice. La anulación manual del forecast es, sin lugar a dudas, no best practice en la comunidad del forecasting, y, por ello, medirlo con FVA tampoco es best practice.

Número dos, FVA se basa en forecasts de series temporales. Estoy seguro de que en algún lugar alguien está intentando aplicarlo a probabilistic forecasts, pero seamos realistas. FVA solo funciona a gran escala si funciona, y sólo en combinación con forecasts clásicos de series temporales, los cuales ignoran por completo la incertidumbre. Estos no son best practice, y por lo tanto medir la precisión con FVA tampoco es best practice.

Número tres, por diseño, FVA asume que una mayor precisión es algo que vale la pena tener. Este no es el caso. Contrario a lo que se dijo, existen casos en los que aumentar la precisión puede realmente perjudicar tu negocio. Tenemos un ejemplo muy sencillo. Para el forecasting de series esporádicas, el cero es muy frecuentemente el forecast más preciso, incluso si predecir una demanda de cero no tiene sentido. Así, incluso si no están de acuerdo conmigo en todos esos elementos del forecasting y de la supply chain, esto queda claramente demostrado: FVA, por todas estas razones y más, no puede considerarse una best practice. Si lo fuera, sería una triste denuncia de la comunidad del forecasting.

Conor Doherty: Muchas gracias, Joannes. Jeff, me dirijo a ti. Tus comentarios de cierre, por favor, dos minutos.

Jeff Baker: Está bien, genial, muchas gracias. De nuevo, como mencioné al principio, una mejor planificación conduce a mejores decisiones. Tenemos que aprender a planificar, tenemos que aprender a replantear y debemos asegurarnos de contar con un forecast preciso. No creo que exista un buen caso de negocio que diga que los malos datos siempre llevarán a mejores decisiones. Si tienes malos datos y tomas buenas decisiones, lo llamo pura suerte. Eso no sucede muy a menudo. Donde brilla FVA, de nuevo, no estoy abogando por la microgestión, no estoy abogando por anular todo. Hay ejemplos en los que tenemos ítems de alto valor con altos errores. Sabemos que pueden ocurrir eventos externos que no se pueden reducir a una entrada algorítmica ordenada. Necesitamos entenderlos, necesitamos planificar para ellos en el horizonte temporal que sea necesario para tomar esas decisiones. Cualquier crítica a FVA se basa en gran medida en un malentendido de lo que FVA está diseñado para hacer.

I know Lokad, you sell software packages. In prior work, I have been at a software company, and I’ve also implemented software packages. I know that the tool works. Oftentimes, it’s a problem with implementation. If the customer is not getting what they want, it’s an implementation issue nine times out of ten. Implementation and a data issue. Any critique on FVA stems from not knowing how to implement it correctly, not understanding how this operates and how this adds value. I’ll give you another simple analogy. If I’m building a deck on the back of my house and I heard that I ought to screw the boards into the joist and I use a hammer to start hammering in wood screws, it’s not going to work, and I’m not going to be happy. That doesn’t mean there’s a problem with the hammer; it means I just don’t know how to use the hammer properly. I’m using the wrong tool for the job.

Conor Doherty: Gracias. Disculpen por interrumpir, pero debo ser estricto con los tiempos para mantener la imparcialidad. Muchas gracias, caballeros. Gracias a ambos por sus comentarios preparados, su argumentación y su pasión. En este punto, me gustaría pasar a algunas preguntas de seguimiento. Algunas ya están llegando. Tomé algunas notas basadas en lo que se dijo. Antes de pasar a las preguntas del público, simplemente, porque estoy aquí, escuchando, quiero aclarar un par de puntos que se han planteado.

I shall start with, I think, actually, I’ll push Joannes just to show impartiality. I’ll push Joannes. So, Jeff, in your rebuttal, you mentioned the aphorism “simpler is better.” I think you mentioned the M5 results and you made the point that just because something is sophisticated or bleeding edge, that doesn’t necessarily make it better. So, Joannes, your response to the concept there that basically, if I can just unpack that a little bit, that probabilistic forecasting, pure algorithmic modeling, that’s just too fancy. You should be simple.

Joannes Vermorel: La realidad es que ganamos a nivel de SKU en la competencia M5 con un modelo que es paramétrico y tiene como cinco parámetros. Eso es todo. Así que, sí, de nuevo, lo algorítmico no significa mejor. De hecho, Tetlock en su libro “Superforecasting” muestra que un promedio móvil superará al 99% de los humanos en el forecasting de cualquier cosa. Los humanos ven patrones en todas partes; tienen un inmenso problema cognitivo. Es extremadamente difícil lidiar con el ruido, por lo que se ven patrones por todos lados, y esto es simplemente malo para el forecasting. Por cierto, eso es algo en lo que artificial intelligence, como un promedio móvil, en realidad vence a la mente humana en la gran mayoría de las ocasiones. Así que, ese fue solo un punto. En particular, los algoritmos de probabilistic forecasting de Lokad no son naturalmente muy sofisticados. Solo tienen una forma extraña, pero no son super fancy en el sentido de utilizar deep learning y eso.

Conor Doherty: Jeff, ¿qué te parece? ¿Hay algo en lo que desees rebatir?

Jeff Baker: El único desafío que tendría, y estoy completamente a favor de incorporar los datos y tecnologías más recientes—de nuevo, estuve en una empresa de software, estábamos vendiendo tecnología—es que a veces no necesitamos complicar las cosas en exceso. Quizás sea mejor, pero debemos asegurarnos de obtener ese valor incremental por todo lo que hacemos. Además, la explicabilidad es crítica.

Para nosotros aquí en la sala, las personas interesadas en ver esto, estamos todos a favor del probabilistic forecasting y los datos. Cuando llegamos a la implementación, si intento vender cualquier forecast algorítmico, si sufre de problemas de explicabilidad, podemos empezar a recibir algunas objeciones porque a los humanos les viene de forma natural cierta aversión a los algoritmos. Van a reaccionar contra aquello que no entienden. Muchas de estas técnicas de forecasting, las más simples, son relativamente fáciles de explicar. Ahí es donde digo que, a veces, las más simples, desde el punto de vista del rendimiento, funcionan igual de bien. Los simple ensemble forecasts superan al 92% de las personas que luchan por la fama y la fortuna en la competencia M5. Así que, hay un cierto valor en eso.

También diría que no queremos sobrecargar a ninguna organización individual. Algunas organizaciones tienen un nivel de madurez al que debemos llevarlas. Para muchas de ellas, si puedo lograr que hagan exponential smoothing forecasts, genial. Ensembles, genial. Hablar de cuáles son los intervalos de prediction, fantástico. No hay problema con los algoritmos más lujosos, más sofisticados. Solo tenemos que asegurarnos de llevarlos al nivel adecuado según su capacidad para asimilar y aceptar esa tecnología. De lo contrario, corremos el riesgo —y he tenido ese problema antes— de utilizar programas lineales mixtos para las empresas, y si no lo entendían, no lo aceptarían. Esa es mi advertencia al intentar impulsar algoritmos más sofisticados.

Conor Doherty: Joannes, ¿algo que añadir ahí?

Joannes Vermorel: De nuevo, creo que hay una ligera desconexión, porque lo que estoy diciendo es que, primero, cuando hacemos probabilistic forecasting, los métodos en sí son bastante simples. Cualquier sofisticación allí es solo para tener en cuenta con precisión los factores. Nuestra alternativa a FVA es decir que cuando las personas tienen información y levantan la mano, esos van a ser factores a incluir. El forecast en sí simplemente usará esta información extra como una entrada, no como una anulación al resultado.

Esto tiene muchas consecuencias positivas, como que si actualizas el forecast, las personas no tienen que actualizar la anulación. El problema es que la gente lo piensa como una anulación, como algo estático. Pero si anulas el forecast, ¿qué pasa si la próxima semana hay nueva información y tu línea base acaba de cambiar? ¿Qué haces? ¿Reaplicas la misma anulación, el mismo delta en comparación con lo que tenías antes? Hay toneladas de complicaciones que resultan simplemente del hecho de que el marketing proporciona información en forma de anulación del forecast. Es mucho más fácil decir: “Marketing, dinos que vamos a promocionar este producto con un gasto publicitario de tal cantidad”, y luego lo incorporas como una entrada a tu forecast. Incluso puedes hacer un backtest para ver si añade precisión o no. Este backtest es algo que puedes obtener al instante; no necesitas esperar tres meses para ver si tu corrección manual dio un resultado positivo o no.

Conor Doherty: Si puedo intervenir por un momento, porque tocaste algo que también quería decirle a Jeff. Con respecto a “simpler is better,” basándome en lo que acabas de decir, ¿no sería teóricamente más simple para un experto entrevistar a otros expertos, extraer insights, y luego traducirlos en una decisión algorítmica, en lugar de que todos, incluidos los no expertos, intervengan en un forecast? En términos de simplicidad, ¿cuáles son tus pensamientos al respecto? ¿Son igualmente simples, o uno es más complejo que el otro?

Jeff Baker: Típicamente, donde he utilizado FVA ha sido en el proceso de planificación de ventas y operaciones, revisión de la demanda, mirando el horizonte de tiempo de tres meses. Tenemos el mes actual, el mes actual más uno, dos. Típicamente, muchas compañías de CPG, muchas empresas, tienen ese tipo de calendario congelado. Ahí es donde comienzas a transicionar entre la planificación y la ejecución, es decir, S&OP versus S&OE.

Cuando estamos en ese dominio de S&OP, estamos analizando algunos de estos eventos, algunos de los impulsores. Lo que hacemos allí es, si lo hacemos a nivel agregado, recopilamos entradas. Si es a nivel de familia de productos, puedes utilizar esos impulsores de alto nivel para propagar hacia abajo. Puedes desagregar algunas de esas decisiones, lo cual es una práctica común: tomar un número de alto nivel y desagregarlo hasta los detalles.

En el lado de la ejecución, si ocurriera un evento significativo, entonces sí, también se podría hacer a nivel de familia o a nivel de empresa, dependiendo del tamaño de ese impacto. Creo que eso es más fácil. No abogo necesariamente por ajustar cada SKU, porque, como mencionaste antes, eso puede ser una carga. Pero si hay impactos enormes, debemos hacer esos ajustes.

En esa planificación, en ese replanteamiento, volver al plan no es nada, la planificación lo es todo. Esa noción de replantear, de revisar, si lo hacemos en el proceso de S&OP una vez al mes, tenemos a todos los tomadores de decisiones en la sala. Lo hacemos una vez al mes, y también empezamos a centrarnos en lo que ya está en el modelo, en lo que es nueva información, y cómo incorporamos esa nueva información. De hecho, una de las veces en que casi me levanto y aplaudo durante una reunión de revisión de la demanda fue cuando el líder de ventas, el VP, estaba en la sala, y dijo, “Bien, ¿qué nueva información tenemos sobre esto?” Sin nueva información. “Bien, el stat forecast, el algorithm forecast se mantiene,” y eso fue todo. No hubo mucha burocracia en eso.

Creo que esa es la manera ideal de hacerlo, a menos que haya eventos realmente grandes de los que tengamos conocimiento. Pero entonces, si eres el Supply Chain Scientist, tienes que salir proactivamente y buscar esa entrada. Mientras que, según lo que estoy sugiriendo, ventas y marketing llegan a las reuniones sabiendo que tienen que decirme qué es neto nuevo, qué ha cambiado, qué no estaba en las suposiciones del mes pasado. Tratamos de hacer eso lo más rápido posible. Para una gran empresa de CPG, se puede hacer eso bastante rápido a nivel de familia.

Conor Doherty: Gracias, Jeff. Joannes, ¿algo que añadir?

Joannes Vermorel: No demasiado, pero para ser breve, la razón por la que realmente defendemos que el experto recabe la información en lugar de que se ajuste el forecast es que, casi invariablemente, la información no se corresponde en términos de granularidad con el negocio de la empresa. Tienen, “Oh, tenemos este competidor que se está yendo a la quiebra.” No hay una correspondencia clara entre este competidor y exactamente lo que él está haciendo. No es uno a uno. Existe un problema extenso de, bueno, categoría por categoría, cuáles son los productos que se ven afectados.

La idea de que la información pueda surgir en la mente de una persona de ventas, de marketing o de cualquier otra área como, “Bien, esta información puede encontrar una serie temporal correspondiente para anular,” casi nunca es el caso. Solo encontrar lo que es realmente relevante para intervenir es difícil. ¿Qué pasa con todas las otras fuentes de incertidumbre? Cuando Lokad opera una empresa con modelos predictivos, fácilmente tenemos media docena de modelos predictivos—uno para la demanda, sí, pero también los lead times, rendimientos de producción, futuro precio de los proveedores, anticipación de la volatilidad del precio de los competidores, etc.

Cuando dices que el punto con FVA es que también tiene este problema de desajuste entre la granularidad de la información que tienes y la serie temporal. Simplemente pone la demanda en un pedestal, mientras que puedes tener toneladas de otras incertidumbres que deben ser forecast. También existe información como, “Bien, este proveedor se está viendo completamente abrumado, los lead times van a explotar.” Eso debería reflejarse en el algoritmo de lead time forecasting.

Jeff Baker: Sí, no tengo ningún argumento contigo en ese sentido, en cuanto a, sí, hay cosas que debemos revisar en supply chain. De ninguna manera, forma o circunstancia estoy recomendando que nos enfoquemos en FVA y olvidemos analizar los tiempos de entrega de los proveedores o algo similar. Eso no es correcto. Necesitamos centrarnos en cuál es la demanda, desde un punto de vista de eficiencia, cuál es mi mejor demanda, ¿verdad?

Y también necesito conocer todas esas otras cosas acerca de mi lado de la oferta. Necesitamos hacer ambas cosas, ¿verdad? Y sí, totalmente de acuerdo. Necesitamos el tiempo de entrega, la variación del tiempo de entrega, debemos entender la manufactura, cuándo podrían estar inactivos, la fijación de precios de los proveedores; también debemos saber eso. Así que no tengo ningún argumento en ese sentido. El único argumento que tengo es que no estoy diciendo que nos enfoquemos en FVA a expensas de esas otras cosas.

Conor Doherty: Bueno, tenemos otras preguntas de la audiencia a las que llegaré. Sólo hay un último punto que se planteó, y lo expondré. Primero traté de parafrasear de manera justa, Jeff, así que confirma si lo parafraseé correctamente. Pero luego quiero presionarte, Joannes, al respecto. Jeff, en tus comentarios finales, afirmaste que existen elementos que no pueden reducirse a un algoritmo. ¿Es esa una sumatoria justa de lo que dijiste? Existen ciertos elementos, creo que fue la baja forecastabilidad, de los cuales no se puede depender simplemente de una solución algorítmica.

Jeff Baker: Sí, y hay eventos, ya sabes, que tienen más que ver con que dichos eventos no sean repetibles.

Conor Doherty: Y la implicación es que requieren una intervención manual, una entrada manual.

Jeff Baker: Un poco de contextualización del hecho de que hay un evento. No tengo nada con qué modelarlo, pero tendré que tomar una decisión. Voy a utilizar a un experto para ayudarme con eso.

Conor Doherty: Joannes, ¿cuáles son tus pensamientos al respecto? Porque tenía mucha curiosidad al escucharlo para conocer tu opinión.

Joannes Vermorel: Ahí fue donde mencioné al experto Philip Tetlock en mi argumentación. En realidad, él escribió un libro llamado “Superforecasting” y evaluó las capacidades humanas de forecast con un proyecto que ha estado en marcha durante una década llamado Good Judgment Project. Fue financiado por IARPA, el equivalente en inteligencia al DARPA de los EE. UU.

Lo que encontraron fue que las personas que eran buenas forecasters en esta forma intuitiva de forecastear cosas, para aspectos donde no tienes una receta algorítmica, concluyeron de inmediato que, cuando hay una receta algorítmica disponible, es mejor utilizarla. Cuando no la hay, bueno, volvemos a los humanos y a juicios de alto nivel. Pero lo que concluyeron, y esa es una de las conclusiones del libro, es que los superforecasters, es decir, las personas que logran consistentemente una superior precisión en forecast, en realidad están construyendo micro-algoritmos hechos a la medida para el caso. Así de simple. Y cuando las personas son capaces de hacer eso, experimentan una mejora masiva en precisión. El orden de magnitud es que hablamos de un incremento de precisión del 30%, incluso en cosas que son súper difíciles de evaluar, como por ejemplo, ¿volverá el expresidente de Siria al poder en los próximos cinco años? Sólo es una pregunta que resulta muy complicada de responder.

Entonces, en resumen, si volvemos a esas conclusiones, nuevamente se respalda la idea de que cuando hay información, no es la persona que posee la información la que debe ser la encargada de traducir esa información en una declaración cuantitativa sobre el forecast de la empresa. Eso es lo que estoy diciendo. Y por eso creo que donde FVA y la práctica de esas intervenciones manuales se equivocan es que, en Lokad, lo abordamos de tal manera que alguien nos aporta la información, la información bruta, y luego, si tenemos un elemento que aparece de la nada, necesitamos inventar una especie de mini receta numérica que lo convierta en un número.

Y lo interesante es que no solo tienes que inventarlo, sino que tienes que documentarlo. Tienes que explicar cuál fue la lógica, incluso si son como tres oraciones que simplemente dicen, “Bien, hago esto, multiplico esto por aquello, aplico un ratio y un descuento”, algo muy simple como una receta de cocina. De nuevo, si volvemos a “Superforecasting”, este libro, es exactamente cómo las personas superforecasters que logran resultados de forecast superiores sin algoritmos lo hacen. Tienen la receta numérica explícita que hace que su proceso sea mejorable. Así que no es solo información, necesitas tener un proceso que sea repetible y perfeccionable en cómo conviertes esos insights en números. Eso no debería ser como magia en la mente de la gente.

Jeff Baker: No, estoy totalmente de acuerdo. Hacemos que las personas documenten cuáles son tus suposiciones. Una extensión de eso, sí, si pudieras tener algún AI de modelo de lenguaje grande para el equipo de ventas o para el de marketing, fantástico. Porque ese es uno de los sesgos: le preguntas a la gente, intentas obtener sus aportes, y a veces recuerdan cosas, a veces no recuerdan cosas. Muchas veces volvemos a revisar los datos preguntándonos, “Bien, ¿cuándo hicimos ese aumento de precio? Oh, se acerca un año, quizá el primer pico que tuvimos a causa del aumento de precio ya se ha desvanecido.” Estoy totalmente a favor de automatizar eso si se puede. Necesitas tener esa conversación con las personas y empezar a recoger esos datos. Tiene que ser una forma de vida para ellas, porque en muchas empresas hay tantos de esos casos ahora mismo. Así que creo, sí, que te adentras por ese camino.

Conor Doherty: Bien, en este punto avanzaré hacia algunas de las preguntas que han llegado de la audiencia. Así que creo que la última vez te pregunté primero, Jeff, esto es para ambos, pero iré contigo primero. Esta es de Nicholas. ¿Cómo se puede manejar una situación en la que llega demasiada información, obligando a los modelos estadísticos a cambiar con frecuencia, incluso teniendo un S&OP implementado? ¿Cómo se puede equilibrar de manera efectiva la presión de los equipos de marketing y finanzas?

Jeff Baker: Entonces, la pregunta es si hay mucha información diversa proveniente de ventas y marketing.

Conor Doherty: Sí, básicamente, si hay una ola de información que llega, ¿cómo manejas eso, especialmente si está forzando a los modelos estadísticos a cambiar con bastante frecuencia con, digamos, muchas intervenciones manuales, por ejemplo? Aunque agregué ese paréntesis yo mismo.

Jeff Baker: Bien, entonces, el modelo estadístico en sí no cambiaría. Estamos hablando de un modelo de forecast estadístico basado en series temporales y luego de intervenciones de ventas y marketing, es lo que interpreto. No estamos hablando de…

Conor Doherty: No tengo a Nicholas conmigo en este momento, lo siento.

Jeff Baker: Bien, entonces, en ese caso, necesitas tomar una decisión en el horizonte temporal, ¿verdad? Así que, si necesito planificar tres meses adelante para establecer mi programa de manufactura, la secuenciación de mi producción para la planificación de capacidad finita, entonces sí, debemos tener la práctica de, ya sabes, no aparecer en el último minuto con nueva información. Una de las otras cosas, desde el lado de manufactura, de lo que soy un gran defensor, es de las violaciones a la “frozen time fence” para entrenar al equipo de ventas. Oye, las sorpresas en el mes actual y en el mes siguiente no son bienvenidas. Y eso es una cuestión cultural, ¿verdad? Y así es como lo abordaría. Quiero decir, en una instancia en la que, ya sabes, un vendedor llegó y dijo, “Oye, conseguimos esta gran venta,” y esperó hasta el último minuto para informar a manufactura. Eso no es un buen trato, ¿verdad? Nos ha costado bastante dinero.

Así que esa idea de congelar el horizonte temporal, de que necesitas tomar la decisión en ese marco, esa tiene que ser tu mejor decisión y debes aceptar que vamos a planificar en base a ello y no nos tomes por sorpresa. Así es como manejaría una ola así. De hecho, una de las métricas de S&OP que me encanta es la de violación de la cercanía temporal congelada. Es como cuán a menudo estamos forzando a nuestros equipos de manufactura solo porque esperaste hasta el último minuto para decirnos que hay una nueva venta.

Conor Doherty: Gracias, Jeff. Joannes, ¿alguna opinión al respecto? Además, siéntete libre de incluir en tu respuesta, nuevamente, ¿cómo manejaría un experto bajo tu criterio mucha información repentina proveniente de muchas personas diferentes?

Joannes Vermorel: Primero, el enfoque de Lokad es que automatizamos todo. Así que, para nosotros, ya sabes, esa es la clase de situación en la que, primero, necesitas tener suficiente capacidad para manejar eso. Y verás, eso es lo interesante de automatizar todo. Por definición, el Supply Chain Scientist tiene, una vez que la cosa está automatizada, mucha capacidad para atender una situación excepcional. Eso típicamente no ocurre en situaciones donde las personas ya tienen todo su tiempo ocupado lidiando con la rutina. Esa es la primera cosa.

La segunda cosa es que la inestabilidad del forecast es una característica de los forecast puntuales de series temporales clásicas, ya sabes, porque al añadir un poco de información, el forecast simplemente salta hacia arriba y hacia abajo, pues según tu métrica de precisión, esto es lo que deberías hacer para ser súper reactivo, para ser lo más preciso. Muy frecuentemente, existe este compromiso: si quieres ser bastante preciso, necesitas captar el cambio muy rápidamente, lo que hace que el forecast sea muy volátil. Aquí, si optas por un forecast probabilístico, tiende a eliminar los problemas de volatilidad porque ya cuentas con una distribución de probabilidad que está algo difusa. Así que, aunque observes un valor atípico o similar, sigues teniendo esa distribución de probabilidad difusa. No hay un salto importante en la dispersión de la masa de la distribución de probabilidad.

Además, el problema de la volatilidad del forecast, incluso si optamos por forecast puntuales, que pueden alterarse radicalmente, es, como dije, ¿por qué a la gente no le gustan los saltos en el forecast? La respuesta es que, debido a que los forecast se procesan manualmente de nuevo, con intervenciones manuales, revisiones manuales y demás. Esto no es como lo hace Lokad. El forecast está automatizado, y las decisiones también se automatizan. Así que, cuando el forecast se mueve, las decisiones reflejan de manera automática e inmediata cuál es el nuevo estado, considerando que podrías estar financieramente comprometido con cierto curso de acción. Entonces, sí, la demanda ha cambiado, pero ya has producido inventario. Por lo tanto, incluso si la demanda no es la que esperabas, aún tienes que liquidar o vender ese inventario de alguna manera. Así que, ya ves, la automatización agiliza y en gran medida elimina los problemas de establecer un tempo para cuando se añade la información. La información puede ser incorporada siempre que esté disponible, y tan pronto como lo esté, se toma en cuenta.

Jeff estaba hablando sobre la cultura. Lo interesante es que recompensa de inmediato a las personas por aportar la información, porque, literalmente, el día en que añaden su información, esta queda validada. Al día siguiente, los programas de producción se orientan en base a ello. Los programas de producción, inventory allocation, despacho, órdenes de compra, todo refleja de inmediato esta información que se proporcionó apenas ayer. Así, para la gente, se vislumbra una forma de desarrollar una cultura de aportar la información. Tienen que ver que cuando aportan información, en casi pocas horas, se refleja en cada decisión a todos los niveles. Así es como se puede hacer muy tangible, y no diciéndoles, “Regresa el próximo mes, y entonces consideraremos empezar a revisar tus cosas.”

Conor Doherty: Gracias, Joannes. Jeff, definitivamente quiero escuchar tus pensamientos sobre esa última parte, porque se te notaba en la cara. Al menos, resonaba un poco.

Jeff Baker: Sí, sí. Quiero decir, para mí eso suena como una receta para un bullwhip effect, ¿no? Estás diciendo que cualquier pequeña información que yo incorpore, quiero decir, aprecio la capacidad de respuesta y la habilidad técnica para reflejar de inmediato cuál es la mejor decisión. El reto radica en que ya hemos tomado muchas de esas decisiones. Si ya he organizado mi programación y, digamos, estoy haciendo avena, y tengo avena regular, luego tengo avena con canela, tengo canela con manzana, y luego preparo avena con canela, manzana y nuez. Bueno, ahora tengo una alergia. Hay un enorme costo de cambio entre una y otra receta. Ahora, si entras de repente y tengo que interrumpir esa programación de inmediato, existe un enorme costo financiero, un costo financiero potencial. Si de repente necesito ordenar más de una materia prima más rápidamente, voy a tener un bullwhip effect con mi proveedor.

Entonces, hay algunas ventajas en la estabilidad. De hecho, se está generando una conversación muy interesante sobre si existe un forecast valioso y estable, no el más preciso, pero preciso y estable, ya que la estabilidad sí tiene algunos beneficios en supply chain. Es decir, esa es un área en la que apenas estamos comenzando a investigar, pero evidencia que muchas de estas decisiones tienen que tomarse. Es como si hubiéramos echado una estaca en la tierra, y todos se reirán cuando diga, ya sabes, un forecast congelado. O sea, hombre, en realidad no está congelado. Bueno, todos sabemos que no está congelado, pero existe una consecuencia financiera al modificar decisiones.

Así que, aunque técnicamente creo que es genial que podamos reflejar, “Oye, ahora esta es la mejor decisión”, pienso que debemos moderarlo teniendo en cuenta que si cambiamos en función de todo lo que llega, habrá ciertos costos asociados. Eso podría estar perfectamente bien para algunas supply chains. Si tengo una supply chain receptiva, quizá estemos bien. Tal vez ese sea el mundo en el que vivimos. Pero si tenemos una supply chain eficiente donde los cambios son costosos y difíciles de realizar, ahí es donde veo un problema.

Joannes Vermorel: Entiendo. Quiero decir, en Lokad, obviamente, modelar el costo del cambio es algo que hacemos. Cada asignación de recursos, si se desvía de lo que era anterior, lo modelamos en el costo. Es súper básico. Así que, la cosa no va a cambiar bruscamente si el costo del cambio supera los beneficios anticipados. Para mí, es como, de nuevo, que la gente generalmente aborda el análisis de recetas numéricas extremadamente absurdas y dice, “Oh, mira, esto es un problema.”

Por ejemplo, tenemos una decisión que es extremadamente ingenua al estar completamente subordinada a un forecast sin ninguna consideración del compromiso actual, etc. Es increíblemente ingenua. Obviamente, necesitas parte de tu receta numérica para tener la decisión que implemente cualquier costo de cambio y todo tipo de costos. Hay muchos de ellos. Y es aquí donde el forecast probabilístico también brilla. Te ofrece incluso más. Tienes en cuenta el hecho de que, si tomas esta decisión ahora, ¿tendrás que revisarla en el futuro? Porque, de nuevo, si tienes este forecast puntual, por definición, asumes que ya conoces el futuro. Así que, tu modelo te impide considerar automáticamente que tu forecast podría estar equivocado. Pero con los forecasts probabilísticos, eso es algo dado. El forecast ya te indica que la demanda puede estar en cualquier punto dentro de este rango, y tienes las probabilidades. Así que, no solo calcularás, al optimizar la decisión, el costo de cambio en caso de que ocurra alguno, sino también el hecho de que en el futuro podría ser necesario un cambio.

Conor Doherty: Bueno, caballeros, de nuevo, tengo en cuenta el tiempo y aún quedan al menos cuatro preguntas por responder. Así que, en el espíritu de paridad, plantearé la siguiente a ti, um, Jeff. ¿Sería FVA un buen enfoque para ayudar a aliviar la presión de ajustar los modelos estadísticos para cumplir con las expectativas presupuestarias? En segundo lugar, ¿cómo puede un supply chain data scientist…

Lo siento, en realidad debería plantear esto. Perdónenme, debería plantearlo a Joannes. Perdón. ¿Sería FVA un buen enfoque para ayudar a aliviar la presión de ajustar los modelos estadísticos para cumplir con las expectativas presupuestarias? Y, ¿cómo puede un supply chain data scientist navegar la política y la jerarquía cuando se enfrenta a tales desafíos? Y Jeff, a ti te pediré un comentario.

Joannes Vermorel: De nuevo, ese es el problema con los forecasts puntuales. Los forecasts puntuales asumen que conoces el futuro. Entonces, si conoces el futuro, todo, el plan, todo es asunto de orquestación, y tu forecast te indica el presupuesto que necesitas para todo. Y eso está mal porque, primero, el forecast tiene inexactitudes, y estás descartando por completo la incertidumbre.

Un forecast puntual está rígidamente vinculado a un presupuesto dado. Eso definitivamente no es una buena práctica. Pero si pasamos al mundo de los forecasts probabilísticos, de repente todos esos problemas desaparecen. Lo que tienes son futuros posibles, y entonces se puede considerar todo el gasto presupuestario. Si me dices que tienes esta cantidad de recursos, entonces mirarás cómo asignar esos recursos para aprovecharlos al máximo de acuerdo con esas probabilidades del futuro.

Y, por cierto, tenemos un ejemplo de eso. Si la gente quiere tener una hoja de cálculo, puede consultar prioritized inventory replenishment en nuestro sitio web. Es una hoja de cálculo de Excel que demuestra que, con un forecast probabilístico, puedes elegir el presupuesto que tengas, y te proporcionará lo mejor que puedas obtener con tu presupuesto. De nuevo, ese es el problema de que los forecasts puntuales son defectuosos como paradigma. Las series temporales clásicas son defectuosas como paradigma, y terminas con muchos problemas que ni siquiera tendrías, conceptualmente, si no estuvieras atado a un paradigma defectuoso.

Jeff Baker: Sólo un comentario improvisado acerca de un paradigma defectuoso que ha estado funcionando muy bien para muchas compañías durante decenas y decenas de años. Así que, no lo clasificaría como defectuoso. Ahora, en lo que respecta al presupuesto, ya sabes, el forecast y el presupuesto son un gran problema porque los presupuestos son aspiracionales, ¿verdad? Lo mejor que podemos hacer, y de nuevo, esto es desde el punto de vista de ventas y operaciones, es que siempre hago que mis clientes hagan un forecast a 18 meses. ¿Así que, adivina qué? A mediados de 2025, ya hemos empezado a mirar 2026. Podemos entender cuál será la visión más probable de 2026.

Luego, a partir de ahí, puedes añadir tus objetivos aspiracionales encima. No hay problema con eso, pero luego forzas la conversación: ¿qué tendría que suceder para que aumentáramos nuestras ventas en tal cantidad, para disminuir nuestros costos en otra cantidad, ¿verdad? Eso forma parte de la conversación. Así que, la mejor manera de hacerlo es basar tu presupuesto en un forecast estadístico sólido o en el forecast de consenso que tengas para el futuro. Basa tu presupuesto en eso. Luego, si tienes desviaciones respecto a eso, también elabora planes de ventas, marketing y manufactura para subsanar esas brechas. La peor práctica, y espero que todos estén de acuerdo, es el enfoque de Torre de Marfil. Esto es lo que es nuestro presupuesto, finanzas lo establece, y me recuerda a esos viejos problemas de cálculo en los que la derivación se deja al usuario, y decimos: “Oh, ¿cómo demonios vamos a hacer eso?” Así que, esa es una práctica pésima, simplemente introducir esos valores.

Así que, creo que esa es una manera de asegurarse de que tu presupuesto original esté basado en la realidad, con planes para alcanzarlo. Luego, lo segundo que digo es que FVA es perfecto para eso. Este es nuestro forecast estadístico. El presupuesto, no hay ningún FVA para el presupuesto, ¿verdad? Eso es aspiracional. Pero tú señalas dónde están esas brechas y forzas la conversación sobre cómo abordarlas. Sí, creo que todos estaríamos de acuerdo en que otra de las peores prácticas absolutas es que el forecast sea igual al presupuesto. Eso me volvería loco.

Conor Doherty: Bueno, gracias, Jeff. Continuaré con el siguiente comentario, siguiente pregunta, disculpen, y esta va directamente a Joannes. Esto es de Timur, creo. Encuentro FVA útil pero a veces limitado en alcance. ¿Estás de acuerdo con la metáfora de Jeff de que FVA es como un martillo, o lo ves de otra manera?

Joannes Vermorel: Quiero decir, sí. No estoy tan seguro. Mi crítica a FVA no es tanto que sea un martillo. Es realmente que creo que opera dentro de los paradigmas equivocados. Es extraño y se debe a los paradigmas incorrectos. De nuevo, las series temporales, el forecast puntual clásico, el hecho de que se basa en la exactitud y no en mediciones en porcentaje de error, ni en dólares de error. Verás, hay muchos problemas paradigmáticos, y es entonces cuando digo que esas cosas son defectuosas. Me mantengo firme en mi punto en este aspecto. La especie de fricción que las compañías sufren en la práctica es más bien la manifestación de todos esos problemas.

Si deseas una evidencia anecdótica de que esos paradigmas son defectuosos, desde los años 70, la teoría de supply chain prometía la automatización completa de esos procesos de toma de decisiones. Ese fue, por cierto, el argumento de Oracle en los años 70: obtendrías una gestión de inventario completamente impulsada algorítmicamente. Esto no sucedió, y falló una y otra vez. El punto que estoy haciendo es, creo, y tengo muchos argumentos que lo respaldan, que refleja el hecho de que los paradigmas, las herramientas matemáticas, los instrumentos están simplemente equivocados. Así, terminas con todo tipo de problemas extraños. Volviendo a lo del martillo, sí, a veces se siente como intentar usar un martillo para apretar tornillos. No es que el martillo sea malo en sí; es que estás intentando hacer algo para lo cual el martillo no es la herramienta adecuada.

Conor Doherty: Jeff, te doy espacio para un comentario si hay algo que desees agregar.

Jeff Baker: No, aparte del hecho de que la analogía que hice sobre el martillo era que hay que usar la herramienta correctamente. Así que, FVA es una herramienta. Si no usas la herramienta correctamente, no obtendrás valor de ella. Esa fue mi analogía.

Conor Doherty: Gracias. Continuaré. Esto es de Marina. No hay una designación clara de a quién se dirige, así que iré primero a Jeff. Con el rápido avance de la IA y la posibilidad de tener todos los datos disponibles en un futuro cercano, ¿crees que FVA se volverá más efectivo o incluso más esencial?

Jeff Baker: ¿Más efectivo o más esencial? Esa es una pregunta interesante. Lo que pienso es que, a medida que la IA empieza a volverse cada vez más prevalente, con más y más datos, tenemos que aprender a contextualizarlos y tomar decisiones con ellos. Casi se podría imaginar un caso en un futuro lejano donde seamos capaces de contextualizar toda esta información, que los large language models la integren, y, según tu punto, Joannes, realmente comiencen a sistematizar todo eso. Es potencialmente algo que llevaría a que FVA sea como: “Bueno, está bien, estamos tomando todas estas decisiones, y son decisiones excelentes.”

Tal vez entonces te quedes con casos extremos de eventos significativos, como que un competidor salga del negocio o realice una promoción al mismo tiempo que hay una recesión en la economía, y al mismo tiempo se presenta un aumento en tu seasonality. Podrías empezar a percibir esos casos. Así que, creo que probablemente habrá algo de fruto al alcance de la mano donde la IA será fantástica al tomar todos esos datos, entender las relaciones, y también distinguir el ruido existente de lo que es valioso y lo que no lo es. Por lo tanto, podría ver que, potencialmente, sea incluso un poco menos valiosa en el futuro a medida que empecemos a automatizar.

Conor Doherty: Bueno, gracias, Jeff. Joannes, la IA y FVA, el futuro: ¿sí, no, bueno, malo?

Joannes Vermorel: Creo que, de nuevo, debemos retroceder un poco en lo que respecta a la inteligencia artificial. Consideremos que, en términos de cantidad de información, los sistemas de transacción contienen gigabytes de información. Quiero decir, gigabytes si quieres ser realmente elegante. Los datos de transacción son gigabytes de información. Las personas, en comparación, tienen kilobytes de información. Lo que la gente tiene en su cabeza no es una gran cantidad de información. La gente no es, ya sabes, no son mentats, como diría en la serie Dune para quienes gustan de eso. Así que eso significa que el 99% del problema de tomar las decisiones correctas se trata, en términos de cantidad de información, de tomar la información mundana de transacciones que tienes y generar las decisiones a partir de ello. Ese es el 99% de la masa de información aquí.

Para esta parte del problema, que es el procesamiento de datos numéricos que se encuentran en formato tabular, no veo que los large language models sean muy relevantes. Sí, pueden ser herramientas de codificación muy efectivas para que puedas utilizar la herramienta y que ésta escriba el código por ti. Eso es una cosa. Pero, ¿pueden hacer algo más o realizar otras funciones además de escribir el código? Se vuelve muy poco claro.

Ahora, en cuanto a los kilobytes de información que las personas tienen en sus cabezas, ¿pueden realmente usarlos para tomar esta información y simplemente convertirla en cerrar la brecha hacia algo que sea cuantitativo? Yo diría que sí, pero el desafío sigue siendo diseñar esto de extremo a extremo, este pipeline para lograr una optimización predictiva automatizada. Ese es un desafío real, y aquí estamos poniendo a prueba los límites de la inteligencia humana para hacerlo bien. Así que, no veo que en un futuro cercano la IA que tenemos sea realmente capaz de hacer eso, más de lo que, digamos, una empresa de IA reemplazaría a Microsoft haciendo que una IA reescriba una versión de Microsoft Word. Es el tipo de cosa en la que la IA puede ayudarte a escribir el código, pero aún requerirá mucha supervisión inteligente humana, al menos con el paradigma actual que tenemos con los LLMs. Aún no son superinteligentes.

Conor Doherty: Bueno, aún quedan dos preguntas. Así que, Jeff, si quieres, podemos pasar directamente a la siguiente.

Jeff Baker: Perfecto.

Conor Doherty: Gracias. Esta es para ti. Iré primero. Um, esto es de Mark. ¿Cómo se pueden traducir eficazmente los intervalos de confianza del forecast en un único número discreto, como una orden de compra o de trabajo? ¿Sería el análisis post-forecast la mejor estrategia para determinar ese número?

Jeff Baker: Sí, pues ya sabes, no tengo problemas con el forecast probabilístico o los intervalos, pero al final del día, necesitas introducir un número en tu sistema ERP, en tu sistema de planificación. Necesitas tomar una decisión respecto al número. Ahora, lo interesante de la conversación es cuál es la variación de ese número. ¿Es mi sistema robusto? ¿Qué pasa si ese número sube, ya sabes, un 20%, 30%, lo que sea? Pero esos se convierten en escenarios que puedes comenzar a investigar, ¿verdad? Así que, esa sería mi respuesta.

Conor Doherty: Gracias. Joannes, ¿algo que desees agregar al respecto?

Joannes Vermorel: Sí, de nuevo, si crees que necesitas abordar el problema desde una perspectiva paradigmática en la que tienes que tomar una decisión sobre las cantidades de inventario, y por lo tanto el forecast debe ser un número, entonces surge el problema de que la incertidumbre no existe. No puede existir. Y por eso, la gente, de nuevo, al volver a esta perspectiva incorrecta, se enfrenta al problema preguntándose, “¿Y qué hago con esos intervalos de confianza? ¿Qué hago con ellos? Oh, necesito pensar en un número.” Y eso es una trampa paradigmática. Quedas atrapado en conceptos defectuosos.

Así que, si abordas el problema con el paradigma actual en el que un forecast de demanda te da un número directo para la decisión de inventario, la única forma de resolverlo es preservar, incluso en la decisión, el hecho de que ésta refleje todos los escenarios posibles. No se trata de elegir un número para el inventario; se trata de elegir una demanda específica. No, tu decisión de inventario debería reflejar todos los escenarios posibles con sus respectivas prioridades y expresar los diversos riesgos en términos monetarios. Por eso, es una forma diferente de pensarlo. Y volviendo a la pregunta, si te quedas en el paradigma de series temporales, no sabes qué hacer con tus intervalos de confianza. No encajan en el sistema.

Jeff Baker: Yo argumentaría que sí sabes exactamente qué hacer con estos intervalos de confianza, porque si tengo el error del forecast en mi lead time, eso se incorpora en mi cálculo de safety stock. Estés de acuerdo o no, existen cálculos de safety stock muy bien definidos que tienen en cuenta la variabilidad de la demanda y la variabilidad del lead time. Entonces, si tomamos eso, ahora tenemos –y de nuevo, no quiero extenderme y desviarme hacia una teoría de gestión de inventarios– pero existen cálculos estadísticos de safety stock que funcionan perfectamente tomando un forecast puntual junto con un error estándar de tu forecast en el lead time y proporcionándote un número de safety stock. Podemos debatir todo el día sobre cómo es la distribución de eso y si una distribución normal es la adecuada, pero así es como se aborda esa desviación en el error del forecast en la mayoría de las compañías para las que he trabajado y en la mayoría de las que he escuchado presentar en conferencias.

Conor Doherty: Voy a llegar hasta la última pregunta. ¿Cómo deberían los modelos de machine learning manejar los ajustes para eventos conocidos, como un cliente nuevo grande, que no están incluidos en los factores causales del forecast estadístico? Joannes, te cedo la palabra.

Joannes Vermorel: Entonces, de nuevo, aquí estamos tocando el problema de lidiar con información en la que no se tiene una estructura algorítmica clara, y no se puede invocar machine learning como palabra de moda para decir, “Oh, la tecnología va a hacer algo por mí aquí.” Aquí entramos en el territorio del forecast informal. Para la audiencia, realmente recomiendo el libro de Philip Tetlock llamado “Superforecasting.” Si no tienes una línea base clara, ¿qué haces?

Machine learning no proporciona respuesta a esta pregunta. Machine learning, al menos el paradigma clásico de machine learning que es el aprendizaje supervisado, de entrada-salida, no proporciona una respuesta a esta pregunta en absoluto. Creo que si lees lo que ha hecho el Good Judgment Project y las técnicas que han desarrollado, han desarrollado técnicas de mayor inteligencia. Con “mayor inteligencia” me refiero a que para aplicar estas técnicas, estamos hablando de algo que exhibe el mismo tipo de inteligencia difusa como un LLM o superior.

Han identificado técnicas conversando con super forecasters, personas que han sido pioneras y han demostrado habilidades superiores de forecast en este tipo de situación, y analizaron qué técnicas tenían en común todas esas personas. Sorprendentemente, todas llegaron a una especie de mismo conjunto de técnicas. En resumen, existen técnicas, pero requieren mucho juicio. Basándome en esos resultados empíricos, no creo que si tienes tal situación, puedas arreglártelas solo con un algoritmo de machine learning.

Necesitas construir un caso, algo similar a un caso de negocio en el mundo empresarial, donde tienes que fundamentar tus propias suposiciones, descomponer el caso, evaluar los diversos factores y tratar de llegar a algo que sea razonable. Pero usando palabras como “razonable”, ¿qué significa eso formalmente? Es muy difícil, y sin embargo la gente puede observar un razonamiento y estar de acuerdo con él.

Entonces, mi opinión al respecto sería: no esperes que el machine learning clásico sea la respuesta. Tal vez un LLM sea una herramienta de apoyo para ayudarte a construir este tipo de razonamiento, ciertamente para hacer lluvias de ideas sobre cómo incluso descomponer y cuantificar los diversos factores en el problema. Pero al final del día, sería un experto en forecast quien realmente lo evalúe y tome una decisión sobre la modelización numérica ad hoc. Esa sería la mejor práctica, al menos según esos estudios empíricos del Good Judgment Project.

Conor Doherty: Jeff, ¿qué opinas?

Jeff Baker: Sí, quiero decir, creo que debemos tener cuidado con exagerar esto. Ya sea machine learning o AI, al arrojar demasiadas cosas, ¿sabes? Porque entonces podríamos empezar a confundir correlación con causación. Una de las experiencias clásicas de aprendizaje que tuve durante una de mis clases fue con un modelo de regresión múltiple. Seguíamos agregando factores, agregando factores, y el ajuste mejoraba cada vez más. Agregamos el precio, y de repente, ¿adivina qué? Si aumento el precio, voy a aumentar las ventas, ¿verdad? Totalmente contradictorio. La causalidad estaba obviamente equivocada, pero la correlación mejoraba.

Así que, debemos tener mucho, mucho cuidado con eso porque, en algún momento, empezamos a modelar el ruido. Empezamos a preguntarnos si se trata de machine learning o AI, y le hacemos preguntas. El problema es que, con AI, te responderá con toda la confianza excesiva de un niño de 5 años que cree en el Hada de los Dientes. Esto es exactamente lo que sucede. Por lo tanto, debemos ser cautelosos. Y ahí es donde estoy de acuerdo con Joannes. Tienes que contextualizar eso, encontrar un experto que pueda entenderlo. No intentes construir un modelo perfecto porque, en algún momento, tus resultados no serán los que anticipas.

Conor Doherty: Bien, en este punto, señores, no hay más preguntas de la audiencia. Pero una última pregunta que puede servir de cierre, un último acto. Primero voy a dirigirme a Jeff. El tema del debate fue FVA: ¿Es una best practice o una pérdida de tiempo? Ahora, ambos se han escuchado durante casi 80 minutos. Jeff, ¿cómo te sientes acerca de esa proposición ahora? Escuchándote exponer tus argumentos y tus refutaciones a Joannes, pareces ser bastante generoso y aceptar varios de los puntos que Joannes plantea. Solo tengo curiosidad, ¿cómo concilias que Joannes podría tener razón en algunos o en todos o en muchos de sus puntos? ¿Cómo reconcilias eso con la posición de que FVA sigue siendo una best practice?

Jeff Baker: Sí, sí. Aprecio este intercambio abierto de ideas, y creo que, sí, todavía puedo argumentar que actualmente, Forecast Value Added es una best practice. Lo necesitamos en el presente.

Barina hizo una gran pregunta anteriormente: en el futuro, a medida que la tecnología avance, FVA podría convertirse en una técnica cada vez menos crítica. Tal vez podamos cuantificar esto, tal vez podamos empezar a parametrizar las cosas, ponerlas en un modelo y tomar esas decisiones de manera automática. Sin embargo, creo que siempre vamos a necesitar un proceso en el que se establezca colaboración, se entienda ventas, marketing y las influencias externas.

¿Veo que su rol potencialmente se disminuya? Sí. Hablé de ese cuadrante de alto valor y alta variabilidad, y definitivamente puedo ver que se volverá menos relevante en el futuro. Pero por ahora, aún veo FVA como una best practice y creo que continuará siéndolo mucho después de mi jubilación.

Así que, en un futuro cercano—sí, FVA sigue siendo importante. En un futuro a largo plazo, creo que Joannes tiene una visión muy agradable de lo que podría ser, y no veo muchos problemas con eso. Diría que estamos un 50% alineados en muchas de estas ideas.

Conor Doherty: Bueno, gracias, Jeff. Y Joannes, ¿sigues sin inmutarte tras todo lo que has escuchado? En términos simples, ¿es esencialmente un objeto inamovible y una fuerza imparable?

Joannes Vermorel: Quiero decir, yo diría, verás, si volvemos a lo que yo llamé la teoría dominante de supply chain, y FVA es parte de eso, es bastante consistente. Lo reconozco.

Así que, de hecho, si aceptas todas estas ideas, todos esos paradigmas y todo, entonces sí, desde esta perspectiva, no se ve mal. Aún tendría un poco de cuidado con la cantidad de burocracia que se puede generar.

De nuevo, involucrar a muchas personas es una receta para consumir el tiempo de muchas personas. En cuanto creas algún tipo de entidad transversal, porque esa será la que desafíe a todos, aún puede generar mucho trabajo administrativo.

Tengo ejemplos en mi red de personas que están realizando una inmensa cantidad de trabajo administrativo en este tipo de cosas, especialmente todo lo que es periférico o de apoyo al S&OP.

Ahora, Lokad ha estado operando por más de una década en diferentes paradigmas. Por cierto, Jeff, existe una serie mundial de conferencias que tiene casi 100 horas de series en YouTube para respaldar esta visión alternativa.

Pero lo interesante es que cuando optas por diferentes paradigmas, diferentes herramientas, diferentes instrumentos, entonces la gran mayoría de esos problemas simplemente desaparecen. Tienes nuevos problemas, completamente diferentes, pero operativamente terminas con algo muy extraño.

Son supply chains donde la casi totalidad de las decisiones se toman automáticamente. Y por cierto, tuvimos una experiencia que fue muy extraña en 2020-2021, donde tuvimos docenas de clientes que enviaron a toda su fuerza laboral de oficina a casa.

Tuvimos un cliente con más de mil millones de euros en inventario que envió a toda su fuerza laboral a casa durante 14 meses sin acceso a internet, porque querían obtener subsidios gubernamentales. Su supply chain siguió funcionando a aproximadamente el 80% de su capacidad nominal con Lokad tomando todas las decisiones sin siquiera supervisión.

Normalmente, nosotros generamos las decisiones, pero hay muchas personas que validan que lo que estamos generando está bien. Mi conclusión es que si puedes gestionar supply chains hipercomplejos de miles de millones durante 14 meses sin que todas esas personas realicen esta microgestión, realmente cuestiona el valor agregado de todas esas personas y lo que incluso deberíamos esperar de la automatización.

Creo que la gente habla de AI y de todo tipo de cosas, pero la forma en que lo abordo es que no necesariamente necesitas tener un modelo súper sofisticado, hiper-paramétrico, de un billón de parámetros, para lograr la automatización.

Mi conclusión es que creo que FVA pertenece a un mundo donde se trata realmente de que las personas piloten directamente el supply chain. Yo lo abordo desde la perspectiva en la que la máquina pilota el supply chain, y las personas pilotan la máquina, no el supply chain.

Conor Doherty: Bueno, gracias. Como es costumbre aquí, nos gusta darle la última palabra a los invitados. Así que, Jeff, muchas gracias por acompañarnos. Si tienes algún comentario final que desees hacer, siéntete libre.

Jeff Baker: No, solo muchas gracias por la oportunidad. Aprecio la conversación, muy bien moderada, Conor. Muchas gracias.

Mi objetivo es complacer. Aprecio la participación de la audiencia en las preguntas. Creo que siempre es interesante cuando dos puntos de vista opuestos se unen, pues pienso que ambos se benefician un poco más del intercambio. Honestamente, aprecio la oportunidad. Ha sido un placer hablar contigo.

Joannes Vermorel: Gracias, Jeff.

Conor Doherty: Joannes, muchas gracias por tu tiempo. Jeff, muchas gracias por el tuyo. Gracias a todos por vernos. Nos vemos la próxima vez.