00:00:08 Introducción al forecast de demanda y a la agregación de datos.
00:00:41 Diferentes tipos de granularidades en el forecast de demanda.
00:02:00 Desafíos de los distintos niveles de agregación de datos en el forecast.
00:05:28 Nivel desagregado: SKU por día, y reconstrucción de otros niveles de agregación.
00:08:31 Casos atípicos y desafíos con productos perecederos en el forecast de demanda.
00:09:42 Importancia de la información granular en la agregación de datos.
00:11:01 Reconstruir el nivel de agregación deseado a partir de los datos más granulares.
00:13:01 Limitaciones de las técnicas de series de tiempo en datos muy desagregados.
00:15:01 Técnicas de series de tiempo y la suposición de que el futuro será más de lo mismo.
00:17:00 La naturaleza seductora y engañosa de los modelos de series de tiempo.
00:19:03 Discusión sobre las desventajas de la agregación en el forecast.
00:20:00 Explorando la importancia de la granularidad en la toma de decisiones.
00:21:38 Examinando horizontes relevantes y su impacto en las decisiones de supply chain.
00:23:48 Argumentando en contra de una agregación arbitraria y su impacto potencial en la eficiencia de la supply chain.
00:26:35 Sugiriendo un enfoque en la granularidad impulsada por decisiones y evitando la optimización prematura.
Resumen
Joannes Vermorel, fundador de Lokad, discute la importancia de seleccionar el nivel correcto de agregación de datos para el forecast de demanda en una entrevista con Nicole Zint. Se consideran dos dimensiones: temporal y estructural, incluyendo los intervalos de tiempo utilizados para agregar datos, y la organización de la supply chain. Vermorel señala que el nivel diario y el nivel de SKU son los más aplicables a la mayoría de las redes de supply chain, pero los casos atípicos pueden requerir datos más granulares. Vermorel advierte sobre las limitaciones de los modelos de time series en el forecast de supply chain, alentando una perspectiva más amplia que tenga en cuenta factores como la perecedibilidad, la canibalización, la sustitución y los lead times variables. Enfatiza la importancia de la granularidad impulsada por decisiones y de ampliar los horizontes del forecast más allá de los lead times.
Resumen Extendido
En esta entrevista, la presentadora Nicole Zint discute el forecast de demanda y el nivel adecuado de agregación de datos con Joannes Vermorel, fundador de Lokad, una empresa de software especializada en supply chain optimization. Exploran los diferentes tipos de granularidades en el forecast de demanda y el impacto de estas granularidades en los métodos de forecast.
Vermorel explica que hay dos dimensiones principales a considerar al elegir la granularidad para el forecast de demanda: la temporal y la estructural. La dimensión temporal se refiere a los intervalos de tiempo utilizados para agregar los datos, tales como por hora, diario, semanal, mensual o anual. La dimensión estructural se relaciona con la organización de la supply chain, incluyendo las categorías de productos y las ubicaciones. Esto podría implicar agregar datos por SKU (Stock Keeping Unit), referencia del producto, familia de productos, super familia de productos o categoría, y luego agregarlos por sitio, región o país.
Al discutir los tipos de forecasts asociados con estas granularidades, Vermorel menciona que el concepto de business intelligence, o hipercubos, popularizado en la década de 1990, es relevante. Los datos históricos pueden representarse como vectores, siendo cada nivel de granularidad un vector único. Cuando se añade una dimensión temporal, estos vectores pueden interpretarse como datos de series de tiempo, que luego pueden utilizarse para hacer forecast.
Este enfoque se ocupa principalmente de los forecasts de series de tiempo, que son la práctica dominante en la industria. Vermorel señala que pueden generarse múltiples forecasts a partir de los mismos datos debido a la variedad de niveles potenciales de agregación.
La entrevista también aborda el término técnico “equispaced” en relación con las series de tiempo. Las series de tiempo equispaced tienen intervalos regulares y uniformes entre los puntos de datos. Vermorel reconoce que la mayoría de las personas en la industria de la supply chain quizá no hayan considerado trabajar con series de tiempo no equispaced, ya que las series de tiempo equispaced son más comunes. Sin embargo, apunta que algunos intervalos, como los meses, no son exactamente regulares en el sentido físico, ya que los meses tienen duraciones variables.
Este segmento de la entrevista se centra en la importancia de seleccionar la granularidad adecuada para el forecast de demanda. Hay dos dimensiones principales a considerar: la temporal y la estructural. Diversos tipos de forecasts pueden generarse a partir de los mismos datos según la granularidad elegida, siendo los forecasts de series de tiempo los más comunes en la industria. Además, se discute el concepto de series de tiempo equispaced, destacando las potenciales complejidades al tratar con intervalos de tiempo variables.
Vermorel habla sobre los horizontes de forecast, la granularidad impulsada por decisiones y la importancia de no limitar el pensamiento cuando se trata de la gestión de la supply chain.
Discuten los desafíos de los niveles de agregación de datos en la optimización de la supply chain. Vermorel explica que la elección del nivel de agregación depende de la sensibilidad de la industria, ya que algunas pueden requerir mayor desagregación. También destaca que el nivel diario y el nivel de SKU son los más sensatos para la desagregación en la mayoría de las redes de supply chain. Sin embargo, señala que casos atípicos, como los productos perecederos, pueden requerir puntos de datos más granulares. Vermorel enfatiza que cada decisión arbitraria sobre la agregación de datos viene con sus pros y contras, y es crucial entender de dónde provienen esas decisiones. Cuando se le pregunta si es posible reconstruir un nivel de datos más granular a partir del nivel más granular, Vermorel explica que cada vez que se agregan datos, se pierde información. Por lo tanto, mientras más granulares sean los datos, más preciso será el forecast. Sin embargo, los datos más granulares ni siquiera son datos agregados, sino los datos transaccionales en bruto. Explica que la razón por la que se detienen en SKU por día es que es el último nivel en el que aún pueden operar con series de tiempo. Si se va más allá, tendrían que renunciar a la perspectiva de series de tiempo, ya que los datos no están estructurados como una serie de tiempo.
También hablaron de las limitaciones de los modelos de series de tiempo en el forecast de supply chain con la presentadora Nicole Zint. Vermorel señala que, aunque la industria de la supply chain típicamente opera con un modelo mental de series de tiempo, las técnicas de series de tiempo tienden a funcionar mal con datos escasos, erráticos e intermitentes. Argumenta que existe una asimetría fundamental entre el pasado y el futuro, y que la suposición de que el futuro es exactamente igual al pasado es errónea. Vermorel también cuestiona la práctica de agregar datos, que él cree que resulta en la pérdida de información y en métricas desalineadas, y sugiere que el único horizonte relevante para la toma de decisiones es aquel que es pertinente para la decisión específica.
Vermorel comienza explicando que los horizontes de forecast deberían extenderse más allá de los lead times, ya que no siempre se ajustan bien a la perspectiva tradicional de series de tiempo. Argumenta que el horizonte de toma de decisiones debería considerar no solo el período entre el presente y la llegada de un producto, sino también el tiempo que se tarda en vender los bienes recibidos. El horizonte aplicable depende de factores como la velocidad esperada de liquidación del stock y la variabilidad de la demanda. Aunque no hay un límite claro sobre cuánto se debe mirar hacia el futuro, Vermorel reconoce que los forecasts se vuelven más vagos a medida que se proyectan más adelante. En última instancia, el trade-off radica en equilibrar el costo de los recursos computacionales contra las potenciales mejoras en la supply chain.
Al hablar de granularidad, Vermorel enfatiza que esta debe estar impulsada por las decisiones que la empresa quiere tomar. Aconseja no confundir la necesidad de visualización con otros requerimientos predictivos y de optimización, ya que la granularidad puede ser arbitraria y conducir a la pérdida de datos. En su lugar, recomienda enfocarse en decisiones que tengan impactos tangibles y financieros en la supply chain, tales como el reordering o el ajuste de precios.
Vermorel advierte contra fijarse demasiado en los niveles de agregación, que él considera un aspecto altamente técnico del problema. Los sistemas informáticos modernos tienen más que suficiente capacidad para manejar diversos niveles de granularidad, y no es necesario imponer restricciones arbitrarias al pensamiento. En el pasado, agregar datos para visualización era un desafío, pero los sistemas modernos pueden manejarlo sin problemas, incluso a una granularidad de nivel de milisegundos.
El entrevistado también advierte contra depender únicamente de los enfoques tradicionales de data cube para la optimización de la supply chain. Afirma que hacerlo puede imponer restricciones innecesarias y limitar el alcance de las soluciones potenciales. Factores como la perecedibilidad, la canibalización, la sustitución y los lead times variables deben considerarse para una visión más amplia de la supply chain. Vermorel fomenta una perspectiva más amplia y evitar restricciones arbitrarias que puedan obstaculizar la resolución de problemas en la gestión de la supply chain.
En resumen, Joannes Vermorel aboga por considerar una gama más amplia de factores al optimizar las supply chains, extendiendo los horizontes de forecast más allá de los lead times y adoptando una granularidad impulsada por decisiones. Enfatiza la importancia de no limitar el pensamiento y de aprovechar los sistemas informáticos modernos para abordar de manera efectiva los complejos problemas de la supply chain.
Transcripción Completa
Nicole Zint: Cuando se trata de forecast de demanda, existe una increíble diversidad de métodos y niveles de agregación de datos que se eligen tanto entre empresas como dentro de ellas. Algunos hacen forecast a diario, otros a nivel semanal, mensual o anual. Algunos hacen forecast a nivel de SKU, otros a nivel de categoría. Esto plantea la pregunta: ¿cuál es el nivel correcto de agregación de datos? Este es el tema del episodio de hoy. Antes de profundizar en la respuesta a esta pregunta, Joannes, ¿cuáles son los diferentes tipos de granularidades que se pueden elegir en el forecast de demanda?
Joannes Vermorel: En el forecast de demanda, esencialmente tienes dos dimensiones principales en el problema. La primera es la temporal, que se refiere a si deseas que tus datos transaccionales se agreguen a nivel por hora, diario, semanal, mensual o anual. La otra dimensión es, típicamente, la topología del producto/supply chain, por lo que podrías optar por agregar a nivel de SKU, por referencia de producto, por familia de productos, superfamilia, categoría, etc. También cuentas con tus ubicaciones, donde podrías agregar por sitio, región o país. Las dos dimensiones principales son el tiempo y la estructura de tu catálogo/red de supply chain, lo que crea una matriz de posibilidades a la hora de elegir la granularidad.
Nicole Zint: Cuando hablamos de estas granularidades, ¿de qué tipo de forecasts estamos hablando? ¿Existe algún tipo específico de forecast?
Joannes Vermorel: Lo que tienes es, conceptualmente, un modelo que se popularizó en los años 90, esencialmente bajo el nombre de business intelligence o hipercubos. Lo que tienes es una forma de representar tus datos históricos como vectores. Eliges un nivel de granularidad, digamos a nivel de SKU por semana, y luego para cada SKU a nivel semanal, tienes un vector de valores que, debido a que existe una dimensión temporal, puede interpretarse como una serie de tiempo. Luego puedes forecast esta serie de tiempo hacia el futuro. Debido a los muchos niveles potenciales de agregación, podrían realizarse numerosos forecasts a partir de los mismos datos. Así que estamos hablando de forecasts de series de tiempo cuando discutimos este problema, al menos esta es una práctica dominante en la industria.
Nicole Zint: ¿Qué pasa con la línea de tiempo en las series de tiempo, ¿están todas equispaciadas o hay un enfoque diferente?
Joannes Vermorel: Equispaced es un término super técnico, con el que la mayoría de las personas en la industry de la supply chain quizá nunca hayan considerado trabajar. Equispaced es una tecnicidad donde se dice que tu serie de tiempo está dividida en intervalos que son completamente regulares. Sin embargo, ten en cuenta que esto es algo abstracto, porque, por ejemplo, los meses no son exactamente regulares en el sentido físico. Los físicos dirían que hay meses que son más largos que otros, por lo que solo es regular según nuestro calendario.
Nicole Zint: Otra pregunta respecto a un mes: tenemos diferentes números de, por ejemplo, viernes o fines de semana en un mes, y si vemos picos en las ventas los viernes, ¿no se vería afectado?
Joannes Vermorel: Aquí llegamos a la clase de pregunta: ¿Qué nivel de agregación elijo? Surgen muchas preocupaciones. Obviamente, existen algunos niveles de agregación que tienen ciertos efectos. Si observas el nivel por hora, podría ser, para la mayoría de las industrias, increíblemente desagregado y quizás ni siquiera tenga sentido durante la noche porque puede haber muchas áreas, como el retail, donde no sucede nada durante la noche. Por lo tanto, puede que ni siquiera tenga sentido.
Entonces, en efecto, si eliges la agregación mensual, siempre es complicada porque tienes el hecho de que algunos meses tienen cinco días de un determinado día de la semana, y puedes tener cuatro o cinco. Así que ese es un aspecto complicado que realmente introducirá cierto tipo de sesgos en la forma en que observas este registro y potencialmente en la manera en que construyes tu forecast. Pero también es cierto para otras dimensiones, como si observas a nivel de SKU, de producto o de categoría. Todas ellas introducen sus propias preocupaciones.
Nicole Zint: Entonces, cuando se trata de estos diferentes niveles de agregación de datos, ¿no podemos técnicamente elegir, digamos, SKU por día, que es el nivel más desagregado, y luego reconstruir esencialmente cualquier otro nivel de agregación a partir de eso?
Joannes Vermorel: Primero, sí, existe esta tentación de optar por niveles super desagregados. En supply chain, el nivel de desagregación más sensato, en términos de tiempo, es por día. Sin embargo, es una decisión bastante arbitraria. Podríamos haber decidido que fuera por minuto, y, por ejemplo, si diriges un call center y deseas observar la tasa de llegada de llamadas entrantes, tendrás un nivel de observación mucho más granular para las llamadas entrantes. Así que, en realidad, se trata de qué tipo de cosas tienen sentido para la situación dominante en supply chain.
Ahora, si retrocedemos un poco en el tiempo, tenemos que entender de dónde venimos. Miremos una tienda típica con 10,000 SKUs en una red de retail típica con 100 tiendas. Así que ni siquiera se trata de una red de retail muy grande. Estamos hablando de 10,000 por 100, lo que equivale a 1 millón de SKUs, y luego de datos diarios. Por lo tanto, si queremos tener tres años de historial, estamos hablando de mil días. Esto equivale a mil millones de puntos de datos. Para representar los datos agregados diarios a nivel de SKU en una red de retail modesta, ya estamos hablando de algo que equivale a mil millones de puntos de datos.
En una computadora, eso ya serían cuatro gigabytes de memoria. Si retrocedes un poco en el tiempo, verás que ese tipo de capacidad de memoria ni siquiera estaba disponible antes de los 90. Por cierto, el término “business intelligence” como una clase de herramientas de enterprise software emergió en los 90, precisamente cuando los computadores de tamaño gigabyte llegaron al mercado. Así que, ambas cosas iban de la mano. Necesitabas computadoras capaces de representar tan grandes cantidades de datos.
Nicole Zint: Entonces, esos grandes cubos eran, en realidad, software diseñado para computación en memoria, que era simplemente una forma grandiosa de decir: aprovechemos esta nueva memoria de acceso aleatorio. Y, basándonos en ello, se convierte en el predeterminado, aunque no debemos olvidar que era bastante arbitrario. Cuando dices que es el nivel más pequeño que tiene sentido para supply chain, ¿es precisa esta agregación diaria a nivel de SKU?
Joannes Vermorel: Sí, pero existen muchos casos límite. Por ejemplo, si tienes un producto perecedero, la pregunta es si la agregación diaria por SKU es suficiente para darte una imagen precisa de tu nivel de stock. Si miras un producto perecedero, la respuesta es no. Puedes tener 10 unidades en stock, pero si 9 de las 10 unidades van a expirar mañana, lo que realmente tienes en stock es, en su mayoría, una unidad más nueve que están al borde de desaparecer. Entonces, en este caso, el nivel de stock no es lo suficientemente granular y el nivel de SKU tampoco lo es. Lo que te gustaría tener sería un nivel de stock con al menos una semana de vida en anaquel y, tal vez, un nivel de stock con al menos un mes de vida en anaquel. De esta forma, introducirías otra dimensión para brindarte una mejor intuición.
Nicole Zint: ¿Y qué hay del tiempo? ¿Es adecuado el nivel diario o deberíamos considerar un nivel más granular?
Joannes Vermorel: El nivel diario podría estar bien, excepto que puede haber tiendas que solo abran, digamos, durante el fin de semana o solo en la mañana. Si no sabes que tienes una tienda que solo abre medio día, te falta información. Por lo tanto, quizás tener un nivel más granular, como la mañana y la tarde, te proporcionaría algo más valioso. Cada decisión arbitraria sobre tu nivel de agregación viene con sus pros y contras. Mi mensaje aquí es que es bastante arbitrario, y no existe una verdad absoluta en ello, pero resulta muy interesante entender de dónde provienen esas decisiones.
Nicole Zint: Supongamos que encontramos el nivel más granular que está dentro de nuestra razonabilidad de precio. Si tenemos acceso al nivel más granular, pero aún queremos observar un forecast a nivel semanal, por ejemplo, ¿podemos simplemente reconstruir el nivel que deseamos obtener a partir del nivel más granular?
Joannes Vermorel: Absolutamente. Si volvemos al historial transaccional bruto, cada vez que agregas, pierdes datos en términos de información. No importa qué tipo de agregación realices, siempre puedes reconstruir un nivel superior a partir de los datos más granulares.
Nicole Zint: En realidad, este es un proceso con pérdida, por lo que estás perdiendo información. Tienes menos información, por lo que, seguramente, tendría sentido que la accuracy disminuya, ¿verdad? Cuanto mayor sea la agregación, menos precisa se vuelve.
Joannes Vermorel: Sí, pero lo que tenemos es que esa fue precisamente la razón por la que queríamos tener este tipo de configuración de agregación. Diría que está impulsado por cubos, porque contamos con ese tipo de software que opera de manera relativamente rápida. La idea es que, cuando tienes un hipercubo, las operaciones de slice and dice pueden llevarse a cabo de forma muy eficiente. Esta es una razón muy técnica. Por lo tanto, si deseas pasar de diario a semanal, es una operación muy eficiente que puedes hacer en el cubo.
De hecho, en términos de teoría pura de la información, cada vez que pasamos a un nivel más agregado, estamos perdiendo información. En teoría, si queremos tener algo que sea una afirmación más precisa sobre el futuro, querríamos operar sobre los datos más desagregados. Sin embargo, la gente pensaría que los datos más desagregados son los datos por SKU por día, y yo diría: espera, los datos más desagregados ni siquiera son datos agregados; eso sería el historial transaccional bruto.
La razón por la que la gente se detiene en por SKU por día es, esencialmente, porque es el último nivel en el que todavía se opera con series de tiempo. Si deseas ir más allá y tratar con el historial transaccional bruto, en esencia, debes abandonar la perspectiva de series de tiempo. ¿Por qué? Porque los datos no están estructurados como una serie de tiempo. Son literalmente datos relacionales, de modo que tienes tablas en tu base de datos. Ya no están estructurados como una serie de tiempo, ciertamente no como una serie de tiempo equiespaciada.
Las series de tiempo solo emergen cuando esencialmente construyes vectores en los que dices, por período (el período puede ser un día, semana o mes), tienes una cantidad, y luego un vector de cantidades. Quieres extender esto con un modelo de series de tiempo. Si operas únicamente con una tabla que, digamos, tiene 100 columnas, esto no es una serie de tiempo; es solo una tabla relacional en una base de datos. Esto es muy común, pero no es la serie de tiempo. Es el método de forecast elegido el que ahora se convierte en otro factor limitante.
La pregunta es, ¿por qué resulta tan atractivo? La respuesta es que la mayoría de las industrias de supply chain operan con un modelo mental basado en series de tiempo. Así que, obviamente, si has decidido que todo tiene que encajar en el modelo de series de tiempo, entonces el hipercubo resulta un factor muy atractivo porque, mientras una de las dimensiones sea el tiempo, siempre estarás observando series de tiempo, de una forma u otra, en varios niveles de agregación.
Pero aquí llega lo crucial. Aunque, en teoría, la teoría de la información nos diría que cuanto más desagregamos, más información tenemos y, por lo tanto, más podríamos saber sobre el futuro, la realidad es que las técnicas de series de tiempo, la mayoría de ellas (no todas), tienden a funcionar muy mal con datos muy escasos, erráticos e intermitentes. El problema es que, cuando se trata de datos muy desagregados, las técnicas de series de tiempo son menos efectivas.
Nicole Zint: Desde la perspectiva de tu técnica de series de tiempo, no desde la perspectiva real —la perspectiva real es que tienes más datos—, pero desde la perspectiva de tu técnica de series de tiempo, tienes un vector cada vez más escaso, es decir, con más ceros. Y la serie de tiempo se trata de más de lo mismo, ¿verdad? Así que asumimos que el futuro es simétrico al pasado. ¿De dónde proviene eso?
Joannes Vermorel: Sí, pero esto es cierto para todos los métodos basados en datos. Básicamente, todos los métodos basados en datos se apoyan, de una forma u otra, en la idea de que el futuro será más de lo mismo. Verás, realmente no depende; se puede decir que es machine learning, IA, series de tiempo, lo que sea: siempre es la misma idea. Todos nuestros métodos estadísticos están fundamentados en la noción de que el futuro será más de lo mismo en comparación con el pasado.
Nicole Zint: Pero, seguramente, si te vuelves más granular, pierdes, tal vez, estacionalidades y cosas por el estilo, ¿verdad?
Joannes Vermorel: No, la característica de la serie de tiempo es algo muy técnico. Es el hecho de que el modelo de series de tiempo te ofrece un modelo altamente simétrico en el sentido de que el futuro, en términos de estructura de datos, se ve exactamente igual al pasado. Esto es algo muy específico de las series de tiempo. Cuando dices “más de lo mismo”, sí, pero yo hago una afirmación sobre el futuro. Esa afirmación no tiene por qué tener la forma, estructura y formato exactos en comparación con mis registros históricos. Puede que sí, pero puede que no.
Con las series de tiempo, es increíblemente seductor, pero creo que también confunde mucho a la gente. Es increíblemente seductor porque, esencialmente, el futuro y el pasado son exactamente simétricos. Y cuando digo “exactamente simétricos”, imagina tu hipercubo o tu cubo. Tienes una dimensión para los SKUs, una dimensión para el día, una dimensión para algo más, y, esencialmente, el futuro consiste en tomar tu dimensión del día y extenderla en, digamos, 100 celdas más.
Y luego, aquí está: tienes el futuro, y dirías que el forecast es simplemente rellenarlo, llenando los vacíos. Así literalmente, dirías que es la misma data exacta; hay datos que he observado y luego datos en los que voy a llenar los espacios en blanco con mi modelo de forecast de series de tiempo. Sin embargo, existe una asimetría muy radical y fundamental entre el pasado y el futuro.
Si optas por esta perspectiva clásica del forecast promedio de series de tiempo, estás haciendo algo que finge que el futuro es exactamente igual al pasado, en esencia, no solo en el hecho de que aún no ha ocurrido. Es literalmente, en términos de formato de datos, en cómo pensarlo, lo que estás diciendo es que es completamente igual. Y mi propuesta, que es más bien una declaración filosófica que científica, es que no, no lo es; es muy diferente.
Nicole Zint: Todavía veo muchas RFPs, y le preguntan a los proveedores: ¿nos pueden dar todos estos niveles a la vez? ¿Diferentes niveles de agregación, por qué?
Joannes Vermorel: De nuevo, es una pregunta estándar. La gente insiste en ello porque es a lo que están acostumbrados, pero es importante reconocer que diferentes niveles de agregación pueden conducir a resultados y percepciones muy diferentes.
Nicole Zint: La falacia aquí es que comienzas con este modelo de series de tiempo, y este modelo tiene su equivalente en la industria del software con business intelligence, donde todo es básicamente un cubo o una versión “slice and dice” de un cubo. Ahora, la gente se da cuenta de que pierde información al agregar, pero de alguna manera no está realmente segura de por qué. La métrica les indica que su forecast muy desagregado es una completa porquería. La realidad podría ser que, simplemente porque no están utilizando el método adecuado, es de hecho muy pobre.
Joannes Vermorel: Entonces dicen, “Está bien, nuestro forecast es super pobre.” Yo digo, “Bueno, necesitamos la posibilidad de ascender a algún nivel superior de agregación. Va a ser, quizá, por semana o quizá por producto en lugar de por SKU.” Pero no saben cuál quieren elegir. Así que, cuando preguntan a un proveedor, quieren mantener sus opciones abiertas y terminan con RFPs semirridículas en las que tienen más de cien preguntas, y desean tener todos los niveles de agregación.
Simplemente porque, desde su perspectiva, mantienen la opción abierta sobre en qué nivel quieren aplicar el modelo de forecast de series de tiempo. Pero aquí, realmente, cuestiono el hecho mismo de por qué deberías agregar tus datos en primer lugar, y por qué tu técnica de forecast debería comenzar a descartar datos antes de siquiera empezar a operar. Estás perdiendo datos, por lo que esto es un problema, y agregar más solo te hace perder aún más datos.
Y luego, si dices, “Pero espera, no podemos operar a un nivel super desagregado porque nuestra métrica, que es el porcentaje de error, nos indica que es muy malo.” Respondemos, “Sí, pero no estás optimizando el porcentaje de error; quieres optimizar dólares de error. Pero estás observando la métrica de porcentajes, por lo que está algo desalineada con los dólares.”
Nicole Zint: Sí, y exactamente. Porque, si sigues esta falacia, pasarías de diario a semanal, obtendrías mejor accuracy; de semanal a mensual, mejor accuracy; de semanal a anual. Y luego la gente dice, “Oh, espera, forecast anual, ¿qué voy a hacer con el forecast anual? Si tomas decisiones a nivel semanal, ¿cómo te va a servir un forecast mensual?”
Joannes Vermorel: Ese es el problema. La realidad es que el único horizonte relevante es aquel que resulta relevante para tu decisión. Pero miremos una decisión muy simple, como el reabastecimiento de inventario. Dame, por ejemplo, cuál es el horizonte relevante. La respuesta es muy complicada. Primero, tendrás los tiempos de entrega, pero el tiempo de entrega no está garantizado. Digamos que tienes un proveedor en el extranjero, así que tus tiempos de entrega pueden ser —no son constantes, varían. Así, tu tiempo de entrega podría ser algo así como de 10 semanas, pero potencialmente con grandes variaciones.
Algunas de esas variaciones, por cierto, son estacionales, como el Año Nuevo Chino. Las fábricas en China cierran, por lo que obtienes cuatro semanas extra de tiempos de entrega. Así que tu horizonte, si solo miramos los tiempos de entrega, es algo que varía mucho y necesitaría su propio forecast. Por cierto, uno de los problemas con esos modelos de series de tiempo es que siempre estamos analizando algo que se relaciona, en cierta medida, con las ventas. Todas las demás variables que necesitas forecast, como tus tiempos de entrega, siguen siendo constantes. Es incluso peor: ni siquiera existen, ya sabes.
Nicole Zint: Entonces, el cubo ni siquiera representa este tipo de literatura; es algo elegido de forma arbitraria. Tu horizonte serían tus tiempos de entrega, pero dichos tiempos de entrega merecerían una zona roja de forecast que realmente no encaja con esta perspectiva de series de tiempo y el software de cubos. Pero, ¿debería tu horizonte para evaluar la validez de tu decisión detenerse únicamente en el tiempo de entrega?
Joannes Vermorel: No, porque obviamente, si decides que quieres hacer un reordenamiento ahora, deseas satisfacer la demanda que ocurrirá entre el momento actual y la fecha de llegada de tu producto. Pero luego, tendrás que vender lo que acabas de recibir. Para evaluar la relevancia de la orden de compra, debes observar lo que sucede después. ¿Y cuán lejos en el futuro deberías mirar? Bueno, depende. Si la orden que realizas tiene un repunte en la demanda, entonces podrías recibir la mercancía y tener todo vendido en dos días. ¿Pero qué pasa si es lo contrario, y luego hay una caída en la demanda? Puedes mantener el stock durante todo un año, obviamente no si es perecedero, pero solo estoy simplificando.
Así que, el horizonte aplicable es algo que depende increíblemente de la forma en que visualizas el futuro, y es un forecast en sí mismo, ya que es un forecast en el que tienes que predecir los tiempos de entrega. Y luego, el horizonte que debemos considerar, incluso si sólo observamos la demanda, depende de cuán rápido esperas realmente liquidar tu stock. Por lo tanto, en última instancia, no existe un límite claro en cuanto al horizonte aplicable para tu forecast. La única preocupación es que, cuanto más nos adentramos en el futuro, más borroso se vuelve el forecast.
Sin embargo, esto es una tecnicalidad, y en algún momento, existe un equilibrio entre el costo de la CPU y la posible mejora marginal para tu supply chain. Pero, ya ves, desde una perspectiva conceptual, no hay límite en cuanto a cuán lejos quieras mirar en el futuro.
Nicole Zint: Entonces, para concluir, ¿el nivel de granularidad siempre debe estar al nivel de las decisiones que deseas tomar?
Joannes Vermorel: Sí, diría que tu granularidad estará muy orientada a las decisiones. Pero ten en cuenta que esta noción de tener que agregar implica una hipótesis sobre el tipo de método que deseas utilizar. Mi sugerencia sería mantener la atención en la misma decisión que tomas. Las decisiones son las que tienen un impacto tangible en tu supply chain, como tus reordenamientos, ajustar tu precio hacia arriba o hacia abajo, y otras acciones que tienen un impacto financiero tangible real en el supply chain. Pero entonces, te diría que tengas cuidado con la misma noción de granularidad. Esto es muy inventado, muy arbitrario, y no confundas tu necesidad de visualización –lo cual está bien, ya que quieres poder visualizar– con la granularidad necesaria para la toma de decisiones.
Nicole Zint: Las series temporales son una herramienta increíblemente poderosa para visualizar datos. Sin embargo, no confundas esta necesidad de visualización con otros requerimientos predictivos y de optimización que no tienen que operar con ningún tipo de granularidad inventada. Cuando digo granularidad inventada, me refiero a cualquier cosa que no sea simplemente el reflejo de los datos tal como existen en tus sistemas empresariales. Cualquier tipo de agregación que añadas encima va a hacerte perder datos.
Joannes Vermorel: Quizás sea un buen equilibrio en el sentido de que, tal vez, al agregar, ahorres CPU o memoria, pero puede que no. Esta es una discusión súper técnica, y mi sugerencia sería no hacer ningún tipo de optimización prematura. Trata de no pensar de inmediato en esos niveles de agregación como si fueran problemas difíciles; en su mayoría, son problemas sencillos en lo que respecta a la visualización. Con los sistemas informáticos modernos, es muy fácil tener un exceso de capacidades en relación con tus necesidades reales.
En los 90, era un desafío agregar datos por día, pero hoy en día, no lo es. Si hay un proveedor que te dice que tiene un límite de cinco años de historial, esto es simplemente muy extraño. No existe tal limitación. Hay muchas maneras de manejar cualquier tipo de granularidad, incluso hasta el milisegundo. Sin embargo, no es necesariamente algo muy sensato, y no querrás hacer eso con un cubo real en el que estás usando un byte de memoria para cada celda de tu cubo. Este es un aspecto muy técnico.
Los sistemas modernos te darán cualquier tipo de agregación que necesites y más. Esto no es una restricción. No razones por implicación, tratando de pensar en todas las técnicas que deseas usar basándote en este cubo, como si fuera la única manera de abordar el problema. No lo es. Hay muchas cosas que se pierden, como la perecibilidad, la canibalización, la sustitución y los tiempos de entrega variables. El hecho de enmarcar todo en un cubo impone enormes restricciones sobre lo que incluso puedes considerar respecto a tu supply chain, y esto es algo negativo. Mi sugerencia es no encerrar tu mente en una jaula. Simplemente, trata de tener una perspectiva amplia porque hay muchas más restricciones arbitrarias que no ayudan a resolver los problemas de tu supply chain.
Nicole Zint: Muchas gracias, Joannes, por compartir tus pensamientos sobre este tema. Gracias por vernos, y nos vemos la próxima semana.