Nuestra tecnología de deep learning es un hito importante tanto para nosotros como para nuestros clientes. Algunos de los cambios asociados con deep learning son obvios y tangibles, incluso para los no expertos. Por ejemplo, las oficinas de Lokad están ahora llenas de cajas de Nvidia asociadas a productos de gaming de gama alta. Cuando empecé Lokad en 2008, ciertamente no habría anticipado que tendríamos tanto hardware de gaming de gama alta involucrado en la resolución de supply chain challenges.

Luego, algunos otros cambios son mucho más sutiles y, sin embargo, de crucial importancia: pasar de CRPS (puntuación continua de probabilidad ordenada) a cross-entropy es uno de esos cambios.

La adopción sistemática en Lokad de la métrica CRPS se introdujo al mismo tiempo que nuestro motor de forecast de 4ta generación; nuestro primer motor probabilístico nativo. El CRPS había sido introducido como una generalización de la función de pérdida pinball, y cumplió bien su propósito. En aquel entonces, Lokad nunca habría resuelto sus desafíos aeroespaciales o de moda – en cuanto a supply chain – sin esta métrica. Sin embargo, el CRPS, que, en términos generales, generaliza el error absoluto medio a probabilistic forecasts, no está exento de fallas.

Por ejemplo, desde la perspectiva del CRPS, está bien asignar una probabilidad cero a un resultado estimado, si la mayor parte de la masa de probabilidad no se desvía demasiado del resultado observado. Esto es exactamente lo que se esperaría de una generalización del error absoluto medio. Sin embargo, esto también implica que los modelos probabilísticos pueden afirmar con certeza absoluta que ciertos eventos no ocurrirán, mientras que dichos eventos sí ocurren. Este tipo de afirmaciones estadísticas enormemente incorrectas sobre el futuro conlleva un coste que está estructuralmente subestimado por el CRPS.

El cross-entropy, en contraste, asigna una penalización infinita a un modelo que ha sido demostrado equivocado tras asignar una probabilidad cero a un resultado que, no obstante, ocurre. Así, desde la perspectiva del cross-entropy, los modelos deben adoptar la postura de que todos los futuros son posibles, pero no igualmente probables. Asignar una probabilidad cero uniforme cada vez que no hay datos suficientes para una estimación precisa de la probabilidad ya no es una respuesta válida.

Sin embargo, el cross-entropy no solo es superior desde una perspectiva puramente teórica. En la práctica, utilizar el cross-entropy para guiar el proceso de aprendizaje estadístico produce, en última instancia, modelos que resultan ser superiores en ambas métricas: cross-entropy y CRPS; incluso si el CRPS resulta ausente en el proceso de optimización por completo.

El cross-entropy es la métrica fundamental que impulsa nuestro forecasting engine. Esta métrica se aleja sustancialmente de la intuición que respaldaba nuestros anteriores forecasting engines. Por primera vez, Lokad adopta una perspectiva bayesiana completa sobre el aprendizaje estadístico, mientras que nuestras iteraciones previas estaban más fundamentadas en la perspectiva frecuentista.

Consulta nuestra última entrada en la base de conocimientos acerca de cross-entropy.