Reseña de Kardinal.ai, Proveedor de Software de supply chain

Por Léon Levinas-Ménard
Última actualización: abril, 2025

Volver a Investigación de mercado

Kardinal.ai es una empresa de software fundada en 2015 que ofrece una plataforma de optimización de rutas y de inteligencia logística basada en la nube y activa en todo momento para operaciones de entrega de última milla. Aprovechando la optimización combinatoria avanzada, el machine learning y la integración de datos en tiempo real, Kardinal.ai refina continuamente las rutas de entrega, adaptándose de manera dinámica a las fluctuaciones del tráfico, restricciones operativas y eventos impredecibles para mejorar la asignación de recursos, reducir los costos operativos y aumentar la toma de decisiones humanas. Respaldada por una serie de rondas de financiación que suman aproximadamente $12.6M y construida sobre un stack tecnológico moderno que incluye microservicios, Kubernetes, Golang e incluso Rust, la empresa se posiciona como una solución ágil pero robusta para los desafíos logísticos complejos en el entorno actual de supply chain.

Antecedentes de la Compañía y Financiación

Kardinal.ai fue fundada en 2015 por Jonathan Bouaziz, Cedric Hervet y Hugo Farizon, surgida de la convergencia de una profunda experiencia matemática y conocimientos directos de los retos logísticos. La génesis y el desarrollo continuo de la empresa se detallan en su página “À propos”1 y han sido además documentados a través de perfiles en PitchBook2 y Tracxn3. El proveedor ha recaudado aproximadamente $12.6M—con una destacada ronda de Serie A de alrededor de $10.4M en 2022—lo que señala la confianza de los inversores, incluso mientras se mantiene enfocado en un nicho dentro de la optimización de última milla.

Descripción del Producto: Lo que ofrece Kardinal.ai

La plataforma SaaS de Kardinal.ai ofrece optimización de rutas en tiempo real diseñada para:

  • Optimizar la entrega de última milla: Crear y ajustar dinámicamente las rutas de entrega teniendo en cuenta las condiciones de los conductores, patrones de tráfico y ventanas de entrega. Esta reoptimización en tiempo real garantiza recomendaciones de rutas prácticas que responden activamente a las incertidumbres en el terreno4.
  • Mejorar la eficiencia operativa: Aprovechando algoritmos sofisticados, la plataforma afirma reducir costos en un rango del 10% al 40% mientras mejora la calidad general del servicio y la asignación de recursos. Su modelo de soporte a la decisión aumenta el juicio humano—los operadores revisan y validan las sugerencias, en lugar de depender de una automatización completa4.
  • Integrarse de forma fluida: Ofrecida como un servicio en la nube con sólidas integraciones API, la solución está diseñada para conectarse a sistemas existentes como TMS, ERP u otros sistemas empresariales, soportando tanto despliegues de IT de gran envergadura como implementaciones graduales y por fases5.

Mecanismos Técnicos y Operativos

Tecnologías y Algoritmos Fundamentales

La plataforma de Kardinal.ai se basa en técnicas avanzadas de matemáticas y machine learning:

  • Optimización Combinatoria: El motor maneja “un número ilimitado de restricciones” para construir rutas de entrega que reflejan variables del mundo real, como se muestra en la página principal6.
  • Machine Learning para la Mejora Continua: Los datos de campo capturados a través de dispositivos móviles de los conductores alimentan modelos de machine learning que predicen los tiempos de entrega, identifican patrones de rendimiento y afinan los cálculos de rutas subsiguientes. Este proceso iterativo asegura que la solución aproveche tanto datos históricos como en tiempo real para aumentar la precisión4.
  • Integración de Datos en Tiempo Real: Variables dinámicas como las condiciones del tráfico y las ventanas de entrega se integran de forma continua, permitiendo una reoptimización inmediata “antes, durante y después” de las entregas.

Despliegue e Integración

La plataforma se ofrece como una solución SaaS y está diseñada para integrarse sin esfuerzo a través de APIs bien documentadas. Esto facilita una incorporación rápida, así como despliegues híbridos y graduales de IT, haciendo posible vincular el servicio con sistemas logísticos existentes como TMS o ERP5.

Stack Tecnológico y Perspectivas del Equipo

Aunque los detalles minuciosos son limitados, las perspectivas disponibles sugieren el uso de un stack tecnológico moderno que incluye microservicios orquestados con Kubernetes y componentes de backend desarrollados en Golang y Rust. Las perspectivas compartidas por el cofundador Hugo Farizon destacan un compromiso con sistemas de alto rendimiento y escalables, y con prácticas de desarrollo ágiles y multifuncionales78.

Casos de Uso en el Mundo Real y Impacto Operativo

Se han demostrado implementaciones prácticas de la plataforma de Kardinal.ai en varios estudios de caso:

  • Un estudio de caso sobre la incorporación de datos de tráfico ha mostrado mejoras significativas en las predicciones de navegación, lo que conduce a rutas más fiables9.
  • Estudios de caso adicionales detallan escenarios en la gestión de depósitos y estrategias de precios para la entrega de paquetes, subrayando aún más la capacidad del sistema para mejorar la eficiencia operativa en entornos variados.
  • Alianzas, como las establecidas con DPD France, subrayan el impacto práctico y la validación externa de la solución en contextos de entrega diversos.

Kardinal.ai vs Lokad

Si bien Kardinal.ai se centra en los desafíos operativos de la entrega de última milla, particularmente en la planificación dinámica de rutas y la inteligencia logística en tiempo real, Lokad representa un paradigma diferente dentro de la optimización de supply chain. Fundada en 2008, Lokad ha evolucionado de un forecast basado en la nube a una plataforma integral para la optimización predictiva de supply chain que abarca el forecast de demanda, la gestión de inventarios, estrategias de precios y la planificación de la producción. La plataforma de Lokad aprovecha un lenguaje de dominio específico llamado Envision e incorpora técnicas avanzadas como deep learning y programación diferenciable para generar recomendaciones accionables10111213.

Las diferencias clave incluyen:

• Área de Enfoque: Kardinal.ai está diseñada exclusivamente para la entrega de última milla, mientras que Lokad adopta una visión holística del supply chain al integrar una gama más amplia de optimizaciones de decisiones.

• Enfoque Técnico: Kardinal.ai basa su fortaleza en la optimización combinatoria y en tiempo real de rutas de entrega utilizando flujos de datos en directo. En contraste, Lokad utiliza forecast probabilístico e integra la lógica de supply chain en su Envision DSL, permitiendo una automatización de decisiones de extremo a extremo.

• Implementación e Integración: Ambas utilizan modelos de entrega SaaS basados en la nube e integraciones API. Sin embargo, la plataforma autodesarrollada de Lokad enfatiza un enfoque personalizado y programable para gestionar oscilaciones complejas de supply chain, mientras que Kardinal.ai se centra en reoptimizar dinámicamente las rutas para gestionar la naturaleza variable de la entrega de última milla.

Conclusión

Kardinal.ai ofrece una solución SaaS innovadora y técnicamente robusta para la optimización de la entrega de última milla. Su combinación de optimización combinatoria avanzada, machine learning e integración de datos en tiempo real la posiciona como un complemento eficaz para la toma de decisiones humanas en logística. Aunque algunos aspectos se apoyan en palabras de moda de la industria y descripciones de alto nivel, el stack tecnológico ágil de la plataforma y su impacto operativo demostrado indican su potencial en el mundo real. En comparación con una solución de supply chain más amplia como Lokad, Kardinal.ai destaca por su enfoque láser en la optimización de rutas, mientras que Lokad ofrece un marco más expansivo para Supply Chain Quantitativa. Las empresas con un énfasis principal en los desafíos de última milla encontrarán especialmente atractiva la reoptimización dinámica y la integración ágil de Kardinal.ai.

Fuentes