00:00:06 Introducción al desarrollo generacional del machine learning.
00:00:38 1ra generación: algoritmos de pronóstico estadístico de los años 50/60.
00:03:26 Transición a la 2da generación: modelos no paramétricos de finales de los 80/90.
00:06:20 Convergencia estadística vs. machine learning.
00:07:55 Impacto de las mejoras tecnológicas en la evolución del machine learning.
00:09:54 Efecto del deep learning en el pronóstico, contrastando con el ML estándar.
00:11:31 Modelos paramétricos, evitando el sobreajuste del deep learning.
00:13:01 Relación del deep learning con hardware, GPUs, álgebra lineal.
00:14:50 Papel de la computación en la nube en el procesamiento de datos del deep learning.
00:16:01 Desafíos de las GPUs, beneficios de la computación en la nube para el pronóstico de la cadena de suministro.
00:17:22 Futuro del ML: surgimiento de la programación diferenciable.
00:19:13 Inversiones en ML de la industria de la cadena de suministro, adaptación al big data.
00:22:44 Ritmo de cambio tecnológico, adaptación de los ejecutivos de la cadena de suministro.
00:25:24 Conclusión: SaaS, importancia de la computación en la nube en la evolución tecnológica.

Resumen

En una entrevista, Joannes Vermorel, fundador de Lokad, habló sobre la historia del machine learning (ML), desde sus orígenes en los algoritmos de pronóstico de series de tiempo de la década de 1950 hasta la aparición del deep learning. Él enfatizó las aplicaciones del ML en la gestión de la cadena de suministro, especialidad de su empresa. Vermorel describió la progresión desde modelos simples basados en datos hasta modelos estadísticos no paramétricos capaces de aprender cualquier patrón con suficientes datos. La conversación abarcó hitos clave del ML, el papel de la tecnología y el desafío del sobreajuste. Vermorel predijo futuros desarrollos del ML, incluyendo la programación diferenciable y el enfoque continuo en el reconocimiento de voz e imagen. Concluyó abogando por el Software como Servicio para ayudar a los ejecutivos de la cadena de suministro a mantenerse al día con el rápido cambio tecnológico.

Resumen Extendido

La entrevista entre el presentador Kieran Chandler y Joannes Vermorel, fundador de Lokad, profundiza en la evolución y desarrollo del machine learning, con un énfasis particular en su aplicación en la gestión de la cadena de suministro.

Vermorel sugiere que los orígenes del machine learning se remontan a los años 50 y 60, con la aparición de los primeros algoritmos de pronóstico de series de tiempo. Estos algoritmos, aunque no fueron reconocidos tradicionalmente como machine learning en su concepción, exhibieron características clave del machine learning, como ser basados en datos, estadísticos y diseñados para aprender patrones a partir de datos. Vermorel destaca además que el uso inicial de estos algoritmos estaba estrechamente relacionado con la optimización de la cadena de suministro, un área en la que su empresa, Lokad, se especializa en la actualidad.

En cuanto a los métodos específicos utilizados en esta fase inicial del machine learning, Vermorel menciona varios que serían familiares para los profesionales de la cadena de suministro. Estos incluyen promedios móviles, suavización exponencial y modelos más complejos como los métodos de Holt-Winters y Box-Jenkins. Caracteriza estos algoritmos iniciales como relativamente simples, diseñados principalmente para cumplir con las capacidades computacionales de las computadoras disponibles durante este período. Estos modelos iniciales necesitaban ser rápidos y eficientes, capaces de procesar cientos de puntos de datos con miles de operaciones dentro de las limitaciones de potencia de procesamiento y memoria limitadas.

Cambiando la conversación hacia la progresión del machine learning, Vermorel comparte que el siguiente salto significativo ocurrió a fines de los años 80 y en los años 90, marcado por la aparición de modelos estadísticos no paramétricos. Esta evolución de los modelos paramétricos de la primera generación, caracterizados por un número fijo de parámetros ajustables (por lo general no más de una docena), representó un desarrollo crítico.

Los modelos paramétricos, limitados por sus parámetros fijos, solo podían adaptarse a cierto rango de patrones de datos. En cambio, los modelos no paramétricos no tenían una forma predeterminada, lo que les permitía potencialmente aprender cualquier patrón, siempre que hubiera suficientes datos. Este cambio señaló un avance en las capacidades y flexibilidad del machine learning, sentando las bases para las aplicaciones de machine learning más complejas y versátiles que se ven hoy en día.

Vermorel comienza destacando el desafío del sobreajuste en los modelos de pronóstico tempranos, donde aumentar el número de parámetros podía llevar a modelos que se ajustaban perfectamente a los datos históricos pero no ofrecían capacidades predictivas para el futuro. Esto fue un rompecabezas importante en el campo durante décadas hasta finales de los años 90, cuando surgieron soluciones satisfactorias con la aparición de modelos no paramétricos.

Luego, discute los dos campos que surgieron en el campo en ese momento: el aprendizaje estadístico y el machine learning. El primero estaba compuesto por matemáticos que hacían estadísticas con un uso extensivo de computadoras, mientras que el segundo consistía en profesionales de la informática que se iban moviendo gradualmente hacia algoritmos estadísticos. Señala que estas perspectivas dieron lugar a diferentes estilos de modelado. Por ejemplo, el campo del aprendizaje estadístico favorecía las máquinas de vectores de soporte, un modelo bien entendido matemáticamente. Por otro lado, el campo del machine learning se sentía más atraído por las redes neuronales, que implicaban mucha manipulación numérica.

Chandler luego dirige la conversación hacia el papel de la tecnología en la evolución de estos campos. Vermorel menciona un avance significativo a fines de los años 90, la idea de que más datos conducen a mejores resultados. Este concepto se extendió no solo a series de tiempo más largas, sino también a conjuntos de datos más diversos. Inicialmente, este enfoque era un proceso lento ya que requería esperar a que se acumulara más historia. Sin embargo, los avances en el machine learning y el aprendizaje estadístico permitieron aprovechar datos de más productos, lo que llevó a pronósticos de demanda más precisos.

Vermorel menciona la introducción de modelos como las máquinas de vectores de soporte a fines de los años 90 y los bosques aleatorios a principios de los años 2000 como pasos significativos hacia la captura de información de conjuntos de datos más grandes y diversos.

La discusión luego se centra en la aparición del deep learning. Vermorel explica que la acumulación gradual de ideas críticas hizo que el deep learning fuera considerablemente diferente del machine learning estándar. Uno de los principales beneficios del deep learning es su capacidad para aprender funciones más complejas con menos datos en comparación con los algoritmos de aprendizaje superficial.

Curiosamente, Vermorel señala que el deep learning no necesariamente supera a los algoritmos clásicos en conjuntos de datos pequeños. Sin embargo, sobresale cuando se trata de conjuntos de datos muy grandes, donde los algoritmos de aprendizaje superficial no logran aprovechar la información adicional disponible.

En un giro sorprendente, el deep learning volvió a utilizar modelos paramétricos, aunque con varios millones de parámetros, a diferencia de los modelos paramétricos iniciales que tenían un número fijo de parámetros. El desafío aquí era evitar el sobreajuste masivo, que se superó mediante una serie de técnicas ingeniosas.

Vermorel también habló sobre el papel de las Unidades de Procesamiento Gráfico (GPU) en el avance del machine learning. Estas son esenciales para tareas de deep learning, pero son costosas y consumen mucha energía. Las plataformas de computación en la nube alivian este problema al proporcionar granjas de GPU bajo demanda, abordando eficazmente los problemas de costos y consumo de energía. Esto ha sido particularmente beneficioso para la optimización de la cadena de suministro, donde los pronósticos estadísticos se ejecutan típicamente una vez al día, requiriendo asignación de GPU solo por un corto período de tiempo.

Pasando al futuro del machine learning, Vermorel predijo un cambio hacia modelos no paramétricos dentro del espectro del deep learning. Señaló un nuevo enfoque, “programación diferenciable”, donde la estructura del modelo de deep learning se ajusta durante la fase de aprendizaje. Este enfoque dinámico podría ser la próxima fase significativa en el machine learning y el aprendizaje estadístico.

Cuando se le preguntó sobre el enfoque actual de las grandes empresas de tecnología, Vermorel mencionó que el reconocimiento de voz, la síntesis de voz, el reconocimiento de imágenes y la traducción de lenguaje natural están recibiendo una inversión sustancial en la actualidad. Estas son áreas centrales de investigación y desarrollo que impulsan el futuro del machine learning. Sin embargo, las empresas de la cadena de suministro, incluida Lokad, están un poco rezagadas, ya que carecen de los recursos para invertir fuertemente en tecnologías de machine learning.

La optimización de la cadena de suministro presenta desafíos únicos para la aplicación del machine learning, especialmente porque trata con fragmentos de datos más pequeños en comparación con otros campos como el procesamiento de imágenes. Esto requiere una utilización equilibrada tanto de las CPUs como de las GPUs.

Chandler luego planteó el problema del rápido cambio tecnológico y el desafío que plantea a los ejecutivos de la cadena de suministro, cuyas soluciones implementadas corren el riesgo de quedar rápidamente obsoletas. Vermorel sugirió que el Software como Servicio (SaaS) podría ser una solución viable. Destacó a Lokad como ejemplo de un proveedor de SaaS que actualiza y optimiza constantemente sus servicios, aliviando así la carga para sus clientes.

Transcripción completa

Kieran Chandler: Hoy en Lokad TV, vamos a retroceder al principio e investigar el desarrollo generacional del machine learning y también entender si este progreso gradual puede darnos alguna pista sobre lo que depara el futuro del machine learning. Entonces, Joannes, ¿cómo era esta primera generación de machine learning? ¿Cuándo surgió?

Joannes Vermorel: Curiosamente, diría que los primeros algoritmos de machine learning estaban, de alguna manera, relacionados con la cadena de suministro con el primer algoritmo de pronóstico de series temporales que surgió durante los años 50 y 60. Tenía todos los ingredientes principales: se basaba en datos, era estadístico y, de hecho, intentaba aprender patrones a partir de los datos. En ese momento, la gente no lo llamaba machine learning; eran simplemente algoritmos de pronóstico. Pero todos los ingredientes estaban ahí.

Kieran Chandler: Entonces, ¿qué tipo de métodos se utilizaron? Quiero decir, la mayoría de los profesionales de la cadena de suministro los conocerían, ¿verdad?

Joannes Vermorel: Conocerían el promedio móvil, el suavizado exponencial, y luego hay métodos más sofisticados de esta época, como el modelo Holt-Winters, los modelos Box-Jenkins, etc. Así que hubo una serie de algoritmos relativamente simples que surgieron justo al comienzo de las computadoras. Es interesante ver que tan pronto como tuvimos computadoras en las empresas, se utilizaron para optimizar las cadenas de suministro, aunque fuera para propósitos relativamente modestos.

Kieran Chandler: En aquel entonces, las cosas eran muy diferentes en el mundo del análisis computacional. ¿Cuál era el enfoque principal en aquellos días?

Joannes Vermorel: El enfoque principal era tener tan poca potencia de procesamiento, memoria y capacidad para hacer muchos cálculos. Todos esos modelos de primera generación, que se remontan a los años 60 y 70, se centraban en ser súper rápidos. Eso significa que si tenías 100 puntos de datos para procesar, solo tenías que hacer unos pocos miles de operaciones con esos puntos de datos. Estos algoritmos estaban diseñados para máquinas que tenían solo kilobytes de memoria y frecuencias de procesador inferiores a 1 MHz.

Kieran Chandler: Me imagino que en aquel entonces se aplicaba muchos menos recursos al análisis computacional en comparación con hoy en día, donde tienes cientos de miles de personas trabajando en ello. ¿Cuánto tiempo tomó para que surgiera la siguiente generación? ¿Tomó mucho tiempo que eso sucediera?

Joannes Vermorel: Fue una evolución gradual. Tuvimos la primera ola de modelos que surgieron en los años 60 y 70, y todos eran modelos paramétricos. Estos eran modelos estadísticos con un número fijo de parámetros, típicamente no más de una docena.

Kieran Chandler: ¿Qué significa eso, un parámetro?

Joannes Vermorel: Un parámetro es como un número. Entonces, tu modelo estadístico tenía un par de números que podías ajustar para que el modelo se ajustara a los datos. La esencia de la fase de aprendizaje es encontrar esos parámetros. Típicamente, tendrías alrededor de media docena, tal vez hasta una docena para los modelos más sofisticados, y eso era todo. Lo que sucedió durante finales de los años 80 y más fuertemente en los años 90 fue la aparición de modelos estadísticos no paramétricos. Eso fue interesante porque la primera generación de modelos no podía ajustarse a ningún tipo de patrón de series temporales o cualquier tipo de patrón de demanda; tenían un número muy limitado de parámetros, por lo que eran muy limitados en lo que podían aprender observando datos históricos.

Kieran Chandler: La segunda generación, pasando de paramétrica a no paramétrica, fue significativa. Si tenías suficientes datos, potencialmente podías aprender cualquier patrón. Este avance a finales de los años 90 llevó al desarrollo de modelos con propiedades matemáticas atractivas. Dado un número arbitrariamente grande de datos, podías acercarte arbitrariamente al mejor modelo sin terminar con un problema de sobreajuste. El sobreajuste, por supuesto, ocurre cuando aumentas el número de parámetros hasta un punto en el que el modelo se ajusta perfectamente a tus datos históricos pero pierde capacidades predictivas sobre el futuro. El sobreajuste es un problema desconcertante, se trata de tener un modelo de pronóstico que sea preciso en los datos que no tienes. Este problema desconcertó a los tomadores de decisiones durante décadas, hasta que surgieron algunas soluciones satisfactorias con la introducción de modelos no paramétricos a finales de los años 90. Con estos modelos, comenzamos a ver el advenimiento del aprendizaje automático. ¿Cómo surgió eso y qué impacto tuvo?

Joannes Vermorel: Es interesante. En términos de terminología, teníamos varios grupos. Teníamos el grupo de aprendizaje estadístico donde los matemáticos, que estaban haciendo estadísticas, comenzaron a usar computadoras extensivamente para apoyar su trabajo. Por otro lado, el aprendizaje automático era lo contrario. Eran personas de informática que encontraron este tipo de problemas y comenzaron a moverse gradualmente hacia algoritmos estadísticos. Fue más una diferencia de perspectiva.

Por ejemplo, en el grupo de aprendizaje estadístico, tenías máquinas de vectores de soporte que se entendían bien desde una perspectiva matemática, lo cual atraía a la comunidad estadística más hardcore. Por otro lado, tenías redes neuronales, mucha cocina numérica que atraía a la comunidad de aprendizaje automático. Eran perspectivas diferentes sobre el dominio y gradualmente convergieron.

Kieran Chandler: Independientemente del grupo al que pertenecieras, lo que estaba evolucionando a tu alrededor era la tecnología y las capacidades de lo que podías lograr con ella. Entonces, ¿cuáles fueron las mejoras tecnológicas y los avances significativos que realmente ayudaron con todo esto?

Joannes Vermorel: El avance a finales de los años 90 fue la idea de que si tenías más datos, obtendrías mejores resultados. Y no me refiero solo a series de tiempo más largas, sino también a más series de tiempo. Para la cadena de suministro, eso significa, ¿puedes obtener un pronóstico de demanda más preciso solo porque tenías más historia? Pero el problema es que si quieres un año o más de historial de ventas, necesitas esperar otro año, lo cual es un proceso muy lento. Además, con nuevos productos que se lanzan y algunos productos que se eliminan gradualmente, nunca obtienes mucho más historial.

Hubo algunos avances en la capacidad de aprovechar más datos de más productos. Esto no ocurrió a finales de los años 90; ocurrió más en los años 2000. Lo que lo hizo posible fueron los avances en el aprendizaje automático y el aprendizaje estadístico, todos relacionados con esos modelos no paramétricos.

Hubo una serie de estos modelos estadísticos que representaron avances, como las máquinas de vectores de soporte, publicadas alrededor de ‘96 con una implementación funcional para ‘98, y luego los bosques aleatorios alrededor de 2001. Estos modelos comenzaron a funcionar muy bien al capturar información de conjuntos de datos más grandes con más diversidad en términos de características.

Kieran Chandler: El aprendizaje profundo, ¿cuál fue el impacto de esto y cuál fue la diferencia clave entre el aprendizaje profundo y el aprendizaje automático estándar?

Joannes Vermorel: Es interesante porque el aprendizaje profundo es la conjunción de probablemente una docena de ideas críticas, pero todo fue muy gradual. Al juntar todas esas cosas, realmente hizo una gran diferencia. Uno de los beneficios clave del aprendizaje profundo es la capacidad de aprender funciones más complejas con menos datos. El problema con los algoritmos de aprendizaje automático de segunda generación, como el aprendizaje superficial, es que pueden aprender cualquier patrón estadístico si se les proporciona suficientes datos, pero en la práctica, se necesita una enorme cantidad de datos para lograrlo, lo cual es completamente impráctico. El aprendizaje profundo, de alguna manera, fue capaz de aprovechar mejor conjuntos de datos muy grandes.

En primer lugar, el aprendizaje profundo no necesariamente supera a los algoritmos clásicos en conjuntos de datos pequeños, pero cuando los conjuntos de datos se vuelven muy grandes, esos algoritmos de aprendizaje superficial realmente no aprovechan tanto como es posible, toda la información adicional que está ahí, mientras que el aprendizaje profundo sí puede hacerlo. Entonces, ¿qué hace diferente al aprendizaje profundo? Volvemos a los modelos paramétricos, que se utilizaron por primera vez en la década de 1950 o 1960. Estos tienen un número fijo de parámetros, y pasamos a modelos no paramétricos donde el número de parámetros es dinámico. Luego, con el aprendizaje profundo, volvemos a los modelos paramétricos, pero la gran diferencia es que estos modelos tienen varios millones de parámetros. Nuestros modelos pueden tener hasta 20 millones de parámetros.

Para evitar el sobreajuste masivo, se descubrieron una serie de trucos muy ingeniosos como parte del movimiento de aprendizaje profundo. Otro ingrediente clave fue pensar en modelos estadísticos que tuvieran una afinidad máxima con el hardware informático que teníamos, como las unidades de procesamiento gráfico (GPU), que son muy eficientes en álgebra lineal. Uno de los trucos computacionales del aprendizaje profundo es llevar todo de vuelta al álgebra lineal. Al cambiar de cálculos de CPU a cálculos de GPU, obtuvimos dos órdenes de magnitud de cálculos adicionales, lo que hizo que muchas cosas que antes no eran posibles de repente se volvieran posibles.

Kieran Chandler: Hablas sobre el progreso del hardware y la capacidad de procesamiento, ¿cuáles fueron las otras mejoras técnicas que se hicieron en la industria que hicieron esto posible? ¿Cómo encajó la aparición de la nube en todo esto?

Joannes Vermorel: La nube realmente ayudó a facilitar la recopilación de todos los datos. Si quieres que el aprendizaje profundo sea realmente interesante, necesitas muchos datos. Mover terabytes de datos es mucho más fácil con la nube.

Kieran Chandler: Parece que las plataformas de computación en la nube han simplificado las cosas para todos. Por ejemplo, ya no tienes que lidiar con cuotas de disco o administrar manualmente tu almacenamiento en múltiples unidades físicas. ¿Es eso correcto?

Joannes Vermorel: Absolutamente. Las plataformas de computación en la nube han eliminado muchos de los procesos manuales asociados con la gestión del almacenamiento. Además, han facilitado la consolidación de todas las capas necesarias para el aprendizaje profundo.

Kieran Chandler: ¿Y qué hay del costo del aprendizaje profundo y las GPUs? Son bastante caros y consumen mucha energía, ¿verdad?

Joannes Vermorel: En efecto, las tarjetas gráficas pueden consumir fácilmente alrededor de 400 a 500 vatios. Si comienzas a tener varias de ellas, puede convertirse en un problema eléctrico. Sin embargo, la computación en la nube ha facilitado esto al ofrecer granjas de GPU bajo demanda. En el caso específico de la cadena de suministro, es muy conveniente porque normalmente solo necesitas hacer tu pronóstico estadístico una vez al día. Puedes asignar tus GPUs durante una hora, hacer todos tus cálculos y luego devolverlos a tu plataforma de computación en la nube preferida, ya sea Microsoft Azure, Amazon Web Services o Google Cloud.

Kieran Chandler: El aprendizaje automático se ha desarrollado gradualmente en las últimas décadas. ¿Podemos tomar alguna pista de esto para predecir el futuro del aprendizaje automático? ¿Qué podemos esperar ver a continuación?

Joannes Vermorel: Curiosamente, todo va en ciclos. Comenzamos con modelos paramétricos y pronósticos de series temporales, luego pasamos a modelos no paramétricos con los primeros algoritmos genéricos de aprendizaje automático. A continuación, hicimos la transición a modelos hiperparamétricos con el aprendizaje profundo. Ahora, lo que está emergiendo son modelos no paramétricos nuevamente en el espectro del aprendizaje profundo. Estos son métodos de aprendizaje profundo más sofisticados que ajustan la estructura misma del modelo durante la fase de aprendizaje. Si tuviera que apostar por la palabra de moda del mañana, sería “programación diferenciable”. Este enfoque es similar al aprendizaje profundo, pero es mucho más dinámico en la forma en que se construye y evoluciona el modelo durante la fase de aprendizaje.

Kieran Chandler: Entonces, la programación diferenciable es la nueva palabra de moda. La industria de la cadena de suministro a menudo está un poco rezagada en términos de en qué se están enfocando. ¿En qué están invirtiendo investigación en este momento y qué grandes desarrollos podemos esperar en el próximo año más o menos?

Joannes Vermorel: En lo que respecta al aprendizaje automático, los grandes problemas en los que las grandes empresas tecnológicas están invirtiendo miles de millones son el reconocimiento de voz, la síntesis de voz, el reconocimiento de imágenes y la traducción de lenguaje natural. Estos son problemas fundamentales para el aprendizaje impulsado por la información y están a la vanguardia en términos de investigación y desarrollo. Las cadenas de suministro, incluidas aquellas que desarrollan software de aprendizaje automático, están un poco rezagadas. Nadie en la cadena de suministro tiene los recursos para invertir mil millones de dólares al año para mejorar la demanda.

Kieran Chandler: Se ha invertido mucho en pronósticos, pero parece que es una fracción pequeña de lo que es necesario. Parece que está rezagado un par de años detrás de los grandes desarrollos. ¿Qué piensas al respecto?

Joannes Vermorel: Tienes razón. El gran desarrollo en este momento es adaptar las técnicas encontradas en otras áreas, como el procesamiento de imágenes y voz, a situaciones de cadena de suministro. Esto requiere un redesarrollo significativo. Por ejemplo, esos grandes problemas típicamente tienen grandes fragmentos de datos para procesar. Una imagen, por ejemplo, será de varios megabytes. Por lo tanto, no se requiere un pipeline sofisticado para mover tus datos de la CPU a la GPU. Tu imagen es un objeto grande con mucha información que permanecerá en la GPU durante bastante tiempo antes de que se realice el cálculo.

Por otro lado, las cadenas de suministro tienen diferentes requisitos. Los objetos que deseas optimizar, como las unidades de almacenamiento, son más pequeños en cuanto a datos pero numerosos. Toda tu historia de movimientos para una SKU cabrá en unos pocos kilobytes, pero tienes decenas de millones de ellos. Por lo tanto, adaptar estas técnicas desarrolladas para grandes problemas de aprendizaje automático a las cadenas de suministro presenta una serie de desafíos. Nos obliga a aprovechar al máximo tanto la CPU como la GPU porque todavía hay muchos cálculos que se hacen mejor en el lado de la CPU.

Kieran Chandler: Parece que la industria está en constante evolución y cambio. Las implementaciones tienden a quedar obsoletas rápidamente. ¿Cómo puede un ejecutivo de cadena de suministro mantenerse al día y tienes algún consejo al respecto?

Joannes Vermorel: El ritmo del cambio es, de hecho, un desafío. Pero siempre ha sido un problema en lo que respecta a las computadoras. Mi sugerencia es optar por soluciones de Software como Servicio (SaaS) como Lokad. Por ejemplo, estamos en la quinta generación de nuestro motor de pronóstico, pero nuestros clientes no tienen que hacer nada técnico para actualizar. Los actualizamos de una versión a la siguiente en su nombre, como parte del paquete.

Con la llegada del software SaaS, este problema se vuelve mucho más fácil de gestionar. No tienes que dedicar recursos solo para mantenerse al día, tu proveedor se encarga de eso por ti. Esto no era así con el software local, donde la actualización de una versión a la siguiente era típicamente un gran proyecto.

Por cierto, las plataformas de computación en la nube han resuelto este mismo problema para nosotros. Entonces, un gerente de cadena de suministro que utiliza una aplicación SaaS como Lokad, que ofrece análisis predictivos avanzados para optimizar su cadena de suministro, se mantendrá al día con el ritmo del cambio. Lokad, a su vez, se mantiene al día con el ritmo del cambio porque la plataforma de computación en la nube que utilizamos es Plataforma como Servicio (PaaS) y constantemente actualiza muchas cosas por nosotros.

Kieran Chandler: Parece que todos están manteniéndose al día con los avances tecnológicos, eso es muy perspicaz. Gracias por compartir tus pensamientos, Joannes. Continuaremos esta discusión la próxima vez. Gracias por ver, a todos.