00:00:01 Introducción y discusión sobre la IA generativa.
00:01:11 Explorando el problema generativo y sus soluciones.
00:02:07 Discutiendo la evolución y el progreso de la IA generativa.
00:03:02 Hitos en machine learning y accesibilidad de herramientas.
00:04:03 Discutiendo las peculiaridades y resultados de las herramientas de IA.
00:05:00 Popularidad y accesibilidad de la IA generativa.
00:06:33 Generación de imágenes con Stable Diffusion, volviéndose accesible.
00:07:37 Discutiendo la accesibilidad de las herramientas generadoras.
00:08:43 Explicando la generación de objetos de alta dimensionalidad.
00:09:38 Desafíos y mejoras en la capacidad dimensional.
00:10:07 Exploración de la generación de texto y sus limitaciones.
00:11:15 Discutiendo la consistencia a diferentes escalas.
00:12:24 Pasando al tema de la especificidad y versatilidad de los generadores.
00:13:46 Comparación del resultado generado por la IA con el producido por humanos.
00:14:59 Discusión sobre modelos de machine learning y generación de lenguaje.
00:15:51 Explorando el método de cortar y pegar en la IA.
00:16:30 Se destaca la falta de sentido común de la IA.
00:17:26 Mención del desempeño de ChatGPT en pruebas de IQ.
00:18:45 Discutiendo la comprensión de la IA y ejemplos.
00:19:47 La comprensión superficial de la IA y la fusión de alta dimensionalidad.
00:20:41 Complejidad de la inteligencia artificial y su historia.
00:21:58 Los elementos desconocidos y la progresión de la inteligencia de la IA.
00:22:25 Discutiendo el cambio en la percepción de la inteligencia.
00:23:45 Perspectivas sobre deep learning e inteligencia artificial.
00:24:24 Concepto de conocimiento latente en los idiomas humanos.
00:25:59 Comprensión del universo en la antigüedad y en la época moderna.
00:27:02 Introducción al concepto de ‘anti-fragilidad’ del libro de Nasim Taleb.
00:28:01 Anti-fragilidad en ecosistemas y sociedades humanas.
00:29:31 Crítica a la capacidad de ChatGPT para generar discursos ‘inteligentes’.
00:31:05 Considerando las aplicaciones de la IA generativa en las empresas.
00:31:37 El papel potencial de la IA generativa en la gestión de supply chain.
00:33:34 Capacidades limitadas de ChatGPT en dominios con escasez de datos.
00:35:00 Precaución al usar código generado por IA en sistemas críticos.
00:36:04 Beneficios de la IA para el supply chain y actividades periféricas.
00:37:37 Discutiendo la tendencia hacia un corpus más amplio para la completación de código.
00:38:45 Comparando los requisitos de parámetros: ChatGPT vs generador más pequeño.
00:40:45 Las implicaciones de la IA generativa en las empresas y el supply chain.
00:41:19 Discutiendo la visión de Lovecraft sobre las verdades profundas del universo.
00:42:01 Relación del mal uso de la tecnología con el software de supply chain.
00:42:56 Preocupaciones sobre la creación y verificación de estudios de caso falsos.
00:44:04 Crítica a las vagas afirmaciones de marketing de los competidores de Lokad.
00:45:10 Discutiendo las limitaciones de los modelos de lenguaje de IA.
00:46:08 Explicando las especificaciones de la IA en la tecnología.
00:47:00 Importancia de la terminología específica en la IA.
00:48:01 Analogía de la compra de una ventana con la comprensión de la IA.
00:48:48 Discusión sobre problemas de integración en la arquitectura del software.
00:50:14 La importancia del diseño central en el software empresarial.
00:50:54 Ejemplo de diseño central en una base de datos transaccional.
00:51:48 La necesidad de un diseño e integración adecuados del software.
00:52:52 Consejos para evaluar la tecnología del proveedor.
00:53:36 Importancia de publicitar los logros en tecnología.
00:54:20 La IA como palabra de moda y la evaluación de proveedores.
00:55:25 Comentarios finales y fin de la entrevista.

Resumen

En esta entrevista, Joannes Vermorel, el fundador de Lokad, analiza el estado e impacto de la IA generativa, enfocándose específicamente en avances como ChatGPT y Stable Diffusion. Vermorel explica la IA generativa y su historia, destacando el progreso incremental logrado en la generación de imágenes y textos. Menciona la facilidad de uso de herramientas recientes como Stable Diffusion y ChatGPT, las cuales han mejorado las tasas de éxito y la accesibilidad. Vermorel enfatiza las limitaciones de los modelos de IA actuales en términos de sentido común y verdadera inteligencia. También discute los desafíos y el potencial de la IA en supply chain management y critica las afirmaciones vagas y engañosas hechas por algunas empresas sobre sus capacidades de IA. Vermorel enfatiza la importancia de comprender la tecnología subyacente y ser cauteloso al evaluar soluciones de IA.

Resumen Extendido

En la entrevista entre el presentador Conor Doherty y Joannes Vermorel, el fundador de Lokad, se discute el estado actual e impacto de la IA generativa, centrándose particularmente en avances como ChatGPT para el texto y Stable Diffusion para las imágenes.

Vermorel comienza definiendo la IA generativa como una colección de soluciones propuestas al problema generativo, que consiste en desarrollar un algoritmo o método para crear una instancia adicional de una representación digital de un conjunto de objetos. Menciona que este tipo de problemas ha existido durante décadas y que, para aplicaciones específicas, han existido generadores exitosos. Por ejemplo, se han utilizado generadores para crear nombres de lugares en Inglaterra que suenen realistas o títulos para una novela de Stephen King.

De igual manera, en el ámbito de la generación de imágenes, ha habido generadores capaces de crear un mapa que se asemeje a un escenario de ‘El Señor de los Anillos’, completo con montañas, bosques, costas y nombres fantásticos. El progreso en este campo, según Vermorel, ha sido incremental con el objetivo de hacer los generadores más amplios y cada vez más dependientes de conjuntos de datos de entrada, en lugar de un extenso conjunto de reglas preprogramadas.

Resaltando dos hitos notables alcanzados el año pasado por la comunidad más amplia de machine learning, Vermorel menciona ChatGPT para texto y Stable Diffusion para imágenes. Aunque estos fueron pasos significativos hacia adelante, al hacer estas herramientas más accesibles, insiste en que fueron incrementales en lugar de revolucionarios, sin representar nuevos descubrimientos en estadística, matemáticas o informática.

Sin embargo, el hecho de que estas herramientas estuvieran empaquetadas y pulidas lo suficiente como para permitir que personas sin conocimientos especializados comenzaran a usarlas en cuestión de minutos fue, sin duda, digno de mención. Esto contrastaba con las herramientas generativas anteriores que, aunque eran capaces de generar imágenes o textos impresionantes, a menudo venían con muchas peculiaridades y requerían cierto grado de experiencia para operarlas de manera efectiva.

Stable Diffusion y ChatGPT se destacaron por su naturaleza fácil de usar. Con Stable Diffusion, por ejemplo, se podía ingresar un prompt simple, como “hermoso castillo en medio del bosque”, y obtener una imagen plausible en un 20% de los casos. Aunque esto estaba lejos de ser perfecto, representó una mejora significativa en comparación con técnicas de generación anteriores que solo tenían una tasa de éxito del 1%.

Esto marcó una mejora de un orden de magnitud, sentimiento que se refleja cuando Vermorel habla sobre ChatGPT. Al igual que con Stable Diffusion, la introducción de ChatGPT marcó un cambio hacia herramientas más accesibles y fáciles de usar en el ámbito de la IA generativa.

En este segmento de la entrevista, Conor Doherty y Joannes Vermorel, fundador de Lokad, discuten la reciente evolución e impacto de los modelos Generative Pre-trained Transformer (GPT). Vermorel enfatiza que el popular modelo ChatGPT no es fundamentalmente nuevo, sino más bien una versión reempaquetada y más accesible de una tecnología preexistente. Señala el 2022 como el año clave en el que la IA generativa se hizo ampliamente accesible al público, en gran parte debido a mejoras en la usabilidad.

La conversación luego se desplaza a instancias específicas en las que los modelos GPT han tenido un impacto público significativo. Vermorel llama la atención sobre los lanzamientos del año pasado, como Stable Diffusion y la tercera iteración de ChatGPT. Explica que el atractivo y éxito de estos modelos radican en el esfuerzo realizado por los equipos de investigación para empaquetar estas tecnologías de manera fácil de usar.

Vermorel brinda ejemplos de esta accesibilidad. Señala que Stable Diffusion, una herramienta para la generación de imágenes, se lanzó como software de código abierto. Esto permitió a usuarios con experiencia mínima en Python configurar un entorno de programación en Python en aproximadamente dos horas y explorar la herramienta de manera independiente. Vermorel destaca que para usar Stable Diffusion, no es necesario ser un programador experto en Python; basta con una comprensión básica de la ejecución en línea de comandos.

También hace referencia a la disponibilidad de tutoriales en línea y al lanzamiento de una interfaz de usuario gratuita, Dream Studio, que permite a los usuarios generar hasta 100 imágenes de forma gratuita. Para lotes de imágenes posteriores, los usuarios deben pagar una tarifa, modelo que también se aplica a la aplicación web de GPT.

Joannes Vermorel explica inicialmente la complejidad de crear una imagen de alta dimensionalidad, citando el ejemplo de una imagen de 1000x1000 píxeles, que en esencia equivale a tres millones de dimensiones al considerar los tres colores primarios. Además, menciona que las iteraciones iniciales estaban limitadas a una capacidad de 512x512, aunque se están realizando mejoras.

De manera similar, se aborda el tema de la generación de texto. Vermorel explica que la dimensionalidad en la generación de texto surge de dos direcciones. La primera se refiere al tamaño de la entrada o prompt, que puede variar desde una línea hasta varios párrafos o incluso páginas. La segunda tiene que ver con hasta dónde puede llegar la generación antes de que el modelo comience a perder consistencia.

Vermorel señala las limitaciones de los modelos actuales, ya que no pueden producir un libro entero de manera consistente de principio a fin. Los desafíos aumentan con el tamaño del texto: una sola palabra requiere consistencia a nivel local, una oración requiere consistencia a una escala mayor, un párrafo aún más, y un libro potencialmente implicaría millones o decenas de millones de dimensiones abstractas.

La conversación luego se desplaza para discutir el aspecto de la “generosidad” en estos modelos. Vermorel lo interpreta como la capacidad de un modelo para abordar diferentes problemas o generar salidas diversas. Un desarrollo interesante en los últimos cinco años, según afirma Vermorel, es la capacidad de la comunidad de deep learning para aprovechar conjuntos de datos masivos.

Ya sean datos de texto de una variedad de fuentes como Wikipedia, foros web o textos legales, los modelos de deep learning han avanzado para generar salidas diversas. Ahora pueden producir desde poesía hasta jerga legal, código o incluso secuencias genómicas cuando se les proporciona el prompt correcto. Lo mismo ocurre con las imágenes, donde las salidas podrían variar desde arte en píxeles hasta imágenes fotorrealistas o diferentes estilos de pintura.

Conor Doherty pregunta a Joannes Vermorel sobre la sofisticación de los modelos de IA, como ChatGPT, en comparación con los humanos. Vermorel elabora sobre la noción de sofisticación, explicando que es compleja debido a la necesidad de definir y aclarar su significado. En respuesta a una posible aplicación del test de Turing, afirma que el estado actual de los modelos de IA depende en gran medida de la fusión de enormes cantidades de datos, extrayendo información de un corpus enorme de textos.

En cierta medida, argumenta que lo que produce ChatGPT es una especie de proceso avanzado de “cortar y pegar”, ensamblando fragmentos de texto encontrados en internet. Reconoce que el poder del modelo radica en la capacidad de unir estas piezas de manera gramatical y sintácticamente correcta, identificando patrones estadísticos de alto nivel que existen entre palabras, frases y oraciones. Vermorel enfatiza que el texto resultante puede sonar similar al humano, pero es principalmente una reproducción de contenido ya escrito por humanos.

Sin embargo, Vermorel modera la discusión al destacar que estos modelos no poseen sentido común. Cita un ejemplo del jefe de IA de Facebook, quien afirma que incluso los modelos de IA más avanzados carecen del sentido común de un gato. Esto se debe a que la IA opera fundamentalmente sobre relaciones estadísticas y carece de la comprensión intuitiva que conlleva el sentido común. Ilustra este punto con un escenario humorístico en el que un modelo de IA sugiere una ruta GPS para evitar el tráfico en medio del océano Atlántico, omitiendo lo absurdo de la situación.

Para articular aún más las limitaciones de la IA actual, Vermorel discute un experimento de investigación de Amazon en el que ChatGPT fue sometido a una serie de pruebas de IQ. Los resultados situaron al modelo de IA aproximadamente a una desviación estándar por debajo de la norma, lo que resuena con su perspectiva de que la IA se limita principalmente a ensamblar información sin la comprensión innata que poseen los humanos.

Sin embargo, enfatiza que incluso una persona con habilidades cognitivas limitadas es mucho más inteligente que un gato. Esta comparación sirve para subrayar que, a pesar de todas sus capacidades impresionantes, la IA está lejos de igualar el nivel de inteligencia de un gato, y mucho menos de un humano. Vermorel nos recuerda que, a pesar de nuestra percepción de las limitaciones cognitivas de un gato, aún estamos lejos de crear un modelo de IA con una inteligencia comparable.

Esta conversación subraya la complejidad de la sofisticación de la IA, el proceso detrás de la generación de textos por IA, y las limitaciones que la IA enfrenta actualmente en términos de sentido común y comprensión intrínseca. Brinda una perspectiva valiosa sobre el estado de la IA y sus capacidades actuales, al tiempo que modera las expectativas para su futuro inmediato.

Vermorel elabora sobre la noción de que la comprensión del mundo por parte de la IA es increíblemente superficial. Describe los procesos que estos modelos utilizan como “mezcla de alta dimensionalidad de los datos de entrada”. También contempla la posibilidad de que con modelos más sofisticados, esto podría ser suficiente para alcanzar la inteligencia, pero sospecha que la verdadera inteligencia puede ser más compleja.

Según él, el camino de la IA ha sido más acerca de identificar lo que la inteligencia no es, en lugar de definir lo que es. Este proceso de clarificación ha estado en marcha durante aproximadamente 70 años. Identifica el avance de deep learning en 2011-2012 como un punto de inflexión significativo, que permitió una multitud de aplicaciones que han resultado en aportes sustanciales. Sin embargo, enfatiza la incertidumbre en el campo. Postula que nuestra comprensión de la inteligencia podría necesitar ser redefinida cada vez que se desarrolle una nueva técnica de IA.

El anfitrión luego cuestiona a Vermorel sobre las mejoras en el rendimiento de la IA a lo largo de diferentes iteraciones, centrándose en ChatGPT. Vermorel acuerda que la IA generativa, incluido ChatGPT, ha mejorado significativamente con el tiempo, pero señala la dificultad de cuantificar las mejoras necesarias para cerrar la brecha existente en la comprensión de los conceptos por la IA.

En respuesta a la pregunta de Doherty acerca de cuánto mejor debería ser la cuarta iteración de ChatGPT, Vermorel admite con franqueza la falta de certeza. Subraya que el problema no es meramente uno de progresión lineal. El problema fundamental, afirma, radica en no saber qué nos falta en nuestra comprensión de la inteligencia.

Desde una perspectiva histórica, Vermorel observa que hace un siglo, la inteligencia de una persona podría haberse juzgado por su capacidad para realizar tareas matemáticas complejas, como invertir una matriz. Sin embargo, nuestra comprensión y las medidas de la inteligencia han cambiado y evolucionado significativamente desde entonces. El desarrollo de la IA, insinúa, podría experimentar transformaciones similares a medida que continuamos explorando y desafiando nuestras concepciones de la inteligencia. Hace un siglo, capacidades como invertir matrices o calcular los 20 dígitos de pi se consideraban signos de inteligencia superior. Hoy, sin embargo, estas tareas se consideran mecánicas, logrables con una simple calculadora de bolsillo, lo que pone en duda su asociación con la inteligencia. Señala que las computadoras, a pesar de ser órdenes de magnitud mejores que los humanos en estas tareas, no se consideran inteligentes.

La discusión de Vermorel se traslada a las capacidades e implicaciones de la IA, centrándose particularmente en la generación utilizando deep learning. Sugiere que la IA ha expuesto muchas tareas que, a primera vista, parecen increíblemente desafiantes, pero que pueden no reflejar la inteligencia tanto como se pensaba al principio. Por ejemplo, considera las habilidades de generación de texto de ChatGPT. En lugar de demostrar lo que es la inteligencia, Vermorel propone que revela lo que la inteligencia no es. Ve a ChatGPT más como un reflejo de la enorme cantidad de conocimiento latente presente en el lenguaje humano que como una demostración de verdadera inteligencia.

Ampliando el concepto de conocimiento latente, Vermorel lo describe como el total acumulado del entendimiento y conocimiento humano, que se representa de manera implícita en el lenguaje. Este conocimiento latente a menudo se registra en formas estructuradas como bases de datos, mapas y otros, conteniendo detalles como propiedades químicas, resistividad de materiales y puntos de fusión. Sin embargo, Vermorel afirma que el lenguaje también encarna una porción significativa de este conocimiento. Argumenta que las palabras y frases que usamos reflejan nuestro entendimiento colectivo del universo. Por ejemplo, decir que “los planetas orbitan estrellas” presupone una comprensión de conceptos astrofísicos.

Este conocimiento latente, sugiere, está incrustado incluso en las formas más simples de expresión lingüística, como las definiciones de diccionario, que pueden encapsular gran parte de la ciencia moderna. Además, sostiene que la ausencia de ciertas palabras o conceptos puede impedir que algunas formas de conocimiento sean siquiera reconocidas. Para ilustrar esto, se refiere al libro “Anti-Fragile” de Nassim Taleb. Explica el concepto de “anti-fragilidad” – un término que Taleb acuñó para describir un estado que no solo resiste el caos y el desorden, sino que prospera y mejora en tales condiciones. Esto contrasta con algo “frágil”, que se degrada ante el desorden, o algo “duradero”, que simplemente resiste el caos a un ritmo más lento. Vermorel encuentra este concepto significativo ya que introdujo una perspectiva fresca para comprender diversos sistemas, que van desde los ecosistemas hasta las sociedades humanas.

La discusión se extiende a la relación inherente entre el lenguaje y el conocimiento. Vermorel ilustra cómo la introducción de un nuevo término o concepto, como “anti-fragile”, puede enriquecer sustancialmente la comprensión, aunque de una manera que puede ser difícil de captar debido a las limitaciones del lenguaje. Enfatiza el papel del lenguaje en la expresión y comunicación del conocimiento.

Avanzando hacia el tema de la inteligencia artificial, Vermorel discute el fenómeno del conocimiento latente presente en el lenguaje. Señala que este conocimiento latente desempeña un papel crucial en aplicaciones como ChatGPT de OpenAI, un modelo capaz de generar texto similar al humano. Vermorel describe críticamente a ChatGPT como un “generador de platitudes”, atribuyendo su aparente inteligencia a su propensión a ensamblar ideas o modismos ampliamente aceptados a partir de conjuntos de datos vastos y diversos.

A pesar de su crítica, Vermorel reconoce lo impresionante que es la capacidad de ChatGPT para generar contenido coherente y contextualmente adecuado incluso en dominios con los que el usuario podría no estar familiarizado. Esta característica, sugiere, se debe a que ChatGPT ha sido entrenado con un conjunto de datos super masivo que comprende millones de páginas de texto de campos extremadamente diversos.

A medida que avanza la conversación, contemplan las aplicaciones prácticas de la IA generativa, como ChatGPT, en el contexto de la empresa y la gestión de supply chain. Desde la perspectiva de Vermorel, el impacto de la IA generativa en la gestión de supply chain es poco probable que sea significativo, al menos de manera directa. Sin embargo, también subraya el desafío de predecir el futuro, implicando que el alcance y el potencial de la IA generativa aún podrían evolucionar y sorprendernos en los tiempos venideros.

Vermorel afirma que, a pesar del creciente protagonismo y las capacidades de las tecnologías de IA, es posible que no tengan un impacto sustancial en la optimización de supply chain. Razona esto afirmando que estos modelos prosperan gracias a fuentes de información grandes y de libre acceso, como la web, donde analizan imágenes y etiquetas de texto. Sin embargo, los datos críticos para la gestión de supply chain - como el historial transaccional, por ejemplo - son específicos de cada empresa y no se comparten abiertamente ni son fácilmente accesibles. Por lo tanto, la forma actual de estas herramientas de IA puede carecer de la información necesaria para optimizar supply chain los procesos de manera efectiva.

Centrándose en el ejemplo de ventas de bastidores de puertas, Vermorel explica que los datos genéricos sobre bastidores de puertas son menos útiles para la planificación de supply chain en comparación con el historial de ventas específico de la empresa sobre bastidores de puertas. Enfatiza que estos datos, ocultos dentro del silo de la empresa, ofrecen una predicción más precisa de lo que se debe ordenar, producir y almacenar.

Sin embargo, Vermorel reconoce que los modelos de lenguaje de IA podrían ser valiosos para algunas tareas. Por ejemplo, ChatGPT puede ayudar a generar fragmentos de código debido a la gran cantidad de código disponible de forma gratuita en línea, principalmente en plataformas como GitHub. Esta disponibilidad permite que la IA genere fragmentos o programas de código decentes, sirviendo como una herramienta de productividad para los programadores. Aun así, advierte sobre la necesidad de una supervisión cuidadosa, ya que el código generado por la IA también podría ser defectuoso.

Mirando hacia el futuro, Vermorel especula que los modelos de lenguaje de IA podrían ayudar en áreas como la toma de notas, la corrección de textos y los resúmenes de reuniones. Por ejemplo, podrían ser capaces de comprimir la discusión de una reunión de dos horas en un resumen de dos páginas, conservando los detalles críticos. Sin embargo, sugiere que actualmente, herramientas de IA como ChatGPT podrían tener dificultades con tales tareas debido a sus limitaciones inherentes. No obstante, cree que en la próxima década, las tecnologías de IA evolucionarán para manejar estas tareas de manera más efectiva.

Vermorel identifica los datos como el principal desafío, indicando que los modelos de IA generativa no necesariamente manejan bien las complejidades inherentes a los datos de supply chain. Luego, Doherty menciona la idea de GitHub Co-pilot, una herramienta diseñada para asistir en la codificación que incluso puede producir código decente de forma autónoma. Se cuestiona si esto no es más adecuado para la tarea en cuestión.

Vermorel rechaza esto, diciendo que GitHub Co-pilot y ChatGPT-3 comparten fundamentos tecnológicos casi idénticos: ambos utilizan la arquitectura Transformer. Las diferencias radican en la experiencia del usuario, ya que GitHub Co-pilot proporciona autocompletado con cada pulsación de tecla, mientras que ChatGPT-3 es más orientado al diálogo. Vermorel predice que la mejor herramienta para la autocompletación de código probablemente utilizará un corpus más amplio que solo código.

Continuando, Vermorel se refiere a un artículo reciente de un equipo de Amazon. Se discute un generador prometedor que fusiona datos de imagen y de texto, reclamando un rendimiento comparable, y ocasionalmente superior, al de ChatGPT-3 pero con menos parámetros (mil millones en comparación con los cien mil millones de ChatGPT-3). Esta idea, afirma Vermorel, es intrigante porque sugiere que la combinación de tipos de datos más diversos puede crear un modelo que es más simple pero a la vez más potente.

Vermorel destaca una observación paradójica en el desarrollo de modelos de IA: los modelos más grandes, como ChatGPT-3, no son necesariamente mejores. Hace referencia a Stable Diffusion, un modelo significativamente más esbelto y rápido que su predecesor, la Red Generativa Antagónica, a pesar de contar con tan solo alrededor de mil millones de parámetros. No está claro, afirma Vermorel, si son necesarios modelos tan grandes como ChatGPT-3 (que se sitúan en el rango de billones de parámetros).

Reforzando este punto, vuelve a mencionar la investigación del equipo de Amazon, que afirma haber reproducido casi el rendimiento de ChatGPT-3 con un modelo de mil millones de parámetros. Este tamaño más pequeño, explica, permite operar en tarjetas gráficas comunes que se encuentran en las laptops y estaciones de trabajo actuales. Esto abre una puerta para una mayor accesibilidad.

Volviendo al tema inicial, Doherty pregunta si la IA generativa trae impactos netos positivos o negativos específicamente para las empresas y, más particularmente, para las supply chains.

Vermorel explica que el progreso en la ciencia y la tecnología es generalmente bueno, contradiciendo la perspectiva pesimista de Lovecraft, quien creía que existen ciertas verdades profundas o significativas en el universo que son tan brutales y hostiles para la mente humana que, de ser descubiertas, la volverían loca.

Vermorel reconoce que cualquier herramienta, desde la Edad de Piedra, puede ser utilizada o mal utilizada. En el contexto del enterprise software de supply chain, teme un aumento de la confusión debido al mal uso de la tecnología, específicamente la inteligencia artificial. Según él, los proveedores ya están sobrevalorando la IA, y esto podría empeorar con sus departamentos de marketing creando interminables casos de estudio falsos. Esto podría llevar a reclamaciones aún más engañosas y a casos de estudio no verificables.

Vermorel explica que en el pasado, crear un caso de estudio falso requería cierto esfuerzo, pero ahora, debido a la IA, se ha vuelto sin esfuerzo. También señala que los participantes en un caso de estudio no tienen incentivo para decir que los beneficios reclamados por la empresa son falsos. Usualmente confirman estos beneficios y se atribuyen parte del éxito. Vermorel predice que estas tecnologías harán que la situación sea más enrevesada.

Mientras discute la estrategia de marketing de sus competidores, Vermorel expresa su decepción por el uso endeble y poco informativo del término “AI for supply chain”. Critica su falta de transparencia y cómo logran escribir páginas extensas llenas de platitudes, sin ofrecer información sustancial sobre su producto. Esto le dificulta comprender su tecnología, su función, su diseño o las ideas subyacentes.

Vermorel señala que las aplicaciones genuinas de IA en la optimización de supply chain implican enfoques altamente especializados y técnicos. Estas aplicaciones se basan en algoritmos o estructuras específicas como arquitecturas Transformer, redes generativas o enfoques jerárquicos. Expresa la necesidad de que las empresas sean precisas y detalladas sobre las técnicas de IA que utilizan. Su argumento es que las afirmaciones de simplemente “hacer IA” sin detalles suelen ser engañosas o totalmente infundadas.

Para ilustrar su punto, Vermorel compara la tecnología de IA con la compra de una ventana para una casa. Al comprar una ventana, el comprador espera una descripción detallada del producto: ¿está hecha de madera, aluminio o plástico? ¿Es de simple o de doble acristalamiento? De manera similar, cuando se trata de IA, Vermorel cree que las empresas deben ofrecer una explicación detallada de qué técnicas de IA utilizan y cómo benefician a la supply chain. Afirma que las descripciones genéricas o vagas pueden equipararse a vender “ventanas genéricas” sin detalles específicos.

Vermorel extiende esta analogía para hacer una crítica al término “sustainable windows”. Argumenta que tales descripciones vagas generan más confusión en lugar de proporcionar claridad. En la misma línea, critica a las empresas que ofrecen “excellent light” en relación con sus ventanas, sugiriendo que es equivalente a afirmaciones de IA que carecen de evidencia o detalles concretos.

Además, Vermorel anticipa que el uso de tecnologías de IA como GPT (Generative Pretrained Transformer) aumentará la confusión en la industria. Si bien estas herramientas pueden generar material de marketing e integrarse en las pilas tecnológicas existentes con relativa facilidad, podrían no contribuir significativamente a la función global o a la optimización de la supply chain si la arquitectura del software no fue diseñada con estas capacidades en mente.

En su opinión, este enfoque se asemeja a pegar con cinta adhesiva una pieza adicional a una estructura existente: podría no mejorar la estructura o incluso no tener sentido en su aplicación. Vermorel ve un riesgo en el mayor mal uso de las tecnologías de “verdadera” IA, ya que las empresas podrían integrar algoritmos valiosos en sus operaciones de manera ilógica, contribuyendo a la confusión en la industria en lugar de ofrecer avances significativos.

Vermorel critica la tendencia de incorporar IA en la optimización de supply chain de maneras que son ineficaces y, de hecho, sin sentido. Señala que estos procesos a menudo no aportan valor a las soluciones que se supone deben mejorar. Para apoyar su argumento, Vermorel menciona el patrón histórico de iteraciones en investigación operativa, data mining y data science, implicando que las tendencias actuales, como la IA cognitiva, podrían ser simplemente lo mismo.

Según Vermorel, si una empresa quiere aprovechar al máximo la IA como parte de su software empresarial, la integración debe hacerse a nivel de diseño. Él argumenta fuertemente en contra de “parchear” la IA sobre el software existente, enfatizando que el diseño fundamental de un producto solo se puede establecer al inicio de su desarrollo. Intentar meter la IA en un producto después de que ya ha sido creado resulta sumamente difícil y, a menudo, contraproducente.

Cuando se le pide un ejemplo del nivel de diseño fundamental al que se refiere, Vermorel analiza las bases de datos transaccionales. Estas bases de datos, construidas para asegurar la integridad transaccional, no están diseñadas para aprovechar tecnologías como generadores de imágenes o de texto. En su opinión, estos diferentes paradigmas son casi incompatibles, y lograr una correspondencia entre ellos no es algo garantizado. Requiere consideraciones de diseño meticulosas y un principio rector que garantice la compatibilidad dentro de la arquitectura del software.

Vermorel reconoce la posibilidad de tener IA como un complemento que se sitúe al margen de un producto existente, pero sostiene que este arreglo rara vez conduce a una integración o sinergia adecuadas. Más bien, complica el software, introduciendo más partes móviles y posibles errores.

Su consejo para aquellos que consideran la integración de IA en la optimización de supply chain es cuestionar exhaustivamente a los proveedores sobre sus ofertas. Insta a los clientes a asegurarse de que un proveedor pueda explicar su tecnología de manera clara y sensata. Si un proveedor no es capaz de hacerlo, Vermorel sugiere que esto podría indicar un problema con el producto o con la comprensión que tiene el proveedor de su tecnología.

Vermorel cierra su intervención en la discusión enfatizando que los verdaderos logros en la tecnología de IA, como la creación de modelos complejos, a menudo se hacen públicos mediante artículos de investigación y otras publicaciones. Esta apertura se debe en parte al orgullo que sienten los desarrolladores al lograr algo difícil. Señala que estos logros no son secretos bien guardados, sino que se comparten abiertamente para que todo el mundo los vea, subrayando aún más la importancia de entender la tecnología subyacente.

Vermorel reconoce los notables avances logrados por ciertas empresas en la industria tecnológica. Señala que las empresas que logran alcanzar ciertos hitos técnicos a menudo publican informes detallados para compartir cómo consiguieron sus éxitos. Ve esto como una tendencia común en la industria, lo que refuerza que es un signo de progresión tecnológica real.

A continuación, Vermorel adopta una postura crítica sobre el papel y la percepción de la IA en el mundo corporativo moderno. Caracteriza a la IA como una palabra de moda que ha ganado una tracción significativa en el mercado. A pesar del uso generalizado del término, enfatiza que su significado es tan amplio y, a menudo, vago que puede abarcar casi cualquier cosa. Advierte contra la aceptación ciega de las afirmaciones de los proveedores sobre sus capacidades de IA, especialmente cuando no pueden proporcionar una descripción precisa de lo que están ofreciendo bajo esa etiqueta.

Vermorel aconseja firmemente que, al tratar con proveedores que afirman ofrecer soluciones de IA, se debe actuar con diligencia para entender la naturaleza exacta de sus ofertas. Advierte contra confiar en un proveedor cuyo vendedor admite carecer de conocimiento sobre la tecnología que están vendiendo, delegándola al ámbito de un equipo tecnológico separado. Vermorel considera que esto es un claro indicador de que la empresa puede no poseer la destreza tecnológica que afirma tener.

Elabora sobre este punto advirtiendo contra caer en la retórica de “contratamos laureados Nobel, tenemos Einsteins”. Asegura que tales afirmaciones generalmente son una cortina de humo diseñada para convencer a los potenciales clientes de su aptitud técnica sin evidencia sustancial. Más a menudo, argumenta, estas situaciones implican que no hay nada verdaderamente innovador o tecnológicamente avanzado detrás de las afirmaciones; es simplemente lo mismo de siempre.

Al concluir este segmento de la conversación, Doherty expresa su gratitud hacia Vermorel por compartir sus perspectivas, enfatizando lo esclarecedora que ha sido la discusión. El segmento termina con Doherty agradeciendo a la audiencia por su tiempo y atención, prometiendo volver con conversaciones más perspicaces en el futuro.

Transcripción completa

Conor Doherty: La IA generativa está en todas partes hoy en día, no solo en el supply chain. ¿Es esto un neto positivo o negativo? Aquí para explicárnoslo se encuentra Joannes Vermorel. Bienvenido.

Joannes Vermorel: Hola, Conor, es un placer tenerte.

Conor Doherty: Entonces, si te parece, pongamos un poco la mesa. ¿Qué es exactamente la IA generativa? ¿Cuál es su propósito, ya que está en todas partes hoy en día?

Joannes Vermorel: Sí, la IA generativa es esencialmente un conjunto, una colección de soluciones propuestas al muy antiguo problema generativo. El problema generativo surge cuando tienes colecciones de objetos en su representación digital y deseas encontrar un algoritmo, un método, una receta para generar una instancia más. Este tipo de problemas ha existido durante décadas. Para situaciones específicas y limitadas, ha habido muchos generadores. Por ejemplo, durante décadas ha existido un generador que puede crear el nombre de una ubicación en Inglaterra que suena realista o un título que suena realista para una novela de Stephen King. Si quisieras crear imágenes, existían generadores que podían elaborar un mapa que se pareciera un poco a El Señor de los Anillos, aportando esa vibra medieval fantástica con pequeñas montañas, bosques, costas y nombres fantásticos por todo el mapa. La idea de tener un generador ha estado circulando durante décadas. El progreso ha sido bastante incremental, siendo el camino ampliar el generador, aprovechando más conjuntos de datos de entrada en lugar de un extenso conjunto de reglas pre-codificadas. Ahí es donde estamos, décadas en el proceso. El año pasado, la comunidad de aprendizaje automático alcanzó dos hitos muy notables con ChatGPT-3 para texto y Stable Diffusion para imágenes. Sin embargo, estos fueron hitos en términos de accesibilidad a estas herramientas, no necesariamente un avance fundamental en estadística, matemáticas o informática. Fueron los primeros productos que estuvieron empaquetados y pulidos lo suficiente como para que un profano pudiera comenzar en minutos y experimentar con ellos. En el ámbito de la imagen, durante más de una década han existido redes generativas antagónicas que pueden crear imágenes muy bonitas. Pero estas herramientas venían con montones de peculiaridades. Stable Diffusion, por otro lado, facilitó a los usuarios ingresar un prompt, por ejemplo, “un hermoso castillo en medio del bosque”, y obtener una imagen decente. No perfecta, pero lo suficientemente decente.

Conor Doherty: Entonces, ¿se trata de una mejora de un orden de magnitud en la accesibilidad y facilidad de uso de estas herramientas?

Joannes Vermorel: Exactamente, lo mismo con ChatGPT. Por cierto, el tipo de GPT que se hizo popular era, en realidad, un modelo que ya llevaba un par de años existiendo. Era literalmente algo que había sido reempaquetado de una manera que lo hacía mucho más accesible. Se trataba de usabilidad. El hito fue en 2022, cuando la IA generativa se volvió ampliamente accesible en lugar de ser algo oscuro. Nada verdaderamente fundamental ocurrió; en realidad, era solo cuestión de pura usabilidad.

Conor Doherty: Recuerdo que al crecer, había ejemplos de esos sitios generativos, como el de “dame un nombre de Ramones”. Uso ese famoso ejemplo. Creo que Childish Gambino, el músico, generó su nombre a través de un sitio web similar. Pero yo no estaba familiarizado con las iteraciones previas de ChatGPT, ya que la iteración actual es la tercera. Entonces, ¿qué fue exactamente lo que en las versiones del año pasado, como Stable Diffusion y la tercera iteración de ChatGPT, capturó la atención del público? Ahora están en todas partes.

Joannes Vermorel: Lo que capturó la atención del público fueron los esfuerzos realizados por los equipos de investigación en el empaquetado de la tecnología. Stable Diffusion se lanzó como open source. Si estabas familiarizado con un entorno Python, incluso si no sabías mucho sobre Python, podías configurar un entorno de programación en aproximadamente dos horas. Podías experimentar con todas las partes móviles por tu cuenta. Ni siquiera era necesario que fueras un programador de Python; solo tenías que ser lo suficientemente competente para ejecutar una serie de líneas de comando. Había varios tutoriales. Stable Diffusion hizo que la generación de imágenes fuera accesible si podías manejar la línea de comandos. Es un poco geek, pero no exagerado. Incluso existía una interfaz de usuario gratuita, Dream Studio, donde podías experimentar gratis con las primeras 100 imágenes. Después de eso, tenías que pagar algo así como diez dólares para generar las siguientes 100 imágenes. Open GPT también era una aplicación web. Solo un pequeño registro y, hoy en día, tienes que pagar alrededor de 20 Euros al mes para acceder. Lo interesante es que, en ambos casos, podías acceder a un generador en un sentido amplio en cuestión de, digamos, una hora. Necesitas un poco de experiencia para comenzar a captar la esencia de la herramienta, pero era órdenes de magnitud menor en comparación con lo que había antes. En términos de progresión real, lo interesante es que estos generadores han avanzado en dos frentes durante décadas. Un frente es la dimensionalidad. Se busca poder generar objetos de alta dimensión en un sentido amplio. Por ejemplo, si quieres generar un nombre para un romano o para una ubicación en Inglaterra, es un problema de baja dimensionalidad. Algo alrededor de 10 a 20 dimensiones, dependiendo de si cuentas el número de letras o sílabas. Pero si quieres generar un texto de una página, estamos hablando de algo así como unos pocos miles de dimensiones. Si deseas generar una imagen de mil por mil píxeles, te enfrentas a un desafío de algo así como tres millones de dimensiones, debido a los tres colores primarios. Es un incremento significativo. La iteración inicial de Stable Division se limitaba a 512 por 512 en términos de capacidad. La están mejorando, pero esta alta dimensionalidad representaba un desafío considerable. El mismo tipo de problema surgió con el texto. La dimensionalidad se manifiesta en dos direcciones: está la cantidad de texto que puedes usar como prompt de entrada, que puede variar desde una sola línea hasta múltiples párrafos o incluso páginas; y está la cuestión de hasta dónde puedes extenderte textualmente antes de que el generador pierda la consistencia consigo mismo. Estos modelos son limitados. No pueden generar un libro completo de principio a fin con un final que sea coherente con el comienzo. Para la generación de texto, uno de los desafíos es navegar por estas dimensiones superiores. Si generas una palabra, solo necesitas mantener la consistencia a nivel local. Si generas una oración, debe ser consistente en un nivel mayor, y así sucesivamente. Si se trata de un libro, estás lidiando con quizás millones o decenas de millones de dimensiones abstractas, que también pueden verse como grados de libertad o la complejidad del objeto que se examina. El mismo problema existía con las imágenes. Una vía de progreso es avanzar hacia dimensiones más altas manteniendo la consistencia. Si divides el objeto, es más sencillo generar dos imágenes más pequeñas en lugar de una más grande y coherente.

Conor Doherty: Entonces, ¿cuando hablas de estas dimensiones mayores, te refieres a que el generador debe mantener la consistencia?

Joannes Vermorel: Sí, precisamente. El objetivo es mantener el entrelazamiento y la consistencia en el objeto generado, sin importar su tamaño o complejidad. Otra vía de progreso es la universalidad. ¿Se trata de un generador que es específico para un problema limitado, o es un generador que puede abordar cualquier cosa? En los últimos cinco años, la comunidad de deep learning ha logrado enormes avances en el aprovechamiento de conjuntos de datos gigantes. Si se trata de texto, abarca de todo: Wikipedia, foros web o cualquier otra fuente de texto. Así, el generador, cuando se le da el prompt adecuado, puede producir desde poesía hasta lenguaje legal, código o incluso consejos sobre genomas. Lo mismo se aplica a las imágenes. Disponemos de generadores capaces de crear desde pixel art hasta vistas fotorrealistas o incluso pinturas al óleo. Se trata de cubrir una gama de sofisticación y estilo.

Conor Doherty: Cuando hablas de la dimensionalidad de estas aplicaciones, ¿qué tan comparables son los resultados? Por ejemplo, en ChatGPT, ¿qué tan comparable es un ensayo generado por ChatGPT en relación con el que produce, digamos, una persona con educación universitaria promedio? ¿Son niveles de sofisticación comparables? ¿Ya hemos llegado allí?

Joannes Vermorel: En términos de sofisticación, esa es una pregunta difícil. Tendríamos que definir y aclarar a qué nos referimos con sofisticación.

Conor Doherty: En realidad, puedo intervenir aquí. Digamos que usamos el test de Turing de tal manera que realmente no podrías determinar si fue generado por ChatGPT o por un estudiante en el aula.

Joannes Vermorel: Depende, porque estos modelos, especialmente el generador de texto, funcionan mezclando enormes cantidades de corpus. Algunas personas han realizado pruebas, y en gran medida, lo que ChatGPT escribe es literalmente un copiar y pegar de cosas que se encuentran en la web. El poder del modelo radica en su capacidad para unir estas piezas de manera que sean gramatical y sintácticamente correctas. Pero, esencialmente, se trata de identificar patrones estadísticos de alto nivel que existen entre palabras, grupos de palabras y oraciones, para encontrar elementos que encajen de manera estadísticamente probable o creíble. ¿Suena humano? Sí, en gran medida. Pero la realidad es que grandes partes de lo que genera se pueden encontrar en la web, tomadas de varios sitios. Sin embargo, el gran avance radica en poder hacer esto, lo cual fue increíblemente difícil. No se trata simplemente de copiar y pegar frases, sino de comprender dependencias estadísticas de alto nivel para combinarlas de maneras creíbles. Sin embargo, cuando se trata del sentido común, como comentó el jefe de IA de Facebook, ninguno de estos generadores posee el sentido común de un gato. Ese es el nivel de entendimiento con el que estamos tratando. Se basa puramente en relaciones estadísticas. Por ejemplo, haz una pregunta básica como “¿Cómo puedo evitar el atasco en medio del Océano Atlántico?” y podría sugerir tomar una ruta mejor con un GPS más nuevo, pasando por alto completamente el humor de la pregunta. Se trata de unir piezas de texto basándose en relaciones estadísticas de alto nivel.

Conor Doherty: Creo que investigadores de Amazon sometieron a ChatGPT a una batería de tests de IQ y descubrieron que estaba aproximadamente una desviación estándar por debajo de la norma, alrededor de 83. Esto parece consistente con lo que dices aquí, solo pegando piezas de información que parecen pertenecer.

Joannes Vermorel: Pero creo que estás perdiendo el punto. Incluso un ser humano increíblemente poco inteligente, alguien que no esté muerto cerebralmente, sigue siendo muchísimo más inteligente que un gato. Sin embargo, lo que se ha postulado —y con lo que tiendo a estar de acuerdo— es que ni siquiera estamos cerca de algo tan inteligente como un gato. Todavía estamos muy lejos. Podrías decir: “Oh, pero mi gato es completamente incapaz de decirme algo sobre, digamos, la Teoría de la Relatividad.” Aun así, ChatGPT es capaz de hacer un trabajo bastante bueno dándome un par de párrafos de introducción. Esto se debe a que ChatGPT literalmente va a cortar y pegar un buen resumen de esta teoría a partir de las miles de instancias que se pueden encontrar en la web, mezclarlas y regurgitar. Sin embargo, eso no significa que entienda nada. Incluso un gato, por ejemplo, comprendería que si hay algo… Usemos un ejemplo con GPT. Si le preguntas a tu GPT algo como: “Tres coches necesitan dos horas para ir de la ciudad de París a la ciudad de Tours. Si tienes seis coches, ¿cuánto tiempo se tarda?” GPT te diría: “Bueno, seis coches es el doble de tres, así que va a tardar como cuatro horas.” De nuevo, si piensas en un gato, y el gato piensa: “Si tengo un amigo, quiero ir allá,” tardará el mismo tiempo, ya sea que esté yo o mi gato amigo. Aunque el gato no se expresará de una manera tan elaborada, existe cierta comprensión de esas cosas muy básicas acerca de nuestro universo tridimensional, el flujo del tiempo, etcétera. De nuevo, GPT es increíblemente impresionante en su capacidad, y lo mismo ocurre con Stable Diffusion. Pero se puede apreciar que existe una comprensión increíblemente superficial, ya que todo lo que estos modelos hacen es una mezcla de alta dimensionalidad de los datos de entrada. Quizás esto sea suficiente. Quizás, si continuamos en este camino con modelos aún más elaborados, no haya nada más en la inteligencia que acumular este tipo de recetas solo a una escala mayor. Pero sospecho que la situación es más complicada que eso. Sospecho que esos investigadores conscientes tienen mucha evidencia que demuestra, una vez más, que toda la historia de la inteligencia artificial sirve para aclarar lo que la inteligencia no es. Y eso ha sido como un viaje, un viaje en el que hemos estado durante los últimos 70 años aproximadamente.

Conor Doherty: Bueno, creo que dijiste anteriormente que la iteración actual de ChatGPT y Stable Diffusion, o simplemente la IA generativa, es aproximadamente una orden de magnitud mejor que las iteraciones previas. Sí. ¿Cuánto mejor tendría que ser la cuarta iteración de ChatGPT para cubrir la brecha que acabas de describir?

Joannes Vermorel: Realmente no lo sabemos, porque esa es la cuestión. Siempre que hay un avance revolucionario, y creo que en este caso el verdadero avance fue el deep learning, no estas aplicaciones del deep learning, se produce un cambio. El deep learning fue el avance revolucionario alrededor de 2011-2012. Ese fue el verdadero salto matemático y conceptual. Estas son aplicaciones e ideas muy elaboradas que se obtuvieron en la última década. Pero aún no sabemos realmente qué nos falta. Es una pregunta muy abierta y no deberías verlo como una progresión lineal. Ese es el problema con la inteligencia: no sabemos qué es lo que nos falta. Una vez que establecemos un nuevo tipo de técnica, nos permite incluso replantear lo que significa la inteligencia en primer lugar. Si retrocedieras un siglo en el pasado y preguntaras, “¿Cómo puedes establecer que una persona tiene inteligencia superior?” Si le preguntases a profesores en la academia, podrían decir algo como: “Bueno, si esta persona puede invertir una matriz o calcular los primeros 20 dígitos de pi, tiene inteligencia superior.” Hoy en día, la gente diría que una calculadora de bolsillo puede hacer eso. Es una tarea completamente mecánica. No hay inteligencia alguna en ser capaz de calcular los primeros 20 dígitos de pi. Tienes recetas simples que llamamos algoritmos. Puedes ejecutarlos en una computadora y obtener miles de dígitos. Eso no te hace inteligente de ninguna manera. Esta era la situación hace un siglo, cuando lo que se consideraba el verdadero reflejo de la inteligencia humana resultó ser la parte fácil de la mecanización. Hoy en día, las computadoras son literalmente 10 órdenes de magnitud, o incluso 15 órdenes de magnitud, mejores que los humanos para hacer estos cálculos, pero no son inteligentes en absoluto. Al menos, ese es el consenso general ahora. Lo que hemos descubierto con esta generación de IA, con el deep learning, es que hay muchas tareas que en la superficie parecen increíblemente difíciles o desafiantes, pero que quizá no reflejen tanto la inteligencia. Por ejemplo, ChatGPT dice más sobre lo que la inteligencia no es, en comparación con lo que realmente es. Lo que expone es que la cantidad de conocimiento latente en el idioma inglés y en todos los idiomas humanos es enorme. Cuando hablamos de “conocimiento latente”, nos referimos a que, digamos, tenemos esta entidad abstracta que es la suma total del conocimiento humano. Existen bases de datos, por ejemplo, que los químicos han recopilado durante el último siglo. Estas bases de datos detallan las propiedades de cada compuesto químico individual. Así, cuentas con una base de datos completa que lista la resistividad de cada material conocido en la Tierra, o el punto de fusión de cada material en la Tierra. Disponemos de mapas que recopilan el conocimiento en otra forma. También existe una especie de conocimiento latente en el propio lenguaje. Las palabras que usamos reflejan una gran comprensión que tenemos acerca del universo. Si decimos que hay estrellas y planetas, y que los planetas orbitan alrededor de las estrellas, significa que ya entendimos mucho acerca del universo. Por ejemplo, los antiguos griegos tenían una comprensión diferente de lo que eran las estrellas y los planetas. Postular que el sol es una estrella, al igual que todas las demás, ahora es aceptado y forma parte del vocabulario. Esto es parte del conocimiento latente. Si simplemente mirases las definiciones en un diccionario, aprenderías mucho sobre lo que hay que asimilar de las ciencias modernas. Las mismas palabras te indican el estado del conocimiento. Por el contrario, a veces la ausencia de una palabra impide que cierto conocimiento siquiera exista. Un ejemplo peculiar de esta situación sería el libro “Antifrágil” de Nassim Taleb. La premisa básica del libro era definir lo opuesto absoluto a lo frágil. Frágil, en su definición, es algo que empeora al ser sometido al caos y al desorden. Argumentó que ser duradero, duro o resistente no hace exactamente que algo sea lo opuesto a lo frágil. Esas características solo significan que, bajo el caos y el desorden, se deteriorará o degradará a un ritmo más lento. Taleb se preguntó cuál sería el verdadero opuesto, algo que, al ser sometido al caos y al desorden, mejorara. Esta perspectiva abstracta lo llevó a acuñar el término “antifrágil”, creando una nueva perspectiva para observar los ecosistemas, las sociedades humanas y muchas otras cosas. Al introducir esa única palabra, enriqueció nuestro conocimiento, aunque esto pueda resultar difícil de comprender, ya que la forma en que comunicamos el conocimiento es a través del propio lenguaje.

Conor Doherty: Eso nos devuelve a mi punto de partida. La brillantez de ChatGPT demuestra que existe una enorme cantidad de conocimiento latente en el propio lenguaje. Esto explica, por ejemplo, por qué un político puede darte diez buzzwords del día que corresponden a las causas que quieres defender. Pueden desplegar un discurso completo basado en eso y aparentar decir algo inteligente, mientras que en realidad no aportan ninguna sustancia. Joannes Vermorel: Curiosamente, esto es lo que hace ChatGPT. Cuando le das a la herramienta un prompt, tiende a juntar todo tipo de ideas ampliamente aceptadas que se alinean con el sentido común o con la perspectiva dominante establecida. Imagina si tuvieras a alguien que solo respondiera a tus preguntas usando proverbios. ChatGPT hace eso, pero mejor, al encadenar platitudes de literalmente cada dominio. Es impresionante porque, usualmente, ni siquiera estás familiarizado con lo que sería una platitud en un dominio que no conoces. Esta es la belleza de entrenar un generador contra un conjunto de datos supermasivo que incluye millones de páginas de texto de campos super diversos. Conor Doherty: Cuando se trata de aplicar todo esto en la práctica, en tu opinión o estimación, ¿existen aplicaciones útiles de la IA generativa en lo que se refiere, digamos, a enterprise o a supply chain? Joannes Vermorel: Enterprise es un campo muy amplio, así que me concentraré en supply chain. Para supply chain, diría que lo más probable es que no, al menos no de manera directa. Pero es increíblemente difícil predecir el futuro. La razón por la que me inclino a pensar que esta ola de generadores no tendrá un impacto masivo en supply chain es que la fortaleza de estos generadores reside en que se apoyan en un vasto cúmulo de conocimiento ambiental que básicamente es la web, con todas esas imágenes y etiquetas a las que puedes acceder de forma gratuita. Sin embargo, cuando se trata de la optimización de un supply chain, los datos más relevantes son tu historial transaccional. Si estás vendiendo, digamos, marcos de puertas, realmente no te ayuda, a la hora de planificar el supply chain, saber muchas cosas generales sobre los marcos de puertas. Tu historial de ventas de marcos de puertas del año pasado te indica mucho más acerca de lo que exactamente deberías pedir, producir y cómo deberías asignar el stock. Es decir, los datos más relevantes no se comparten abiertamente con el mundo. Existen en el silo de tu empresa. Las compañías, a diferencia de ChatGPT, se ven afectadas por el hecho de que estas herramientas funcionan mejor al discutir temas de los que abundan materiales publicados en línea. Si se tratan asuntos que no están ampliamente publicados en la web, ChatGPT rápidamente se queda sin información sobre ello. Muy concretamente, diría que, si piensas en los métodos que podrían utilizarse para hacer cualquier tipo de optimización, no estoy muy seguro, simplemente porque el tipo de insumos no está presente. Sin embargo, estas herramientas podrían volverse potencialmente instrumentales para apoyar tu desarrollo. Por ejemplo, ChatGPT es, en realidad, bastante bueno ayudándote a generar fragmentos de código. Para la codificación, dado que se trata de un lenguaje genérico —una secuencia de caracteres— ChatGPT puede generar etiquetas, pero también código. Debido a que existe una cantidad gigantesca de código disponible en línea, mayormente a través de GitHub, pero también en muchos otros lugares, cuentas con enormes bases de código que ChatGPT puede utilizar para entrenarse. Así, ChatGPT es en realidad capaz de componer fragmentos de código o programas bastante decentes. Como herramienta de productividad para programadores, tiene mucho potencial. Pero ten cuidado: el código que genera ChatGPT puede ser tan defectuoso como el código escrito por humanos. Yo no lo usaría sin una supervisión cuidadosa si quisieras diseñar la próxima generación de piloto automático para un avión o un auto. Además, sospecho que la clase de tecnología que surgirá serán cosas como registros de actas de reuniones. Ahora mismo, no estoy muy seguro de que ChatGPT sea capaz de resumir una discusión de dos horas en algo como dos páginas, preservando la mayor cantidad de detalles sobre lo que se dijo. Pero estoy bastante seguro de que herramientas similares, en la próxima década, podrán lograrlo. Así que, para supply chain, habrá muchos beneficios. Sin embargo, sospecho que la mayoría serán algo periféricos, en la orilla, cosas como facilitar reuniones, tomar notas o sistemas mejores para revisar documentos. Pero los problemas y desafíos centrales radican en los datos, y esos generadores no los gestionan tal como se presentan en los supply chains. Conor Doherty: ¿No existen otros programas diseñados específicamente para la codificación? Quiero decir, ChatGPT es una IA generativa basada en texto, pero existe GitHub co-pilot, que está diseñado para asistir en la codificación, y puede producir código bastante decente por sí solo, ¿verdad? Joannes Vermorel: No, esos modelos son casi idénticos, casi intercambiables. La tecnología que hay detrás de ellos es increíblemente similar. Utilizan la misma arquitectura Transformer. Las únicas diferencias son ligeras variaciones en el corpus y en la experiencia del usuario. GitHub copilot tiene como objetivo proporcionar una autocompletación con cada pulsación de tecla, mientras que ChatGPT está más orientado al diálogo. Pero las diferencias son, en realidad, solo una fina capa de barniz. Por debajo, son lo mismo. Sospecho que la mejor herramienta para la autocompletación de código se construirá sobre un corpus que sea más amplio que el código. Esto lo ilustra un artículo reciente publicado por un equipo de Amazon. Presentaron un generador prometedor que combina tanto datos de imagen como de texto, esencialmente unificándolos. Incluso afirman superar a ChatGPT en algunos benchmarks, con resultados comparables en la mayoría de otras métricas. Sin embargo, tómalo con cautela, ya que determinar un buen generador es un problema tan complejo como desarrollarlo. Lo interesante, sin embargo, es que su modelo es tan efectivo como ChatGPT, pero con mil millones de parámetros, mientras que ChatGPT tiene casi 100 veces más parámetros. Esto sugiere que, al mezclar tipos de datos más diversos, puedes obtener un modelo que sea más poderoso y sencillo, lo cual es paradójico. Por ejemplo, el modelo de ChatGPT es gigantesco, con un rango de parámetros en los trillones. Pero no está claro si un modelo tan enorme es necesario. De hecho, uno de los avances de Stable Diffusion, en comparación con otros modelos, fue un modelo que es dos órdenes de magnitud más rápido y más ligero que el Generative Adversarial Network que reemplazó. Stable Diffusion solo tiene alrededor de mil millones de parámetros, lo que lo hace muy pequeño en comparación con ChatGPT. Pero, un equipo afirmó recientemente que han reproducido el rendimiento de ChatGPT con un modelo que es mucho más pequeño, aproximadamente del tamaño de mil millones de parámetros. Esto es interesante porque es aproximadamente del mismo tamaño que lo que puede operar una tarjeta gráfica que se encuentra comúnmente en notebooks y estaciones de trabajo hoy en día. Conor Doherty: Bueno, esto de alguna manera nos lleva de vuelta al círculo completo de lo que dije al principio o en la introducción en general, ¿es esto un neto positivo o neto negativo? Ahora, en el contexto específico de enterprise o incluso en un supply chain más granular, ¿ves esto, la IA generativa, como una distracción, una bendición o una maldición?

Joannes Vermorel: Como línea general de pensamiento, mi opinión es que cualquier avance en términos de ciencia y tecnología es bueno. No tengo esa perspectiva lovecraftiana, ya sabes, donde existen algunas verdades profundas del universo tan brutales y hostiles para la mente humana que, si las descubres, te vuelves loco. Mi punto de vista no es lovecraftiano. Creo que, en general, es algo bueno. Ciertamente, es mejor que la ignorancia. Ahora, como cualquier herramienta desde la Edad de Piedra, el primer martillo pudo haber sido diseñado para cazar un animal o para matar a tus semejantes. Así que, este ha sido el problema con la tecnología y cómo puede ser mal utilizada. Ha sido un problema durante miles de años. Este tipo de tecnología también puede ser mal utilizada. Los posibles usos indebidos en el ámbito del software empresarial de supply chain serán un aumento de la confusión debido al ruido. Los proveedores ya están promocionando la IA como locos, y ahora hasta podrán subirla al máximo con tan solo que su departamento de marketing produzca interminables estudios de caso falsos. En el pasado, crear un estudio de caso falso requería cierto esfuerzo. Sin embargo, podías falsificarlo por completo porque nadie iba a verificar tus afirmaciones. La mayoría de tus afirmaciones son imposibles de verificar. Y, como describí en mi conferencia, nadie en un estudio de caso tiene ningún incentivo para decir que todos los millones que afirmas haber ahorrado, ganado o generado son falsos. Todo el que forma parte de un estudio de caso tiene un incentivo enorme para decir, “Sí, todo, todos esos beneficios son ciertos, y es gracias a mí, al menos en parte, si logramos alcanzar todo eso.” Así que, mi opinión es que la situación se volverá aún más turbia porque estos equipos se volverán frenéticos y generarán aún más estudios de caso, afirmaciones y páginas vacías que describen la tecnología. He pasado algo de tiempo en los sitios web de muchos competidores de Lokad. Lo interesante es que puedes tener páginas enteras de texto que, al final de la lectura, no te han enseñado nada.

Conor Doherty: ¿Charlatanería, es eso lo que decimos?

Joannes Vermorel: Sí, exactamente. Siempre me deja un poco perplejo cuando repaso una documentación de 10 páginas sobre IA para supply chain, y al final no puedo decir nada acerca de qué es, qué hace, por qué fue diseñada de esa manera o qué tipo de insights la rigen. Es algo desconcertante. Sospecho que en el pasado, los equipos de marketing pasaban días elaborando estas descripciones superficiales. Ahora, utilizando IA generativa, como ChatGPT, se puede crear instantáneamente una descripción de diez páginas. Así que, si cuestionas la validez del contenido que afirma tener IA en su optimización de supply chain, diría que, en su mayor parte, es sospechoso. No porque la IA sea falsa, sino porque se está representando de manera incorrecta en este contexto. Cuando hablamos de IA generativa, se utilizan términos específicos, como stable diffusion, Transformer architecture y generative network. Estas técnicas tienen nombres. Los profesionales en este campo no simplemente dicen “I’m doing AI”. Son más precisos. Necesitan estos términos para describir su trabajo. Esta precisión se desarrolla como parte de un proceso emergente dentro de la comunidad. Las personas que no se toman la molestia de describir su tecnología en detalle a menudo recurren a términos vagos. Tomemos un ejemplo simple. Si deseas comprar una ventana para tu casa, el vendedor especificará el material del marco, el número de capas de vidrio, y así sucesivamente. Si un vendedor simplemente dice “I’m selling windows, trust me they’re good” sin ningún detalle, eso es cuestionable. Si alguien no puede darte especificaciones técnicas y en su lugar utiliza palabras de moda como “sustainable”, no está aclarando nada; añade más confusión. Esto es análogo a lo que sucede con la IA y ChatGPT. Estas herramientas pueden generar materiales de marketing confusos y dar a los proveedores la capacidad de incorporarlas en su stack tecnológico sin crear nada sustancial. Es bastante fácil integrar estas herramientas en una arquitectura de software existente, pero será simplemente un artilugio si tu arquitectura de software existente no ha sido diseñada para optimizar las capacidades de la tecnología. Siempre es algo fácil añadir, de forma improvisada, otra pieza al software, pero eso no significa que hará alguna diferencia o que será útil. Por lo tanto, creo que esta situación generará aún más confusión. Ofrecerá una oportunidad más a los proveedores para insertar algún tipo de algoritmos de valor real, pero de maneras que carecen de sentido. Al final, esto no añade ningún valor a la solución, lo cual es otro problema. Ya hemos experimentado varias iteraciones de esto con la investigación operativa hace 50 años, luego Data Mining y después data science. Ahora vendrán aquellas iteraciones de IA cognitiva. Sin embargo, el problema es que, si deseas aprovechar al máximo esta tecnología como software empresarial, no puede ser simplemente un complemento. Tiene que venir desde el nivel de diseño de tu producto. Es un diseño central que no puedes cambiar posteriormente. El problema con el diseño central de los productos es que es algo que solo se puede hacer al principio. No puedes simplemente improvisarlo en tu producto después de los hechos.

Conor Doherty: ¿Puedes dar un ejemplo del nivel de diseño central del que estás hablando?

Joannes Vermorel: Si tienes un sistema donde, en el núcleo de tu sistema, cuentas con una base de datos transaccional diseñada para garantizar la integridad transaccional, es genial. Pero ese diseño no hará nada para aprovechar ningún tipo de generador de imágenes o de texto. Está completamente en desacuerdo con la perspectiva transaccional. Estás tratando con transacciones, pero tener algún tipo de herramienta que pueda generar texto o imágenes, ni siquiera es del mismo ámbito. Entonces, lo que estoy diciendo es que tener algo que encaje no es algo garantizado. Normalmente requiere un cuidado extenso sobre el diseño y los principios rectores de tu arquitectura, para que todo encaje de verdad. De lo contrario, simplemente estarás en carriles separados. En el software, lo engañoso es que siempre es posible tener un producto y luego agregarle un complemento que se queda a un lado. Pero ese complemento no está correctamente integrado, no está conectado y no hay sinergia entre ambos. Simplemente terminas con un lío más complicado, con más partes móviles y más errores. Así que, en el balance general, aconsejaría no intentar integrar esto en las optimizaciones de supply chain. Pero si un proveedor se presenta con esa opción, realmente necesitas indagar en lo que están haciendo. Mi consejo final para la audiencia sería: asegúrate, al leer la página de tecnología de este proveedor, de que tenga sentido para ti. No tienes que ser un experto. Si el proveedor no es capaz de transmitir de forma comprensible qué es su tecnología, qué hace y qué técnicas utiliza, lo más probable es que sea una señal de alerta. Nunca en toda mi carrera he visto que una empresa capaz de lograr algo difícil lo oculte. Por el contrario, las empresas que logran alcanzar ese nivel están más que dispuestas a mostrar sus logros al mundo. Por cierto, eso es cierto para todos esos modelos – Stable Diffusion, ChatGPT, etc. Esos logros son públicos. Se han publicado artículos sobre ellos. No son secretos bien guardados. Al contrario, las empresas que logran alcanzar ese nivel de logro técnico suelen publicar artículos muy detallados sobre cómo lo han conseguido. Este es un comportamiento muy típico. Desde mi perspectiva, el consejo fundamental es que, aunque hay mucho valor en la IA, es meramente una palabra de moda. Puedes categorizar casi cualquier cosa bajo este paraguas. Por lo tanto, cada vez que un proveedor se acerque a ti, es esencial entender exactamente lo que hacen. Si la persona que te vende no tiene ese entendimiento y, si el proveedor afirma ignorancia diciendo, “I’m just a salesperson, it’s the tech team who knows,” no confíes en ellos. Si dicen esas cosas, indica que no hay una tecnología sustancial detrás de sus afirmaciones. Es simplemente más de lo mismo.

Conor Doherty: Bueno, en ese caso, gracias, Joannes. He aprendido bastante. Gracias por tu tiempo, y gracias a todos por ver. Nos vemos la próxima vez.