00:00:01 Introducción y discusión sobre la IA generativa.
00:01:11 Explorando el problema generativo y sus soluciones.
00:02:07 Discutiendo la evolución y el progreso de la IA generativa.
00:03:02 Hitos en el aprendizaje automático y accesibilidad de herramientas.
00:04:03 Discutiendo las peculiaridades y resultados de las herramientas de IA.
00:05:00 Popularidad y accesibilidad de la IA generativa.
00:06:33 Generación de imágenes con Stable Diffusion, volviéndose accesible.
00:07:37 Discutiendo la accesibilidad de las herramientas generadoras.
00:08:43 Explicando la generación de objetos de alta dimensión.
00:09:38 Desafíos y mejoras en la capacidad dimensional.
00:10:07 Exploración de la generación de texto y sus limitaciones.
00:11:15 Discutiendo la consistencia en diferentes escalas.
00:12:24 Pasando al tema de la especificidad y versatilidad del generador.
00:13:46 Comparación de la salida generada por IA con la salida humana.
00:14:59 Discusión sobre modelos de aprendizaje automático y generación de lenguaje.
00:15:51 Explorando el método de cortar y pegar en IA.
00:16:30 Se destaca la falta de sentido común de la IA.
00:17:26 Mención del rendimiento de la prueba de CI de ChatGPT.
00:18:45 Discutiendo la comprensión de la IA y ejemplos.
00:19:47 La comprensión superficial de la IA y la mezcla de alta dimensión.
00:20:41 Complejidad de la inteligencia artificial y su historia.
00:21:58 Los elementos desconocidos y la progresión de la inteligencia artificial.
00:22:25 Discutiendo el cambio de percepción de la inteligencia.
00:23:45 Ideas sobre el aprendizaje profundo y la inteligencia artificial.
00:24:24 Concepto de conocimiento latente en los lenguajes humanos.
00:25:59 Comprensión del universo en tiempos antiguos y modernos.
00:27:02 Introducción al concepto de ‘anti-fragilidad’ del libro de Nasim Taleb
00:28:01 Anti-fragilidad en los ecosistemas y las sociedades humanas
00:29:31 Crítica a la capacidad de ChatGPT para generar discurso ‘inteligente’
00:31:05 Considerando las aplicaciones de la IA generativa en las empresas.
00:31:37 El papel potencial de la IA generativa en la gestión de la cadena de suministro.
00:33:34 Capacidades limitadas de ChatGPT en dominios con escasez de datos.
00:35:00 Precaución al usar código generado por IA en sistemas críticos.
00:36:04 Beneficios de la IA para la cadena de suministro y actividades periféricas.
00:37:37 Discutiendo la tendencia hacia un corpus más amplio para completar código.
00:38:45 Comparando los requisitos de parámetros: ChatGPT vs generador más pequeño.
00:40:45 Las implicaciones de la IA generativa en la empresa y la cadena de suministro.
00:41:19 Discutiendo la visión de Lovecraft sobre las verdades profundas del universo.
00:42:01 Relación del mal uso de la tecnología con el software de la cadena de suministro.
00:42:56 Preocupaciones sobre la creación y verificación de estudios de caso falsos.
00:44:04 Crítica a las afirmaciones de marketing vagas de los competidores de Lokad.
00:45:10 Discutiendo las limitaciones del modelo de lenguaje de IA.
00:46:08 Explicando los detalles de la IA en la tecnología.
00:47:00 Importancia de la terminología específica en IA.
00:48:01 Analogía de la compra de ventanas con la comprensión de la IA.
00:48:48 Discusión sobre problemas de integración de arquitectura de software.
00:50:14 La importancia del diseño central en el software empresarial.
00:50:54 Ejemplo de diseño central en una base de datos transaccional.
00:51:48 La necesidad de un diseño y una integración adecuados del software.
00:52:52 Consejos para evaluar la tecnología del proveedor.
00:53:36 Importancia de publicar logros en tecnología.
00:54:20 La IA como palabra de moda y la evaluación de proveedores.
00:55:25 Conclusiones y fin de la entrevista.

Resumen

En esta entrevista, Joannes Vermorel, el fundador de Lokad, analiza el estado y el impacto de la IA generativa, centrándose específicamente en avances como ChatGPT y Stable Diffusion. Vermorel explica la IA generativa y su historia, destacando el progreso incremental en la generación de imágenes y texto. Menciona la naturaleza fácil de usar de herramientas recientes como Stable Diffusion y ChatGPT, que han mejorado las tasas de éxito y la accesibilidad. Vermorel enfatiza las limitaciones de los modelos de IA actuales en términos de sentido común e inteligencia real. También discute los desafíos y el potencial de la IA en la gestión de la cadena de suministro y critica las afirmaciones vagas y engañosas que algunas empresas hacen sobre sus capacidades de IA. Vermorel enfatiza la importancia de comprender la tecnología subyacente y ser cauteloso al evaluar soluciones de IA.

Resumen Extendido

En la entrevista entre el presentador Conor Doherty y Joannes Vermorel, el fundador de Lokad, discuten el estado actual y el impacto de la IA generativa, centrándose particularmente en avances como ChatGPT para texto y Stable Diffusion para imágenes.

Vermorel comienza definiendo la IA generativa como una colección de soluciones propuestas para el problema generativo, que implica desarrollar un algoritmo o método para crear una o más instancias de una representación digital de una colección de objetos. Menciona que este tipo de problemas ha existido durante décadas y, para aplicaciones específicas, ha habido generadores exitosos. Por ejemplo, se han utilizado generadores para crear nombres de lugares que suenan realistas en Inglaterra o títulos para una novela de Stephen King.

Del mismo modo, en el ámbito de la generación de imágenes, ha habido generadores capaces de crear un mapa que parece un escenario de ‘El Señor de los Anillos’, completo con montañas, bosques, costas y nombres de fantasía. La progresión en este campo, según Vermorel, ha sido incremental, con el objetivo de hacer que los generadores sean más amplios y dependientes cada vez más de conjuntos de datos de entrada, en lugar de un extenso conjunto de reglas predefinidas.

Destacando dos hitos notables alcanzados el año pasado por la comunidad más amplia de aprendizaje automático, Vermorel hace referencia a ChatGPT para texto y stable diffusion para imágenes. Si bien estos fueron pasos significativos hacia adelante, al hacer que estas herramientas sean más accesibles, insiste en que fueron incrementales en lugar de innovadores, sin representar nuevos descubrimientos en estadísticas, matemáticas o ciencias de la computación.

Sin embargo, el hecho de que estas herramientas estuvieran empaquetadas y pulidas lo suficiente como para permitir que los profanos comenzaran a usarlas en cuestión de minutos fue ciertamente notable. Esto contrastaba con las herramientas generativas anteriores que, aunque capaces de generar imágenes o texto impresionantes, a menudo tenían muchas peculiaridades y requerían un grado de experiencia para funcionar de manera efectiva.

Stable Diffusion y ChatGPT destacaron por su naturaleza fácil de usar. Con Stable Diffusion, por ejemplo, uno podía ingresar una simple indicación, como ‘hermoso castillo en medio del bosque’, y obtener una imagen plausible el 20% de las veces. Aunque esto estaba lejos de ser perfecto, representaba una mejora significativa en comparación con las técnicas de generación anteriores que solo tenían una tasa de éxito del 1%.

Esto marcó una mejora de un orden de magnitud, un sentimiento que se repite cuando Vermorel habla sobre ChatGPT. Al igual que con Stable Diffusion, la introducción de ChatGPT marcó un cambio hacia herramientas más fáciles de usar y accesibles en el ámbito de la IA generativa.

En este segmento de la entrevista, Conor Doherty y Joannes Vermorel, fundador de Lokad, discuten la evolución reciente y el impacto de los modelos Generative Pre-trained Transformer (GPT). Vermorel enfatiza que el popular modelo ChatGPT no es fundamentalmente nuevo, sino más bien una versión empaquetada y más accesible de una tecnología preexistente. Marca el año 2022 como el año clave en el que la IA generativa se hizo ampliamente disponible para el público, en gran parte debido a mejoras en la usabilidad.

La conversación luego se centra en casos específicos en los que los modelos GPT han tenido un impacto público significativo. Vermorel llama la atención sobre los lanzamientos del año pasado, como Stable Diffusion y la tercera iteración de ChatGPT. El atractivo y el éxito de estos modelos, explica, radican en el esfuerzo realizado por los equipos de investigación para empaquetar estas tecnologías de manera fácil de usar.

Vermorel proporciona ejemplos de esta accesibilidad. Señala que Stable Diffusion, una herramienta para la generación de imágenes, se lanzó como software de código abierto. Esto permitió a los usuarios con experiencia mínima en Python configurar un entorno de programación en Python en aproximadamente dos horas y explorar la herramienta de forma independiente. Vermorel destaca que para usar Stable Diffusion, no es necesario ser un programador de Python competente; es suficiente con tener una comprensión básica de la ejecución en línea de comandos.

También hace referencia a la disponibilidad de tutoriales en línea y al lanzamiento de una interfaz de usuario gratuita, Dream Studio, que permite a los usuarios generar hasta 100 imágenes de forma gratuita. Para lotes posteriores de imágenes, los usuarios deben pagar una tarifa, un modelo que también se aplica a la aplicación web de GPT.

Joannes Vermorel explica inicialmente la complejidad de crear una imagen de alta dimensionalidad, citando como ejemplo una imagen de 1000x1000 píxeles, que en esencia equivale a tres millones de dimensiones al considerar los tres colores primarios. También menciona que las iteraciones iniciales estaban limitadas a una capacidad de 512x512, aunque se están realizando mejoras.

De manera similar, se discute el problema de la generación de texto. Vermorel explica que la dimensionalidad en la generación de texto surge de dos direcciones. La primera se refiere al tamaño de entrada o indicación, que puede variar desde una línea hasta varios párrafos o incluso páginas. La segunda involucra hasta dónde puede llegar la generación antes de que el modelo comience a perder consistencia.

Vermorel señala las limitaciones de los modelos actuales, ya que no pueden producir un libro completo de manera consistente de principio a fin. Los desafíos aumentan con el tamaño del texto: una sola palabra requiere consistencia local, una oración requiere consistencia a una escala más grande, un párrafo aún más grande y un libro potencialmente involucraría millones o decenas de millones de dimensiones abstractas.

La conversación luego se centra en discutir el aspecto de “generosidad” en estos modelos. Vermorel interpreta esto como la capacidad de un modelo para abordar diferentes problemas o generar resultados diversos. Un desarrollo interesante en los últimos cinco años, según Vermorel, es la capacidad de la comunidad de deep learning para aprovechar conjuntos de datos masivos.

Ya sea datos de texto de una variedad de fuentes como Wikipedia, foros web o textos legales, los modelos de deep learning han progresado para generar resultados diversos. Ahora pueden producir desde poesía hasta lenguaje legal, código o incluso secuencias genómicas cuando se les indica correctamente. Lo mismo ocurre con las imágenes, donde los resultados pueden variar desde arte de píxeles hasta imágenes fotorrealistas o diferentes estilos de pintura.

Conor Doherty le pregunta a Joannes Vermorel sobre la sofisticación de los modelos de IA como ChatGPT en comparación con los humanos. Vermorel profundiza en la noción de sofisticación, explicando que es compleja debido a la necesidad de definir y aclarar su significado. En respuesta a una posible aplicación de la prueba de Turing, afirma que el estado actual de los modelos de IA depende en gran medida de combinar vastas cantidades de datos, extrayendo de un enorme corpus de textos.

Hasta cierto punto, argumenta que lo que produce ChatGPT es una especie de proceso avanzado de “cortar y pegar”, ensamblando fragmentos de texto encontrados en Internet. Reconoce que el poder del modelo radica en su capacidad para unir estas piezas de manera gramatical y sintácticamente correcta, identificando patrones estadísticos de alto nivel que existen entre palabras, frases y oraciones. Vermorel enfatiza que el texto resultante puede sonar similar al de un humano, pero en su mayoría es una reproducción de contenido escrito por humanos existente.

Sin embargo, Vermorel modera la discusión al destacar que estos modelos no poseen sentido común. Cita un ejemplo del jefe de IA de Facebook, quien afirma que incluso los modelos de IA más avanzados carecen del sentido común de un gato. Esto se debe a que la IA opera fundamentalmente en relaciones estadísticas y carece de la comprensión intuitiva que viene con el sentido común. Ilustra este punto con un escenario humorístico en el que un modelo de IA sugiere una ruta de GPS para evitar el tráfico en medio del océano Atlántico, sin darse cuenta de la absurdidad de la situación.

Para articular aún más las limitaciones de la IA actual, Vermorel menciona un experimento de investigación de Amazon en el que se sometió a ChatGPT a una serie de pruebas de coeficiente intelectual. Los resultados ubicaron al modelo de IA aproximadamente a una desviación estándar por debajo de la norma, lo cual coincide con su perspectiva de que la IA principalmente une información sin la comprensión innata que poseen los humanos.

Sin embargo, enfatiza que incluso una persona con habilidades cognitivas limitadas es mucho más inteligente que un gato. Esta comparación sirve para resaltar que, a pesar de todas sus impresionantes capacidades, la IA está lejos de igualar el nivel de inteligencia de un gato, y mucho menos de un humano. Vermorel nos recuerda que, a pesar de nuestra percepción de las limitaciones cognitivas de un gato, todavía estamos lejos de crear un modelo de IA con una inteligencia comparable.

Esta conversación subraya la complejidad de la sofisticación de la IA, el proceso detrás de la generación de texto por parte de la IA y las limitaciones que enfrenta actualmente en términos de sentido común y comprensión intrínseca. Proporciona una perspectiva valiosa sobre el estado de la IA y sus capacidades actuales, al tiempo que tempera las expectativas para su futuro inmediato.

Vermorel profundiza en la noción de que la comprensión del mundo por parte de la IA es increíblemente superficial. Describe los procesos que utilizan estos modelos como una “combinación de alta dimensión de los datos de entrada”. También considera la posibilidad de que con modelos más sofisticados, esto podría ser suficiente para lograr la inteligencia, pero sospecha que la inteligencia real puede ser más complicada.

En su opinión, el viaje de la IA ha sido más sobre identificar lo que la inteligencia no es, en lugar de definir lo que es. Este proceso de clarificación ha estado en curso durante aproximadamente 70 años. Identifica el avance del deep learning en 2011-2012 como un punto de inflexión significativo, que permitió una multitud de aplicaciones que han resultado en ideas sustanciales. Sin embargo, enfatiza la incertidumbre en el campo. Plantea que nuestra comprensión de la inteligencia podría necesitar ser redefinida cada vez que se desarrolla una nueva técnica de IA.

El presentador luego cuestiona a Vermorel sobre las mejoras en el rendimiento de la IA en diferentes iteraciones, centrándose en ChatGPT. Vermorel reconoce que la IA generativa, incluido ChatGPT, ha mejorado significativamente con el tiempo, pero señala la dificultad de cuantificar las mejoras necesarias para cerrar la brecha existente en la comprensión de conceptos por parte de la IA.

En respuesta a la pregunta de Doherty sobre cuánto mejor tendría que ser la cuarta iteración de ChatGPT, Vermorel admite francamente la falta de certeza. Destaca que el problema no es simplemente una progresión lineal. El problema fundamental, afirma, radica en no saber qué nos falta en nuestra comprensión de la inteligencia.

Como perspectiva histórica, Vermorel señala que hace un siglo, la inteligencia de una persona podría haber sido juzgada por su capacidad para realizar tareas matemáticas complejas, como invertir una matriz. Sin embargo, nuestra comprensión y medidas de la inteligencia han cambiado y evolucionado significativamente desde entonces. El desarrollo de la IA, sugiere, podría experimentar transformaciones similares a medida que continuamos explorando y desafiando nuestras concepciones de la inteligencia. Hace un siglo, habilidades como invertir matrices o calcular las 20 cifras de pi se consideraban signos de inteligencia superior. Hoy en día, sin embargo, estas tareas se consideran mecanicistas, alcanzables mediante una simple calculadora de bolsillo, cuestionando así su asociación con la inteligencia. Señala que las computadoras, a pesar de ser órdenes de magnitud mejores que los humanos en estas tareas, no se consideran inteligentes.

La discusión de Vermorel se centra en las capacidades e implicaciones de la IA, centrándose especialmente en la generación mediante deep learning. Sugiere que la IA ha expuesto muchas tareas que, en apariencia, parecen increíblemente desafiantes, pero que pueden no reflejar la inteligencia tanto como se pensaba inicialmente. Como ejemplo, considera las habilidades de generación de texto de ChatGPT. En lugar de demostrar qué es la inteligencia, Vermorel propone que revela qué no es la inteligencia. Ve a ChatGPT más como un reflejo de la enorme cantidad de conocimiento latente dentro del lenguaje humano que como una demostración de verdadera inteligencia.

Ampliando el concepto de conocimiento latente, Vermorel lo describe como el total acumulativo de la comprensión y el conocimiento humano, que se representa implícitamente en el lenguaje. Este conocimiento latente a menudo se registra en formas estructuradas como bases de datos, mapas y otros, que contienen detalles como propiedades químicas, resistividad de materiales y puntos de fusión. Sin embargo, Vermorel afirma que el lenguaje también encarna una parte significativa de este conocimiento. Argumenta que las palabras y frases que usamos reflejan nuestra comprensión colectiva del universo. Por ejemplo, decir que “los planetas orbitan las estrellas” presupone una comprensión de los conceptos astrofísicos.

Este conocimiento latente, sugiere, está presente incluso en las formas más simples de expresión lingüística, como las definiciones de diccionario, que pueden encapsular gran parte de la ciencia moderna. Además, sostiene que la ausencia de ciertas palabras o conceptos puede evitar que se reconozca ciertas formas de conocimiento. Para ilustrar esto, se refiere al libro “Anti-Fragile” de Nassim Taleb. Explica el concepto de “anti-fragilidad”, un término acuñado por Taleb para describir un estado que no solo resiste el caos y el desorden, sino que prospera y mejora en tales condiciones. Esto contrasta con algo “frágil”, que se degrada bajo el desorden, o algo “duradero”, que simplemente soporta el caos a un ritmo más lento. Vermorel encuentra este concepto significativo, ya que introdujo una nueva perspectiva para comprender diversos sistemas, desde ecosistemas hasta sociedades humanas.

Su discusión se extiende a la relación inherente entre el lenguaje y el conocimiento. Vermorel ilustra cómo la introducción de un nuevo término o concepto, como “anti-fragilidad”, puede enriquecer sustancialmente la comprensión, aunque de una manera que puede ser difícil de aprehender debido a las limitaciones del lenguaje. Él enfatiza el papel del lenguaje en expresar y comunicar el conocimiento.

Moviéndose hacia el tema de la inteligencia artificial, Vermorel analiza el fenómeno del conocimiento latente presente en el lenguaje. Señala que este conocimiento latente juega un papel crucial en aplicaciones como ChatGPT de OpenAI, un modelo capaz de generar texto similar al humano. Vermorel describe críticamente a ChatGPT como un “generador de lugares comunes”, atribuyendo su aparente inteligencia a su propensión a unir ideas o modismos ampliamente aceptados de vastos y diversos conjuntos de datos.

A pesar de sus críticas, Vermorel reconoce la impresionante capacidad de ChatGPT para generar contenido coherente y contextualmente adecuado incluso en dominios con los que el usuario puede no estar familiarizado. Sugiere que esta característica se debe a que ChatGPT se entrena con un conjunto de datos supermasivo que comprende millones de páginas de texto de campos extremadamente diversos.

A medida que avanza la conversación, reflexionan sobre las aplicaciones prácticas de la IA generativa como ChatGPT en el contexto de la empresa y la gestión de la cadena de suministro. Desde la perspectiva de Vermorel, es poco probable que el impacto de la IA generativa en la gestión de la cadena de suministro sea significativo, al menos en un sentido directo. Sin embargo, también destaca el desafío de predecir el futuro, lo que implica que el alcance y el potencial de la IA generativa aún pueden evolucionar y sorprendernos en el futuro.

Vermorel afirma que a pesar de la creciente prominencia y capacidades de las tecnologías de IA, es posible que no tengan un impacto sustancial en la optimización de la cadena de suministro. Argumenta que estos modelos se basan en fuentes de información grandes y de acceso gratuito, como la web, donde analizan imágenes y etiquetas de texto. Sin embargo, los datos críticos para la gestión de la cadena de suministro, como el historial de transacciones, son específicos de cada empresa y no se comparten abiertamente ni se acceden fácilmente. Por lo tanto, la forma actual de estas herramientas de IA puede carecer de la información necesaria para optimizar los procesos de la cadena de suministro de manera efectiva.

Centrándose en el ejemplo de ventas de marcos de puertas, Vermorel explica que los datos genéricos sobre marcos de puertas son menos útiles para la planificación de la cadena de suministro en comparación con el historial de ventas específico de una empresa de marcos de puertas. Enfatiza que estos datos, ocultos dentro del “silo” de la empresa, proporcionan una predicción más precisa de qué ordenar, producir y almacenar. Esto subraya el punto de que las tecnologías de IA como ChatGPT, que funcionan mejor con datos ampliamente disponibles, pueden ser menos efectivas cuando los datos relevantes son escasos.

Sin embargo, Vermorel reconoce que los modelos de lenguaje de IA podrían ser valiosos para algunas tareas. Por ejemplo, ChatGPT puede ayudar a generar fragmentos de código debido a la gran cantidad de código disponible de forma gratuita en línea, principalmente en plataformas como GitHub. Esta disponibilidad permite que la IA genere fragmentos de código o programas decentes, sirviendo como una herramienta de productividad para los programadores. Sin embargo, advierte sobre la necesidad de una supervisión cuidadosa, ya que el código generado por la IA también podría ser defectuoso.

Mirando hacia el futuro, Vermorel especula que los modelos de lenguaje de IA podrían ayudar en áreas como la toma de notas, la corrección de textos y los resúmenes de reuniones. Por ejemplo, podrían ser capaces de resumir una discusión de dos horas en una síntesis de dos páginas manteniendo los detalles críticos. Sin embargo, sugiere que actualmente, las herramientas de IA como ChatGPT podrían tener dificultades con tales tareas debido a sus limitaciones inherentes. No obstante, cree que en la próxima década, las tecnologías de IA evolucionarán para manejar estas tareas de manera más efectiva.

Vermorel identifica los datos como el desafío principal, indicando que los modelos de IA generativa no lidian necesariamente bien con las complejidades inherentes de los datos de la cadena de suministro. Doherty menciona la idea de GitHub Co-pilot, una herramienta diseñada para ayudar en la codificación que incluso puede producir código de calidad de manera autónoma. Se cuestiona si esto no sería más adecuado para la tarea en cuestión.

Vermorel rechaza esto, diciendo que GitHub Co-pilot y ChatGPT-3 comparten tecnología casi idéntica, ambos utilizan la arquitectura Transformer. Las diferencias radican en la experiencia del usuario, con GitHub Co-pilot proporcionando autocompletado con cada pulsación de tecla, mientras que ChatGPT-3 está más orientado al diálogo. Vermorel predice que la mejor herramienta para completar código probablemente utilizará un corpus más amplio que solo código.

Continuando, Vermorel se refiere a un artículo reciente de un equipo de Amazon. Se discute un generador prometedor que combina datos de imagen y texto, afirmando un rendimiento comparable y ocasionalmente superior a ChatGPT-3 pero con menos parámetros (mil millones en comparación con los cien mil millones de ChatGPT-3). Esta noción, dice Vermorel, es intrigante porque sugiere que la mezcla de tipos de datos más diversos puede crear un modelo más simple pero más potente.

Vermorel destaca una observación paradójica en el desarrollo de modelos de IA: modelos más grandes, como ChatGPT-3, no necesariamente son mejores. Hace referencia a Stable Diffusion, un modelo significativamente más delgado y rápido que su predecesor, la Red Generativa Adversaria, a pesar de tener solo alrededor de mil millones de parámetros. No está claro, afirma Vermorel, si son necesarios modelos tan grandes como ChatGPT-3 (que se encuentra en el rango de billones de parámetros).

Reforzando este punto, menciona nuevamente la investigación del equipo de Amazon que afirma haber reproducido casi por completo el rendimiento de ChatGPT-3 con un modelo de mil millones de parámetros. Este tamaño más pequeño, explica, permite su funcionamiento en tarjetas gráficas comunes que se encuentran en computadoras portátiles y estaciones de trabajo actuales. Esto abre una puerta para una mayor accesibilidad.

Volviendo al tema inicial, Doherty pregunta si la IA generativa tiene impactos netos positivos o negativos específicamente para las empresas y, más particularmente, para las cadenas de suministro.

Vermorel explica que el progreso en la ciencia y la tecnología es generalmente bueno, contradiciendo la perspectiva pesimista de Lovecraft, quien creía que hay ciertas verdades profundas en el universo que son tan brutales y hostiles para las mentes humanas que, si se descubrieran, las volverían locas.

Vermorel reconoce que cualquier herramienta, desde la Edad de Piedra, puede ser utilizada o mal utilizada. En el contexto del software empresarial de la cadena de suministro, teme un aumento en la confusión debido al mal uso de la tecnología, específicamente la inteligencia artificial. Según él, los proveedores ya están exagerando con la IA, y esto podría empeorar con los departamentos de marketing creando interminables estudios de casos falsos. Esto podría llevar a afirmaciones aún más engañosas y estudios de casos no verificables.

Vermorel explica que en el pasado, crear un estudio de caso falso requería cierto esfuerzo, pero ahora, debido a la IA, se ha vuelto sin esfuerzo. También señala que los participantes en un estudio de caso no tienen incentivos para decir que los beneficios reclamados por la empresa son falsos. Por lo general, confirman estos beneficios y atribuyen parte del éxito a sí mismos. Vermorel predice que estas tecnologías harán que la situación sea más confusa.

Mientras discute la estrategia de marketing de sus competidores, Vermorel indica su decepción con el uso frágil y no informativo del término “IA para la cadena de suministro”. Critica su falta de transparencia y cómo logran escribir páginas extensas llenas de lugares comunes, sin ofrecer información sustancial sobre su producto. Esto dificulta que él comprenda su tecnología, su función, su diseño o las ideas que la presiden.

Vermorel señala que las aplicaciones genuinas de IA en la optimización de la cadena de suministro implican enfoques altamente especializados y técnicos. Estas aplicaciones se basan en algoritmos o estructuras específicas como arquitecturas de transformadores, redes generativas o enfoques jerárquicos. Expresa la necesidad de que las empresas sean precisas y detalladas sobre las técnicas de IA que utilizan. Su argumento es que las afirmaciones de simplemente ‘hacer IA’ sin detalles a menudo son engañosas o completamente infundadas.

Para ilustrar su punto, Vermorel compara la tecnología de IA con la compra de una ventana para una casa. Al comprar una ventana, el comprador espera una descripción detallada del producto: ¿está hecha de madera, aluminio o plástico? ¿Es de vidrio sencillo o doble? De manera similar, cuando se trata de IA, Vermorel cree que las empresas deberían ofrecer una explicación detallada de qué técnicas de IA utilizan y cómo benefician a la cadena de suministro. Asegura que las descripciones genéricas o vagas se pueden equiparar a vender ‘ventanas genéricas’ sin ningún detalle específico.

Vermorel extiende esta analogía para hacer una crítica al término ‘ventanas sostenibles’. Argumenta que estas descripciones vagas agregan más confusión en lugar de proporcionar claridad. En la misma línea, critica a las empresas que ofrecen ’excelente iluminación’ en relación con sus ventanas, sugiriendo que es equivalente a afirmaciones de IA que carecen de evidencia o detalles concretos.

Además, Vermorel anticipa que el uso de tecnologías de IA como GPT (Generative Pretrained Transformer) aumentará la confusión en la industria. Si bien estas herramientas pueden generar material de marketing e integrarse en pilas tecnológicas existentes con relativa facilidad, es posible que no contribuyan significativamente a la función general u optimización de la cadena de suministro si la arquitectura del software no fue diseñada con estas capacidades en mente.

En su opinión, este enfoque es similar a pegar una pieza adicional a una estructura existente: es posible que no mejore la estructura o incluso que no tenga sentido en su aplicación. Vermorel ve un riesgo en el uso indebido adicional de tecnologías de IA ‘reales’, ya que las empresas pueden integrar algoritmos valiosos en sus operaciones de manera ilógica, contribuyendo a la confusión en la industria en lugar de ofrecer avances valiosos.

Vermorel critica la tendencia de incorporar la IA en la optimización de la cadena de suministro de manera ineficaz y, de hecho, sin sentido. Señala que estos procesos a menudo no agregan valor a las soluciones que se supone que deben mejorar. Para respaldar su punto, Vermorel menciona el patrón histórico de iteraciones en la investigación de operaciones, la minería de datos y la ciencia de datos, lo que implica que las tendencias actuales, como la IA cognitiva, podrían ser más de lo mismo.

Según Vermorel, si una empresa quiere aprovechar al máximo la IA como parte de su software empresarial, la integración debe ser a nivel de diseño. Argumenta enérgicamente en contra de “pegar” la IA en un software existente, enfatizando que el diseño central de un producto solo se puede establecer en el inicio de su desarrollo. Intentar encajar la IA en un producto después de haber sido creado resulta extremadamente difícil y a menudo contraproducente.

Cuando se le pide un ejemplo del nivel de diseño central al que se refiere, Vermorel habla sobre las bases de datos transaccionales. Estas bases de datos, construidas para garantizar la integridad transaccional, no están diseñadas para aprovechar tecnologías como generadores de imágenes o texto. En su opinión, estos paradigmas diferentes son casi incompatibles y lograr una compatibilidad entre ellos no es algo dado. Requiere consideraciones de diseño cuidadosas y un principio rector que garantice la compatibilidad dentro de la arquitectura del software.

Vermorel reconoce la posibilidad de tener la IA como un complemento que se encuentra al lado de un producto existente, pero sostiene que este arreglo rara vez conduce a una integración o sinergia adecuada. Más bien, complica el software, introduciendo más componentes móviles y posibles errores.

Su consejo para aquellos que consideran la integración de IA en la optimización de la cadena de suministro es cuestionar exhaustivamente a los proveedores sobre sus ofertas. Insta a los clientes a asegurarse de que un proveedor pueda explicar claramente y de manera sensata su tecnología. Si un proveedor no puede hacerlo, Vermorel sugiere que podría indicar un problema con el producto o la comprensión de la tecnología por parte del proveedor.

Vermorel cierra su parte de la discusión enfatizando que los verdaderos logros en la tecnología de IA, como la creación de modelos complejos, a menudo se hacen públicos a través de documentos de investigación y otras publicaciones. Esta apertura se debe en parte al orgullo que sienten los desarrolladores al lograr algo difícil. Señala que estos logros no son secretos bien guardados, sino que se comparten abiertamente para que el mundo los presencie, subrayando aún más la importancia de comprender la tecnología subyacente.

Vermorel reconoce los avances notables logrados por ciertas empresas en la industria tecnológica. Señala que las empresas que logran alcanzar ciertos hitos técnicos a menudo publican informes detallados para compartir cómo lograron sus éxitos. Ve esto como una tendencia común dentro de la industria, reforzando que es un signo de progreso tecnológico real.

A continuación, Vermorel adopta una postura crítica sobre el papel y la percepción de la IA en el mundo corporativo moderno. Caracteriza a la IA como una palabra de moda que ha ganado una gran aceptación en el mercado. A pesar del uso generalizado del término, enfatiza que su significado es tan amplio y a menudo vago que puede abarcar casi cualquier cosa. Advierte contra la aceptación ciega de las afirmaciones de los proveedores sobre sus capacidades de IA, especialmente cuando no pueden proporcionar una descripción precisa de lo que ofrecen bajo la etiqueta de IA.

Vermorel aconseja firmemente que al tratar con proveedores que afirman ofrecer soluciones de IA, se debe ejercer diligencia para comprender la naturaleza exacta de sus ofertas. Advierte contra confiar en un proveedor cuyo vendedor admite no tener conocimiento sobre la tecnología que están vendiendo, atribuyéndola a un equipo técnico separado. Vermorel considera esto un claro indicador de que la empresa puede no poseer la destreza tecnológica que afirma tener.

Amplía este punto advirtiendo contra caer en la retórica de “contratamos a laureados con el Nobel, tenemos a Einsteins”. Asegura que tales afirmaciones suelen ser una cortina de humo diseñada para convencer a los posibles clientes de su aptitud técnica sin ninguna evidencia sustancial. En la mayoría de los casos, argumenta, estas situaciones implican que no hay nada realmente innovador o tecnológicamente avanzado detrás de las afirmaciones, es más de lo mismo.

Al concluir este segmento de la conversación, Doherty expresa su gratitud hacia Vermorel por compartir sus ideas, enfatizando lo esclarecedora que ha sido la discusión. El segmento termina con Doherty agradeciendo a la audiencia por su tiempo y atención, prometiendo regresar con conversaciones más esclarecedoras en el futuro.

Transcripción completa

Conor Doherty: La IA generativa está en todas partes en estos días, no solo en la cadena de suministro. ¿Es esto algo positivo o negativo? Aquí para explicárnoslo está Joannes Vermorel. Bienvenido.

Joannes Vermorel: Hola, Conor, un placer estar aquí contigo.

Conor Doherty: Entonces, si quieres, pongamos un poco en contexto. ¿Qué es exactamente la IA generativa? ¿Cuál es su propósito ya que está en todas partes en estos días?

Joannes Vermorel: Sí, la IA generativa es básicamente un conjunto, una colección de soluciones propuestas al antiguo problema generativo. El problema generativo ocurre cuando tienes colecciones de objetos en su representación digital y quieres encontrar un algoritmo, un método, una receta para generar una instancia más. Este tipo de problemas ha estado presente durante décadas. Para situaciones específicas y limitadas, ha habido muchos generadores. Por ejemplo, durante décadas ha existido un generador que puede crear el nombre de una ubicación que suene realista en Inglaterra o un título que suene realista para una novela de Stephen King. Si quisieras crear imágenes, había generadores que podían hacer un mapa que se pareciera un poco a El Señor de los Anillos. Tenía esa vibra fantástica medieval con pequeñas montañas, bosques, costas y nombres fantásticos por todo el mapa. La idea de tener un generador ha estado flotando durante décadas. El progreso ha sido bastante incremental, con el objetivo de hacer que el generador sea más amplio, aprovechando más conjuntos de datos de entrada en lugar de un conjunto extenso de reglas predefinidas. Ahí es donde estamos, décadas en el proceso. El año pasado, la comunidad de aprendizaje automático alcanzó dos hitos muy notables con ChatGPT-3 para texto y difusión estable para imágenes. Sin embargo, estos fueron hitos en términos de accesibilidad de estas herramientas, no necesariamente un avance fundamental en estadísticas, matemáticas o ciencias de la computación. Fueron los primeros productos que se empaquetaron y pulieron lo suficiente como para que una persona común pudiera comenzar en minutos y jugar con ellos. En el ámbito de las imágenes, durante más de una década ha habido redes generativas adversarias que pueden crear imágenes muy bonitas. Pero estas herramientas venían con muchas peculiaridades. La difusión estable, por otro lado, facilitó que los usuarios ingresaran una indicación, por ejemplo, “un hermoso castillo en medio del bosque”, y obtuvieran una imagen decente. No perfecta, pero lo suficientemente buena.

Conor Doherty: Entonces, ¿se trata de una mejora de un orden de magnitud en la accesibilidad y usabilidad de estas herramientas?

Joannes Vermorel: Exactamente, lo mismo sucedió con ChatGPT. Por cierto, el tipo de GPT que se hizo popular ya existía desde hace un par de años. Literalmente era algo que se había vuelto a empaquetar de una manera que lo hacía mucho más accesible. Fue una cuestión de usabilidad. El hito fue en 2022 cuando la IA generativa se volvió ampliamente accesible en lugar de ser algo oscuro. No ocurrió nada realmente fundamental; fue realmente una cuestión de pura usabilidad.

Conor Doherty: Recuerdo que cuando era niño, había ejemplos de esos sitios web generativos, como el de “dame un nombre de los Ramones”. Uso ese ejemplo famoso. Creo que Childish Gambino, el músico, generó su nombre a través de un sitio web similar. Pero no estaba familiarizado con las iteraciones anteriores de ChatGPT porque la iteración actual es la tercera. Entonces, ¿qué fue exactamente lo que llamó la atención del público en los lanzamientos del año pasado, como Stable Diffusion y la tercera iteración de ChatGPT? Ahora están en todas partes.

Joannes Vermorel: Lo que llamó la atención del público fueron los esfuerzos realizados por los equipos de investigación en el empaquetado de la tecnología. Stable Diffusion se lanzó como código abierto. Si estabas familiarizado con un entorno de Python, incluso si no sabías mucho sobre Python, podías configurar un entorno de programación en unas dos horas. Podías jugar con todas las partes móviles por tu cuenta. Ni siquiera tenías que ser un programador de Python. Solo tenías que ser lo suficientemente fluido como para ejecutar una serie de líneas de comandos. Había varios tutoriales. Stable Diffusion hizo que la generación de imágenes fuera accesible si podías jugar con la línea de comandos. Es un poco geek pero no exagerado. Incluso había una interfaz de usuario gratuita, Dream Studio, donde podías jugar gratis con las primeras 100 imágenes. Después de eso, tenías que pagar algo así como diez dólares para generar las siguientes 100 imágenes. Open GPT también era una aplicación web. Solo necesitabas registrarte y hoy en día, tienes que pagar alrededor de 20 euros al mes para tener acceso. Lo interesante es que en ambos casos, podías acceder a un generador en un sentido amplio en cuestión de, digamos, una hora. Necesitas un poco de experiencia para empezar a familiarizarte con la herramienta, pero fue órdenes de magnitud menos en comparación con lo que había antes. En términos de verdadera progresión, lo interesante es que estos generadores han estado progresando en dos frentes durante décadas. Un frente es la dimensionalidad. Quieres poder generar objetos de alta dimensionalidad en un sentido amplio. Por ejemplo, si quieres generar un nombre para un romano o una ubicación en Inglaterra, es un problema bastante de baja dimensionalidad. Algo así como 10 a 20 dimensiones, dependiendo de si estás contando el número de letras o sílabas. Pero si quieres generar un texto de una página de largo, estamos hablando de algo así como unas pocas miles de dimensiones. Si quieres generar una imagen de mil por mil píxeles, te enfrentas a un desafío de alrededor de tres millones de dimensiones debido a los tres colores primarios. Es un aumento significativo. La iteración inicial de Stable Division estaba limitada a 512 por 512 en términos de capacidad. Lo están mejorando, pero esta alta dimensionalidad fue un desafío importante. El mismo tipo de problema surgió con el texto. La dimensionalidad se desarrolla en dos direcciones. Está la cantidad de texto que puedes usar como una indicación de entrada, y puede variar desde una sola línea hasta varios párrafos, o incluso páginas. Luego está la cuestión de hasta dónde puedes llegar en términos de texto antes de que el generador pierda consistencia con sí mismo. Estos modelos están limitados. No pueden generar un libro completo de principio a fin con el final siendo consistente con el principio. Para la generación de texto, un desafío es navegar por estas dimensiones más altas. Si generas una palabra, solo tienes que ser consistente a nivel local. Si generas una oración, debe ser consistente a mayor escala, y así sucesivamente. Si es un libro, estás lidiando con tal vez millones o decenas de millones de dimensiones abstractas, que también se pueden ver como grados de libertad o la complejidad del objeto que estás examinando. El mismo problema existía con las imágenes. Una vía de progreso es avanzar hacia dimensiones más altas manteniendo la consistencia. Si divides la cosa, es más fácil generar dos imágenes más pequeñas en lugar de una más grande y consistente.

Conor Doherty: Entonces, cuando hablas de estas dimensiones más grandes, ¿quieres decir que el generador debe mantener la consistencia?

Joannes Vermorel: Sí, precisamente. El objetivo es mantener el enredo y la consistencia en el objeto generado, independientemente de su tamaño o complejidad. Otra vía de progreso es la universalidad. ¿Estás hablando de un generador específico para un problema estrecho, o es un generador que puede abordar cualquier cosa? En los últimos cinco años, la comunidad de deep learning ha logrado un enorme progreso al aprovechar conjuntos de datos gigantescos. Si se trata de texto, abarca todo: Wikipedia, foros web u cualquier otra fuente de texto. Por lo tanto, el generador, cuando se le solicita correctamente, puede producir desde poesía hasta lenguaje jurídico, código o incluso consejos genómicos. Lo mismo se aplica a las imágenes. Tenemos generadores capaces de crear desde arte de píxeles hasta vistas fotorrealistas o incluso pinturas al óleo. Se trata de cubrir una gama de sofisticación y estilo.

Conor Doherty: Cuando hablas de la dimensionalidad de estas aplicaciones, ¿qué tan comparables son las salidas? Por ejemplo, en ChatGPT, ¿qué tan comparable es un ensayo generado a través de ChatGPT en comparación con el que genera una persona promedio, digamos, educada en la universidad? ¿Son niveles de sofisticación comparables? ¿Ya estamos ahí?

Joannes Vermorel: En términos de sofisticación, esa es una pregunta difícil. Tendríamos que definir y aclarar qué queremos decir con sofisticación.

Conor Doherty: De hecho, puedo intervenir aquí. Digamos que usamos la prueba de Turing de tal manera que es posible que no puedas determinar si fue generado por ChatGPT o por un estudiante en un aula.

Joannes Vermorel: Depende, porque estos modelos, especialmente el generador de texto, funcionan mezclando enormes cantidades de corpus. Algunas personas han realizado pruebas y, en gran medida, lo que ChatGPT escribe es literalmente un corta y pega de cosas que se encuentran en algún lugar de la web. El poder del modelo radica en su capacidad para unir estas piezas de manera que sean gramatical y sintácticamente correctas. Pero se trata esencialmente de identificar patrones estadísticos de alto nivel que existen entre palabras, grupos de palabras y oraciones para encontrar cosas que encajen de manera estadísticamente probable o creíble. ¿Suena como un humano? Mucho, sí. Pero la realidad es que gran parte de lo que genera se puede encontrar en la web, tomado de varios sitios. Sin embargo, el avance radica en poder hacer esto, lo cual fue increíblemente difícil. No se trata solo de cortar y pegar frases. Se trata de comprender dependencias estadísticas de alto nivel para que puedan mezclarse de manera creíble. Sin embargo, cuando se trata del sentido común, como comentó el jefe de IA de Facebook, ninguno de estos generadores posee el sentido común de un gato. Ese es el nivel de comprensión con el que estamos lidiando. Son relaciones puramente estadísticas. Por ejemplo, si se le hace una pregunta básica como “¿Cómo puedo evitar el embotellamiento de tráfico en medio del océano Atlántico?”, podría sugerir obtener una mejor ruta con un GPS más nuevo, sin captar el humor en la pregunta. Se trata de unir piezas de texto en función de relaciones estadísticas de alto nivel.

Conor Doherty: Creo que los investigadores de Amazon sometieron a ChatGPT a una serie de pruebas de coeficiente intelectual y descubrieron que estaba aproximadamente a una desviación estándar por debajo de la norma, alrededor de 83. Esto parece ser consistente con lo que estás diciendo aquí, simplemente uniendo piezas de información que parecen pertenecer.

Joannes Vermorel: Pero creo que estás perdiendo el punto. Incluso un humano increíblemente poco inteligente, alguien que no está en estado vegetativo, sigue siendo mucho más inteligente que un gato. Sin embargo, lo que se ha postulado, y tiendo a estar de acuerdo, es que no estamos ni siquiera cerca de algo tan inteligente como un gato. Todavía estamos muy lejos. Podrías decir: “Oh, pero mi gato es completamente incapaz de decirme algo sobre, digamos, la Teoría de la Relatividad”. Sin embargo, ChatGPT es capaz de hacer un trabajo bastante bueno al darme un par de párrafos de introducción. Esto se debe a que ChatGPT literalmente va a cortar y pegar una buena síntesis de esta teoría de las miles de instancias que se pueden encontrar en la web, las mezcla y las regurgita. Sin embargo, eso no significa que entienda algo. Incluso un gato, por ejemplo, entendería que si hay algo… Usemos un ejemplo con GPT. Si le preguntas a tu GPT algo como: “Tres autos necesitan dos horas para conducir desde la ciudad de París hasta la ciudad de Tours. Si tienes seis autos, ¿cuánto tiempo lleva?” GPT te diría: “Bueno, seis autos son el doble que tres, así que llevará como cuatro horas”. Nuevamente, si piensas en un gato, y el gato piensa: “Si tengo un compañero, quiero ir allá”, va a llevar el mismo tiempo ya sea que esté yo o mi compañero gato. Si bien el gato no va a expresar las cosas de una manera tan elaborada, hay cierta comprensión de esas cosas muy básicas sobre nuestro universo tridimensional, el flujo del tiempo, y así sucesivamente. Nuevamente, GPT es increíblemente impresionante en su capacidad, y lo mismo ocurre con Stable Diffusion. Pero puedes ver que hay una especie de comprensión increíblemente superficial porque todo lo que estos modelos están haciendo es mezclar datos de entrada de alta dimensionalidad. Tal vez esto sea suficiente. Tal vez si continuamos por este camino con modelos aún más elaborados, no haya nada más en la inteligencia que acumular este tipo de recetas solo a una escala más grande. Pero sospecho que la situación es más complicada que eso. Sospecho que esos investigadores conscientes tienen mucha investigación que demuestra una vez más que toda la historia de la inteligencia artificial es aclarar lo que no es la inteligencia. Y eso ha sido como un viaje, un viaje en el que hemos estado durante los últimos 70 años aproximadamente.

Conor Doherty: Bueno, creo que dijiste antes que la iteración actual de ChatGPT y Stable Diffusion, o simplemente la IA generativa, es aproximadamente una orden de magnitud mejor que las iteraciones anteriores. Sí. ¿Cuánto mejor tendría que ser la cuarta iteración de ChatGPT para cerrar la brecha que acabas de describir?

Joannes Vermorel: Realmente no lo sabemos porque ese es el problema. Siempre que hay un tipo de avance, y creo que aquí el verdadero avance fue el deep learning, no estas aplicaciones del deep learning. El deep learning fue el avance alrededor de 2011-2012. Ese fue el verdadero avance matemático y conceptual. Estas son aplicaciones e ideas muy elaboradas que se obtuvieron durante la última década. Pero todavía no sabemos realmente qué nos falta. Es una pregunta muy abierta y no debes pensar en ello como una progresión lineal. Ese es el problema con la inteligencia: no sabemos qué nos falta. Una vez que establecemos un nuevo tipo de técnica, nos permite incluso revisar lo que significa la inteligencia en primer lugar. Si retrocedemos un siglo en el pasado y te preguntaras: “¿Cómo puedes establecer que una persona tiene una inteligencia superior?” Si le preguntaras a los profesores en la academia, podrían decir algo como: “Bueno, si esta persona puede invertir una matriz o calcular las primeras 20 cifras de pi, tiene una inteligencia superior”. Hoy en día, la gente diría que una calculadora de bolsillo puede hacer eso. Es una tarea completamente mecánica. No hay ninguna inteligencia en poder calcular las primeras 20 cifras de pi. Tenemos recetas simples que llamamos algoritmos. Puedes ejecutarlos con una computadora y obtener miles de cifras. No te hace inteligente de ninguna manera. Esta era la situación hace un siglo, donde lo que se consideraba como el verdadero reflejo de la inteligencia humana resultó ser la parte fácil de la mecanización. Hoy en día, las computadoras son literalmente 10 órdenes de magnitud, o incluso 15 órdenes de magnitud, mejores que los humanos en hacer estos cálculos, pero no son inteligentes en absoluto. Al menos, ese es el consenso general ahora. Lo que hemos descubierto con esta generación de IA, con el deep learning, es que hay muchas tareas que en la superficie parecen increíblemente difíciles o desafiantes, pero que pueden no reflejar tanta inteligencia. Por ejemplo, ChatGPT nos dice más sobre lo que no es la inteligencia en comparación con lo que realmente es. Lo que dice es que la cantidad de conocimiento latente en el idioma inglés y en todos los idiomas humanos es enorme. Cuando decimos “conocimiento latente”, nos referimos a que, digamos, tenemos esta cosa abstracta que es la suma total del conocimiento humano. Hay bases de datos, por ejemplo, que los químicos han recopilado durante el último siglo. Estas bases de datos detallan las propiedades de cada compuesto químico conocido. Entonces, tienes una base de datos completa que enumera la resistividad de cada material conocido en la Tierra, o el punto de fusión de cada material en la Tierra. Tenemos mapas que recopilan conocimiento en otra forma. También hay algún tipo de conocimiento latente en el propio lenguaje. Las palabras que usamos reflejan una gran comprensión que tenemos sobre el universo. Si decimos que hay estrellas y planetas, y que los planetas orbitan alrededor de las estrellas, significa que ya hemos comprendido mucho sobre el universo. Por ejemplo, los antiguos griegos tenían una comprensión diferente de lo que eran las estrellas y los planetas. Postular que el sol es una estrella, como todas las demás estrellas, ahora es aceptado y forma parte del vocabulario. Esto es parte del conocimiento latente. Si solo miraras las definiciones dadas en un diccionario, aprenderías mucho sobre lo que se puede aprender de las ciencias modernas. Las propias palabras te dicen sobre el estado del conocimiento. Por el contrario, a veces la falta de una palabra impide que exista algún tipo de conocimiento. Un ejemplo peculiar de esta situación sería el libro “Antifragile” de Nassim Taleb. La premisa básica del libro era definir el verdadero opuesto de frágil. Frágil, en su definición, es algo que empeorará cuando se someta al caos y al desorden. Argumentó que ser duradero, duro o resistente no hace exactamente que algo sea lo opuesto a frágil. Estas características solo significan que bajo el caos y el desorden, se deteriorará o degradará a un ritmo más lento. Taleb se preguntó cuál sería el verdadero opuesto, algo que cuando se somete al caos y al desorden, mejora. Esta perspectiva abstracta lo llevó a acuñar el término ‘anti-frágil’, creando una perspectiva completamente nueva sobre cómo ver los ecosistemas, las sociedades humanas y muchas otras cosas. Al introducir esta palabra, enriqueció nuestro conocimiento, aunque esto puede ser difícil de entender porque la forma en que comunicamos el conocimiento es a través del propio lenguaje.

Conor Doherty: Eso nos lleva de vuelta a mi punto de partida. La brillantez de ChatGPT demuestra que hay una enorme cantidad de conocimiento latente en el propio lenguaje. Esto explica, por ejemplo, por qué un político puede darte diez palabras de moda del día que corresponden a las causas que quieres defender. Pueden desarrollar todo un discurso basado en eso y parecer que están diciendo algo inteligente sin aportar absolutamente nada de contenido.

Joannes Vermorel: Curiosamente, eso es lo que hace ChatGPT. Cuando le das una indicación a la herramienta, tiende a juntar todo tipo de ideas ampliamente aceptadas que se alinean con el sentido común o la perspectiva dominante establecida. Imagina si tuvieras a alguien que solo respondiera tus preguntas usando proverbios. ChatGPT hace eso, pero mejor, al unir lugares comunes de literalmente todos los dominios. Es impresionante porque normalmente ni siquiera estás familiarizado con lo que sería un lugar común en un dominio del que no sabes nada. Esta es la belleza de entrenar un generador con un conjunto de datos supermasivo que incluye millones de páginas de texto de campos superdiversos.

Conor Doherty: En cuanto a la aplicación práctica de todo esto, en tu opinión o estimación, ¿hay alguna aplicación útil de la IA generativa en el ámbito empresarial o de la cadena de suministro?

Joannes Vermorel: La empresa es un campo muy amplio, así que me centraré en la cadena de suministro. Para la cadena de suministro, diría que muy probablemente no, al menos no directamente. Pero es increíblemente difícil predecir el futuro. La razón por la que tiendo a pensar que esta ola de generadores no tendrá un impacto masivo en la cadena de suministro es que la fortaleza de estos generadores radica en que aprovechan una gran cantidad de conocimiento ambiental que básicamente es la web, con todas esas imágenes y etiquetas a las que se puede acceder de forma gratuita. Pero cuando se trata de la optimización de una cadena de suministro, los datos más relevantes son los de tu historial transaccional. Si estás vendiendo, digamos, marcos de puertas, no te ayuda realmente en la planificación de la cadena de suministro saber muchas cosas generales sobre marcos de puertas. Tu historial de ventas de marcos de puertas del año pasado te dice mucho más sobre qué exactamente deberías pedir, producir y cómo deberías asignar el stock. Por lo tanto, los datos más relevantes no se comparten abiertamente con el mundo. Existen en el silo de tu empresa. Las empresas, a diferencia de ChatGPT, se ven distorsionadas por el hecho de que estas herramientas son mejores cuando se discuten cosas donde hay muchos materiales disponibles públicamente en línea. Si se discuten cosas que no se publican ampliamente en línea, ChatGPT rápidamente se vuelve ignorante al respecto. Muy concretamente, diría que si piensas en los métodos que podrían usarse para hacer cualquier tipo de optimización, no estoy muy seguro simplemente porque los tipos de datos necesarios no están ahí. Sin embargo, estas herramientas podrían llegar a ser instrumentales en el apoyo a tu desarrollo. Por ejemplo, ChatGPT es bastante bueno para ayudarte a generar fragmentos de código. Para la programación, debido a que es un lenguaje genérico, significa secuencia de caracteres, ChatGPT puede generar etiquetas, pero también código. Debido a la enorme cantidad de código disponible en línea, principalmente a través de GitHub pero también en muchos otros lugares, tienes bases de código masivas que están listas para que ChatGPT se entrene en ellas. Por lo tanto, ChatGPT es capaz de componer fragmentos de código o programas bastante decentes. Como herramienta de productividad para programadores, hay mucho potencial. Pero ten cuidado, el código que ChatGPT genera puede ser tan falso como el código escrito por humanos. No lo usaría sin una supervisión cuidadosa si quieres diseñar la próxima generación de piloto automático para una aeronave o un automóvil. Además, sospecho que el tipo de tecnología que surgirá será cosas como registros de actas de reuniones. En este momento, no estoy muy seguro de que ChatGPT pueda resumir una discusión de dos horas en algo como dos páginas mientras se preserva la máxima cantidad de detalles sobre lo que se dijo. Pero, herramientas similares, estoy bastante seguro de que en la próxima década podrán hacerlo. Así que para la cadena de suministro, habrá muchos beneficios. Sin embargo, sospecho que la mayoría de ellos estarán en el margen, en la periferia, cosas como facilitar reuniones, tomar notas o sistemas mejores para corregir documentos. Pero los problemas y desafíos principales están en los datos, y esos generadores no manejan los datos tal como se presentan en las cadenas de suministro.

Conor Doherty: ¿No hay otros programas diseñados específicamente para la codificación? Quiero decir, ChatGPT es una IA generativa basada en texto, pero está GitHub co-pilot que está diseñado para ayudar en la codificación, y puede producir una codificación bastante decente por sí mismo, ¿verdad?

Joannes Vermorel: No, esos modelos son casi idénticos, casi intercambiables. El tipo de tecnología que hay detrás de ellos es increíblemente similar. Utilizan la misma arquitectura de Transformer. Las únicas diferencias son ligeras variaciones en el corpus y la experiencia del usuario. GitHub copilot tiene como objetivo proporcionar una autocompletación en cada pulsación de tecla, mientras que ChatGPT está más orientado hacia el diálogo. Pero las diferencias son realmente solo una fina capa de barniz en la parte superior. Por debajo, son lo mismo. Sospecho que la mejor herramienta para completar código se construirá sobre un corpus más amplio que el código. Esto se ilustra en un artículo reciente publicado por un equipo de Amazon. Presentaron un generador prometedor que combina datos de imagen y texto, unificándolos esencialmente. Incluso afirman superar a ChatGPT en algunos puntos de referencia, con resultados comparables en la mayoría de las otras métricas. Sin embargo, hay que tomar esto con precaución, ya que determinar un buen generador es un problema tan complejo como crear el generador en sí. Lo interesante, sin embargo, es que su modelo es tan efectivo como ChatGPT, pero con mil millones de parámetros, mientras que ChatGPT tiene casi 100 veces más parámetros. Esto sugiere que al combinar diferentes tipos de datos, se puede tener un modelo más potente y más simple, lo cual es paradójico. Por ejemplo, el modelo ChatGPT es gigantesco, con un rango de parámetros en los billones. Pero no está claro si un modelo tan enorme es necesario. De hecho, uno de los avances de Stable Diffusion, en comparación con otros modelos, fue un modelo que es dos órdenes de magnitud más rápido y más liviano que la Red Generativa Adversaria que reemplazó. Stable Diffusion solo tiene alrededor de mil millones de parámetros, lo que lo hace muy pequeño en comparación con ChatGPT. Sin embargo, un equipo recientemente afirmó que han reproducido el rendimiento de ChatGPT con un modelo mucho más pequeño, aproximadamente del tamaño de mil millones de parámetros. Esto es interesante porque es aproximadamente el mismo tamaño que se puede operar con una tarjeta gráfica comúnmente encontrada en portátiles y estaciones de trabajo en la actualidad.

Conor Doherty: Bueno, esto nos lleva de nuevo al punto de partida o a la introducción en general, ¿es esto algo positivo o negativo? Ahora, en el contexto específico de la empresa o incluso en la cadena de suministro más granular, ¿ves esto, la IA generativa, como una distracción, una ventaja o una maldición?

Joannes Vermorel: Como línea general de pensamiento, mi opinión es que cualquier avance en términos de ciencia y tecnología es bueno. No tengo esta perspectiva lovecraftiana, sabes, donde hay algunas verdades profundas o profundas del universo que son tan brutales y tan hostiles a la mente humana que si las descubres, te vuelves loco. Mi opinión no es lovecraftiana. Creo que en general, es algo bueno. Ciertamente es mejor que la ignorancia. Ahora, como cualquier herramienta desde la Edad de Piedra, el primer martillo se podría diseñar para cazar un animal o para matar a tus semejantes. Entonces, este ha sido el problema con la tecnología y se puede usar de manera incorrecta. Ha sido un problema durante miles de años. Este tipo de tecnología también se puede usar de manera incorrecta. Los posibles usos incorrectos en el ámbito del software empresarial de la cadena de suministro van a ser un aumento en la confusión debido al ruido. Los proveedores ya están promocionando la IA como locos, y ahora incluso podrán ajustar la cosa al máximo al hacer que su departamento de marketing simplemente gire estudios de caso falsos interminables. En el pasado, crear un estudio de caso falso requería cierto esfuerzo. Sin embargo, podrías falsificarlo por completo porque nadie va a verificar tus afirmaciones. La mayoría de tus afirmaciones son imposibles de verificar. Y, como describí en mi conferencia, nadie en un estudio de caso tiene ningún incentivo para decir que todos los millones que afirmas haber ahorrado o ganado o generado son falsos. Todos los que forman parte de un estudio de caso tienen un gran incentivo para decir: “Sí, todo, todos esos beneficios son verdaderos, y todo se debe a mí, al menos en parte si logramos lograr todo eso”. Entonces, mi opinión es que la situación se volverá aún más confusa porque estos equipos se volverán locos y generarán aún más estudios de caso y afirmaciones falsas y páginas vacías que describen la tecnología. He pasado algún tiempo en los sitios web de muchos competidores de Lokad. Lo interesante es que puedes tener páginas enteras de texto donde lo lees y al final, no has aprendido nada. Logran dar vueltas a lugares comunes o cosas que no revelan nada sobre lo que realmente están haciendo.

Conor Doherty: ¿Estamos hablando de engaños?

Joannes Vermorel: Sí, exactamente. Siempre me desconcierta un poco cuando leo una documentación de 10 páginas sobre IA para la cadena de suministro y al final no puedo decir nada sobre qué es, qué hace, por qué se diseñó de esa manera o qué tipo de ideas presiden esta cosa. Eso es desconcertante. Sospecho que en el pasado, los equipos de marketing pasaban días ideando estas descripciones vagas. Ahora, utilizando IA generativa, como ChatGPT, se puede crear instantáneamente una descripción de diez páginas. Por lo tanto, si cuestionas la validez del contenido que afirma tener IA en su optimización de la cadena de suministro, diría que es en su mayoría sospechoso. No porque la IA sea falsa, sino porque se está tergiversando en este contexto. Cuando hablamos de IA generativa, se utilizan términos específicos, como difusión estable, arquitectura Transformer y red generativa. Estas técnicas tienen nombres. Los profesionales en este campo no dicen simplemente “estoy haciendo IA”. Son más precisos. Necesitan estos términos para describir su trabajo. Esta precisión se desarrolla como parte de un proceso emergente dentro de la comunidad. Las personas que no se molestan en describir su tecnología en detalle a menudo recurren a términos vagos. Tomemos un ejemplo sencillo. Si quieres comprar una ventana para tu casa, el vendedor especificará el material del marco, el número de capas de vidrio, etc. Si un vendedor simplemente dice “vendo ventanas, confía en mí, son buenas” sin dar ningún detalle, eso es cuestionable. Si alguien no puede darte especificaciones técnicas y en su lugar utiliza palabras de moda como “sostenible”, no está aclarando nada. Está añadiendo más incógnitas. Esto es análogo a lo que sucede con la IA y ChatGPT. Estas herramientas pueden generar materiales de marketing confusos y dar a los proveedores la capacidad de incluirlos en su conjunto de tecnología sin crear nada sustancial. Es bastante fácil integrar estas herramientas en una arquitectura de software existente, pero será un accesorio si tu arquitectura de software existente no ha sido diseñada para optimizar las capacidades de la tecnología. Siempre es algo fácil añadir una pieza más de software, pero eso no significa que vaya a marcar la diferencia o que sea útil. Por lo tanto, creo que esta situación creará más confusión. Dará una oportunidad más a los proveedores para incorporar algoritmos de valor real, pero de manera absurda. Al final, esto no añade ningún valor a la solución, lo cual es otro problema. Ya hemos experimentado varias iteraciones de esto con la investigación operativa hace 50 años, luego la minería de datos y luego la ciencia de datos. Ahora habrá esas iteraciones de IA cognitiva. Sin embargo, el problema es que si quieres aprovechar al máximo esta tecnología como software empresarial, no puede ser simplemente un complemento. Tiene que formar parte del diseño de tu producto. Es un diseño central que no se puede cambiar después. El problema con el diseño central de los productos es que es algo que solo se puede hacer al principio. No puedes simplemente añadirlo a tu producto después del hecho.

Conor Doherty: ¿Puedes dar un ejemplo del nivel de diseño central del que estás hablando?

Joannes Vermorel: Si tienes un sistema donde en el núcleo de tu sistema tienes una base de datos transaccional diseñada para garantizar la integridad transaccional, es genial. Pero este diseño no va a hacer nada para aprovechar cualquier tipo de generador de imágenes o texto. Está completamente en desacuerdo con la perspectiva transaccional. Estás tratando con transacciones, pero tener alguna herramienta que pueda generar texto o imagen, ni siquiera está en el mismo ámbito. Entonces, lo que estoy diciendo es que tener algo que encaje no es algo dado. Por lo general, requiere un cuidado exhaustivo en el diseño y los principios rectores de tu arquitectura, para que las cosas encajen en absoluto. De lo contrario, simplemente estás en vías separadas. En el software, lo que es engañoso es que siempre es posible tener un producto y luego tener un complemento que se coloca al lado. Pero no está correctamente integrado, no está conectado y no hay sinergia entre los dos. Solo tienes un lío más complicado con más piezas en movimiento y más errores. Entonces, en el equilibrio de poder, aconsejaría no intentar integrar esto en las optimizaciones de la cadena de suministro. Pero si un proveedor se presenta con eso, realmente necesitas investigar qué es lo que están haciendo. Mi consejo final para la audiencia sería: asegúrate de que si lees la página de tecnología de este proveedor, tenga sentido para ti. No tienes que ser un experto. Si el proveedor no es capaz de transmitir de manera comprensible cuál es su tecnología y qué hace, y qué tipo de técnicas utiliza, es muy probable que sea una señal de alerta. Nunca he visto en toda mi carrera que una empresa capaz de lograr algo difícil lo oculte. Al contrario, las empresas que logran llegar a este punto están más que felices de mostrar sus logros al mundo. Por cierto, eso es cierto para todos esos modelos: Stable Diffusion, ChatGPT, etc. Esos logros son públicos. Se han publicado artículos sobre ellos. Estos no son secretos bien guardados. Al contrario, las empresas que logran llegar a este punto de logro técnico a menudo publican documentos muy detallados sobre cómo lo han logrado. Este es un comportamiento muy típico. Desde mi perspectiva, el consejo fundamental es que si bien hay mucho valor en la IA, es simplemente una palabra de moda. Casi cualquier cosa se puede categorizar bajo este paraguas. Por lo tanto, cada vez que un proveedor se acerque a ti, es esencial entender qué es exactamente lo que hacen. Si la persona que te vende no tiene esta comprensión, y si el proveedor afirma ignorancia diciendo: “Soy solo un vendedor, es el equipo técnico quien sabe”, no confíes en ellos. Si dicen tales cosas, indica que no hay una tecnología sustancial detrás de sus afirmaciones. Esta es una técnica probada en el tiempo que se ha utilizado durante décadas: afirmar haber contratado a premios Nobel, presumir de tener ‘Einsteins’ en la sala de atrás, decirte que confíes en ellos porque su equipo es increíblemente inteligente. Sin embargo, si profesan ignorancia sobre la tecnología y te aseguran que es el resto del equipo quien sabe, eso casi garantiza que no hay sustancia en sus afirmaciones. Es más de lo mismo.

Conor Doherty: Bueno, en ese sentido, gracias, Joannes. He aprendido bastante. Gracias por tu tiempo y gracias a todos por ver. Nos vemos la próxima vez.