00:00:00 Introduction à l’interview
00:01:00 Le parcours de Rinat chez Lokad et les défis de la chaîne d’approvisionnement
00:03:59 L’évolution de Lokad et les enseignements de la simulation
00:07:07 Complexités de la simulation et décisions basées sur les agents
00:09:15 Introduction aux LLM et optimisations de la simulation
00:11:18 L’impact de ChatGPT et les catégories de modèles
00:14:14 Les LLM en tant qu’outils cognitifs dans les entreprises
00:17:10 Les LLM améliorant les interactions avec les clients et les listes
00:20:30 Le rôle limité des LLM dans les calculs de la chaîne d’approvisionnement
00:23:07 Les LLM améliorant la communication dans les chaînes d’approvisionnement
00:27:49 Le rôle de ChatGPT dans l’analyse des données et les insights
00:32:39 Le traitement du texte par les LLM et les défis des données quantitatives
00:38:37 Affiner la recherche d’entreprise et conclure sur les insights de l’IA

Résumé

Lors d’un récent dialogue, Conor Doherty de Lokad a discuté avec Joannes Vermorel et Rinat Abdullin de l’impact de l’IA générative sur les chaînes d’approvisionnement. Vermorel, PDG de Lokad, et Abdullin, consultant technique, ont discuté de l’évolution de la prévision des séries temporelles à l’utilisation des grands modèles de langage (LLM) tels que ChatGPT. Ils ont exploré le potentiel des LLM pour automatiser les tâches, améliorer la productivité et aider à l’analyse des données sans supprimer d’emplois. Bien que Vermorel se soit montré prudent quant aux LLM dans la planification, tous deux ont reconnu leur utilité dans la composition de solutions. L’interview a souligné le rôle transformateur de l’IA dans la gestion de la chaîne d’approvisionnement et l’importance d’intégrer les LLM avec des outils spécialisés.

Résumé étendu

Lors d’une récente interview, Conor Doherty, responsable de la communication chez Lokad, a engagé une discussion stimulante avec Joannes Vermorel, PDG et fondateur de Lokad, et Rinat Abdullin, consultant technique chez Trustbit et ancien CTO de Lokad. La conversation portait sur le domaine émergent de l’IA générative et ses implications pour la gestion de la chaîne d’approvisionnement.

Rinat Abdullin, en réfléchissant à son mandat chez Lokad, a raconté les premiers défis auxquels l’entreprise a été confrontée, notamment l’alignement de la technologie sur les besoins des clients et la compréhension et la fiabilité des données complexes de la chaîne d’approvisionnement. Joannes Vermorel a confirmé que les racines de Lokad étaient dans la prévision des séries temporelles, un élément essentiel de l’optimisation de la chaîne d’approvisionnement.

Au fur et à mesure de la conversation, Abdullin s’est penché sur l’évolution de la technologie de Lokad, mettant en évidence la tension entre l’explicabilité et les performances des modèles d’apprentissage automatique. Il a partagé ses expériences dans l’utilisation de simulations pour démystifier les systèmes complexes, ce qui a ouvert la voie à des méthodes de calcul plus optimisées.

La conversation s’est ensuite tournée vers les grands modèles de langage (LLM), Vermorel notant leur récente popularité croissante. Abdullin a partagé ses premières expériences avec les modèles de langage et leur évolution en outils conviviaux comme ChatGPT. Il a souligné le potentiel transformateur des LLM, les comparant à un département personnel d’assistants capables d’accomplir une variété de tâches, de la rédaction de documents à l’automatisation de la recherche d’informations au sein de grands silos de données.

Abdullin a abordé les préoccupations concernant le remplacement des emplois par les LLM, affirmant qu’ils améliorent l’efficacité des employés plutôt que de les remplacer. Il a cité des exemples où la productivité a été multipliée par dix à cent. Il a également noté que si les chaînes d’approvisionnement ont été lentes à adopter les LLM, les services marketing ont été rapides à les utiliser pour les interactions avec les clients et la réduction des coûts.

Joannes Vermorel a développé le potentiel des LLM dans l’automatisation des communications ouvertes avec les partenaires de la chaîne d’approvisionnement, permettant de gagner du temps sur les e-mails de routine et de se concentrer sur des tâches plus complexes. Il a salué les LLM pour leur finesse linguistique dans l’ajustement du ton des communications, une tâche qui peut prendre du temps pour les humains.

Abdullin a mis en évidence les capacités avancées d’analyse de données de ChatGPT, qui permettent aux décideurs d’entreprise d’analyser des données complexes sans avoir besoin de compétences en programmation. Cependant, Joannes Vermorel a maintenu son scepticisme quant à l’IA générative dans la planification de la chaîne d’approvisionnement, soulignant que les LLM sont plus adaptés à la génération d’analyses et de rapports jetables.

Rinat Abdullin a suggéré que les LLM pourraient être utilisés en conjonction avec des outils spécialisés pour de meilleurs résultats, notamment à l’intersection des domaines numérique, textuel et du code. Joannes Vermorel a convenu, précisant que les LLM sont mieux adaptés à la composition de programmes pour résoudre des problèmes plutôt qu’à les résoudre directement.

En conclusion, Rinat Abdullin a encouragé les entreprises à adopter les LLM, car ils peuvent apporter une valeur significative lorsqu’ils sont combinés à des outils spécialisés. Conor Doherty a conclu l’interview en remerciant Joannes et Rinat pour leurs idées sur le domaine dynamique de l’IA générative et son rôle dans l’avenir de la gestion de la chaîne d’approvisionnement.

Transcription complète

Conor Doherty: Bienvenue sur Lokad TV. Les progrès réalisés en matière d’IA générative au cours des 12 derniers mois sont une prouesse extraordinaire en termes de progrès technologique. Les LLM, ou grands modèles de langage, sont passés de la niche au grand public en moins d’un an. Ici pour expliquer leur importance, notamment dans le contexte de la chaîne d’approvisionnement, est le tout premier CTO de Lokad, Rinat Abdullin. Rinat, bienvenue chez Lokad.

Rinat Abdullin: C’est un plaisir et un honneur d’être de retour. J’étais chez Lokad quand cela commençait dans une petite salle à l’université, je pense. Et de toutes les entreprises avec lesquelles j’ai travaillé depuis, y compris sept start-ups, Lokad a été l’endroit le plus stimulant et gratifiant de ma vie.

Conor Doherty: Vous n’avez pas besoin de dire quoi que ce soit sur Joannes directement, mais lorsque vous dites que c’était le plus stimulant, qu’est-ce qui rendait Lokad si stimulant exactement ? Et ensuite, en contraste, la difficulté des projets futurs ?

Rinat Abdullin: Nous étions une start-up à l’époque, et c’était une combinaison intéressante d’essayer de trouver une correspondance entre les technologies et ce que le client voulait et avait réellement besoin. Équilibrer ce triangle a toujours été un défi car les technologies de l’époque étaient naissantes. Nous étions l’un des premiers grands clients d’Azure, en train de construire une bibliothèque évolutive pour traiter de nombreuses séries temporelles provenant des clients. Il n’y avait aucun support ; tout devait être construit à partir de zéro, et ce voyage a pris de nombreuses années. Cela a continué avec la création d’un DSL personnalisé pour autonomiser les experts de Lokad, et cela se poursuit toujours. C’est une partie du triangle. La deuxième partie était que les clients veulent de meilleurs chiffres ; ils veulent que leur entreprise fonctionne de manière prévisible sans argent immobilisé dans les stocks. En même temps, ils veulent que ces chiffres soient compris car si vous fournissez aux clients des chiffres qui sortent d’une boîte noire magique, les dirigeants pourraient dire : “Oui, ça marche”, mais les experts de la chaîne d’approvisionnement dans les entrepôts locaux diront : “Je ne comprends pas ces chiffres. Je ne fais pas confiance aux formules, et mon intuition, basée sur 10 à 20 ans d’expertise, me dit que ça ne va pas marcher, donc je vais ignorer cela.” Et vous ne pouvez pas licencier tout le monde, évidemment. Équilibrer ces trois éléments a été un défi chez Lokad et avec tous les clients avec lesquels j’ai travaillé depuis.

Joannes Vermorel: En écoutant Rinat, nous travaillions avec des séries temporelles, c’est vrai ?

Rinat Abdullin: Oui, Lokad a été littéralement fondée en tant que service de prévision des séries temporelles, donc je connais quelques choses sur les séries temporelles, même si nous nous sommes écartés de cette voie des années plus tard. Nous avons travaillé sur les séries temporelles, et c’est un élément de base très fondamental. La tension dont Rinat a parlé concernant l’explicabilité est également quelque chose qui a été enfin résolu, mais plus d’une décennie après la fondation de Lokad. Nous avons dû adopter la programmation différentiable afin d’avoir enfin des modèles qui étaient de l’apprentissage automatique mais explicables. Cela est arrivé très tard. Pendant des années, nous avions le choix entre des modèles rudimentaires qui étaient des boîtes blanches mais pas très bons, ou des modèles d’apprentissage automatique qui étaient meilleurs mais des boîtes noires, créant de nombreux problèmes opérationnels. Parfois, ils n’étaient pas naturellement meilleurs selon toutes les dimensions du problème. C’était une lutte immense, et le voyage de Lokad a été presque une décennie de batailles en montée. Rinat a fait la première moitié d’une décennie de batailles en montée, puis il y a eu d’autres personnes qui ont continué à se battre pour les autres. Cela a été une très longue série de problèmes massifs à résoudre.

Conor Doherty: Merci, Rinat. En revenant vers vous, lorsque nous essayons d’expliquer ce que fait Lokad, c’est à travers une série d’articles très longs, de conférences, de discussions comme celle-ci. Mais lorsque vous essayez d’expliquer le machine learning en boîte blanche dans ce contexte, comment abordez-vous cela ?

Rinat Abdullin: L’une des approches qui a bien fonctionné lorsque j’ai aidé à créer un hackathon pour une entreprise de logistique internationale était les simulations. Lorsque vous parlez de logistique internationale, de nombreuses variables entrent en jeu. Vous avez des marchandises qui doivent être transportées entre plusieurs endroits en utilisant plusieurs modes de transport. Vous avez des entreprises de transport routier et d’autres entreprises concurrentes sur le marché ouvert pour les livraisons de marchandises de l’emplacement A à l’emplacement B. Ensuite, vous avez des itinéraires de livraison réels comme les routes, les réseaux ferroviaires, peut-être une livraison de dernière mile quelque part. Lorsque les camions transportent des marchandises entre ces endroits, il y a des retards, des embouteillages et les marchandises peuvent arriver dans un entrepôt en dehors des heures de travail, ou la zone de déchargement de l’entrepôt peut être pleine.

Nous voulions modéliser toute cette complexité d’une manière accessible aux étudiants ou aux nouveaux employés de l’entreprise. Ce que nous avons fait était plutôt brutal. C’est peut-être très similaire à la façon dont les anciens chercheurs essayaient de modéliser le nombre pi en lançant une pièce de monnaie à travers une simulation. Nous avons donc construit une carte virtuelle de l’Europe avec des routes principales, et sur cette carte virtuelle, les routes avaient des longueurs, le temps passait, les camions allaient et venaient, et les entreprises de transport routier pouvaient décider des marchandises qu’elles ramassaient et si elles allaient les livrer à temps. C’était le point d’entrée pour les participants au hackathon car ils pouvaient coder des agents qui prendraient des décisions comme : “Je suis le chauffeur de camion A, et je vais prendre cette cargaison de l’emplacement A à l’emplacement B.” Mais il y avait un piège : lorsque qu’un camion transporte des marchandises d’un endroit à un autre, tout comme dans le monde réel, cela coûte de l’argent. Pour gagner de l’argent, vous devez payer des impôts, payer le carburant, vous assurer que le conducteur se repose.

Parce que c’est une simulation, vous n’avez pas besoin de formules complexes ; vous forcez la réalité. Vous exécutez simplement un script en lot pour les PNJ ou pour un jeu de manière séquentielle, et vous pouvez avoir beaucoup de règles explicables sur une feuille de papier. Tout cet univers était tellement compréhensible pour les gens que nous avons en fait créé deux niveaux de difficulté. Au premier niveau, les entreprises conduisaient simplement des camions en essayant de gagner le plus d’argent possible. Au deuxième niveau, les prix de l’essence augmentaient un peu, les entreprises devaient compenser les émissions de CO2, et les chauffeurs de camion pouvaient être fatigués. Si le chauffeur de camion conduisait pendant plus de 12 ou 14 heures, il y avait alors une probabilité croissante d’accident. Lorsqu’il y a un accident, le chauffeur de camion se repose, et cette machine ne fait rien, gaspillant essentiellement du temps. Nous avons construit cet environnement, les participants ont pu coder leurs agents, et lorsque vous exécutez une simulation d’événements discrets à un rythme accéléré, vous obtenez essentiellement des mois de temps virtuel qui passent en quelques secondes de temps réel.

Nous avons pu rapidement lancer de nombreuses simulations et dire : “Hé les équipes, les décisions que vos agents prenaient dans ce monde virtuel, voici la distribution des délais d’approvisionnement, voici la distribution des prix, voici les marges, voici le nombre d’accidents que vos agents subissaient.” C’est essentiellement l’approche que j’adopte normalement lorsque je dois essayer d’expliquer un environnement complexe. On commence d’abord par la simulation car c’est comme un jeu, c’est facile d’expliquer les règles, on n’a pas besoin de faire de programmation différentielle. Mais lorsque vous exécutez cette simulation, c’est essentiellement une analyse de Monte Carlo qui suit les dépendances dans les systèmes complexes. Cela signifie que, par exemple, dans certains cas, vous n’obtenez pas une simple distribution à l’extérieur, mais parce qu’il y a une interférence entre plusieurs éléments du système, vous obtenez des motifs d’interférence sur les distributions extérieures. Cela ressemble à une boîte noire, mais les gens peuvent comprendre les règles, ils peuvent changer les règles du jeu, et ensuite, par exemple, si une entreprise comprend enfin comment fonctionne cet environnement et qu’elle aime les chiffres qui en ressortent de manière lente car la simulation prend encore du temps, alors il y a un moyen d’optimiser le calcul en disant : “D’accord, voici les chiffres que nous obtenons de la simulation, et passons directement à la programmation différentielle avec les probabilités pour obtenir les mêmes chiffres mais plus rapidement.” C’est juste une optimisation des performances. C’est ainsi que j’aborderais normalement cela.

Joannes Vermorel : Ce qui est très intéressant, c’est qu’au cours de l’année dernière, une nouvelle classe d’outils, les LLM, est devenue disponible, et c’est très intéressant car c’est littéralement une classe entière de technologies qui existent depuis une demi-décennie environ, mais qui étaient très spécialisées et seuls les experts pouvaient vraiment comprendre leur potentiel car il s’agissait surtout de potentiel à l’époque. Peut-être, Rinat, comment voyez-vous ce qui a changé en introduisant cette classe d’outils LLM ? Comment comparez-vous cela ? Nous avions différentes classes d’outils pour l’apprentissage automatique pour les entreprises, comme la classification, la régression, les simulations de Monte Carlo. Il s’agissait de classes d’outils qui pouvaient être combinées, et maintenant nous avons une autre classe d’outils complètement différente, les LLM. Peut-être pour le public qui ne connaît peut-être pas les LLM en dehors de ChatGPT, comment appréhendez-vous cela dans le contexte des logiciels d’entreprise, des flux de travail d’entreprise ? Quelle est votre vision globale à ce sujet ?

Rinat : J’ai été en contact avec les modèles de langage depuis 2015, avant que le chatbot ne sorte et ne le rende populaire. Vous avez raison, ils étaient vraiment spécialisés. Ils étaient utilisés dans les traducteurs de langues, la reconnaissance vocale et les modèles de langage qui corrigent les erreurs d’orthographe ou aident à trouver du texte dans de grandes corpus. Lorsqu’ils sont sortis avec ChatGPT, leur popularité a explosé. Une raison à cela est qu’ils ont été formés pour être utiles et obéissants aux personnes.

Et c’est d’ailleurs parfois pourquoi ils sont si irritants, car lorsque vous voulez obtenir des résultats du modèle et qu’il commence à s’excuser, à dire “je suis désolé” à plusieurs reprises, cela peut être frustrant. Dans ma façon de penser, je sépare essentiellement les modèles à grande échelle en deux catégories. Une catégorie de modèles travaille principalement avec des chiffres, nous parlons donc de régressions, de Monte Carlo, de réseaux neuronaux. L’autre classe de modèles, qui sont de grands modèles de langage, oui, ils travaillent avec des chiffres, mais en surface, ils travaillent avec du texte, avec de grands textes non structurés, et c’est là que réside leur utilité principale.

Ces modèles permettent à une machine ou à une automatisation d’être directement intégrée aux interactions humaines. Par exemple, avec les régressions ou les séries temporelles, vous devez brancher le modèle quelque part au milieu des processus numériques de l’entreprise. Il y a une base de données d’un côté, un moteur de prévision au milieu, et peut-être une base de données ou un CRM ou un ERP de l’autre côté. Dans le meilleur des cas, vous obtenez un rapport, mais ce sont toujours des chiffres. Avec les LLM, vous vous branchez directement au milieu du processus métier, au milieu des flux de travail humains.

Cela crée tellement de possibilités, d’autant plus que cela ne nécessite pas beaucoup d’efforts pour mettre en place quelque chose qui était totalement impossible ou coûteux il y a une décennie. Par exemple, personnellement, lorsque je travaille avec des LLM, j’ai l’impression d’avoir mon propre département privé d’assistants. Ils sont polyglottes, ils sont full-stack, parfois naïfs, mais ils sont aussi intelligents et ne se plaindront jamais. Par exemple, leur demander de déplacer un bouton sur une mise en page ou de réécrire une lettre à un magistrat en Allemagne est très utile, très obéissant, parfois stupide, mais ils peuvent faire de grandes choses.

Dans les classes d’adoption des LLM en entreprise que j’ai pu observer, c’est principalement dans ce qu’ils appellent la numérisation des activités. Cela aide les entreprises à automatiser les flux de travail liés à la recherche de texte dans un grand corpus. Par exemple, une entreprise dispose de nombreuses données, elle a ses bases de connaissances, mais ces bases de connaissances sont essentiellement des silos. Il peut s’agir de RFC, de questionnaires ou d’une Wikipedia que personne ne met vraiment à jour, et les gens doivent effectuer une activité qui nécessite parfois de trouver des informations dans des endroits obscurs. Cela nécessite du temps, des efforts et surtout de l’énergie cognitive.

Ce que les LLM peuvent faire, c’est effectuer un travail préparatoire. Ils peuvent rédiger des articles, effectuer des recherches sur les données privées d’une entreprise, en disant : “D’accord, vous compilez cette réponse pour l’entreprise, donc en fonction de vos flux de travail et des indications codées, voici mon brouillon.” Pour chaque élément de cette liste de contrôle de réponse, ils peuvent indiquer où ils ont obtenu les informations. Ainsi, la personne n’a plus besoin d’effectuer le travail routinier et peut passer à un travail intellectuellement plus exigeant consistant à vérifier si le modèle a bien compris quelque chose. Cela permet de massivement augmenter l’efficacité d’une entreprise.

Lorsque ChatGPT est sorti, les gens avaient vraiment peur que les LLM et l’IA ne leur volent leur emploi, mais ce n’est pas le cas. Croyez-moi, j’ai aidé des clients à créer des produits alimentés par des LLM et de l’apprentissage automatique depuis un certain temps, et cela demande beaucoup d’efforts pour produire quelque chose qui puisse remplacer un être humain. C’est presque impossible. Mais ce que les LLM peuvent faire, c’est rendre les employés existants plus efficaces, parfois même 10 à 100 fois plus efficaces. Ce sont des cas exceptionnels. Ils rendent simplement les gens plus efficaces, mais ils ne peuvent jamais les remplacer. Il doit toujours y avoir des personnes dans la boucle.

Conor: Si je peux rebondir sur ce point, car encore une fois, le contexte de la discussion est l’IA générative, les LLM dans le contexte de la supply chain. D’après ce que vous venez de dire, Rinat, il semble que les LLM seront des boosters de productivité en général. Mais voyez-vous des cas d’utilisation spécifiques dans la supply chain, ou est-ce simplement, comme vous l’avez dit, “J’ai une équipe de polyglottes, je dois traduire cette demande de proposition en 10 langues” ?

Rinat: D’après mon expérience, les supply chains sont un peu lentes à adopter les LLM au cœur du processus. Les LLM commencent plutôt à s’infiltrer depuis l’extérieur. Ainsi, un cas courant est que les services marketing sont généralement les premiers à les adopter. Lorsqu’une entreprise est confrontée à des utilisateurs, le lien entre l’entreprise et les utilisateurs, les clients, est l’endroit où j’ai constaté la plus grande adoption. Par exemple, il existe des places de marché qui vendent des produits à leurs clients, et elles souhaitent rendre cette interaction plus agréable et peut-être réduire le coût de cette interaction avec les clients.

Il est déjà tout à fait possible de construire des systèmes qui parcourent automatiquement les catalogues de produits un par un, sans relâche, sans fatigue, 24 heures sur 24, 7 jours sur 7, et qui constatent : “D’accord, c’est un produit, mais il a été saisi de manière incorrecte par le fournisseur de la supply chain.” Pourquoi ? Parce que j’ai fouillé Internet, j’ai trouvé les spécifications de ce produit, qui sont similaires, j’ai également trouvé la description PDF du fabricant du produit, et selon ma conviction, environ la moitié d’Internet a ce numéro correct, et vous avez ce numéro incorrect. Voici les références. Veuillez prendre une décision si vous devez le corriger automatiquement. “Cher responsable, j’ai vu que vous avez corrigé cette description de produit, cette propriété du produit. Voulez-vous que je régénère la description du produit pour avoir le numéro mis à jour, pas seulement le numéro mais aussi le texte ?” Et pendant que vous y êtes, j’ai créé trois descriptions de produits pour que vous puissiez choisir celle qui a du sens. J’ai également créé un texte de marketing SEO, mis à jour les mots-clés sur votre moteur de publication, j’ai également créé une annonce Twitter et une annonce LinkedIn.

Un autre lien entre les clients et les détaillants qui se branchent sur la supply chain est la liste des produits sur les places de marché. Imaginez que vous êtes un fournisseur qui doit travailler avec de nombreuses places de marché, et que votre catalogue compte 10 000 articles avec de petites variations, comme des pièces de voiture ou des pièces d’avion. Vous voulez automatiser ce processus, surtout si votre propre inventaire change assez rapidement. C’est tout à fait faisable, et je l’ai déjà vu faire. Par exemple, vous obtenez quelques images du produit, surtout s’il s’agit de produits réutilisés, notamment dans la mode, cela fonctionne très bien. Vous les passez par la reconnaissance d’image, qui fonctionne mieux lorsqu’elle est formée sur la mode et le style. Vous obtenez les textes, les descriptions, vous choisissez les cases, redimensionnez automatiquement les images, et à partir de là, vous générez une description pour les personnes.

Et puis, l’une des parties les plus intéressantes arrive. Vous créez également une description cachée augmentée par LLM qui est utilisée pour la recherche sémantique. Qu’est-ce que cela signifie ? Donc, lorsque qu’un client d’une plateforme de mode essaie de trouver un vêtement, il ne chercherait pas toujours, par exemple, une chemise de style boho avec des dragons, de taille M et à moins de 10 $. Il chercherait plutôt : “Hé, je vais à une fête ce soir, et mes amis y seront, que puis-je porter qui complétera mon short ?” Si vous disposez de descriptions de produits et d’explications sémantiques extraites par les LLM à partir du produit, et que vous les recherchez, mais pas pour le texte complet car qui sait comment les gens écrivent boho, mais vous utilisez une recherche basée sur l’encastrement, qui est essentiellement une recherche basée sur des vecteurs, qui est une recherche sur le sens du texte, pas sur les mots exacts, alors vous obtenez des résultats qui, de l’extérieur, semblent magiques car le modèle commence d’une certaine manière à suggérer des choses que vous vouliez lui demander, pas ce que vous avez dit.

Conor: Merci, Rinat. Joannes, qu’en pensez-vous ? Je veux dire, lorsque j’observe les supply chains, je dirais qu’elles fonctionnent à peu près à moitié. La moitié des personnes travaillent avec des feuilles de calcul, et le reste est consacré aux communications routinières avec les partenaires, les fournisseurs, les clients, et autres. Les feuilles de calcul, c’est vraiment pour automatiser la décision de quantité, c’est ce que Lokad fait depuis maintenant une décennie. La deuxième partie, elle n’était pas automatisée car jusqu’à l’avènement des LLM, il n’y avait pas de véritable technologie qui puisse apporter une réponse plausible à cela.

Joannes: Cela signifie que les choses qui nécessitent une communication, soit c’était un flux de travail très serré et cela pouvait être automatisé, et cela était automatisé grâce, disons, à l’EDI pour passer une commande. Nous allons avoir un pont qui passe la commande, puis nous avons un problème non textuel. Mais ce n’est pas exactement ce que les gens veulent dire lorsqu’ils disent que les gens passent la moitié de leur temps sur des feuilles de calcul et l’autre moitié à gérer les partenaires, les clients, les transporteurs, les fournisseurs. C’est plutôt du genre : “Pourriez-vous accélérer cette commande, et si oui, à quel prix ?” C’est plus flou et ouvert.

Il faut prendre ce cas particulier et écrire un e-mail sur le cas, en précisant l’intention, ce qui est en jeu, et cela prend une demi-heure. Ensuite, vous répétez avec une situation différente, un problème différent, et vous produisez un autre e-mail. Vous vous retrouvez avec un service des achats où tout le monde, pendant huit heures de travail, passe quatre heures sur leur feuille de calcul et quatre heures à écrire 20 e-mails à 20 partenaires. Ici, je vois un énorme potentiel d’amélioration. Lokad automatise déjà la première partie, mais avec LLM, il y a un énorme potentiel pour automatiser largement, mais pas complètement, la deuxième partie. Essentiellement, permettre aux gens, je dirais, de fournir un support pour composer automatiquement des communications qui seront reçues par vos partenaires. Les LLM ont été utilisés pour fournir une version raisonnablement contextualisée de l’énoncé du problème et de ce que nous attendons du partenaire.

Si l’énoncé du problème a des limites bien définies, alors vous avez l’EDI ; cela devient simplement quelque chose qui fait partie de votre flux de travail entièrement mécanisé. Mais je parle du reste, des choses qui ne sont pas tout à fait alignées, comme lorsque vous avez commandé 1 000 unités et qu’ils en ont livré 1 050. Vous n’allez pas rejeter la commande parce qu’ils ont livré 50 unités de trop. Vous aimez ce fournisseur, donc vous accepterez et validerez la commande, vous la recevrez et vous paierez pour 1 050 unités au lieu de 1 000. Mais vous voulez communiquer de manière polie à votre fournisseur que vous préféreriez qu’ils respectent l’accord initial, qui était d’expédier 1 000 unités et non 1 050. Il y a un peu de subtilité ici où vous ne voulez pas perturber le flux de travail ; c’est quasi-correct, mais vous voulez quand même communiquer que ce n’est pas acceptable de toujours livrer 5% de plus pour que le fournisseur puisse vous facturer un peu plus.

C’est le genre de chose où les LLM excellent vraiment, cette sorte de communication douce où vous devez transmettre un message. Il faudrait du temps pour équilibrer la formulation afin qu’elle ne soit pas trop agressive, mais que le partenaire comprenne quand même que vous avez une forte préférence pour qu’il respecte strictement la quantité initiale qui a été convenue. C’est le genre de chose où quelqu’un peut agoniser pendant une heure sur l’e-mail pour écrire cette moitié, et c’est le genre de chose où, avec les LLM modernes, c’est exactement le genre de chose qui n’est pas super intelligent. Le genre d’intelligence que vous avez dans ces LLM est linguistique, et si vous voulez donner le bon ton, ils ont presque des capacités surhumaines. Ils ne sont pas nécessairement super intelligents au sens de comprendre l’ensemble du tableau, de comprendre la direction, mais si vous voulez avoir exactement le même texte avec une nuance plus sombre, comme si je veux le même texte mais légèrement plus agressif ou légèrement plus doux ou légèrement plus soutenant, ils sont super doués pour ça.

Cela vous prendrait peut-être 20 minutes pour le faire pour une demi-page, et un LLM peut le faire littéralement en quelques secondes. C’est exactement le genre de chose où vous pouvez avoir un énorme gain de productivité pour ces touches douces où les gens passent littéralement des heures. Si nous prenons cela un peu plus haut, imaginez une entreprise qui a des milliers de communications de ce type sur les cas particuliers tout au long de la journée. C’est une nouvelle capacité que les LLM apportent. Pour les propriétaires d’entreprise, pour les parties prenantes pour avoir une vue d’ensemble, cela demande des efforts, mais maintenant nous avons des LLM qui sont très bons pour analyser d’énormes quantités de textes non structurés et trouver des schémas. Imaginez qu’un LLM puisse réellement lire des centaines de rapports ou d’e-mails ou de communications aller-retour sur le fait de ne pas envoyer 5% de plus et à la fin de la journée fournir un résumé concis aux dirigeants en disant : “Hé, il semble que nous ayons un schéma récurrent ici où de plus en plus de fournisseurs essaient de nous envoyer plus de stock.”

Comme vous le savez, ChatGPT a une capacité incroyable appelée analyse avancée des données, et c’est littéralement comme avoir un département d’analystes de données sous votre contrôle. Ils ne sont pas des experts en supply chain, donc vous aurez toujours besoin de Lokad pour cela, mais ce que vous pouvez faire, c’est leur poser des questions simples comme “Voici mon fichier de base de données, voici mon fichier Excel, faites une analyse pour moi et repérez les tendances.” C’est la partie incroyable qui est possible principalement en ligne. Vous ne pouvez pas l’exécuter localement ou dans l’API, mais ChatGPT va proposer des théories, écrire un code, l’exécuter, peut-être rencontrer des erreurs, les corriger, imprimer les résultats, et même créer un graphique pour vous. Tout le processus, depuis le moment où vous envoyez une feuille de calcul Excel et une question jusqu’au joli graphique, est entièrement automatisé. Il se corrige tout seul, se répare tout seul, et vous obtenez de bons résultats. Cela donne aux décideurs d’entreprise la possibilité d’analyser les données par eux-mêmes, même si les données sont stockées dans des systèmes complexes, de les visualiser par eux-mêmes sans avoir besoin de connaître Python, JavaScript, C ou SQL. Je pense que c’est vraiment valorisant et ouvre de nouvelles opportunités commerciales et crée de nouvelles valeurs commerciales.

Conor : Il y a environ six mois, nous avons eu une discussion sur l’IA générative et son rôle dans la supply chain, et nous étions globalement assez sceptiques. Lorsque vous écoutez ce qui a été décrit sur les avancées réalisées au cours des six derniers mois, avez-vous toujours le même point de vue, ou vous êtes-vous adouci un peu ?

Joannes : Ma position reste profondément sceptique sur certains aspects. Mon scepticisme était essentiellement une réaction à la plupart des concurrents de Lokad qui disent : “Nous allons simplement appliquer ChatGPT directement à des téraoctets de données de transaction, et ça va marcher.” Je pense que non, je ne pense pas. Je suis toujours très sceptique parce que ce n’est littéralement pas ça. Si vous dites que ce que vous pouvez faire, c’est lister quelques tables avec des schémas, ou faire en sorte que l’outil sonde automatiquement le schéma de la base de données pour calculer des analyses jetables comme la taille moyenne du panier, c’est une proposition complètement différente. Dans le passé, cela aurait dû être traité par l’équipe de business intelligence. Je parle de choses basiques comme quelle est la taille moyenne du panier, combien de temps en moyenne gardons-nous les clients, combien d’unités avons-nous vendues en Allemagne - des questions très basiques. Dans les grandes entreprises, vous avez généralement des dizaines de personnes dans les divisions de BI qui produisent des rapports jetables toute la journée. Pour ce genre de choses, je pense que les LLM peuvent vraiment aider, mais ce n’est absolument pas ce que nos concurrents proposent. Ils disent : “Vous avez ces modèles, vous leur donnez votre base de données de téraoctets, vous leur donnez accès à Twitter et Instagram, et vous avez votre planification, votre prise de décision, tout, et c’est entièrement automatisé.” Je dis non, pas du tout. Nous sommes dans le monde de la fantaisie.

Rinat: En ce qui concerne votre réponse à ce défi, j’ai deux réflexions à partager. Tout d’abord, concernant le processus d’utilisation des LLM pour traiter de grandes quantités de données, je travaille avec différentes LLM depuis un certain temps. L’une des premières questions que les clients posent généralement est de savoir s’ils peuvent exécuter quelque chose comme ChatGPT localement sur leurs propres serveurs. Pour répondre à cela, il faut effectuer des tests de référence des LLM dans différentes configurations et déterminer les coûts. Les LLM sont assez coûteuses. Pour exécuter un mégaoctet de texte à travers les LLM pour une prédiction, cela peut coûter quelques euros, selon le modèle. Si vous souhaitez l’exécuter localement sur les meilleurs modèles disponibles, cela peut vous coûter 10 € ou peut-être 20 €.

Et c’est ce que fait GPT-3.5 ; c’est très bon marché. Mais le point, c’est qu’il n’est même pas possible d’exécuter des téraoctets ou des pétaoctets de données à travers les LLM. Deuxièmement, les LLM sont terribles avec les chiffres. Si quelqu’un demande à une LLM de faire des calculs mathématiques ou de lister des nombres premiers, c’est une mauvaise utilisation. Les LLM sont des modèles linguistiques ; ils ont une grande base de connaissances et sont très intelligents, bien qu’ils aient encore des limites. Vous ne demandez pas à une LLM un problème mathématique ; au lieu de cela, vous lui demandez de formuler le problème, puis le calcul est transmis à un noyau Python spécialisé ou autre chose qui fera beaucoup mieux que de gaspiller l’opération sur une LLM.

Les choses les plus intéressantes se produisent au point de contact entre différents domaines. Par exemple, nous avons le vaste domaine numérique d’un côté, le texte ou les cas limites doux et flous de l’autre, et le code comme troisième partie. Le code n’est pas des chiffres, ce n’est pas du texte, c’est structuré mais vérifiable, et les LLM sont exceptionnellement douées pour le traiter. Cela crée de nouveaux cas qui pourraient être applicables à la supply chain, poussant l’applicabilité de solutions comme Lokad encore plus loin.

Par exemple, un cas où j’ai utilisé les LLM pour analyser de grandes quantités de texte en dehors des capacités des LLM est en formulant le problème à la LLM. Par exemple, trouver du texte dans des centaines de gigaoctets de rapports annuels du monde entier ou aider à résoudre un problème numérique sans effectuer le calcul réel. Vous élaborez une théorie sur la façon de l’aborder parce que vous êtes intelligent, vous connaissez les antécédents, et ce sont les contrôles que je vous donne.

Lorsqu’il s’agit de rechercher dans une énorme base de données, je demande à la LLM, dans une syntaxe spécifique, de proposer des recherches d’embedding sur lesquelles je travaillerai, de fournir une liste de mots clés d’arrêt ou une liste blanche de mots clés à renforcer. Ensuite, un autre système dédié à cela et très performant à grande échelle prendra cette demande bien formulée de la LLM et l’exécutera. C’est là que réside la meilleure partie, car les LLM sont capables d’affiner les recherches.

Vous revenez à la LLM et vous dites : “Voici mon problème initial, voici ce que vous en avez pensé, voici la requête que vous avez proposée, et voici les résultats inutiles qu’elle a renvoyés. Veuillez ajuster et adapter.” Parce que travailler avec les LLM est pratiquement gratuit, vous itérez peut-être dix fois, peut-être vous faites une chaîne de pensée, peut-être un arbre de pensée, avec de bonnes décisions et de mauvaises décisions, et ensuite ça s’améliore. La même chose est applicable aux domaines numériques. Par exemple, les responsables d’approvisionnement veulent trouver une idée pour mieux équilibrer leurs stocks. En théorie, ils peuvent dire : “Voici une petite simulation de mon environnement, qui est peut-être suffisante, et voici comment vous pouvez la modifier. Maintenant, veuillez effectuer une résolution floue des contraintes et essayer de trouver des idées qui pourraient m’aider à mieux équilibrer mes stocks.”

C’est la possibilité qui s’ouvre lorsque vous commencez à combiner plusieurs domaines : numérique, code et texte, et que vous utilisez les meilleurs outils disponibles pour chaque domaine ensemble.

Conor: Merci, Rinat. Joannes, qu’en pensez-vous ?

Joannes: Juste pour clarifier pour le public, l’aspect intéressant est que pour beaucoup de problèmes, la façon dont vous voulez l’aborder avec un LLM est de dire : “Veuillez composer un programme qui résoudra le problème.” Vous ne direz pas : “Je veux que vous résolviez le problème.” Vous direz : “Composez un programme, puis j’apprendrai le programme.” Il y a d’autres astuces, comme donner au LLM un compilateur pour vérifier si le programme compile ou un outil qui vous permet d’exécuter le programme un peu pour vérifier que la sortie a du sens.

Il ne s’agit pas de faire résoudre le problème directement par le LLM ; c’est médiatisé. Le LLM produit un programme, puis utilise autre chose qui est toujours une sortie textuelle car si vous utilisez un compilateur, le compilateur essaiera de compiler le programme. S’il ne fonctionne pas, il fournit un message d’erreur. Les LLM adorent traiter les messages d’erreur et résoudre les problèmes associés. Nous sommes vraiment dans le domaine du texte.

Pour la supply chain, la plupart des situations seront médiatisées. Nous voulons que le LLM compose le programme qui résoudra ce que nous essayons de faire. Par exemple, avec le problème initial de trouver le chiffre d’affaires en Belgique pour l’année dernière pour les clients de plus de 1 million d’euros, le LLM ne prendra pas les données de la base de données pour le faire. Il composera une requête SQL qui sera exécutée par votre base de données elle-même. Encore une fois, une médiation.

Qu’est-ce que cela signifie pour les logiciels d’entreprise ? Disposez-vous, dans le cadre de votre environnement logiciel d’entreprise, de plateformes qui prennent en charge l’exécution de votre supply chain, au moins la couche de décision, avec une capacité programmatique ? Le LLM ne prendra pas les données de transaction brutes pour produire la sortie ; il prendra l’énoncé du problème, produira un programme, et il est très polyvalent dans le type de programme qu’il peut produire. Mais ensuite, quelque chose dans votre environnement doit exécuter le programme. Quel type d’environnement de programmation pouvez-vous fournir au LLM ?

La plupart des logiciels d’entreprise classiques ne fournissent aucun environnement. Ils ont simplement une base de données avec un langage que vous pouvez utiliser, mais la seule façon d’interagir avec, disons, un grand ERP censé vous permettre d’optimiser votre inventaire, consiste à définir manuellement les paramètres de stock min et max ou les paramètres de stock de sécurité produit par produit. Le LLM peut vous donner la recette que vous devez appliquer, mais si vous voulez l’appliquer, vous devrez passer par les paramètres manuels de l’ERP. Si l’ERP fournit une API, il peut composer un programme qui vous permettra de le faire à grande échelle via l’API, mais c’est encore très lourd par rapport à une solution programmatique native. Il sera toujours médiatisé par le framework.

Cela nécessite des changements profonds et introduit la programmabilité de la solution en tant que citoyen de première classe. Petit coup de pub, Lokad dispose d’une plateforme programmatique. Nous ne l’avons pas fait pour les LLMs ; c’était plutôt de la chance, mais nous l’avons quand même fait il y a 10 ans pour avoir cette sorte de mentalité programmatique comme cœur de la plateforme et en tant que citoyen de première classe. C’était le hasard, pas une visionnaire de ce qui se passerait une décennie plus tard avec les LLMs.

Conor: Merci, Joannes. Je suis conscient du temps de tout le monde, donc comme c’est la coutume, Rinat, je vous renvoie la parole pour une réflexion finale. Y a-t-il quelque chose que vous voulez dire à tous ceux qui regardent ?

Rinat: Il y a eu quelques bulles dans l’histoire passée, comme la bulle dot-com et la bulle financière. Les LLMs et l’IA pourraient également être une bulle, ou peut-être pas. Même ma mère connaît ChatGPT et sait comment l’utiliser, ce qui est intéressant. J’encourage tout le monde à ne pas avoir peur de nos seigneurs des machines car Skynet ne fonctionnera pas si facilement. En tant que personne qui essaie de stabiliser ces choses en production, cela demande beaucoup d’efforts et cela ne fonctionne pas de manière fiable facilement. Donc, premièrement, n’ayez pas peur des LLMs, et deuxièmement, acceptez-les simplement. Les LLMs associés aux humains et aux entreprises peuvent créer beaucoup plus de valeur, surtout lorsqu’ils sont complétés par des outils spécialisés comme la prévision de Lokad qui s’intègrent parfaitement à l’environnement.

Conor: Merci, Rinat. Joannes, merci beaucoup pour votre temps. Rinat, merci beaucoup de nous avoir rejoints à nouveau. Et merci à tous de nous avoir regardés. Nous vous verrons la prochaine fois.