00:00:00 Introduction de l’émission et impact de l’IA sur les emplois de cols blancs
00:02:20 Introduction des Large Language Models (LLMs)
00:03:27 La prise de conscience de Joannes concernant l’IA générative et GPT-4
00:05:44 Les LLMs comme une machine de modélisation universelle
00:07:05 Joannes sur le potentiel d’automatisation et l’évolution de sa perspective
00:10:38 Défis dans l’automatisation de la communication avec les fournisseurs
00:12:24 Résumé de l’impact des LLMs
00:14:11 Problèmes banals dans l’automatisation
00:15:59 Échelle d’un événement d’extinction
00:17:48 Compréhension par l’IA du jargon industriel
00:19:34 Impact de l’IA sur l’emploi remis en question
00:21:52 Système de réponse automatisée et importance de l’automatisation de bout en bout
00:28:08 Entreprises automatisant déjà leurs processus
00:30:36 Amélioration de l’efficacité et acquisition d’un avantage concurrentiel grâce à l’IA
00:34:28 Préparation du marché pour l’IA
00:36:27 Origines du développement de l’IA
00:38:55 Automatisation des parties difficiles dans la supply chain
00:41:36 La société s’enrichit grâce à l’automatisation des emplois
00:44:23 L’avenir de l’étude de la supply chain
00:46:54 Passage aux questions du public
00:50:12 Repenser la feuille de route technologique de Lokad
00:52:29 Début de la session de questions/réponses
00:55:00 Perspective financière dans la supply chain
00:58:46 Question sur la tarification et l’impact sur le résultat net
01:01:00 LLMs pour les problèmes et tâches simples
01:07:17 Intelligence générale et événements d’extinction
01:09:49 L’impact de l’IA sur les petites et moyennes entreprises
01:13:02 Les avantages de l’automatisation chez Lokad
01:17:55 Prédire des événements d’extinction pour ceux qui ne l’adoptent pas
01:20:32 Paris comme exemple de progrès par l’automatisation
01:22:20 Question sur la collaboration réussie entre l’IA et l’humain
01:26:19 Les limites de l’intelligence humaine de haut niveau
01:28:31 Question sur l’IA dans les supply chains des petits pays
01:32:25 Une IA qui constitue un égalisateur pour les pays en développement
01:34:05 La simplicité et l’impact de la machine à coudre
01:35:31 Évolution, pas révolution
01:36:19 Réflexions finales
Résumé
Dans une conversation entre Conor Doherty et Joannes Vermorel de Lokad, Vermorel prédit que l’intelligence artificielle (IA) entraînera une extinction massive des emplois de back office des cols blancs d’ici 2030, bien plus tôt que prévu. Il attribue ce phénomène au succès des Large Language Models (LLMs), qui auront un impact sur tous les emplois de back office, en particulier dans les supply chains. Vermorel soutient que l’objectif devrait être une automatisation complète des tâches répétitives, permettant de débloquer des améliorations significatives en matière de productivité. Il prédit que de nombreuses entreprises commenceront à retirer des personnes de ces postes dans les mois à venir. Vermorel suggère que les tâches nécessitant une intelligence humaine de haut niveau, telles que les décisions stratégiques, restent encore hors de portée des LLMs.
Résumé Étendu
Lors d’une conversation récente entre Conor Doherty, Responsable de la Communication chez Lokad, et Joannes Vermorel, PDG et fondateur de la même entreprise, les deux ont discuté des implications de l’intelligence artificielle (IA) et de l’optimisation de la supply chain. Vermorel a exprimé sa conviction que l’IA entraînera un événement d’extinction massive pour les employés de back office des cols blancs. Il a fait référence à des prédictions passées selon lesquelles l’IA éliminerait 90 % des emplois de cols blancs d’ici 2050, mais il estime que cela se produira bien plus tôt, à savoir d’ici 2030.
Le facteur déterminant, selon Vermorel, est le succès des Large Language Models (LLMs), qui auront un impact sur tous les emplois de back office des cols blancs, en particulier ceux dans les supply chains. Vermorel a admis qu’il avait initialement raté la révolution des LLMs et n’avait pris conscience de leur potentiel qu’il y a environ 18 mois, lorsqu’il a commencé à travailler avec l’IA générative. Il a partagé son expérience avec GPT-4, un modèle d’OpenAI, et expliqué comment cela lui avait permis de réaliser le potentiel de production de cette technologie. Il a précisé que GPT-4 est d’un ordre de grandeur plus intelligent que GPT-3.5, et qu’une fois que l’on comprend son fonctionnement, on peut l’adapter pour qu’il fonctionne également avec GPT-3.5.
Vermorel a décrit les LLMs comme une machine de création de modèles universelle, incroyablement puissante et résiliente face au bruit. Il a partagé qu’il avait réécrit la feuille de route complète de Lokad il y a plus d’un an et qu’ils automatisent tâche après tâche depuis les 12 derniers mois. Il a exprimé son étonnement devant l’ampleur des résultats que l’automatisation peut offrir et la difficulté de trouver des problèmes qui ne peuvent être automatisés. Il a précisé que Lokad avait automatisé la partie la plus difficile, les décisions quantitatives, il y a une décennie, et que le reste a été automatisé au cours des 12 derniers mois grâce aux LLMs modernes.
Vermorel a expliqué que l’automatisation, notamment dans les tâches linguistiques, a déjà surpassé les compétences et l’intelligence humaines en termes de rapidité et de précision. Il a donné l’exemple de la capacité des LLMs à éviter les erreurs courantes, telles que l’interprétation erronée de la couleur dans le nom d’un produit comme étant la véritable couleur du produit. Vermorel a comparé les LLMs à un serviteur qui connaît la terminologie et le jargon de chaque industrie, ce qui les rend supérieurs à une personne moyenne qui pourrait ne pas être familière avec des termes techniques spécifiques. Il a affirmé que la véritable question est de savoir ce qui ne peut être automatisé, car jusqu’à présent, tout ce qu’ils ont essayé a fonctionné.
Vermorel s’est opposé à l’idée que l’IA agirait comme un copilote pour aider les humains à prendre des décisions, soutenant que l’objectif devrait être une automatisation complète de bout en bout des tâches répétitives, capable de débloquer des améliorations significatives de productivité. Il a rétorqué que les emplois non répétitifs survivraient, mais que de nombreuses tâches apparemment non répétitives au quotidien se révèlent en réalité répétitives sur l’année. Il a confirmé que le délai d’automatisation sera très court et que de nombreuses entreprises se dirigent déjà rapidement vers l’automatisation.
Vermorel a expliqué que les révolutions technologiques précédentes étaient limitées à des industries spécifiques, alors que les large language models s’appliquent à presque tous les emplois de cols blancs, en particulier ceux de back-office. Il a précisé que le marché évoluera plus lentement que le back-office en matière d’automatisation, puisque les attentes du grand public dictent le rythme. Il a souligné que les clients se moquent du fait que l’exécution de la production soit entièrement automatisée ou réalisée par des commis.
Vermorel a prédit que l’automatisation des emplois de cols blancs sera une surprise, mais il a souligné que les emplois manuels subissent des changements similaires depuis 150 ans. Il a pris l’exemple des porteurs d’eau à Paris, un métier qui a disparu avec l’introduction de la plomberie. Il a expliqué comment l’automatisation a déjà rendu certaines tâches obsolètes, comme la comparaison des brouillons de contrats ligne par ligne, une tâche désormais accomplie par Microsoft Word. Il a décrit le rythme de ces changements comme étant progressif jusqu’à l’introduction des LLMs, qui, selon lui, donne l’impression d’avancer de 20 ans dans le futur en seulement une année.
En réponse à une question sur l’avenir de l’enseignement de la supply chain, Vermorel a affirmé que les fondamentaux abordés dans ses cours de supply chain ne seront pas automatisés. Il a encouragé à se concentrer sur ces questions fondamentales plutôt que sur les trivialités qui seront automatisées par les LLMs. Il a résumé en affirmant que les LLMs représentent un événement d’extinction pour les fonctions administratives des entreprises, prédisant que de nombreuses entreprises commenceront à retirer des personnes de ces postes. Il a décrit cela comme une question de quelques mois et a exhorté à agir rapidement.
En réponse à une question sur les intitulés de postes qui pourraient devenir obsolètes, Vermorel a cité le planificateur de l’offre et de la demande, l’analyste de stocks et le responsable de catégorie. Il a suggéré que des rôles tels que Supply Chain Scientist, qui impliquent l’élaboration de recettes numériques et une réflexion stratégique, ne seront pas automatisés. Vermorel a expliqué que Lokad a automatisé non seulement des décisions fondamentales telles que la planification, la programmation, l’achat, la production, l’allocation et la mise à jour des tarifs, mais également les processus environnants tels que la gestion des données de référence, la communication et les notifications aux clients et aux fournisseurs.
En réponse à une question sur les conseils à donner aux jeunes entrant dans la supply chain, Vermorel a suggéré de se concentrer sur la compréhension stratégique, la pensée critique et les compétences en programmation. Il estime que les LLMs ne remplaceront pas ces compétences mais qu’ils amélioreront la productivité. Vermorel a prédit que les solutions de supply chain pilotées par l’IA auront un effet plus prononcé sur les petites entreprises que sur les grandes. Il a expliqué que la haute productivité de ces outils rend l’automatisation accessible aux petites entreprises, leur permettant de rivaliser avec les grandes.
Vermorel a déclaré que l’automatisation chez Lokad avait amélioré la qualité et augmenté la productivité. Il a noté qu’il est encore trop tôt pour observer l’impact sur les taux d’abonnement et d’autres indicateurs, en raison des cycles de vente lents du enterprise software. Il a mis en garde contre le fait de se fier aux chiffres, en citant l’exemple de l’échec de Kodak à s’adapter à la photographie numérique. Il a prédit que les entreprises capables d’automatiser leurs processus seront plus agiles et fiables, tandis que celles ne le faisant pas ne survivront pas. Il a comparé cela à un événement d’extinction.
Vermorel a souligné l’importance de libérer les personnes des emplois fastidieux pour l’amélioration de la supply chain et la croissance globale de l’entreprise. Il estime que cela permettra aux individus de penser de manière stratégique et de ne pas être distraits par des tâches mineures. Il a expliqué que la coopération entre humains et machines ne se déroule pas comme on l’avait imaginé. Il s’agit plutôt d’automatiser entièrement les tâches, comme la traduction du site web de Lokad et les repères vidéo de Lokad TV, qui sont désormais effectués automatiquement. Il a suggéré que la véritable question est de savoir ce qui ne peut être automatisé.
Vermorel a suggéré que les tâches nécessitant une intelligence humaine de haut niveau, telles que les décisions stratégiques et les questions macro pour l’entreprise, restent encore hors de portée des LLMs. Il a expliqué que les LLMs sont incroyablement accessibles et ne nécessitent pas une main-d’œuvre surdouée ni une connexion Internet à haut débit. Il a souligné que cette technologie est peu coûteuse et peut constituer un formidable égalisateur pour les pays disposant de ressources limitées.
Vermorel a reconnu la comparaison de Conor et a mis en garde les entreprises de ne pas manquer cette évolution. Il a suggéré que les entreprises qui n’adopteront pas cette technologie dès maintenant pourraient ne pas être en mesure de rattraper leur retard à l’avenir.
Transcription complète
Conor Doherty : Bienvenue sur Lokad Live. Je m’appelle Conor. Je suis le Responsable de la Communication chez Lokad. Et avec moi en studio se trouve le fondateur de Lokad, Joannes Vermorel. Le sujet d’aujourd’hui pourrait être le plus sérieux que nous ayons jamais abordé dans cette émission. Une discussion franche et impartiale sur l’état réel de l’art de l’IA et de la supply chain et, surtout, sur ce que cela signifie pour les personnes évoluant dans ce domaine. Il s’agit d’une discussion interactive, donc si vous avez des questions, veuillez les soumettre dans le chat en direct et nous y répondrons autant que possible dans le temps imparti. Alors, Joannes, ne perdons pas de temps. Pourquoi sommes-nous ici ?
Joannes Vermorel : Je crois que nous sommes confrontés à quelque chose qui sera probablement qualifié d’événement d’extinction massive pour les employés de back office des cols blancs. Il y a cinq ans, de nombreux consultants menaient des études et affirmaient qu’à l’horizon 2050, l’IA aurait éliminé 90 % des emplois de cols blancs. Les raisons et les technologies invoquées dans ces rapports étaient complètement erronées, et il s’est avéré que le délai était également complètement faux. Mais la seule chose qui était vraie, c’est le 90 %. Et le délai, tel que je le conçois maintenant, va être considérablement accéléré. Ce ne sera pas 2050, ce sera 2030. Ce qui a tout changé, c’est le succès des LLMs (Large Language Models). Cela aura un impact sur presque tous les emplois de back office des cols blancs, en particulier ceux dans les supply chains. Le changement arrive très rapidement, bien plus vite que ce que je pensais il y a 18 mois.
Conor Doherty : Vous avez mentionné des consultants auparavant, qui spéculaient sur la trajectoire de cette évolution, ou extinction, comme vous l’appelez. Qu’est-ce qui s’est exactement passé l’année dernière avec l’émergence des LLMs pour accélérer cette évolution ?
Joannes Vermorel : La véritable révolution remonte à environ trois ans. Je l’ai manquée. Je n’ai réalisé ce qui se passait qu’il y a environ 18 mois. À ce moment-là, j’ai commencé à expérimenter avec l’IA générative. Nous avions réalisé une interview à ce sujet il y a presque un an et demi. À l’époque, j’observais ces technologies. L’IA générative existait depuis 20 ans et progressait chaque année. Je commençais à réaliser qu’elle pouvait être utilisée à des fins de production, même si, pour le moment, il ne s’agissait que de petites touches, comme générer quelques illustrations pour des cours.
Ensuite, il y a eu les LLMs et les chatbots. Ils étaient plutôt sympas, mais je pensais qu’ils n’étaient qu’un gadget sophistiqué. Je n’avais pas vraiment réalisé à quoi ils pouvaient servir. Puis j’ai repris mes esprits quand j’ai commencé à travailler avec GPT-4, en version bêta, il y a un peu plus d’un an. J’ai réalisé que cette technologie était de niveau production. Il y a eu un bond absolument énorme. J’ai compris avec GPT-4, un modèle d’OpenAI, comment GPT-3.5, qui existait depuis plusieurs années, était censé être utilisé. L’élément intéressant est qu’il a fallu une deuxième percée, GPT-4, pour que je comprenne. GPT-4 est d’un ordre de grandeur plus intelligent que GPT-3.5.
Mais une fois que vous commencez à comprendre comment cela fonctionne, et c’est bien plus facile avec GPT-4 parce que GPT-4 est nettement meilleur, vous pouvez alors adapter ce qui fonctionne et le rendre fluide afin que cela fonctionne également avec GPT-3.5. La constatation était que le LLM est incroyablement puissant, mais si vous voulez l’utiliser à des fins de production, en entreprise, pour des besoins corporatifs, il ne s’agit pas d’avoir un chatbot. Le point intéressant, c’est que vous disposez d’une machine de templating universelle. C’est ce qui est tout simplement incroyable. Elle est très résiliente face aux perturbations. Il y a un peu plus d’un an, j’ai réalisé qu’elle était de niveau production. Nous avions manqué quelque chose qui avait constitué une percée absolument stupéfiante il y a 18 mois. J’ai entièrement réécrit la feuille de route de Lokad il y a plus d’un an. Nous avons mis à jour frénétiquement presque tout au cours de la dernière année. Nous sommes restés assez discrets à ce sujet, mais au cours des 12 derniers mois, nous avons automatisé tâche après tâche. Des tâches qui paraissaient presque impossibles à automatiser il y a quelques années ont été automatisées.
Quand j’observe les emplois dans les supply chains, je constate que l’ampleur de ce qui peut être délivré sous une forme entièrement robotisée est tout simplement stupéfiante. Il est même difficile de trouver de nos jours des problèmes qui ne peuvent pas être automatisés. Par le passé, automatiser chaque tâche relevait du défi. Chez Lokad, nous avions déjà automatisé il y a dix ans ce qui était la partie la plus difficile, à savoir ces décisions quantitatives. Ces décisions consistaient à déterminer combien d’unités acheter, produire, s’il fallait augmenter ou diminuer votre prix. Ces réponses quantitatives avaient été automatisées il y a dix ans. Mais ce qui s’est passé au cours des 12 derniers mois, c’est tout le reste. Tout le reste est devenu bon marché, ultra rapide et facile grâce à ces LLM modernes.
Conor Doherty: Je ne veux pas inverser les rôles, car la prochaine question serait probablement : “Eh bien, quels emplois vont disparaître ?” Mais en réalité, j’ai envie de revenir d’un pas. Comme vous l’avez explicitement déclaré il y a un an, nous étions assis ici et vous avez qualifié GPT-3.5 d’artiste de BS en le comparant à un chat. La question est donc : qu’est-ce qui, en décrivant cette sensation de vertige, vous a poussé à passer de “c’est un chat” à “nous vivons un événement d’extinction” ?
Joannes Vermorel: C’est encore assez bête, mais ce n’est pas ce que vous souhaitez. Le fait est que les LLM ne servent pas à mener une discussion intelligente. C’est agréable, et GPT-4 va assez loin dans cette direction. Cela était plutôt stupéfiant. Mais encore une fois, la force réside dans ces machines de templating universelles dont je parlais. Prenons un exemple : vous souhaitez envoyer un bon de commande à un fournisseur et vous constatez que vous n’avez pas le MOQ. Vous devez envoyer un email au fournisseur en disant : “Au fait, pour ces produits, quel est votre MOQ, votre quantité minimale de commande ? Donnez-moi le chiffre.” Ensuite, le fournisseur répondra et il vous suffira d’ajouter cette valeur quelque part dans votre système pour pouvoir l’exploiter. Cela fait partie du processus de prise de décision.
Lokad automatisait cela. Ce que nous faisions, c’était que si nous connaissions le MOQ, nous vous fournissions, ainsi que toutes sortes d’autres données, la réponse exacte quant à la quantité que vous devriez acheter. Mais obtenir la valeur du MOQ lui-même, c’était comme un casse-tête : comment le gérer ? Ce n’est pas un problème difficile. Vous pouvez certainement créer un système automatisé avec un modèle d’email auquel il faudra ensuite traiter la réponse, et traiter cette réponse est délicat car le fournisseur pourrait renvoyer quelque chose qui vous donne, par exemple, deux MOQs. Pour ce produit, c’est celui-ci, pour cet autre, c’est autre chose. Comment gérez-vous cela ? Ce n’est pas fondamentalement un problème difficile. Ce n’est pas comme un calcul sophistiqué. Mais c’était assurément quelque chose qui nous empêchait de robotiser l’exécution complète du processus de bout en bout.
Nous pouvions automatiser la partie décisionnelle, mais pas l’exécution complète de la décision en tenant compte de ce qui devait se passer avant et après l’étape de prise de décision. Maintenant, avec les LLM, où vous disposez de ces machines de templating universelles, si vous recevez un email, par exemple pour demander quel était le MOQ rapporté par le fournisseur, etc., vous pouvez littéralement automatiser ces tâches de manière extrêmement, extrêmement rapide.
Ainsi, si vous demandez à GPT, un LLM, d’inventer des choses, il va halluciner. C’est ce qu’il fait. Mais si vous l’utilisez correctement – en indiquant, par exemple, “j’ai une entrée, je veux une transformation”, et en extrayant l’information de cette entrée transformée – vous obtenez quelque chose d’incroyablement robuste et de niveau production. Il s’avère également que, lorsque l’on observe le travail des employés de back-office, des cols blancs, ils passent leur temps à récupérer ici et là de petites informations. C’est comme si 90 % de leur temps était consacré à cela, un peu de bavardage avec leur environnement. Et maintenant, vous disposez d’une machine universelle pour automatiser tout cela, et c’est très, très simple et bon marché.
Conor Doherty: Pour résumer tout cela jusqu’à présent, et encore une fois, Lokad fait cela depuis des années : l’aspect décisionnel plus quantitatif était automatisé en utilisant d’autres formes d’IA. Aujourd’hui, vous parlez des éléments interpersonnels plus qualitatifs qui sont également susceptibles d’être automatisés grâce aux LLM.
Joannes Vermorel: Oui, imaginez que vous souhaitiez envoyer vos bons de commande. Il y a le calcul de la quantité, c’est ce que Lokad fait depuis plus d’une décennie. Mais ensuite, vous avez toutes sortes de petites choses à régler. Que faire s’il y a deux produits qui sont des doublons ? Vous avez ainsi, par exemple, deux produits qui représentent deux fois la même référence. Comment gérez-vous cela ? Autrefois, la réponse était que c’était compliqué. Vous pouviez mettre en place un peu de machine learning et quelques techniques spécialisées de NLP, traitement du langage naturel, pour dédupliquer automatiquement votre catalogue. Oui, par le passé, cela prenait, disons, 50 heures d’ingénierie logicielle pour obtenir quelque chose qui fonctionne.
Maintenant, avec les LLM, cette déduplication dont je parle ne prend littéralement que 20 minutes de travail, et vous obtenez ensuite une solution de niveau production pour dédupliquer. Vous voyez donc que l’ampleur de la chose est absolument stupéfiante. Et il y a toutes ces petites choses qui faisaient obstacle, ce qui fait que les entreprises devaient employer autant de personnes, car ce n’était pas le problème majeur qui prenait beaucoup de temps. Le problème majeur, comme le calcul de cette quantité, était déjà en partie mécanisé, mais ce sont les petits problèmes super banals – problèmes de qualité de données, doublons, un point de donnée manquant comme un MOQ – qui gênaient le processus.
Si un fournisseur est en retard, vous souhaitez envoyer un email pour obtenir un nouvel estimé de délai d’arrivée, puis recevoir la réponse. Ce genre de choses n’est pas super compliqué, mais auparavant, il était déjà possible de les automatiser – cependant, chaque question et micro-tâche de ce type coûtait environ 50 heures d’ingénierie pour être résolue, et c’est énormément, car si vous en avez, disons, 100, nous parlons de milliers d’heures-homme – et vous vous retrouvez avec un projet dont, comme j’en ai discuté dans les conférences, le coût de gestion d’un produit logiciel n’est pas linéaire, il est super linéaire.
Donc, si vous doublez la complexité, vous avez tendance à multiplier le coût de maintenance non pas par deux, mais par quatre. En ajoutant toutes ces choses, vous créiez un logiciel monstre, très difficile à gérer, à mettre à jour et à étendre. Si, en tant que bloc de construction, vous possédez des LLM centralisant ces fonctions, non seulement ces tâches peuvent être résolues en environ 20 minutes, mais la complexité globale de votre produit logiciel augmente beaucoup plus lentement qu’auparavant, car c’est toujours un produit très, très simple, et c’est le même tour de passe-passe : ce LLM est utilisé à chaque étape pour résoudre tous ces petits imprévus rencontrés en chemin.
Conor Doherty: Quelle est alors l’ampleur de cela quand vous parlez d’un événement d’extinction ? Pouvez-vous détailler les implications ?
Joannes Vermorel: Je travaille avec les LLM et nous avons automatisé des tâches à droite et à gauche. Je vois d’autres entreprises faire cela, notamment lorsqu’il s’agit de tâches linguistiques comme réorganiser des informations, résumer des informations, extraire des informations d’un email, etc. L’incroyable, c’est que nous sommes déjà au-delà de la compétence humaine, au-delà de l’intelligence humaine.
Quand je dis “au-delà de l’intelligence humaine”, je veux dire en un temps limité. Si je vous envoie un email en entrée et vous demande d’en extraire l’information clé en 20 secondes, vous vous tromperez parfois en tant qu’humain. Si je vous donne un millier d’emails et vous demande d’en extraire l’information clé de chacun en 20-30 secondes, vous aurez un taux de réussite d’environ 98 % et vous vous tromperez parfois.
Cependant, les LLM le feront non seulement en une seconde au lieu de 30 secondes, mais leur précision sera bien supérieure à ce qu’une personne moyenne, même formée, pourrait obtenir. C’est pourquoi je dis que nous sommes littéralement au-delà de l’humain.
Pour beaucoup de choses, comme éviter les erreurs de débutant, les LLM sont incroyablement performants. Par exemple, s’il y a une couleur dans le nom d’un produit, peut-être que cette couleur ne signifie pas que le produit est de cette couleur. Peut-être s’agit-il d’un dispositif de vérification et la couleur dans le nom n’a rien à voir avec la couleur réelle du produit. C’est exactement le genre de situation où les LLM excellent vraiment.
C’est comme avoir un serviteur qui maîtrise parfaitement la terminologie et le jargon de pratiquement chaque secteur existant sur Terre. Soudainement, vous disposez de quelque chose qui va un peu au-delà de l’humain, car si vous prenez une personne au hasard, celle-ci n’est tout simplement pas familiarisée avec les termes techniques spécifiques à votre industrie, et cette personne mettra des mois, voire des années, à commettre des erreurs par ignorance, sans savoir que ce terme est trompeur et, par exemple, qu’il s’agit d’un terme désignant une couleur sans pour autant se référer à la couleur dans ce contexte. Il s’agit plutôt d’une caractéristique du produit ou autre, et les exemples ne manquent pas.
Et chez Lokad, littéralement, nous avons mécanisé une multitude de choses, et la vraie question est : “Qu’est-ce que nous ne pouvons pas automatiser ?” C’est une question difficile, car jusqu’à présent, presque tout ce que nous avons essayé a fonctionné immédiatement. Ce qui est renversant, c’est qu’une fois que vous comprenez à quoi servent ces LLM, vous pouvez automatiser énormément de choses.
Conor Doherty: Pour reprendre la position d’un éventuel sceptique, si vous confrontez les emplois de cols blancs et de cols bleus, cela fait des décennies qu’on parle du fait que les robots, les machines et d’autres formes de technologie vont retirer les outils des mains des mécaniciens. Pourtant, dans de nombreux secteurs comme la MRO, il existe des régions du monde où il y a une pénurie critique de techniciens pour travailler sur des avions. Cet événement d’extinction était erroné. Dans le contexte de déclarations similaires faites par d’autres, à quel point êtes-vous confiant dans ce que vous avancez aujourd’hui ? Qu’est-ce qui vous rend si sûr ?
Joannes Vermorel: Je veux dire, tout d’abord, ce qui me rend confiant et sûr, c’est que nous le faisons depuis un an, et littéralement, pour vous donner un exemple des choses que nous avons mécanisées chez Lokad, les RFP – vous savez, les demandes de propositions. Nous recevons d’énormes documents Excel de grandes entreprises contenant un nombre incroyable de questions, comme 600 questions. Et plus tôt cette année, je pense que c’était en mai ou quelque chose dans ce genre, j’ai dit : “D’accord, nous avons encore un RFP de 600 questions. Cela prend littéralement une semaine, 10 jours, des journées entières, pour répondre à tout cela. C’est tellement pénible de parcourir ces documents massifs.” Désolé.
Et puis j’ai décidé : “D’accord, je vais simplement mécaniser cela et recycler toute la base de connaissances que nous avions déjà chez Lokad pour créer un répondeur.” Vous savez, un répondeur. Nous avions déjà les documents, nous avions déjà des tonnes d’informations, et la tâche de la machine était simplement : “Rédigez une réponse à la question exactement comme le ferait Lokad. Réutilisez la base de connaissances dont nous disposons. Et s’il y a un manque dans cette base, répondez simplement ‘échec’, puis nous traiterons cela manuellement.”
Et littéralement, traiter un RFP prenait plus d’une semaine, et automatiser ce processus m’a pris une semaine. Donc, dès que j’avais mis en place les robots, j’avais déjà un retour sur investissement positif. Vous savez, au moment où j’ai terminé mon automatisation, je régénérais les réponses, et il y avait moins de 10 % des questions pour lesquelles je devais encore intervenir manuellement pour enrichir la base de connaissances de Lokad.
Mais ce qui est intéressant, c’est que lorsque nous avons soumis nos réponses via le système en ligne – vous soumettez, et vous avez, disons, 600 questions – vous obtenez une réponse automatisée basée sur vos réponses et les cases que vous avez cochées. Puis voilà 100 questions supplémentaires qui ont été générées. Nous avons ainsi réappliqué. Nous pensions donc, oh, nous avions traité 600 questions.
Au fait, au final, cela représentait plus de 100 pages de réponses, donc c’était un document très, très long à soumettre. Ensuite, vous le soumettez et le système qui gère le processus de RFP vous renvoie simplement 100 questions supplémentaires. Et encore une fois, nous avons réutilisé les outils et, en quelques heures, nous avions enfin terminé. Depuis, pour tous les RFP que nous avons traités, nous utilisons simplement cet outil – et ce n’est qu’un exemple parmi littéralement des dizaines.
Conor Doherty: Il y a cependant des entreprises qui ont une attitude très différente de la vôtre. Elles pensent que l’IA générative, les grands modèles de langage dont nous parlons, deviendront essentiellement une sorte de copilote pour les professionnels du secteur, comme les planificateurs de demande et les praticiens du supply chain. Elles croient que vous ne serez pas remplacé par l’IA, mais qu’elle vous soutiendra, qu’elle sera un copilote pour vous aider à prendre toutes les décisions, tant quantitatives que qualitatives, que vous affirmez voir disparaître. Pourquoi cela serait-il faux ?
Joannes Vermorel: Alors, c’était, d’ailleurs, le genre de choses que j’imaginais avant mon épiphanie, il y a 18 mois. Si vous pensez ainsi, non, les LLM vont être complètement nuls. Ils vont n’être qu’un gadget et vous ratez complètement l’essentiel. Pourquoi ? Euh, voilà la question. Si vous voulez, d’abord, avoir une interface utilisateur conversationnelle, c’est un jouet. Ce n’est pas – je veux dire, c’est bien d’avoir GPT comme moteur de recherche, où, d’accord, ça va. Mais si vous devez effectuer un travail répétitif, ce que vous voulez, c’est une automatisation complète de bout en bout.
Donc, dans ce cas, le LLM doit devenir un composant programmatique de votre logiciel. Et, comme je l’ai dit, revenons à cette machine automatisée de réponse aux appels d’offres (RFP). L’objectif n’est pas d’avoir un copilote qui discute avec nous pour répondre à ce RFP de 600 questions. Ce que nous voulions, c’était une machine qui prend le document en entrée, en extrait toutes les questions et en finit, vous voyez. Et qui nous présente simplement une courte liste de questions pour lesquelles la FAQ doit être complétée, et c’est tout, vous voyez. Il ne s’agit pas d’avoir un copilote avec lequel vous pouvez interagir et autres. C’est une perte de temps totale. Ce n’est pas ce dont il s’agit, en réalité, lorsque l’on parle d’automatisation vraie.
Et donc, selon moi, les personnes qui pensent de cette manière ne réfléchissent pas clairement. Elles pensent simplement en termes incrémentaux. Elles envisagent d’ajouter une nouvelle technologie pour améliorer un peu la façon de faire, plutôt que de repenser entièrement le procédé et de débloquer ainsi une amélioration de productivité multipliée par 100.
Conor Doherty: Quels emplois, en particulier, pensez-vous survivront à l’événement d’extinction que vous décrivez ? Que restera-t-il si l’aspect quantitatif disparaît, l’aspect qualitatif disparaît, et que tout est automatisé ?
Joannes Vermorel: Donc, il ne reste que tout ce qui est strictement non répétitif, d’accord. Mais à un niveau plus global, parce que, vous voyez, si l’on regarde un employé de back office, un employé de cols blancs, les gens diraient : “Oh, ce n’est pas répétitif. Regardez, je dois envoyer un e-mail ici, je dois demander quelque chose à un collègue là-bas, je dois faire plein de choses qui sont un peu hétérogènes.” Oui, mais au cours d’une année, c’est toujours la même chose qui se répète encore et encore. Et par le passé, d’ailleurs, cela avait toujours été imminent. Je veux dire, depuis les quatre dernières décennies, l’industrie du logiciel était – et j’ai toujours été convaincu que ce n’était pas une question de “quand” ou de “si” toutes ces tâches monotones seraient automatisées, c’était juste une question de “quand”.
Et dans les années 80, il y eut plusieurs hivers de l’IA où les gens faisaient des affirmations grandioses et cela ne s’est pas concrétisé avec les systèmes experts, avec le data mining. Ainsi, les systèmes experts étaient dans la fin des années 80, début des années 90, le data mining c’était l’an 2000, etc. Il y a donc eu une série de vagues, mais la différence, c’est que maintenant, ça fonctionne. Je veux dire, ça fonctionne et littéralement, Lokad n’est qu’à un an d’avance et nous avons automatisé des choses que je n’aurais jamais cru possibles à réaliser aussi facilement et aussi rapidement. Et j’ai vu, encore une fois, d’autres entreprises faire de même, et le résultat net est absolument stupéfiant et ça marche. Et de plus, ça fonctionne sans, je dirais, nécessiter autant de compétences spécialisées ni autant de surcharge technique. Ces technologies, ainsi que les LLM, sont également très simples à adopter.
Conor Doherty: Je veux juste clarifier une expression que vous venez de prononcer. Vous avez dit avoir vu tellement d’entreprises faire cela. Suggérez-vous que, en coulisses, c’est déjà en train de se produire ?
Joannes Vermorel: Oui, et c’est pourquoi je crois que le délai va être très compressé. C’est pourquoi j’ai dit 2030 pour la phase finale, et non 2050. Un bon nombre d’entreprises avancent déjà à la vitesse maximale sur ce sujet. Si vous suivez l’actualité, vous verrez que certaines entreprises annoncent le licenciement de 5 000 personnes ici et là. Cela se produit très rapidement et la vitesse du marché ne sera pas définie par celle de l’entreprise habituelle ou de l’entreprise moyenne, mais par la plus rapide. Parce que, vous voyez, les économies réalisées sont tellement importantes que si vous êtes en retard, ce virage technologique vous anéantira.
Et je crois que l’IA est moins significative en termes de prouesse technologique que l’Internet lui-même. Vous savez, l’Internet en lui-même est plus grand. Mais en termes de compétitivité, il a fallu environ deux décennies pour que l’Internet soit mis en place. Vous savez, cela a été un processus lent : poser les câbles, obtenir une connexion Internet rapide et fiable partout, mettre tout à jour progressivement, le système d’exploitation, tirer le meilleur parti du courriel, etc.
C’était donc un processus lent où, même si vous étiez à la traîne, il n’était pas évident que des gains de productivité immédiats existaient. Ainsi, si vous étiez en retard pour l’arrivée de l’Internet, et qu’au lieu d’adopter le courriel en 1995, vous ne l’avez adopté qu’en 2002, vous aviez sept ans de retard, mais cela allait plutôt. Vos concurrents n’avaient pas réduit leurs coûts d’un facteur de 10 grâce à l’Internet.
Et d’ailleurs, l’Internet a également créé beaucoup de bureaucratie parce qu’il fallait une grande administration système. Il a engendré une multitude de problèmes. Ainsi, il a fallu littéralement deux décennies aux entreprises pour assimiler et devenir réellement performantes avec lui. La différence ici, c’est que pour s’améliorer, il ne s’agit que de quelques mois. Et vous pouvez réduire de façon drastique la quantité de main-d’œuvre nécessaire pour de nombreuses tâches – je dirais pratiquement toutes les tâches de back office, la supply chain étant l’une d’entre elles – en quelques mois. Et c’est là, je crois, que ce sera très différent cette fois.
Conor Doherty: Quand vous avez dit qu’il y avait différents départements, vous n’incluez pas l’IT, vous vous concentrez spécifiquement sur les activités centrées sur la supply chain ?
Joannes Vermorel: Chaque département nécessite sa propre discussion. L’IT, dans une large mesure, sera plus difficile à automatiser. D’abord, parce que la robotisation de l’administration système engendre toutes sortes de problèmes potentiels de sécurité. Ce sera difficile. Cela viendra, mais je pense que cela prendra plus de temps. Et la plupart des décisions prises par l’IT sont déjà assez compliquées. Donc, je dirais que pour l’IT, je soupçonne des économies de productivité de l’ordre de 50 %. Et ici, ce sera le genre de copilote. D’ailleurs, c’est ce qui se passe chez Lokad.
Maintenant, vous avez une question concernant quelque chose comme un logiciel obscur. Avant, vous passiez une demi-heure sur le web pour parvenir au fond de la documentation technique du fournisseur. Désormais, avec ChatGPT, vous pouvez le faire, mais bien plus rapidement. Très bien, c’est le genre d’assistant copilote dont nous parlons. Oui, cela concernera l’IT. Mais je pense que pour d’autres fonctions, cela peut se faire beaucoup plus rapidement et à une échelle bien plus grande.
Conor Doherty: Donc, en gros, il semble que le ROI pour adopter la technologie dès maintenant fait la différence entre obtenir réellement un retour sur investissement et, fondamentalement, disparaître.
Joannes Vermorel: Oui, exactement. Je pense que c’est une sorte de tournant technologique radical. Je crois qu’il est vraiment erroné de penser en termes de ROI, car le ROI est tellement élevé que si vous ne prenez pas ce virage, vos concurrents vous anéantiront. Vous voyez, il faut arrêter de réfléchir ainsi. Imaginez simplement que vous travaillez dans l’industrie du vêtement et que quelqu’un vient d’inventer la machine à coudre. Autrefois, des personnes travaillaient à l’aiguille pour confectionner les vêtements, et elles mettaient environ trois jours pour réaliser une chemise. Puis, quelqu’un invente une machine à coudre et réalise une chemise en 5 minutes. Voilà l’ampleur de la différence. Alors, quel est le ROI de la machine à coudre ? La réponse est soit vous possédez une machine à coudre, soit vous faites faillite. Voilà.
Conor Doherty: Vous avez donné des exemples auparavant sur Lokad TV à propos de Kodak. Vous avez mentionné explicitement Kodak. Ils ont inventé l’appareil photo numérique et, ne l’ayant pas adopté, ont fait faillite.
Joannes Vermorel: Oui, et le fait est que ces révolutions étaient en quelque sorte limitées à un seul secteur vertical. Vous savez, il y avait l’appareil photo numérique, oui, et beaucoup – je veux dire, 90 % des acteurs de ce marché de l’équipement photographique argentique ont simplement fait faillite. Mais encore une fois, c’était un événement verticalisé. Donc, c’était un événement d’extinction, mais limité à un secteur spécifique.
Maintenant, l’aspect intéressant avec les LLM, c’est qu’ils s’appliquent littéralement à presque tous les emplois de cols blancs et, plus spécifiquement, à ceux du back office. Parce que, vous voyez, pour le front office, si vous parlez à quelqu’un, si vous avez besoin de ce contact personnalisé, etc., même s’il était théoriquement possible de mécaniser, il n’est pas clair que le marché soit prêt à le faire.
Par exemple, Amazon, à l’époque, disons, en l’an 2000, vous pouviez techniquement acheter des meubles en ligne. Mais les gens n’étaient pas prêts. Le e-commerce n’était pas encore suffisamment digne de confiance pour acheter un canapé à 3 000 $ en ligne. Cela a pris une décennie de retard. Donc, une décennie plus tard, maintenant, cela fait partie, je dirais, du quotidien : les gens disent, oui, on peut acheter un canapé en ligne. On peut même acheter une voiture en ligne. Cela fait désormais partie de la culture.
Techniquement, vous auriez pu vendre des voitures et des meubles en ligne en l’an 2000. Ce n’était pas un problème technique. C’était plutôt la question de savoir si les gens étaient encore prêts à le faire, ou s’il fallait attendre. Donc, je dirais que pour le front office, les choses évolueront un peu plus lentement, car même si vous pouviez robotiser – tout comme Amazon aurait pu vendre des meubles en 2000 – ce segment n’a véritablement décollé qu’une décennie plus tard.
Le marché évoluera, je dirais, plus lentement, car il suivra le rythme des attentes du grand public. Ainsi, ce sera un peu plus lent. Mais pour le back office, absolument non, il n’y a aucune limite de ce genre. Personne ne se soucie le moins du monde que l’exécution de votre production et votre planning de production soit entièrement robotisé ou que vous disposiez d’une armée de commis pour ce faire. Vos clients s’en fichent, personne ne s’en soucie, sauf en interne.
Conor Doherty: Sauf les commis dont vous affirmez qu’ils seront rendus superflus, est-ce bien cela ?
Joannes Vermorel: Encore une fois, Lokad n’est pas celui qui a inventé le LLM. Cela a été réalisé par d’autres personnes. Je pense que cela a été inventé par des personnes telles qu’OpenAI. Ils se sont lancés là-dedans sans vraiment savoir ce qu’ils faisaient, d’ailleurs. C’est très amusant, car il y a eu des interviews de Sam Altman qui dit maintenant : “Eh bien, si nous l’avions su, nous n’aurions pas créé OpenAI en tant qu’organisation à but non lucratif. Nous n’aurions pas publié chacune des astuces que nous avons découvertes en cours de route.”
Vous voyez, ils étaient vraiment passionnés par cette idée de LLM. Il s’agissait simplement d’une continuation de séquence. Vous avez un texte et vous le poursuivez. Je pense que je ferai une conférence à ce sujet. Il y a eu une série d’innovations qui ont fait du LLM, je dirais, la véritable merveille technologique de notre époque. Mais en fin de compte, il a été, je crois, inattendu même pour les entreprises qui l’ont inventé. L’architecture Transformer provient de Google, mais ce n’est pas Google qui a déverrouillé cela, c’était une autre entreprise. En fin de compte, ce fut un peu un accident. Évidemment, la chance a souri aux personnes bien préparées. Il y avait des gens qui regardaient vraiment, qui faisaient des choses très intelligentes, et qui regardaient dans la bonne direction. Mais les conséquences ont été incroyablement surprenantes.
C’est très intéressant car même les chercheurs en IA, comme par exemple Yann LeCun chez Facebook, sont très sceptiques quant au pouvoir des LLM. Mon expérience directe en les utilisant montre que c’est du sérieux. C’est donc très intéressant. Ce fut une telle surprise que même les pionniers du domaine ne voient pas l’importance du jalon qu’ils représentent.
Conor Doherty: Cela vaut la peine de souligner ceci, car, pour faire un commentaire méta, le rôle de Lokad dans tout cela n’est que d’observer. Comme vous l’avez décrit, nous utilisons les deux facettes de l’IA, tant pour le quantitatif que pour le qualitatif.
Joannes Vermorel: Lokad ne fait pas de recherche sur l’amélioration des LMS. C’est un sujet très spécialisé et il existe des entreprises qui le font très bien.
En France, nous avons, par exemple, Mistral AI, qui est une équipe très solide qui s’en occupe, et ils rivalisent désormais avec OpenAI. Alors oui, tant mieux, je veux voir beaucoup de concurrence dans ce domaine. Mais pour Lokad, cela a de nombreuses conséquences. Nous automatisions la partie difficile de la supply chain, les décisions quantitatives : prévision des séries temporelles, commandes, allocation, tarification, toutes les tâches quantitatives. Mais maintenant, l’exécution de bout en bout de celles-ci, avec tous les détails minutieux qu’il faut accomplir avant – comme acquérir les petites informations manquantes, vérifier certains éléments, soit envoyer un e-mail, soit chercher en ligne, etc., etc., vous savez, plein de petites tâches.
Par le passé, nous disions aux clients : “Bon, si vous avez ce problème, faites-le.” Nous pouvions l’automatiser, et parfois nous l’avons fait, mais c’était assez coûteux. Maintenant, nous pouvons vraiment robotiser cela, et de même pour ce qui se passe après la décision, comme le suivi avec les fournisseurs, le suivi de petits problèmes, etc. Toutes ces tâches banales et répétitives peuvent également être robotisées.
Du fait que c’est déjà disponible, nous ne pouvons pas nous permettre de ne pas le faire. C’est ce que nos clients très exigeants nous demandent. Parce que, encore une fois, quand vous avez une machine à coudre, ne pas l’utiliser n’est tout simplement pas une option. Vous ne pouvez pas simplement dire : “Vous savez quoi, faisons comme si nous n’avions jamais entendu parler des machines à coudre et continuons à coudre des chemises à l’aiguille.” Non, vous devez l’utiliser.
Conor Doherty: Vous parlez donc de survie à tous les niveaux. Ce sont les employés, ce sont les entreprises, c’est l’ensemble de l’industrie, le secteur de marché, tout. Ce qui peut être automatisé le sera.
Joannes Vermorel: Oui, et d’ailleurs, cela sera, je pense, une surprise pour les cols blancs. Mais si vous regardez les cols bleus au cours des 150 dernières années, ils ont passé d’une révolution à l’autre. L’introduction de l’électricité fut un événement d’extinction massive. Il y eut environ mille domaines différents qui furent soudainement automatisés. Encore une fois, il y a 150 ans à Paris, l’emploi le plus courant – représentant presque 10 % de la population – était celui des porteurs d’eau. Environ 10 % des gens avaient des seaux et transportaient de l’eau, et c’était le métier numéro un, qui a disparu.
Il est donc évident que l’aspect positif est que, chaque fois que l’on élimine ces emplois, la société dans son ensemble s’enrichit, car cela signifie que les gens se consacrent à des activités plus intéressantes, de plus grande valeur, et que les choses se réorganisent d’elles-mêmes. Tout se remettra en place de la même façon qu’au cours des 150 dernières années, lors de toutes les révolutions industrielles. La seule chose surprenante, c’est que cela touche une catégorie de personnes – les emplois de cols blancs – qui, jusque-là, étaient relativement protégés. Mais maintenant, cela s’est produit ici, et, vous savez, cela se reproduira.
Conor Doherty: Il n’est même pas nécessaire de remonter 150 ans en arrière. Je veux dire qu’au cours des dernières décennies, la plupart des gens ont vécu plusieurs événements d’extinction dans certains domaines, comme le VHS rendu obsolète par les DVD, l’email ayant rendu le fax obsolète.
Joannes Vermorel: Par exemple, mes parents, qui ont commencé chez Procter & Gamble, c’était il y a plus de 40 ans, mais ce qu’ils faisaient, lorsqu’ils me racontaient leur expérience en tant qu’employés débutants, c’était, par exemple, l’une des tâches qu’ils effectuaient – et c’était le travail d’une personne – : lorsqu’il y avait une négociation de contrat, ils prenaient un jeune employé et le faisaient comparer ligne par ligne les deux documents, celui qui était un brouillon et la contre-proposition de votre fournisseur, partenaire ou autre, et il annotait simplement au stylo les sections présentant des différences. Et cela prenait des heures.
Et donc, ils payaient beaucoup de personnes rien que pour trouver les différences. Et maintenant, alors que Microsoft Word se contente de comparer des documents ou que vous utilisez le suivi des modifications, et que c’est terminé. Littéralement, il y avait un certain nombre de tâches qui ont déjà disparu. Mais cela s’est produit, je dirais, de manière graduelle. Le point important était que ces opérations s’effectuaient à un rythme lent. Ce qui est intéressant avec les LLMs, c’est que c’est un grand pas, et c’est un pas où, littéralement, nous venons de voyager 20 ans dans le futur en seulement un an. Voilà ce que l’on ressent après avoir mis ces technologies en production durant l’année écoulée.
Conor Doherty: Lokad collabore souvent avec des universités, en formant des personnes à intégrer la supply chain. Cela signifie-t-il que nous allons abandonner tout cela ? Est-ce une perte de temps d’étudier une quelconque science de la supply chain parce qu’elle va disparaître ?
Joannes Vermorel: Non, je ne pense pas. Ce que nous enseignons, ce ne sont pas les tâches banales, comme envoyer un email à un fournisseur pour obtenir le dernier MOQ. Si vous regardez le contenu de la conférence, il s’agit plutôt de comprendre le coût, en dollars, d’une rupture de stock et d’apprendre à y réfléchir.
Si vous attendez une réponse de Chat GPT, il va halluciner des balivernes. Même s’il s’agit de GPT-4, nous n’en sommes pas encore là, pas tout à fait. Le genre de sujet que j’aborde dans les conférences n’est pas celui qui se fait automatiser. Mais quand j’observe les entreprises de supply chain, le pourcentage de temps que les personnes affectées à la supply chain consacrent à réfléchir longuement à des questions fondamentales, comme ce que signifie réellement le taux de service aux yeux de nos clients, est très faible.
La plupart de ce que j’aborde dans mes conférences concerne des questions fondamentales qui sont très souvent deceptivement simples, telles que : que signifie le mot futur ? Qu’est-ce que cela veut dire d’anticiper correctement ou adéquatement l’avenir ? Ce sont des questions véritablement difficiles et si vous y réfléchissez et êtes capables d’apporter des réponses pertinentes à votre entreprise, vous n’êtes pas sur le point d’être automatisé. C’est pourquoi je dis – et je maintiens cette position – que les LLMs restent d’incroyables embobineurs.
Donc, si vous voulez atteindre ce niveau de compréhension, nous n’en sommes pas encore là. Vous allez avoir droit à des hallucinations et autres incohérences. Mais si ce que vous voulez, c’est vous débarrasser automatiquement des tâches routinières, alors c’est signé, scellé, livré. C’est pourquoi je dis : concentrez-vous sur les fondamentaux, sur les questions qui vous obligent à réfléchir profondément. Cela ne disparaîtra pas. Ce qui disparaîtra, c’est le bruit ambiant, les trivialités sans fin. Cela sera résolu grâce aux Large Language Models (LLMs).
Conor Doherty: Très bien, nous avons quelques questions du public à traiter et nous en sommes à 50 minutes. Beaucoup de ces questions correspondent en fait à ce sur quoi j’achèverais normalement. Donc, avant d’aborder les questions du public, j’aimerais, si possible, donner un résumé exécutif pour tous ceux qui auraient manqué les premières minutes. Et je pense qu’il est important de lancer un appel à l’action pour tous les segments, que ce soit les personnes travaillant en back office, les PDG, et tous ceux d’autres secteurs.
Joannes Vermorel: La réponse courte est que les LLMs, Large Language Models, représentent un événement d’extinction pour les fonctions administratives d’entreprise qui se contentent de traiter les emplois de cols blancs où l’on se contente de recueillir des données, de les transformer, de les réarranger et de les diffuser. Regardez votre organisation à tous les niveaux : vous avez littéralement des armées de personnes qui font exactement cela. Elles prennent quelques emails et peut-être 20 petites sources de données disparates et hétérogènes, effectuent un peu de traitement, et font avancer les choses d’un cran.
Le message est que tout cela est déjà automatisable. Et un grand nombre d’entreprises avancent à toute vitesse en le faisant dès maintenant. Vous pouvez déjà voir dans les actualités que non seulement c’est en production, mais qu’elles ont déjà commencé à supprimer des postes dans ces fonctions. Et je ne parle pas de quelques personnes ici et là. Je parle de grandes entreprises annonçant, par exemple, qu’elles avaient 6 000 personnes pour réaliser cela, et qu’aujourd’hui, elles n’ont plus que 50. Il y a eu un licenciement massif de ce type. Elles avancent à toute vitesse et je m’attends à ce que ces phénomènes s’intensifient.
Encore une fois, les emplois administratifs de cols blancs seront la cible. La supply chain est l’une de ces fonctions. Je soupçonne qu’il y a environ une demi-douzaine d’autres domaines qui le subiront. La comptabilité sera probablement aussi massivement impactée parce qu’en comptabilité, il y a ce raisonnement de haut niveau, intelligent, voire super intelligent, sur comment organiser votre structure comptable, etc. Mais il y a aussi le côté routinier. Quelqu’un m’envoie un PDF, j’ai besoin d’extraire une demi-douzaine d’informations pertinentes juste pour générer l’écriture comptable correspondante à ce document. Voilà, c’est fait. Cela peut être entièrement automatisé.
Donc, tout cela va disparaître très rapidement. Et pour certaines entreprises, ce n’est même pas le futur, c’est déjà là. C’est notre présent. Et nous parlons de quelques mois. En résumé, c’est un événement d’extinction, c’est une question de mois. Oui, il faut agir vite. Et d’ailleurs, chez Lokad, quand je m’en suis rendu compte, j’ai passé les trois premiers mois de 2023 à repenser complètement la feuille de route technologique de Lokad, car tout ce que j’avais imaginé auparavant était fichu.
Pour nous, cela a constitué un tournant assez radical. En interne chez Lokad, nous avons automatisé pas mal de choses. Et littéralement, nous étions tellement occupés à le faire que nous ne communiquions pas beaucoup à ce sujet. Mais cela est devenu mon emploi du temps quotidien depuis un an.
Conor Doherty: Avant de passer aux questions du public, il est important de souligner qu’habituellement nous parlions beaucoup de prévision probabiliste, d’optimisation stochastique, tout cela. Cela ne faisait même pas partie de cette conversation car c’était déjà réglé. Cela fait partie de l’état de l’art depuis des années. Ainsi, ces décisions quantitatives, à savoir les stocks, les bons de commande, la répartition, la tarification, du moins du point de vue de Lokad, c’était résolu il y a des années. C’était déjà fait. Les gens en ont au moins une conscience partielle ou ambiante. Le cœur du sujet aujourd’hui, c’est tout le reste qui restait.
Joannes Vermorel: Oui, exactement. La routine, le bruit, ces petites choses ambiantes, ces milliers de petits incidents, qui, il y a dix ans dans la supply chain, n’étaient même pas nécessaires. Encore une fois, pensez simplement à poser une question quelconque à un partenaire, un transporteur, un fournisseur, etc. Et d’ailleurs, les entreprises embauchaient régulièrement des centaines de personnes avec seulement un mois de formation. Ces personnes pouvaient fonctionner. Mais pensez à tout ce qui nécessite moins de six mois de formation : très probablement, c’est quelque chose qu’un LLM peut automatiser.
Vous savez, s’il s’agit de quelque chose qu’on peut assimiler en quelques mois, alors oui, cela peut être automatisé. Si cela demande dix ans, des compétences, de la dévotion et de la patience, non. Mais les tâches faciles, qui seraient probablement plus stratégiques de toute façon, voilà la distinction.
Conor Doherty: Très bien. Je vous recommande de prendre une gorgée d’eau car il y a des questions à traiter. Alors, merci beaucoup à tous pour vos questions. Notre producer a rassemblé les questions. Je n’ai pas accès au chat YouTube, donc je ne sais pas combien ont été posées, mais celles qui se ressemblaient ont été regroupées. Pour toutes les questions auxquelles nous ne répondrons pas aujourd’hui, nous fournirons des réponses plus détaillées soit dans une vidéo de suivi, soit sur LinkedIn.
La première question vient de Constantine. Il demande : “Quels intitulés de postes pourraient devenir obsolètes ? Voyez-vous un avenir pour les rôles de prévision et de planification ?”
Joannes Vermorel: Des rôles tels que planificateur de l’offre et de la demande, analyste de stocks, responsables de catégories, tout cela, je dirais que c’est terminé. C’est littéralement déjà fini. Les personnes qui regardent pourraient ne pas être d’accord, mais vous ne faites que rapporter les faits. La partie prévision, par exemple, a été automatisée par Lokad il y a presque dix ans. Ce qui n’était pas automatisé, c’était généralement les petits incidents de données, comme les produits dupliqués ou l’identification de quel produit est le descendant d’un autre. Par exemple, on prend deux descriptions de produit et l’on conclut : « Oh, ceci est simplement la génération quatre d’un appareil et voilà la génération cinq. Donc, celui-ci est, en quelque sorte, le même, un peu amélioré. » C’est le genre de chose qu’un LLM peut définitivement automatiser. Ainsi, tout cela est complètement automatisable et c’est terminé.
Ce qui ne peut pas être automatisé, c’est quelque chose de plus proche d’un Supply Chain Scientist, c’est-à-dire celui qui élabore les recettes numériques pour automatiser tout ce qui ne l’est pas. Vous pouvez automatiser le travail, mais vous ne pouvez pas encore automatiser l’élaboration des recettes numériques ni la réflexion stratégique qui consiste à transformer tout cela en dollars d’erreur, en dollars de profit. Il faut être capable d’avoir cette perspective financière qu’un LLM n’est pas en mesure d’avoir. Mais tous ces emplois de gestion routiniers, où il y a beaucoup de tâches répétitives, sont déjà disparus. Et pour la prévision, c’est la même chose. Cela fait partie de la position de Lokad depuis la dernière décennie. Donc, il n’y a rien de nouveau.
Conor Doherty: Eh bien, je suis sûr que tout le monde sera satisfait de cette réponse. Passons à la suivante. Merci. La prochaine question vient de Sherar. “Joannes, pourriez-vous s’il vous plaît développer les bénéfices de l’IA et de la supply chain avec des exemples en temps réel ?”
Joannes Vermorel: D’abord, définissons le temps réel. Dans la supply chain, nous ne parlons pas du temps réel au même sens que maintenir un avion en vol, ce qui nécessite des temps de réponse en millisecondes. Dans la supply chain, même si vous voulez donner des instructions à un chauffeur de camion pour orienter la circulation, un délai d’une minute n’est pas si terrible. Le temps réel dans la supply chain correspondrait à un robot dans un entrepôt effectuant une préparation de commandes automatisée. La plupart des problèmes de la supply chain ne sont pas en temps réel. La grande majorité des problèmes peuvent supporter un délai d’une heure. Il y a très peu de questions de la supply chain qui nécessitent une réponse en moins d’une heure.
Donc, à nouveau, avec les LLMs, vous souhaitez obtenir des informations, effectuer une recherche sur le web, récupérer les résultats, et les restituer. Vous voulez connaître l’adresse d’un fournisseur et la récupérer automatiquement. Il est très simple de mettre en place des logiques pour automatiser cela. C’est facile. Nous parlons de toutes les décisions fondamentales, de tout ce qui concerne la planification, la programmation, l’achat, la production, la répartition, la tarification, la mise à jour. Et puis, ce que nous avons ajouté, c’est tout l’accompagnement autour, comme la gestion des données maîtres, la communication avec le réseau, la notification des clients en cas de retards, la notification des fournisseurs concernant leurs problèmes, etc., qui peut désormais être automatisé. Ce n’est pas super intelligent, mais c’est une seconde couche qui peut également être automatisée.
Conor Doherty: Mais l’idée est que cela ne requiert pas nécessairement une pensée latérale. Si, comme vous l’avez dit, il s’agit de templating, si c’est simplement “Cherchez ce type”, c’est presque du booléen. Si ceci, alors…
Joannes Vermorel: Oui, exactement. Et la grande différence par rapport, par exemple, aux systèmes experts des années 90, c’est que lorsque je dis que les LLMs sont des machines de templating universelles et résilientes au bruit, cela signifie que peu importe si l’email est mal formulé. Peu importe. Je veux dire, peu importe même si l’email est en russe ou en japonais. Ces systèmes peuvent lire pratiquement toutes les langues. Sauf si quelqu’un vous envoie un message rédigé dans une langue rare, comme un dialecte zoulou. S’il est rédigé dans une langue parlée par 100 millions de personnes dans le monde, c’est réglé. Et je dirais que 100 millions, c’est élevé. Toute langue parlée par au moins 10 millions de personnes dans le monde, c’est bon.
Conor Doherty: La question suivante vient de Tamit. “La tarification n’est-elle pas en elle-même représentative de l’impact perçu sur le résultat net, notamment la tarification de Chat GPT par rapport à Gurobi ou CPLEX ?”
Joannes Vermorel: Gurobi et CPLEX sont des solveurs mathématiques, ils ne sont donc même pas de la même catégorie de produits. Ce sont des outils complètement différents qui ne traitent pas du tout les mêmes problématiques. Ce sont des solveurs mathématiques. Pour le public, Gurobi et CPLEX consistent à formuler un problème exprimé sous forme d’une liste de contraintes et d’une fonction objectif, et cela vous fournit la réponse. C’est un composant mathématique.
Et je ne suis pas sûr que l’épisode ait déjà été publié, mais nous venons tout juste d’en tourner un sur l’optimisation stochastique. Non, ça arrive bientôt. En résumé, la raison pour laquelle Gurobi et CPLEX ne sont pas vraiment envisageables pour la supply chain, c’est qu’ils ne traitent pas la stochasticité. Nous en discuterons dans un épisode différent, mais il s’agit d’une catégorie d’outils complètement différente. Les LLMs concernent le templating de texte et la réalisation de toutes sortes de reformulations textuelles, d’extractions, d’analyses rapides sur des données textuelles. Et quand je dis texte, je veux dire du texte brut, une séquence de lettres, de chiffres et de caractères. Ce sont donc des problèmes complètement différents, et ils ne traitent même pas vaguement des mêmes choses.
Conor Doherty: Comme ma précédente tentative de marquer le territoire, beaucoup de gens ne comprennent toujours pas pleinement l’impact de l’IA. C’est un événement d’extinction pour presque tous les emplois, sauf pour ceux de très haut niveau.
Joannes Vermorel: La raison est que, par exemple, Gurobi et CPLEX ne sont quasiment rien. Ces outils existent depuis environ quatre décennies, et le problème est que, encore une fois – nous en discuterons dans un autre épisode – ils ne résolvent pas, ils ne traitent pas l’aspect stochastique frontal. C’est donc un non-initié. Et même s’ils le faisaient, il faudrait toujours quelqu’un comme un Supply Chain Scientist pour les utiliser. Ce n’est donc pas un gain rapide. Ce n’est pas quelque chose qui peut se faire en quelques heures. Les LLMs, pour ce qui est des problèmes très banals, des petits soucis, c’est le genre de choses où l’on peut obtenir des solutions en quelques minutes, littéralement.
Conor Doherty: Le nombre croissant de procès pour redevances ou compensations financières de la part d’individus dont les données ont contribué à l’entraînement des LLMs pourrait-il potentiellement freiner les progrès et l’adoption en faisant augmenter les prix ?
Joannes Vermorel: Laissez tomber. Certaines entreprises montrent qu’elles peuvent disposer de LLMs proches de la performance d’Open AI en utilisant un corpus bien plus restreint, comme seulement Wikipédia. Donc, la réponse est non. Nous ne parlons pas de gen AI pour les images qui pourraient porter atteinte à la propriété intellectuelle de Disney ou autre. Nous parlons de choses super banales, par exemple : voici un texte, dites-moi qui a envoyé l’email, quel est le MOQ, cette personne donne-t-elle une réponse définitive ou vague, ou bien est-elle sûre de l’exactitude de la réponse fournie. Ce sont ce genre de choses dont on peut obtenir la réponse automatiquement à partir d’un email. C’est de cela qu’il s’agit. Ainsi, ce sera complètement hors de question.
Même si les gens doivent réentraîner leurs LLMs parce qu’ils doivent écarter 3 % de la base de données d’entrée, cela ne pose aucun problème. C’est ce que Mistral, cette entreprise française, a prouvé en démontrant qu’on peut réentraîner un LLM de niveau production – disons au niveau d’Open AI – avec seulement quelques centaines de milliers d’euros. Donc, c’est déjà fait. Il n’y a pas de retour en arrière. Les solutions de contournement pour ces problèmes ne seront, au mieux, qu’un peu de bruit, mais c’est désormais acté et cela ne changera rien.
Conor Doherty: Et au final, vous l’utilisez comme une machine à générer des modèles. Encore une fois, vous lui indiquez exactement ce que vous souhaitez trouver, en lui fournissant en entrée, par exemple, “Trouve dans cet email l’information.”
Joannes Vermorel: Et encore, nous parlons d’emplois back-office. Il ne s’agit pas d’écrire le prochain Harry Potter et de vous faire poursuivre par les avocats de J.K. Rowling parce que vos productions hallucinent une copie presque identique de Harry Potter. Ce n’est pas de cela qu’il est question. Pensez simplement aux emails, pensez aux 100 derniers emails que vous avez écrits et à toute l’ingéniosité, l’originalité et l’intelligence de niveau humain qui y sont investis. Et il y a fort à parier que ce n’est pas tant. Je veux dire, même si je regarde ce que j’écris quotidiennement, la majeure partie est très banale. Et c’est cela qui est automatisé à une vitesse fulgurante.
Conor Doherty: Il convient d’ajouter, en guise de petit commentaire, que si l’impression était que nous parlions de Chat GPT lui-même, ce n’est pas le cas – nous parlons des LLMs en tant que technologie à part entière, et non spécifiquement lors d’une interaction en ligne.
Joannes Vermorel: Et plus précisément, des LLMs en tant que composant de programmation. Tout comme vous avez une base de données relationnelle, vous disposez de sous-systèmes dans votre logiciel, tels que la base de données transactionnelle, le serveur web, etc., et ici vous en avez un qui est un LLM – c’est tout simplement une manière d’accomplir certaines étapes dans votre programme. Ne considérez pas les LLMs comme quelque chose qui vient emballé avec une interface de chat. Presque tout ce que j’ai automatisé durant l’année passée n’a pas d’interface. C’est littéralement un script qui exécute une tâche de bout en bout, sans interface utilisateur. C’est un élément d’une pile globale.
Conor Doherty: James demande : quel conseil donneriez-vous à un jeune qui souhaite intégrer la supply chain, en termes de développement de compétences, et comment commercialiser au mieux cette compétence dans le contexte de l’événement d’extinction dont vous avez parlé ?
Joannes Vermorel: Les LLMs vous obligent à renforcer votre compréhension stratégique. Maîtriser des recettes simplistes comme analyse ABC ou autres n’est pas une solution. Armez-vous des outils définitifs qui manquent encore à GPT-4, tels que la capacité de mener une réflexion approfondie. Penser longuement aux problèmes conduit souvent à des raisonnements généralement corrects. Soyez capable de produire une synthèse d’un problème qui surpasse celle générée par GPT-4. Ce sont des compétences très valables qui resteront au cœur de vos capacités intellectuelles supérieures, bien au-delà de la machine. Joannes Vermorel: Ce sont le type de compétences que je pense que nous ne parviendrons pas à automatiser de sitôt. Par exemple, si vous prêtez attention aux voix très critiques de la communauté scientifique, vous pouvez observer ce que dit Yann LeCun. Il affirme que, oui, les LLMs, vous savez, ce n’est pas la réponse à l’intelligence générale – et sur ce point, je partage l’avis de Yann LeCun. Là où je diverge, c’est que je crois que nous n’avons pas besoin d’intelligence générale pour faire face à un événement d’extinction des emplois back-office. Nous avons simplement besoin des LLMs, qui représentent un niveau d’intelligence inférieur mais suffisent amplement pour couvrir environ 90 % de la main-d’œuvre – et cela va être assez radical. Pour les 10 % restants, nous verrons. Joannes Vermorel: Ici, les LLMs constitueront un accélérateur, mais ils ne remplaceront pas les compétences en programmation. Ainsi, si vous possédez des compétences en programmation, elles deviendront encore plus précieuses, car vous serez réellement plus productif grâce aux technologies LLM. Mon objectif est de m’axer sur les fondamentaux, la pensée critique, l’analyse stratégique, puis sur tous les sujets pointus tels que les programming paradigms et même sur les instruments mathématiques pertinents. Par exemple, une prévision probabiliste nécessite, pour raisonner correctement, une compréhension approfondie de ces outils, et cela ne disparaîtra pas. GPT-4 n’automatise pas cela. Conor Doherty: Lionel demande, comment les solutions Supply Chain pilotées par l’IA affectent-elles les petites et moyennes entreprises par rapport aux grandes entreprises ou corporations ? Joannes Vermorel: Pour un jeune qui débute dans la carrière, par exemple en assistant à mes conférences, vous verrez que la majeure partie n’est pas une question de trivialités, de routines ou de détails insignifiants, mais de questions fondamentales, comme « Quels sont fondamentalement les problèmes que nous essayons de résoudre ? » J’ai d’ailleurs un chapitre entier sur personas; c’est difficile : quels sont exactement les problèmes que nous tentons de résoudre pour cette supply chain, sachant que la réponse varie d’un secteur à l’autre. C’est difficile.
Quels sont les programming paradigms pertinents ? Parce que, comme je l’ai dit, les LLMs peuvent automatiser une multitude de tâches, mais ils ne rédigent pas eux-mêmes les recettes numériques. Certes, un LLM peut aider, mais il lui manque ce jugement de haut niveau nécessaire pour saisir l’adéquation. Même si le code est écrit avec l’aide d’une machine, il faut, dans une large mesure, un jugement humain pour vérifier s’il est vraiment adéquat.
Pour moi, pour les entreprises de taille moyenne – peut-être pas les très petites, mais par exemple une entreprise de 50 millions de dollars et plus – il sera possible de mécaniser les opérations à un rythme incroyable et de rivaliser avec ce que font les entreprises très grandes, car rapidement le goulot d’étranglement ne sera plus que les LLMs, et vous aurez accès aux mêmes LLMs que, par exemple, Samsung, Apple ou tout autre géant auquel vous pensez. Vous avez accès aux mêmes outils. Donc, littéralement, si vous rivalisez au niveau des analystes – oui, Apple dispose probablement d’analystes de demande bien plus talentueux que vous, mais ils ont accès aux mêmes LLMs que vous –, c’est un véritable égalisateur en termes de capacité d’automatisation. Conor Doherty: Prochaine question de Nick : comment l’utilisation des LLMs, en tant que méthode pionnière chez Lokad, a-t-elle influencé les indicateurs de performance de votre entreprise, tels que le taux de désabonnement, les nouvelles souscriptions et la satisfaction client ?
Joannes Vermorel: Globalement, je dirais que nous en sommes encore à 12 mois d’une mise en production de qualité. Ce que nous avons automatisé offre désormais une qualité dépassant les capacités humaines. On peut littéralement constater que ce qui a été automatisé est exécuté mieux qu’auparavant, et cela, avec 100 fois moins de main-d’œuvre.
Pour le public qui n’est pas familier, chez Lokad, en tant qu’éditeur de logiciels pour entreprises, nous traitons avec des cycles de vente longs. J’adorerais pouvoir conclure des accords avec des clients en trois semaines, mais malheureusement, c’est plutôt un processus de trois ans – ou, pour être précis, un processus d’appel d’offres de 18 mois qui m’a rendu fou. C’est le cas même avec l’IA appliquée à l’appel d’offres. Donc, c’est lent. Mais encore une fois, c’est pourquoi je précise que les aspects en contact direct avec le client, comme la vente, sont lents, même si les retours de nos clients sont incroyablement positifs.
Il peut s’agir de tâches aussi banales que la génération automatique d’un rapport après une discussion de deux heures avec un client. Le rapport est très bien organisé et récapitule tous les points clés abordés. Nous disposons de notre propre technologie interne pour élaborer ces mémos de haute qualité après une réunion. Cela fonctionne à merveille et nous avons reçu d’excellents retours de la part de nos clients.
Mon constat est que les tâches que nous avons automatisées sont exécutées mieux qu’auparavant et, au minimum, nous avons réalisé une productivité multipliée par 20. C’est absolument stupéfiant.
Conor Doherty: Lionel demande, comment les solutions Supply Chain pilotées par l’IA affectent-elles les PME par rapport aux grandes entreprises ou corporations ?
Joannes Vermorel: Je pense que l’effet sera encore plus prononcé pour les entreprises de taille réduite. Pourquoi ? Parce que les grandes entreprises peuvent se permettre de disposer de vastes bureaucraties spécialisées, alors que les petites ne le peuvent pas. Les petites entreprises savent qu’elles ne peuvent pas rivaliser avec les grandes, car elles ne peuvent pas avoir un département de 200 personnes réparties en 10 spécialisations différentes, etc.
Mais ce qui est intéressant, c’est que la productivité est telle avec ces outils que se lancer à fond dans l’automatisation devient extrêmement accessible, même pour les petites entreprises. Et, d’ailleurs, chez Lokad, nous sommes aujourd’hui une entreprise d’environ 60 employés, et j’ai automatisé une multitude de tâches de façon très rapide.
Cela ne nécessite pas un projet impliquant 20 ingénieurs logiciels pour accomplir les choses. Les réalisations que vous pouvez obtenir en quelques heures sont tout simplement stupéfiantes, si c’est bien fait.
Pour moi, pour les entreprises de taille moyenne – peut-être pas les très petites, mais par exemple une entreprise de 50 millions de dollars et plus – il sera possible de mécaniser les opérations à un rythme incroyable et de rivaliser avec ce que font les entreprises très grandes, car très rapidement le goulot d’étranglement ne sera plus que les LLMs, et vous aurez accès aux mêmes LLMs que, par exemple, Samsung, Apple ou tout autre géant auquel vous pensez. Vous avez accès aux mêmes outils. Donc, littéralement, si vous rivalisez en termes d’analystes, oui, Apple dispose probablement d’analystes de demande bien plus talentueux que vous, mais ils ont accès aux mêmes LLMs que vous. C’est donc un véritable égalisateur en termes de capacité d’automatisation. Conor Doherty: Prochaine question de Nick : comment l’utilisation des LLMs, en tant que méthodologie pionnière chez Lokad, a-t-elle influencé vos indicateurs de performance – taux de désabonnement, nouvelles souscriptions, satisfaction client – ?
Joannes Vermorel: Dans l’ensemble, je dirais que nous en sommes encore à 12 mois d’une mise en production de qualité. Ce que nous avons automatisé offre désormais une qualité dépassant les capacités humaines. On peut littéralement constater que ce qui a été automatisé est réalisé mieux qu’auparavant et ce, avec 100 fois moins de main-d’œuvre.
Je pense qu’il est erroné de se fier uniquement aux chiffres. Ils arrivent trop peu, trop tard. Pensez à Kodak : à l’époque où la photographie numérique n’était rien, elle est devenue ensuite incontournable. Si Kodak se disait que tout allait bien alors qu’il était en chute libre, il finirait par percuter le sol violemment. Ils n’avaient pas raison.
Au moment où les gens constateront les chiffres, les entreprises auront robotisé leurs armées. Mon pronostic est que certaines entreprises iront de l’avant, et je vois ces entreprises devenir l’Amazon de la prochaine décennie.
En fin de compte, elles avancent à toute vitesse, et si je me projette dans cinq ans, je peux déjà voir que ces entreprises seront capables de surpasser toutes leurs concurrentes avec des prix que leurs compétiteurs ne pourront tout simplement pas égaler. Et en termes d’agilité, le problème, c’est que lorsqu’on dispose d’une armée de personnes – je parle ici d’une grande entreprise avec des centaines de personnes impliquées dans la planification, S&OP, prévision, etc. – on devient lent.
Vous vous retrouvez avec une grande bureaucratie. Si vous avez, par exemple, 200 personnes, vous ne pouvez pas être agile. Vous en avez tout simplement trop. Si vous pouvez réduire ce nombre à 20 personnes, alors vous devenez comme un tigre, extrêmement agile et rapide. Et encore une fois, cela signifie que ces entreprises surpasseront massivement leurs concurrentes en termes de coûts et d’agilité – c’est vraiment énorme.
Au-delà de l’intelligence humaine, elles surpasseront en qualité d’exécution. On dit dans l’industrie du logiciel que tout ce qui dépend d’une intervention manuelle est peu fiable. On ne peut atteindre la fiabilité si une intervention manuelle intervient.
Donc, ce que je constate, c’est qu’en termes d’exécution, la fiabilité sera hors normes par rapport aux processus manuels. Cela signifie qu’en termes d’agilité, de coûts, de fiabilité et de performance – c’est encore la raison pour laquelle je parle d’événements d’extinction – seules les entreprises qui s’adaptent survivront, tandis que celles qui ne le feront pas disparaîtront en une décennie.
Cela prendra du temps à se déployer, car il y avait une certaine inertie. En France, par exemple, je discutais avec de nombreux détaillants, et je me souviens très bien, avant de fonder Lokad – c’était en 2004, j’étais étudiant, je revenais des États-Unis après y avoir passé deux ans – je leur disais : « Amazon va vous mettre la pâtée. » Et on me répondait : « Oh, le e-commerce n’est qu’une mode. Ils n’ont même pas 0,1 % de parts de marché, nous nous en fichons, ce n’est rien. »
Pour moi, c’était déjà écrit. Il n’y avait aucun doute, c’était simplement une question de timing. Soit, en tant que détaillant, vous vous lancez dans le e-commerce, soit, si vous ne le faites pas, Amazon et ses homologues vous élimineront. Et cela s’est concrétisé, d’ailleurs. J’ai vu plusieurs de ces entreprises faire faillite. Cela a pris une décennie pour se réaliser, mais cela s’est produit. Et c’est ce qui arrivera à bien d’autres entreprises.
Et ce qui rend cela particulièrement intéressant pour les LLMs, c’est que ce n’est pas spécifique à un secteur. Certains secteurs seront plus impactés, mais en fin de compte, toute fonction de support back-office sera massivement affectée.
Conor Doherty: Il est important d’ajouter à ce que vous avez dit, en prenant l’exemple de Lokad, que les fonctions que vous avez décrites et qui ont été automatisées avec les LLMs dépassent tout ce qui a été réalisé avec l’IA jusqu’à présent. Il ne s’agit pas simplement de “quelques bricoles”. Ce dont vous parlez, c’est d’une main-d’œuvre hautement qualifiée, où toutes les tâches banales et routinières – tant quantitatives que qualitatives – ont été, autant que possible, automatisées, libérant ainsi l’intelligence pour se concentrer sur les problèmes vraiment essentiels. Et si votre entreprise fait cela par rapport à une autre qui ne le fait pas, c’est fondamentalement le darwinisme.
Joannes Vermorel: Exactement. La beauté réside dans le fait qu’une destruction schumpétérienne est en marche. C’est pour le bien de tous que les entreprises deviennent plus riches. Par exemple, si Paris voyait encore 10 % de sa population porter de l’eau, Paris serait une ville très pauvre.
Paris est devenue une ville du premier monde, uniquement parce que, à nos standards modernes, nous n’employons pas 10 % de la population pour faire des tâches inutiles. C’est en libérant les gens des emplois incroyablement fastidieux que nous pouvons nous permettre de faire de l’art, d’être créatifs, d’inventer.
Dans ces entreprises opérant des supply chains, si tout le monde éteint des incendies en permanence, s’occupant de petites et insignifiantes pagaille, des grains de sable dans la machine qui déraillent tout, non pas de manière grandiose ou épique, mais de façon stupide, et que cela consomme tout l’oxygène.
Considérez cela comme toutes ces petites choses qui absorbent tout l’oxygène, au point que les gens ne peuvent même plus réfléchir, tout simplement parce qu’il y en a tellement. Je crois que cela va véritablement contribuer à l’amélioration de la supply chain, car soudainement, les gens pourront penser de manière stratégique, sans se laisser happer par cette infinité de distractions minuscules qui ne méritent pas leur attention humaine.
Prenons un million d’assistants semi-stupides, parce que c’est ce que sont les LLMs, un million d’assistants semi-stupides qui se contentent de gérer ces choses qui ne méritent pas l’intelligence humaine.
Conor Doherty : Deux dernières questions. Celle-ci vient de Lionel. Quels exemples de collaboration réussie entre l’IA et l’humain dans les opérations de supply chain pouvons-nous apprendre ?
Joannes Vermorel : Ne pensez pas en termes de collaborations. C’est une erreur. Il n’existera pas de copilote générique.
Au final, ce sont toujours les humains, évidemment, et les machines. Donc oui, il y a une forme de coopération, mais elle ne prend pas la forme que vous imaginez. Ce n’est pas un copilote. Quand j’ai automatisé le système de réponse aux appels d’offres, à quoi ressemblait la coopération ? Je me suis installé à mon bureau, j’ai passé une semaine à coder ce système de réponse, et ensuite j’ai eu un système de réponse automatique.
Chaque fois qu’un appel d’offres arrive, nous lançons la machine, obtenons les réponses. Voilà à quoi ressemble la coopération. Et puis, lorsque OpenAI sort un GPT-4 turbo ou tout autre nouveau modèle, je fais une petite mise à jour de mon code pour profiter de la dernière nouveauté, et nous sommes de nouveau opérationnels.
Il s’agit d’une coopération dans le sens où je code certaines choses, et quand ces choses changent, je révise un peu mon code. C’est le genre de coopération dont nous parlons. Ce n’est pas comme si je dialoguais avec une machine. Je ne dialogue pas avec GPT, ni quoi que ce soit d’autre. Ce n’est pas ainsi que ça fonctionne. Ce n’est pas ainsi que le jeu se déroule.
Donc, ne considérez pas les LLMs comme quelque chose de coopératif. La plupart des choses que nous automatisons, nous les automatisons complètement, et il n’y a plus personne impliqué. C’est tout simplement fait.
Pour donner des exemples, le site web de Lokad est entièrement traduit automatiquement, et la beauté de cela — et vous pouvez le vérifier en ligne —, c’est que nous ne traduisons pas l’anglais, nous traduisons directement le HTML. C’est comme prendre le HTML brut et le retraduire, ce qui nous permet d’économiser 90 % de l’effort, car soudainement, nous pouvons tout itérer, et les LLMs sont suffisamment intelligents pour savoir quel HTML ne doit pas être modifié parce que c’est une balise, et quel anglais réel doit être traduit. Magnifique.
Donc, c’est déjà fait. Pour le public, toutes les pages que nous avons pour les vidéos Lokad TV, où nous avions des horodatages — que nous faisions, par exemple, manuellement auparavant — sont désormais générées automatiquement. Je l’ai fait, et maintenant, c’est fait automatiquement.
Voilà donc l’exemple où vous voulez prendre une discussion d’une heure, créer des horodatages automatiquement, et le tour est joué. Je pourrais mentionner d’autres éléments plus ésotériques, car les avantages les plus importants concernent les tâches de back-office chez Lokad — ce n’est pas, disons, orienté client —, mais ce sont des aspects assez ésotériques.
L’essentiel est qu’il me faudrait trop de temps pour expliquer pourquoi nous en avons d’abord besoin, mais en fin de compte, les exemples se multiplient sans cesse. En général, nous essayons et, en une journée, c’est automatisé. Voilà à quoi cela ressemble. Et oui, il y a un peu de bidouillage sur les prompts, mais encore une fois, la question est : qu’est-ce qui ne peut pas être automatisé ? De nos jours, il est plus difficile de répondre à cette question que de dire ce qui peut l’être.
Conor Doherty : Il est intéressant que vous abordiez ce point car, lorsque vous avez donné l’exemple de la synthèse des discussions — ce qui illustre bien ce que vous venez de dire —, jusqu’où pourrions-nous aller ? Je veux dire, dans le back office, la question est maintenant : comment pouvons-nous prendre des résumés de discussions, disons avec des clients ou des prospects, et, en se basant sur ce qui a été discuté, effectuer une recherche automatique sur le site web, insérer des liens pertinents aux endroits appropriés, bref, qu’est-ce qui ne pourrait pas être fait ? Eh bien, il s’avère que nous pouvons le faire. Nous travaillons là-dessus. Mais sérieusement, qu’est-ce qui ne peut pas être fait ? Il est difficile de faire la liste de ce qui ne peut pas être réalisé avec un LLM.
Joannes Vermorel : Actuellement, tout ce qui relève véritablement d’un niveau élevé — j’invente un peu les termes faute de disposer des mots adéquats —, je dirais que c’est l’intelligence humaine de haut niveau, ou des formes supérieures d’intelligence, des choses pour lesquelles il faut réfléchir longuement, potentiellement des heures, pour obtenir la réponse, et non quelque chose pour lequel une réponse instinctive suffit, car dans ce cas, les LLMs peuvent aussi s’en charger.
Mais pensez à des questions très difficiles telles que : que signifie le taux de service pour nos clients ? C’est une question très difficile. Quels devraient être nos segments cibles prioritaires ? Ce sont des questions macro pour l’entreprise, celles pour lesquelles on pourrait littéralement passer des semaines à trouver la réponse, et c’est là que les LLMs restent déficients.
Si vous avez une question d’une telle importance que vous pouvez passer des semaines à y répondre, l’intelligence humaine de haut niveau vous donnera une meilleure réponse que GPT-4. Mais si c’est une question pour laquelle vous n’avez que 60 secondes de temps de réflexion, alors la réponse que vous obtiendrez d’un humain ne sera pas excellente. Le temps presse. Si vous me donnez 60 secondes pour répondre à quoi que ce soit, la réponse ne sera pas bonne.
Conor Doherty : Le fait est qu’une fois, peut-être, mais pas toutes les 60 secondes, toutes les heures, sept ou huit heures par jour, 300 jours par an, 50 ans. Voilà la différence.
Joannes Vermorel : Voilà la différence. Évidemment, si je me repose pendant 30 minutes, alors oui. Mais le LLM ne se fatigue pas. Vous pouvez le faire fonctionner et littéralement automatiser des millions d’opérations par jour, et ce n’est même pas difficile.
Conor Doherty : Voici la dernière question de Lionel. Comment les petits pays peuvent-ils tirer parti de l’IA dans la gestion de la supply chain pour surmonter leurs défis géographiques et économiques uniques, et quelles sont les implications pour les marchés de l’emploi locaux ?
Joannes Vermorel : La beauté de tout cela, c’est que les LLMs sont incroyablement accessibles. Les exigences en bande passante pour utiliser les LLMs sont quasi nulles. Vous pouvez littéralement envoyer des kilo-octets de données, et ça fonctionne. Les LLMs sont opérés à distance, donc si vous êtes dans un pays pauvre, tant que vous disposez d’une connexion Internet à faible bande passante relativement décente, vous êtes bon.
Ces technologies ne nécessitent pas une connexion à grande vitesse. Donc c’est acceptable. Cela ne requiert pas une main-d’œuvre super talentueuse. C’est là toute la beauté de la chose. Le prompt engineering est probablement la plus simple de toutes les compétences quasi-techniques que j’ai dû acquérir au cours des deux dernières décennies. C’est littéralement quelque chose que vous comprendrez en quelques heures.
C’est pourquoi il y a désormais des enfants qui font tous leurs devoirs grâce à Chat GPT. Je veux dire, c’est facile, d’une facilité enfantine. Et c’est là que je dis que l’adoption va se faire rapidement, car ce n’est pas, je veux dire, ne vous laissez pas convaincre par quelqu’un qui vous déclare : “J’ai un prompt engineering degree.” De quoi parlez-vous ? Ce sont des choses que, si vous y travaillez un peu pour vous y familiariser, vous saisirez littéralement en quelques jours. Ce n’est pas compliqué — maîtriser Excel est plus difficile que de maîtriser le prompt engineering.
En résumé, si vous êtes dans un pays pauvre et éloigné, c’est super accessible. Au fait, vous ai-je dit que cette technologie est bon marché ? Elle est carrément à prix dérisoire. À croire que c’est presque gratuit. Pensez-y, juste pour que le public s’en rende compte, regardez notre site web, il est gigantesque. Nous parlons d’un millier de pages, mille pages web. Donc, si nous devions l’imprimer, cela représenterait probablement environ 3 000 pages A4. Ces FAQ sont énormes, voire plus.
Nous parlons donc d’un gros, gros site web. Nous le traduisons en sept langues. Le coût pour réaliser une première série de traductions de l’anglais vers toutes ces langues — et nous parlons à nouveau de texte équivalent à 3 000 pages si on le conserve — est de 150 $ avec OpenAI. C’est ce que je paie. Et au fait, le coût pour réaliser cela avec des freelances, comme nous le faisions autrefois, était d’environ 50 000 $ par langue.
Ainsi, le coût est passé de quelque chose avoisinant le zéro, d’un quart de million ou plus pour obtenir la traduction, à 150 $. Et, au fait, ce coût va même être encore plus bas, car OpenAI vient de réduire ses tarifs récemment. Et, au fait, nous le faisons sans même utiliser GPT-4, nous utilisons toujours GPT-3.5. Et avec Mistral, nous devrions essayer, mais Mistral est encore moins cher.
Donc, probablement, dans trois ans, traduire ces 3 000 pages massives coûtera environ 50 $. Ainsi, la beauté de la situation réside dans le fait que, pour les pays développés, c’est une opportunité énorme, un véritable égalisateur. Pensez-y : pour non pas quelques centimes mais quelques dollars, vous pouvez utiliser les mêmes outils que les grands et être au même niveau que ceux qui ont des millions entre les mains, comme Apple. Vous jouez avec les mêmes outils.
Ce sera donc un égalisateur incroyable. Et si vous êtes intelligent et avez de la passion, vous apprendrez en chemin. Et encore une fois, ce n’est pas super difficile. C’est probablement l’une des révolutions les plus accessibles qui soient. Et je crois que même les pays pauvres, avec des connexions Internet médiocres, en tirent déjà avantage — vous n’avez même pas besoin du haut débit. Si vous pouvez disposer de 20 kilo-octets par seconde dans les deux sens de manière fiable, vous êtes bon.
Conor Doherty : Je crois que nous avons parlé plus d’une heure et demie. Donc, si je pouvais résumer tout cela, Skynet ?
Joannes Vermorel : Non, pas Skynet. C’était mon attente erronée il y a 18 mois. Je disais : oh, c’est aussi stupide qu’avant, donc ce n’est rien. Non, c’est une machine de modélisation universelle, et cela change la donne. C’est la machine à coudre de ce qui sera pour les cols blancs, ce que les machines à coudre ont fait pour l’industrie du vêtement.
La beauté de cela réside dans sa simplicité. Même à l’époque, une machine à coudre était d’un ordre de grandeur plus simple qu’une horloge. Selon les standards du XIXe siècle, ce n’était pas une machine compliquée. Il existait déjà des machines d’une complexité bien supérieure. Pourtant, elle était étonnamment simple et, presque du jour au lendemain, elle a accéléré l’industrie du vêtement d’un facteur 100. Si vous pensez que les machines à coudre n’étaient pas une révolution parce que, soudainement, vous n’avez plus un fabricant de tissu de A à Z, vous ratez l’essentiel. Avec une machine à coudre, vous pouvez toujours fabriquer des vêtements 100 fois plus rapidement.
Nous n’avons pas Skynet. GPT-4 ne va pas remplacer la réflexion stratégique de haute qualité. Mais pour tout le reste, oui, il le fera. C’est une évolution. Mon message au public est : ne ratez pas le train. De nombreuses entreprises ont déjà embarqué. Certaines personnes, à mon grand regret, l’ont fait plus tôt. Mais il y a beaucoup de monde à bord et les résultats sont si rapides que si vous n’agissez pas maintenant, vous ne pourrez pas rattraper votre retard dans quatre ans. L’écart sera tellement grand que ce sera comme un effet Kodak : vous êtes fichu, même si vous n’étiez pas une si mauvaise entreprise en premier lieu.
Conor Doherty : Très bien, je n’ai plus de questions, Joannes. Merci beaucoup pour votre temps et merci beaucoup à vous de nous avoir regardés. On se retrouve la prochaine fois.