00:00:00 Impact de Generative AI sur la supply chain
00:02:06 La réalité des promotions dans l’IA
00:03:35 Comparaison du potentiel de Generative AI et de son battage médiatique
00:04:56 Perspectives positives sur le potentiel de l’IA
00:06:54 Risques d’adoption prématurée de la technologie
00:08:21 Exploiter l’IA pour une croissance stimulée par la curiosité
00:10:14 Generative AI comme Wikipédia intelligent moderne
00:11:34 Les modèles de langage offrent des perspectives sur les processus
00:13:39 Élargir le retour des clients via les LLMs
00:15:37 Faire évoluer les interfaces utilisateurs grâce au langage naturel
00:17:38 Génération de documents via l’analyse des LLM
00:19:43 Les LLM, considérés comme des collègues, modifient l’impact
00:21:37 Prise de décision future avec des collègues digitaux
00:26:46 Déléguer judicieusement des tâches aux agents IA
00:29:02 Gains d’efficacité dans la planification de la demande
00:30:58 Perspectives sur la dynamique prévisions-tarification
00:32:51 Les transcriptions des revues de demande renforcent la maturité
00:35:08 Joannes explore le futur potentiel de l’IA
00:37:14 Lier les discussions de réunion pose des défis aux LLM
00:40:26 Les réunions de revue de demande boostent la performance
00:44:34 Les outils d’IA changent la participation aux réunions
00:48:49 L’évolution de la communication souligne les problèmes de confidentialité
00:52:39 La technologie impacte les pratiques de secret d’affaires
00:55:43 Generative AI explore les changements de perception
00:57:00 La réalité complexe de l’IA dans les algorithmes versus Generative AI
00:58:10 Generative AI en tant que successeur de la blockchain
00:59:45 Des dysfonctionnements culturels entraînant un gaspillage d’argent
01:00:38 L’intuition évite le gaspillage financier dû à Generative AI
01:03:00 Des enseignements pratiques sur la supply chain au niveau du conseil d’administration
01:05:39 La mécanisation des tâches intellectuelles à l’ère moderne
01:09:02 Perspectives sur la productivité grâce à l’automatisation
01:11:02 Entretien de clôture avec un au revoir

Résumé

Le battage médiatique autour de GenAI dépasse les bilans financiers. Les gains à court terme sont modestes — accélération des tâches administratives, triage plus intelligent, discipline lors des réunions — avec la participation humaine. À long terme, cela pourrait rivaliser avec la containerisation, si les incitations sont alignées. Les interdictions ne font que pousser l’usage vers les téléphones ; des garde-fous priment sur les interdictions. L’« écart de valeur » incrimine le théâtre des achats, et non la technologie ; les dirigeants ont besoin de mechanical sympathy et de preuves, et non de RFPs de 600 questions. Les LLM n’apprennent pas ; le contexte/RAG restent des goulots d’étranglement, donc la curation est importante. Au niveau du conseil : mécaniser le travail intellectuel ou se laisser distancer. Sur le terrain : moins de corvées, de meilleures options par défaut. Les optimistes prédisent cinq ans ; les pessimistes, vingt. Quoi qu’il en soit, le théâtre actuel des tableaux Excel vit sur du temps emprunté.

Résumé Étendu

Generative AI a suscité plus de battage médiatique que n’en témoignent les bilans financiers. Le panel est d’accord sur le fait que les effets à court terme dans les supply chains sont modestes mais réels : accélération des tâches administratives, meilleur triage des documents et réduction de la monotonie du travail répétitif. Sur le long terme, le changement pourrait s’avérer aussi déterminant que la containerisation — à condition que les organisations alignent incitations et attentes. Le battage médiatique promet des « solutions » ; la réalité offre des compromis.

Deux forces tirent dans des directions opposées. D’une part, des gains pratiques : les modèles de langage agissent comme des outils de référence intelligents, stabilisent les cas d’usage fragiles de RPA, extraient le signal des retours clients et fournisseurs en libre forme, et permettent un dashboarding conversationnel. Ils peuvent également servir de « collègue digital », encadré, qui oriente les réunions vers l’action et la maturité — à condition qu’un humain reste impliqué. D’autre part, les limites techniques importent : les LLM actuels n’apprennent pas véritablement ; ils fonctionnent avec des paramètres statiques et des fenêtres de contexte toujours plus grandes qui peuvent devenir distrayantes. Le soi-disant « knowledge flywheel » reste un problème organisationnel déguisé en problème technique. Le RAG aide, mais l’échelle et le filtrage par pertinence imposent encore des coûts.

Les choix politiques ont des conséquences. Les entreprises qui tentent d’interdire les LLM découvriront des solutions de contournement sur des appareils personnels, car les gains de temps sont trop importants pour être ignorés. Des garde-fous raisonnables — confidentialité, gestion des données et dépenses — l’emportent sur des interdictions générales qui incitent à l’IT parallèle. La transparence, utilisée judicieusement, peut améliorer la performance end-to-end; le secret comme réflexe préserve souvent plus la dysfonction que l’avantage.

L’« écart de valeur de GenAI » en dit moins sur l’IA que sur les rituels d’approvisionnement. Lorsque les dirigeants manquent de « mechanical sympathy » pour une technologie, ils donnent leur feu vert à des pilotes destinés à « résoudre la faim dans le monde » puis déclarent le domaine décevant. La solution n’est pas un autre mot à la mode, mais une meilleure gouvernance : des preuves de concept avec des données réelles, des résultats mesurables, et une narration qui relie la disponibilité aux revenus et à la marge — plutôt que de traiter la supply chain comme un silo.

Au niveau du conseil, l’affaire est simple : le XXIe siècle mécanise le travail intellectuel comme le XXe a mécanisé le travail physique ; les concurrents qui automatisent les armées administratives avanceront plus rapidement avec moins d’erreurs. Sur le terrain, l’argument doit être pragmatique : des outils qui éliminent les corvées, font émerger de meilleures options par défaut, et rendent les planificateurs plus efficaces — sans transformer les systèmes en boîtes noires.

Les échéances divisent les optimistes et les pessimistes. Si les modèles améliorent la gestion du contexte et que les organisations apprennent à curer le savoir, des gains significatifs pourraient apparaître en cinq ans ; si la culture et les processus traînent, vingt ans paraissent plus réalistes. Quoi qu’il en soit, le statu quo — murs de tableaux de bord, corvées sur tableurs, et processus de sélection dignes de théâtre — ne survivra pas au contact d’une efficacité croissante.

Transcription complète

Conor Doherty : La supply chain est en effervescence avec les discussions sur Generative AI depuis au moins deux ans. Cependant, en septembre 2025, le ton a un peu changé. Désormais, les gens se posent une question légèrement différente : quelle différence cela a-t-il faite ? Et la question suivante : cette différence a-t-elle été positive ou négative ?

Aujourd’hui, notre invité, Knut Alicke, rejoint Joannes et moi en studio à Paris pour discuter précisément de ce sujet. Knut est partenaire émérite chez McKinsey. Il enseigne la gestion de la supply chain depuis plus de 25 ans et, ce qui est le plus impressionnant, il est vraiment doué au saxophone.

Avant d’aborder la discussion, vous connaissez la routine : si vous appréciez ce que nous faisons chez Lokad et que vous souhaitez nous soutenir, suivez-nous sur LinkedIn et abonnez-vous à la chaîne YouTube. Sur ce, je vous présente la conversation d’aujourd’hui avec Knut Alicke.

Knut, merci de nous avoir rejoints. C’est formidable de vous avoir en studio. Je pense que c’est votre troisième apparition sur LokadTV.

Knut Alicke : Oui, je le pense également, et c’est la première fois que je suis là en personne, donc c’est vraiment génial d’être ici. Et vous êtes en fait la première personne à vous asseoir sur le nouveau canapé de Lokad — vous et Joannes en train de l’inaugurer, professionnellement bien sûr.

Pour commencer, Knut, je suis sûr que beaucoup de gens vous connaissent déjà. Vous êtes partenaire émérite chez McKinsey ; vous enseignez la science de la supply chain et la gestion de la supply chain depuis 25 ans. Ma première question pour lancer le débat : où trouvez-vous aussi le temps de jouer du saxophone ?

En y repensant, j’aimais vraiment jouer du saxophone, et j’ai passé mon temps dans l’armée dans un groupe. C’est là que j’ai pris goût à pratiquer bien plus que les étudiants ordinaires. J’essaie de maintenir mon niveau ; cela passe par des séances de pratique en soirée ou le week-end, et en veillant à toujours avoir un groupe qui me garde occupé.

Conor Doherty : Pour noter : vous avez fait de la musique dans l’armée. Vous avez donc vécu plusieurs vies, en fait. Est-ce que cela influence réellement votre approche des affaires et de la supply chain ?

Knut Alicke : Je ne pense pas. J’étais trop jeune pour en être influencé à l’époque. J’avais 19 ans, et j’ai simplement profité d’une année à pratiquer du matin au soir, puis à assister à de très beaux concerts à Hambourg. C’est là que j’aimais aller à de nombreux concerts de jazz et m’améliorer.

Conor Doherty : Je pense que nous sommes tous amateurs de jazz ici, mais nous sommes aussi fans de Generative AI, qui, je pense, est ce qui nous a réunis en studio. Joannes, je m’adresserai à vous dans un instant, mais d’abord, Knut, posez le décor. Je vais vous proposer une affirmation, puis une question, et ensuite vous pourrez intervenir.

L’affirmation est la suivante : la supply chain — et je dirais l’univers entier — est en ébullition avec Generative AI depuis au moins, disons, deux ans. Elle a changé le paysage de la supply chain. Voilà l’affirmation. Et la question est : êtes-vous d’accord ? Et si oui, cela a-t-il amélioré ou détérioré la situation ?

Knut Alicke : Je dirais que cela n’a pas encore changé de manière significative. Ce que je constate, c’est que Generative AI va profondément changer la manière dont nous gérons et opérons les supply chains. Je la compare toujours à l’invention du container : quelque chose qui a modifié les flux mondiaux de marchandises, les rendant plus efficaces, plus simples, standardisés. Je vois cela aujourd’hui avec Generative AI ; nous sommes à un moment similaire.

Parallèlement, il est indéniablement surmédiatisé ces jours-ci. On surestime toujours l’impact d’une nouvelle technologie à court terme et on le sous-estime à long terme. Si vous considérez ce qui est possible aujourd’hui avec Generative AI — nous utilisons tous ChatGPT — et pensez à ce qui est envisageable dans la supply chain pour améliorer la performance et faciliter la vie des planificateurs, il y aura beaucoup à voir dans les prochaines années. Mais nous devons également reconnaître qu’il s’agit des premiers jours ; cela ne fait que deux ans, et les modèles s’améliorent énormément. Cela va changer, et je suis sûr que nous aborderons des exemples plus détaillés par la suite.

Conor Doherty : Joannes, êtes-vous d’accord avec Knut ? Cela a-t-il été pour le mieux ou pour le pire ?

Joannes Vermorel : Je dirais très clairement pour le mieux, mais c’est encore très limité. Les petites améliorations sont excellentes ; ces outils sont extrêmement utiles. Actuellement, on parle de personnes utilisant GPT à côté pour accélérer une tâche qui aurait été très administrative, et cela est très bien.

Les modèles ont progressé de manière énorme. Le fait que vous disposiez d’un contexte plus large signifie que vous pouvez télécharger des documents assez longs et dire : “Veuillez vérifier dans cet accord s’il existe un terme spécifique à ceci ou à cela.” Dans le passé, scanner un document de 50 pages vous aurait pris une heure pour vérifier si cette partie était abordée ; ici, vous pouvez l’obtenir en une demi-minute. C’est donc vraiment quelque chose de positif.

Pour l’avenir, nous verrons — je suis d’accord avec votre affirmation sur l’impact à court terme par rapport au long terme. Actuellement, comme nous l’enseignons, l’un des grands défis de Generative AI est que de nos jours, les étudiants peuvent littéralement tricher complètement sur tous leurs devoirs. Il n’existe plus vraiment de devoir étudiant ; ChatGPT se charge tout simplement de le faire. Pour un professeur, il est presque impossible de faire la différence, si ce n’est en disant : “Je vais donner une mauvaise note à tous les étudiants qui me soumettent un travail sans fautes d’orthographe,” parce que s’il n’y a pas de fautes, je vais supposer que c’est écrit par ChatGPT.

Avoir des personnes potentiellement mal éduquées à cause de cet écart peut créer des problèmes. Mais pour les entreprises, en ce qui concerne Generative AI, celles qui prennent vraiment des risques avec ces technologies ressemblent davantage aux entreprises qui se lancent à fond dans le vibe coding. C’est le type de chose qui n’a même pas encore débuté dans la supply chain.

À ma connaissance, les gens en font encore un usage très superficiel. Les rares usages actuels constituent de véritables fruits à portée de main, des gains rapides, sans aucun doute. Les usages plus dangereux, élaborés et impactants, d’après ce que je comprends, n’ont même pas encore commencé.

Knut Alicke : Permettez-moi de commenter cela — quelques idées. Si l’on compare à il y a 25 ans, lorsque l’internet a commencé, de nombreuses entreprises interdisaient essentiellement l’accès à l’internet. Leurs employés n’étaient pas autorisés à utiliser l’internet de peur qu’ils ne lisent les actualités et ne fassent pas leur travail ou leurs affaires personnelles. Aujourd’hui, c’est normal et cela apporte beaucoup de valeur.

De nombreuses grandes entreprises bloquent désormais également ChatGPT ou d’autres gros modèles de langage. C’est la pire chose que vous puissiez faire. Il faut s’assurer d’éduquer vos collaborateurs sur la manière d’utiliser ces modèles. Vous devez offrir un environnement dans lequel ils peuvent les utiliser sans télécharger de secrets, etc. En fin de compte, vous souhaitez une organisation curieuse qui apprend et explore les opportunités.

Pareil pour les étudiants : quand j’enseigne, je demande à mes étudiants, “Veuillez résoudre cette question également avec ChatGPT, puis identifiez ce qui fonctionne bien et ce qui ne fonctionne pas,” afin de leur permettre et même de les encourager à l’utiliser. Sinon, nous n’apprendrons jamais ce qui est possible.

Joannes Vermorel : Je pense que les entreprises qui bloquent les LLM vont redécouvrir ce qui s’est passé au début des années 2000, où les gens se connectaient simplement à internet via leur appareil mobile et leur connexion EDGE à l’époque — simplement parce qu’à un moment donné, ils contournaient la limitation parce que c’est très ennuyant. Les gens feraient cela avec leur téléphone mobile. Si vous le bloquez au niveau de l’entreprise, les gens utiliseront leur compte personnel sur leur smartphone, car pour les tâches administratives, les gains de productivité sont si importants qu’il est extrêmement difficile d’y résister.

Il est très difficile de justifier à nouveau à quelqu’un que cette personne devrait passer trois heures à faire quelque chose d’hypertedieux alors qu’il existe un outil capable de le faire en cinq minutes. Dès que cette personne se sent moralement justifiée pour cette tâche, la tentation d’utiliser cet outil pour tout le reste est très forte.

Conor Doherty : Cela revient à la perspective à court terme/long terme. À court terme, Knut, quels sont selon vous les principaux impacts positifs que Generative AI a eus dans le contexte de la supply chain ?

Knut Alicke : Ce que nous constatons beaucoup — et cela fonctionne déjà —, c’est que si vous ne comprenez pas quelque chose, vous l’utilisez comme un Wikipédia très intelligent. Vous recherchez des informations et vous apprenez. Nous voyons des cas où des tâches très administratives et répétitives peuvent être prises en charge par ce que j’appellerais une automatisation intelligente des processus robotiques. La RPA peinait lorsque les processus changeaient un peu ; il fallait reprogrammer le processus. Ici, vous voyez les premiers succès.

Si j’avance un peu, la vision que j’aurais pour une application GenAI est la suivante : les processus typiques dans supply chain sont bien définis — du point de vue algorithmique, clairement définis — mais la réalité raconte une autre histoire. Les gens trouvent des solutions de contournement : modifications manuelles des chiffres, manque de confiance, etc. Le résultat n’est pas celui attendu.

Voici la puissance des modèles de langage : vous ne voyez pas dans les données les raisons pour lesquelles les processus ne fonctionnent pas. Vous voyez simplement la précision des prévisions diminuer. Pourquoi cela ? Parce que cette personne a modifié les chiffres — et vous ne comprenez pas pourquoi. Pourquoi ne pas avoir un “supply chain avatar”, un Joannes digital, en discussion avec cette personne qui a changé le chiffre, et ensuite découvrir progressivement ce qui se passe ? La véritable raison est peut-être qu’ils ne font pas confiance au planificateur ; ils veulent servir leurs clients ; dans le passé, ils ont connu des ruptures de stock. Ensuite, vous réglez cela en renforçant la confiance ou en augmentant les stocks. C’est là que les modèles peuvent apporter beaucoup de valeur.

Conor Doherty : C’est presque comme un outil pour améliorer indirectement un processus — une interaction discursive : « Pourquoi as-tu fait ça ? » Joannes, y a-t-il d’autres exemples d’intégrer des LLMs pour qu’ils modifient un processus largement sans surveillance ?

Joannes Vermorel : Oui. Par exemple, si vous pensez à la qualité de service : de nombreuses entreprises disposent de différentes versions du Net Promoter Score. Elles interrogent leur clientèle une fois par semaine, une fois par mois ; le B2C pourrait se contenter d’un échantillon. La méthode traditionnelle consiste en des questions à choix multiples — une résolution très faible. Pourquoi faites-vous cela ? Parce que si vous procédez autrement, vous vous retrouvez avec 200 à 500 réponses en texte libre et il est difficile d’agir en conséquence.

Avec les LLMs, soudainement, vous n’êtes plus obligé de contraindre votre clientèle à fournir un retour selon vos catégories préconçues. Peut-être que le client se plaignra de quelque chose dont vous n’aviez même pas conscience comme étant un problème : « J’ai reçu un appareil avec une prise américaine au lieu d’une prise britannique. Je l’ai résolu, mais cela a été agaçant. » Votre liste de vérification « Le produit était-il endommagé ? Oui/Non ? » indique non — mais c’est quand même un problème.

Traditionnellement, tout ce qui est en texte libre posait problème. Il en va de même pour les fournisseurs. Avec les LLMs, vous pouvez imaginer des systèmes où les partenaires fournissent des contributions en texte libre et où les LLMs transforment cela en statistiques sans hypothèses rigides qui réduisent le problème à des cases bien nettes. Cela vous permet de repenser un processus de manière approfondie.

Knut Alicke : Pour rebondir là-dessus, tout ce qui touche à la création de tableaux de bord. Lorsque vous implémentez un nouveau système, une grande partie du temps consiste à définir ce que vous voulez voir, puis c’est codé en dur. Tout le monde a de nouvelles idées. Imaginez un monde où vous parlez à votre système — votre LLM — et dites : « Je veux voir ceci et cela. Veuillez mettre en évidence ceci sur l’axe des x, cela sur l’axe des y, » et ensuite vous le voyez. Si cela vous plaît, cela devient standard ; sinon, vous affinez.

L’interface utilisateur sera une interface en langage naturel où vous trouverez ce dont vous avez besoin. De plus, le système devrait fournir les éléments que vous avez manqués. Vous demandez un KPI et un autre, mais vous oubliez le taux de service — super important. Ensuite, ce Joannes digital pourrait dire : « Intéressant que vous vous concentriez sur ces deux indicateurs, mais avez-vous aussi examiné le service ? Avez-vous vu comment le service se corrèle avec les stocks ? Y a-t-il quelque chose qui se trame ? »

Joannes Vermorel : Chez Lokad, nous examinons le même problème, certes, mais d’une manière très différente. Le problème typique des tableaux de bord est que, très rapidement en milieu d’entreprise, nous nous retrouvons avec des murs de métriques — des tonnes de chiffres. Le problème devient : qu’est-ce que je regarde exactement ?

Prenez le lead time mesuré en jours. S’agit-il de jours ouvrés ou de jours calendaires ? Éliminons-nous les valeurs aberrantes ? Si quelque chose n’a jamais été livré, compte-t-il comme infini ? Comme mille ? Il existe de nombreuses conventions. Notre approche n’est pas la composition dynamique d’un tableau de bord, mais la génération à la volée d’une documentation extrêmement détaillée en faisant analyser à l’LLM tout le code qui a conduit à ce chiffre et en compilant en anglais ce qui importe. Quel est le périmètre ? Qu’avons-nous filtré ? Jusqu’à quelle date ?

Nous sommes noyés dans les tableaux de bord et les chiffres, et la sémantique est complexe. Voilà le combat que nous menons.

Knut Alicke : Permettez-moi d’ajouter une autre idée que j’ai explorée avec un client : dans le lean manufacturing, nous connaissons les Cinq Pourquoi — ou toute personne élevant des enfants connaît les Cinq Pourquoi. Vous demandez pourquoi quelque chose se produit, puis encore pourquoi, jusqu’à atteindre la cause racine. C’est super puissant. En s’appuyant sur vos murs de KPI : si quelque chose ne va pas, utilisez l’LLM pour aller de plus en plus en profondeur jusqu’à ce que vous découvriez vraiment la raison et l’endroit où modifier un paramètre — les stocks, par exemple — pour améliorer la performance.

Joannes Vermorel : Absolument. Encore une fois, la manière dont les gens perçoivent toute nouvelle technologie, et en particulier l’IA, est de la considérer comme un outil à utiliser. Mais la façon dont vous en parlez, Knut, la présente comme un collègue avec lequel vous interagissez — un membre digital de l’équipe.

Conor Doherty : Est-ce une description juste ?

Knut Alicke : Oui, tout à fait. Pensons à l’embauche d’un nouveau collègue fraîchement diplômé. Il ou elle arrive et est formé(e) ; nous avons un mentor, un coach. Le nouveau collègue effectue d’abord des tâches simples, puis des tâches plus compliquées. Au début, il pourrait décider d’acheter des choses à 10 euros ; avec le temps, cela pourrait atteindre 100 000 euros. Nous développons ce collègue. Personne n’attend d’un nouveau arrivé qu’il sache tout.

Fait intéressant, lorsque nous implémentons un outil de planification, le planificateur s’attend à ce que l’outil fasse des merveilles et sache tout. Pourquoi ne pas avoir un bot GenAI en tant que collègue digital ? Nous devons également le former : le contexte business, les spécificités concernant un certain client qui se plaint toujours, le fait que nous ne suivions pas le principe du “loudest shout first serve”, etc. Nous formons le modèle pour qu’il comprenne notre contexte spécifique.

Le modèle offre une vitesse énorme — la capacité de traiter et d’analyser des données de manière inaccessible aux humains. Si nous combinons cela avec des connaissances spécifiques, nous avons un véritable collègue digital. Je prévois un avenir où des experts en affaires dialoguent avec ce modèle comme avec un collègue et améliorent significativement la qualité de leurs décisions. Ils n’ont plus besoin de faire les tâches ennuyeuses — copier-coller dans Excel — et on leur propose : « Avez-vous pensé à ceci ? Avez-vous regardé cela ? » Ensuite, en combinant cela avec leur expérience, ils parviennent à une décision bien meilleure.

Conor Doherty : J’aime la métaphore — ou plutôt la comparaison. Si vous prenez l’exemple d’un mentor : vous ne choisissez pas n’importe qui. Il faut disposer d’un ensemble de compétences pour enseigner efficacement. Quelles sont les compétences importantes pour qu’un mentor puisse former un LLM ? Faut-il être un expert en codage ou un informaticien ?

Knut Alicke : Il faut être ouvert, curieux, transparent. Un bon mentor ne se contente pas de former, il est aussi ouvert aux retours — un système de donnant-donnant. J’ai commencé à former une copie digitale de moi-même — un Knut digital. À un moment donné, j’étais extrêmement frustré parce que je sentais : « Ce Knut digital ne sait rien. Il ne me connaît pas. » Puis j’ai réalisé que, si c’était un véritable collègue, je serais également frustré mais continuerais à coacher et à développer. Avec un collègue digital, mon moi digital doit lui aussi être développé. C’est pareil.

Joannes Vermorel : Nous touchons ici à une limite profonde de la GenAI : actuellement, les LLMs n’apprennent rien. Techniquement, ce que vous avez, c’est un modèle pré-entraîné — vous y injectez une portion conséquente d’internet, Wikipédia et plus encore lors de l’entraînement, et vous obtenez un modèle statique. Les paramètres ne changent pas. ChatGPT n’a aucune mémoire ; il est sans état. La seule chose que vous pouvez ajuster, c’est le contexte.

Heureusement, au cours de la dernière année, les contextes ont énormément augmenté. Le dernier modèle — par exemple GPT-5 au niveau de l’API —, nous parlons d’une fenêtre contextuelle de 400 000 tokens. C’est énorme. Vous ne pouvez pas utiliser toute cette capacité pour les entrées ; à ma connaissance, vous pouvez utiliser environ 270 000 tokens en entrée ; le reste est utilisé pour le raisonnement, car il faut de l’espace pour cela.

Mais l’aspect délicat du paradigme actuel est que nous avons des modèles qui possèdent une sorte d’intelligence cristallisée, mais qui restent statiques. Vous pouvez contextualiser davantage, mais l’entité ne peut pas vraiment devenir plus intelligente ; elle demeure aussi intelligente qu’au premier jour. Vous pouvez enrichir le contexte.

Qui va maintenir ce contexte ? En termes techniques, on parle d’un flywheel de connaissance. Qui l’entretient ? Est-ce l’LLM lui-même qui maintient ce flywheel — en ajoutant ou en retirant des pépites de sa propre banque d’informations ? ChatGPT le fait si vous le permettez — il enregistrera des éléments à votre sujet et les réinjectera. Mais ajouter trop d’éléments dans le contexte devient une distraction. Vous pouvez ajouter des centaines de pages de contexte, mais l’LLM, pour répondre à une question, doit charger tout ce contexte, ce qui peut dégrader ses performances avec des détails superflus.

Ainsi, pour qu’un agent LLM soit un véritable collègue, vous avez, d’une part, une super-intelligence, et d’autre part, il est extrêmement limité car il n’apprend jamais rien — du moins dans le paradigme actuel.

Conor Doherty : Même en prenant ces deux affirmations au pied de la lettre, il reste des tâches que vous pourriez confier à ce collègue digital et d’autres pour lesquelles vous gardez des humains aux commandes. Knut, d’abord : quelles tâches vous sembleraient faciles à déléguer rapidement à un collègue digital, et pour lesquelles gardez-vous la responsabilité humaine ?

Knut Alicke : Je ne suis pas sûr de déléguer quoi que ce soit à 100 %. Je garderais quand même un humain dans la boucle — c’est super important. Pour donner un exemple : lorsque nous effectuons un diagnostic, vous collectez des données, effectuez une analyse ; dans supply chain, vous interrogez ensuite des personnes pour comprendre la prévision, la révision de la demande, S&OP, etc. Cela ne révèle pas nécessairement toute la vérité. C’est comme une Gemba walk dans la fabrication : dans une salle de réunion, on présente un processus joli et étincelant ; sur le terrain, c’est différent.

Ici, je vois la GenAI apporter beaucoup de valeur en observant le processus. Imaginez une réunion de révision de la demande. Souvent, la présentation n’est pas bien préparée, l’agenda n’est pas respecté, aucune action n’est définie. Beaucoup de personnes se connectent avec la vidéo désactivée, le micro éteint, sans contribuer ; seuls quelques-unes prennent la parole. Si vous avez votre bot GenAI qui écoute et fournit des retours au facilitateur — « Faites ceci, ici quelque chose ne va pas » — vous pouvez également paralléliser cela de manière massive. Si vous avez 200 demand planners, vous pouvez coacher les 200 : « Regardez, ici, vous pourriez faire mieux ou différemment. » C’est ainsi que vous accompagnez les gens.

Nous voyons des applications aujourd’hui dans : l’approvisionnement. Les agents peuvent déjà apporter de la valeur dans les dépenses de long tail, où il y a de nombreuses petites catégories ou des produits qui ne sont jamais vérifiés correctement en raison du manque de temps et de personnel. Avoir un agent qui réalise l’analyse, effectue des comparaisons et déclenche une renégociation des prix — cela peut apporter de la valeur en tant que solution facile à mettre en œuvre aujourd’hui. C’est possible de manière relativement non supervisée avec un budget limité pour le long tail ; vous ne feriez pas cela pour des articles de grande valeur, mais pour le long tail, cela démarre, puis vous passez à d’autres catégories.

Conor Doherty : L’exemple que vous avez décrit — votre bot AI supervisant des réunions —, hors antenne, vous avez expliqué une expérience simulant exactement cela. Vous avez dit l’avoir fait environ 20 fois avec différents échanges. Pouvez-vous réexpliquer cela ?

Knut Alicke : J’ai créé un jeu de données synthétique — une entreprise synthétique — pour expérimenter avec des données quasi réelles. J’ai effectué des analyses : « Que se passe-t-il avec cette prévision ? Pouvez-vous aussi établir une prévision ? Que se passe-t-il avec les tarifs ? La corrélation avec les promotions ? » Ensuite, j’ai également généré des entrées manuelles : j’ai pris deux demand planners. L’un augmentait la prévision ; l’autre l’améliorait. Le KPI classique, le forecast value add, pour le premier était très mauvais ; pour le second, il était bon.

Ensuite, j’ai parlé à ChatGPT en mode vocal en prétendant être le demand planner numéro un, car je voulais comprendre comment le modèle réagirait. Le modèle disposait de tout le contexte sur l’entreprise, les SKUs, les clients, les fluctuations, le biais positif du premier planificateur. Je me suis plaint que les personnes en supply chain ne me comprenaient pas, que les équipes de production ne livraient jamais ce que je voulais, et c’est pourquoi je devais augmenter la prévision. J’en suis allé un peu trop loin, mais cela reflétait la réalité.

Ce qui s’est passé fut intéressant : le bot a écouté et a progressivement commencé à recommander ce qu’il fallait faire différemment. Il n’a pas immédiatement dit : « Votre prévision est stupide ; vous augmentez toujours de 30 %. » Il a commencé lentement et prudemment avec des indices, des conseils et des astuces.

Une autre expérience : j’ai créé 20 transcriptions d’une réunion de révision de la demande — fictives, comportant des problèmes comme micro coupé, vidéo désactivée, aucune contribution. J’ai entraîné le modèle en expliquant comment je percevrais une réunion de révision de la demande de premier ordre, ce qui devrait y figurer, ce qui ne devrait pas y figurer, les problèmes typiques. Puis j’ai demandé au modèle d’évaluer ce qui n’allait pas et j’ai défini un modèle de maturité allant de très basique à best-in-class. J’ai demandé au modèle de noter la maturité de la transcription. La note était très bonne ; les constats étaient cohérents — probablement les mêmes que j’aurais trouvés, car j’avais formé le modèle.

Si vous imaginez maintenant un bot écoutant des réunions réelles et réfléchissant à ce qu’il a entendu, cela crée un énorme gain d’efficacité. Imaginez 20 personnes connectées et 15 avec la vidéo coupée, le micro éteint — elles n’ont pas besoin de se connecter. Que pouvez-vous faire avec le temps gagné ? Il y a plein de choses à améliorer. Vous ne faites pas seulement un diagnostic ; puisque vous avez déjà le contexte, vous pouvez immédiatement passer à l’amélioration continue.

Joannes Vermorel : Je crois qu’à un moment ou à un autre, un avenir comme celui-ci se concrétisera. Qu’il s’agisse du paradigme actuel des LLM ou non, le principal problème réside dans le flywheel de connaissance : le LLM n’apprend pas, il doit donc décider comment répartir des fragments de connaissance et les stocker pour une utilisation ultérieure. Ce problème n’est pas résolu de manière satisfaisante. Demain, nous pourrions envisager un descendant ou une théorie alternative aux LLM dans laquelle l’apprentissage serait intégré.

Revenons au cas d’espèce : avoir une écoute passive au sein de l’entreprise, un archivage et une organisation automatiques — des idées échangées, une automatisation qui met à jour votre bibliothèque d’insights et de compréhension pour la cartographie mentale actuelle de l’entreprise —, cela aurait une valeur gigantesque.

Actuellement, nous avons des approximations : enregistrer deux heures de réunions et produire des comptes rendus très précis. C’est utile ; cela fait gagner du temps. Mais ce n’est pas quelque chose que l’on peut ensuite invoquer facilement. Le LLM devrait tout rescanner pour déterminer si un point spécifique a été abordé. À moins que vous ne le lui demandiez, il ne fera pas de liens par lui-même entre « ceci a été discuté » et « cela a également été abordé dans deux réunions différentes ; nous avons des contradictions ».

Il nous manque l’apprentissage. Il est absent. Il n’y a pas de moments « aha » pour le modèle. Il traite la fenêtre contextuelle de manière linéaire avec une intelligence statique, rigide, et extrêmement performante de façon inhumaine — mais l’apprentissage va très en profondeur et présente des limites.

Une chose qui est étrange : pour la gestion des données, je suppose que les modèles vont s’améliorer automatiquement, indépendamment de la technologie, car ils vont ingérer plus d’exemples. Si vous demandez à ChatGPT maintenant de composer un prompt, c’est bien meilleur qu’il y a deux ans. Pourquoi ? Ce n’est pas parce que la technologie de base a évolué dans ce domaine, mais parce qu’il existe désormais d’innombrables exemples sur le web de bons prompts réintégrés dans le modèle. Des centaines de milliers de personnes ont posté des astuces et des conseils ; ChatGPT ré-ingère cela dans le cadre de son entraînement.

Donc, pour la gestion des connaissances : si suffisamment de personnes postent des astuces sur ce qui constitue de bonnes pépites de savoir, ces outils s’amélioreront car ils intègreront de nombreuses heuristiques.

Knut Alicke : En m’appuyant sur votre exemple de notes de réunion — je ne m’attendrais pas à ce que le bot sache tout. C’est pourquoi, en revenant à l’idée de l’équipe digitale — digital Joannes ou digital Conor ou digital Knut — vous débutez en tant qu’humain dans la boucle. Vous avez la transcription ; vous marquez, “Ça ne va pas, ça ne va pas.” Vous construisez le contexte de plus en plus. Après l’avoir fait dix fois, le modèle peut déjà repérer 80 % des éléments. C’est le classique 80/20. D’après mon expérience de plus de 25 ans, 80 % restent toujours les mêmes ; vous pouvez l’entraîner. Ensuite, il y a des cas particuliers où vous ajoutez un contexte supplémentaire.

Je conviendrais qu’il ne génère pas, par exemple, “Do we need this demand review meeting at all?” Ce ne serait pas un résultat. Mais pour améliorer la structure et les résultats — et ainsi, une Supply Chain plus performante — cela sera bientôt possible.

Joannes Vermorel : Chez Lokad, dans une partie des prompts que nous incluons désormais lorsque nous résumons des réunions de planification, nous ajoutons des indications telles que, “Chaque fois qu’une date ou un prix en dollars ou en euros est mentionné, isolez-le et vérifiez s’il y a un appel à action associé à la date.” Nous procédons en deux passes pour créer une note de synthèse de haute qualité : analyser la discussion, marquer les dates, capturer les appels à action ; idem pour les montants financiers — quels sont les enjeux ? Nous fournissons au LLM, dans le cadre du prompt, des conseils pour identifier les éléments vraiment utiles.

C’est la recette de Lokad. Maintenant, imaginez que Lokad publie cela sur le web, et que des centaines de milliers de personnes publient également leurs astuces. “Pour ces réunions, voici la liste des éléments pour obtenir un résumé très efficace.” C’est pourquoi je dis que les engrenages de connaissances progresseront parce que les gens postent des astuces et des conseils.

Mais le problème fondamental non résolu est de savoir comment gérer les connaissances à grande échelle. L’approximation la plus proche est le RAG (Retrieval-Augmented Generation), mais il est encore rudimentaire et ne s’adapte pas très bien à grande échelle. Dans une grande entreprise, vous dépassez rapidement la capacité du LLM. Même si vous ne dépassez pas la fenêtre de tokens — désormais très longue — si vous y jetez des centaines de pages de contenu quasi-pertinent, vous n’obtenez pas de très bonnes performances. Il vous faut quelque chose de mieux.

Il existe des moyens de bricoler la situation : des analyses linéaires, des passes multiples. Une première passe pour éliminer le contenu non pertinent — mais tout cela n’est qu’un pansement sur le fait que l’apprentissage est relégué au second plan dans le paradigme actuel.

Conor Doherty : Revenons du côté humain : certaines personnes sont très agréables à discuter hors caméra, mais si vous placez une caméra et un microphone devant elles et qu’elles savent qu’elles sont enregistrées, elles deviennent timides. Cela modifie leur volonté d’adhérer, car il y a une trace permanente. Appliquez cela à une réunion de planification de la demande où les participants savent qu’un outil d’IA écoute, enregistre, analyse, archive et possiblement détermine des indicateurs de performance. Voyez-vous cela comme un problème pour obtenir l’adhésion et la participation ?

Knut Alicke : Pour la première réunion, oui. Pour la deuxième, moitié. Ensuite, cela diminue. En lean, avec le Gemba walk, lorsque vous observez l’assemblage, la première observation montre des personnes essayant de tout faire au mieux. Revenez le lendemain, et le lendemain encore — le suivi du processus diminue et ils reviennent à leurs habitudes normales. Le cinquième jour, plus de problèmes apparaissent.

En tant que consultant intervenant lors de ces réunions, la première se passe relativement bien ; puis, à force de retours, les gens réalisent, “Oh, c’est normal,” et vous comprenez ce qui se passe. Ce qui n’est pas encore clair, c’est comment convaincre les gens que ce bot ne fait pas mauvais genre.

Une façon pourrait être de créer un avatar de Supply Chain — vous êtes un bel homme, donc il ressemblerait à vous — et alors les gens instaureraient une confiance et commenceraient à parler à l’avatar de manière normale. Il y aura encore des personnes qui refuseront de parler ; ce serait leur perte.

Conor Doherty : Concernant les garde-fous — intégrer la technologie tout en assurant la sécurité et la sûreté. Un exemple essentiel est les réunions avec les clients, les planificateurs de la demande, les diagnostics : de nombreuses informations sensibles sont discutées — chiffres, dates, valeurs. Les gens pourraient avoir des inquiétudes concernant la sécurité et les garde-fous.

Joannes Vermorel : Absolument. L’une des choses que j’enseignais à mes étudiants en informatique il y a presque 20 ans, quand le courrier électronique était encore un peu nouveau, était de traiter chaque email comme s’il allait être rendu public à jamais. Une fois que vous envoyez un email, vous n’avez plus aucun contrôle. Il peut être transféré. Je disais, “Supposez que tous vos emails seront déversés sur Usenet” — à l’époque, l’équivalent de Reddit — et rédigez en conséquence.

Nous entrons dans un monde très étrange où il sera très difficile, au cours des 20 prochaines années, de résister aux outils d’écoute passive qui enregistrent tout. Je peux voir tant de gains de productivité ; il sera difficile de résister. Une entreprise adoptera cela et se rendra compte qu’elle économise beaucoup de temps. Je parle de 20 ans, pas de deux.

Les emails, tels que nous les pratiquons aujourd’hui, paraîtraient étranges aux personnes des années 70. L’idée qu’une conversation privée est toujours à risque d’être envoyée à la presse nationale aurait semblé folle. L’idée qu’un email que vous avez écrit soit transféré à des dizaines de personnes se produit constamment. Les gens ne ressentent pas qu’il faut demander la permission pour transférer un email. Une lettre postale était privée ; la transférer à un tiers n’était pas acceptable.

Knut Alicke : Pour revenir à la formation : assurez-vous que les gens savent ce qui doit être partagé et ce qui ne doit pas l’être. Un autre exemple tiré de notre livre : un contributeur a raconté que dans son processus S&OP, il voulait inviter les trois fournisseurs les plus importants. Tout le monde se plaignait, “Nous ne pouvons pas ; ils connaîtront notre plan de production.” Il disait, “C’est exactement ce que je veux partager, afin qu’ils puissent se préparer.” Ce sont les trois plus importants, pas des milliers.

Avec la transparence, vous pouvez faire mieux. Il y a souvent cette peur : “S’ils savent ce que nous faisons…” Oui, mais s’ils savent, ils peuvent mieux se préparer et la Supply Chain dans son ensemble s’en trouve améliorée. Il en va de même pour ces modèles — mais clairement, s’il y a un véritable secret, vous ne voulez pas qu’il apparaisse dans la presse le lendemain matin.

Joannes Vermorel : Pour moi, cela change l’organisation. Par exemple, la génération de mes parents travaillant chez Procter & Gamble : ils avaient une organisation quasi-militaire en interne ; la hiérarchie était extrêmement stricte ; la confidentialité et le secret étaient primordiaux ; l’information était distribuée sur la base du besoin de savoir. Cela a énormément évolué. Procter & Gamble d’aujourd’hui n’a rien à voir avec celui d’il y a 50 ans.

Cette technologie fera évoluer le marché vers des entreprises qui affirment : “Si tout est public, nous avons peu à cacher, car notre avantage concurrentiel ne dépend pas de cela.” Oui, parfois garder ses cartes près de soi peut constituer un avantage, mais vous pouvez avoir une entreprise où les secrets sont secondaires. Cela déplacera davantage les affaires dans cette direction.

Il sera difficile de sécuriser véritablement ces outils. Par exemple, lorsque j’effectue des audits de startups technologiques, je le fais sans aucun appareil — juste un stylo, du papier, un carnet — ainsi, je ne vais accidentellement rien divulguer. Tout est analogique ; divulguer les données signifie dérober mon carnet, et j’ai une écriture très illisible, donc c’est en quelque sorte obfusqué.

Globalement, avec les emails, les entreprises ont adopté une plus grande ouverture ; elles ne peuvent pas fonctionner aussi facilement avec des secrets comme il y a 50 ans. Désormais, n’importe qui peut filmer une vidéo et la publier sur TikTok ; cela crée des complications. S’il y a des choses que le public ne devrait pas voir, peut-être ne devrions-nous pas les avoir, car quelqu’un finira par publier une vidéo : conditions de travail, une cuisine sale. Cette technologie accentuera ce phénomène, compliquant ce que représente votre avantage concurrentiel dans un monde où il existe très peu de secrets. C’est une conversation qui se poursuivra pendant 20 ans, car ces technologies mettront du temps à être déployées.

Conor Doherty : Les garde-fous sont multifacettes : sécurité et dépenses. Certains soutiennent que l’IA générative a transformé la Supply Chain pour le pire, en pointant du doigt le “fossé de valeur de l’IA générative” — d’énormes investissements pour peu de retours ; un purgatoire pour les projets pilotes. D’après vos perspectives à tous les deux, cela influence-t-il votre perception de l’impact transformateur de GenAI ?

Knut Alicke : Comme évoqué précédemment, nous n’y sommes pas encore. Nous sommes toujours en phase initiale. J’ai entendu un collègue intelligent dire : lorsque vous lancez un pilote, demandez au PDG ou au responsable de l’unité opérationnelle s’il ou elle utilise ChatGPT quotidiennement. Avec cela, ils savent ce qui est possible et ce qui ne l’est pas. J’ai trouvé cela très intrigant.

Si le patron a une idée de ce qui est possible, alors soit il n’y aura pas de pilote parce que c’est trop tôt, soit le pilote sera mis en place avec la bonne portée et des attentes appropriées. Sinon, les pilotes sont conçus pour résoudre la faim dans le monde et ne peuvent qu’échouer.

Beaucoup de gens s’y mélangent encore et confondent GenAI, l’IA, le digital et les algorithmes. C’est comme si c’était le nouveau mot à utiliser systématiquement, et du coup tout ce que vous faites devient GenAI — ce n’est pas vrai. Ramenez-le à ce qui peut réellement apporter de la valeur et ce qui est possible ; alors nous verrons l’impact dans les prochaines années.

Une autre réflexion : très souvent, l’idée d’impact est trop locale. Dans la Supply Chain, le plus grand impact d’un travail bien fait reste la disponibilité. La disponibilité représente des marges plus élevées, des revenus supérieurs. Beaucoup de gens considèrent encore que la Supply Chain se limite aux coûts et aux stocks. Rassemblez tout de bout en bout, examinez votre impact, et alors vous verrez une amélioration des performances globales.

Joannes Vermorel : Je pense que c’est un remplacement parfait de la blockchain. Plus sérieusement : comme tous les mots à la mode, il y a généralement un petit bout de technologie qui est authentique. Mais faisant partie du monde des vendeurs de logiciels, les processus d’achat des grandes entreprises pour les logiciels d’entreprise sont lamentables. Beaucoup d’argent est gaspillé. Il se trouve que GenAI est ce sur quoi cet argent est gaspillé. Si nous n’avions pas GenAI, l’argent serait gaspillé sur un autre mot à la mode.

La causalité n’est pas “GenAI crée le gaspillage”. La causalité est “le processus d’achat est dysfonctionnel ; donc l’argent est gaspillé”, et ce gaspillage se concentre sur le mot à la mode du moment. Il y a deux ou trois ans, c’était la blockchain ; il y a cinq ans, le big data ; il y a 10 ans, le data mining.

Votre remarque sur le fait que le patron joue avec ChatGPT : l’essentiel, c’est la mechanical sympathy. Pouvez-vous sentir au plus profond de vous ce que la chose peut faire et ne peut pas faire ? Idem pour la blockchain/crypto : avez-vous déjà acheté du Bitcoin, l’avez-vous utilisé ? Réalisez-vous comment cela fonctionne ? Si vous ne pouvez pas comprendre la technologie, ce n’est pas bon.

Malheureusement, nous revenons au processus lamentable qui aboutit à un appel d’offres de 600 questions. Nous sommes du côté récepteur et recevons des questions telles que, “La pièce que vous utilisez pour l’archive des fax est-elle ignifugée ?” — une question que nous avons reçue il y a un mois.

Knut Alicke : Je suis d’accord, et une autre observation : le processus de sélection des logiciels est tellement étrange. Je demande toujours aux clients, “Pourquoi avez-vous besoin de ces 500 spécifications ?” Toutes les entreprises de logiciels cocheront par défaut n’importe quoi, car une entreprise de logiciels vend une vision, pas la réalité. Ensuite, vous assistez à des réunions tapissées de brochures où ils promettent tout.

Supposons que vous souhaitiez acheter une nouvelle voiture. L’achetez-vous en regardant une vidéo YouTube de 30 secondes ? Probablement pas. Vous voulez vous asseoir dans la voiture, la toucher, la conduire. Pourquoi ne feriez-vous pas cela avec votre logiciel ? Pourquoi ne pas réaliser une preuve de concept pour démontrer que cela fonctionne ?

Tout cela revient à la capacité : les gens doivent comprendre approximativement ce qu’il contient. Nous enseignons tous, donc nous devons enseigner une supply chain encore plus pratique et présenter cela au board. C’est pourquoi nous avons réalisé notre livre “Source to Sold,” afin de porter tout cela au niveau du board et de nous assurer qu’ils comprennent le récit — ce qui fonctionne, ce qui ne fonctionne pas, et où se situe l’impact.

Conor Doherty : Pour mémoire, j’avais noté “JV—mechanical sympathy.” Je savais que vous diriez cela. Nous nous connaissons depuis un certain temps maintenant.

Cela nous amène vers la fin — deux questions clés. L’une concerne le niveau du board ; l’autre, les personnes sur le terrain. Knut, commençons par le board : comment présentez-vous la valeur transformative au niveau du board pour convaincre, puis comment la présentez-vous au niveau opérationnel ?

Knut Alicke : Au niveau du board, pensez au langage que parle le board : vision, croissance, marge. Vous devez construire votre histoire pour démontrer que cette nouvelle technologie aidera à mettre en œuvre votre vision — être meilleur pour le client, pour le consommateur, être plus rentable.

Sur le terrain : tout ce que vous avez dit au board est vrai, mais vous devez obtenir l’adhésion en montrant que cela aide les gens dans leur quotidien. S’il s’agit juste d’un autre outil qui ressemble à une boîte noire et complique la vie, cela ne fonctionnera pas. Il faut que cela facilite la vie et aide les gens à contribuer aux performances globales.

Si vous effectuez le Gemba dans un warehouse, les personnes chargées du picking ont toujours 5 000 idées pour s’améliorer. Ce n’est pas qu’elles sont stupides ou qu’elles ne veulent pas ; elles savent, mais on ne leur demande souvent pas. Il en va de même pour les planificateurs. Vous devez raconter l’histoire : “Voici quelque chose qui vous aide à être un meilleur planificateur, qui facilite votre vie et rend votre travail plus intéressant, car il y a de nouvelles choses intéressantes à explorer.”

Joannes Vermorel : Lorsqu’il s’agit de convaincre le board : le 21e siècle est le siècle de la mécanisation du travail intellectuel. Le 20e était celui de la mécanisation du travail physique. Si vous ne mécanisez pas vos armées de comptables — les employés de bureau —, vos concurrents le feront. Ils fourniront plus avec moins de personnes et plus rapidement. Si vous avez moins de personnes, vous pouvez être plus rapide.

Il faut observer ce que font les armées de personnes de bureau. Dans la planification de la Supply Chain, de nombreuses entreprises comptent des centaines de personnes qui analysent les mêmes tableurs chaque jour — des dizaines de milliers de lignes. Le plus grand défi est : quand ces emplois seront-ils complètement robotisés ? Ce n’est pas une question de “si”, mais de “quand”. Nous pouvons être en désaccord sur le fait que ce soit dans 5 ou 50 ans.

Conor Doherty : C’était censé être ma dernière question — merci.

Joannes Vermorel : Je me situe du côté optimiste. Je sais que Knut pense qu’il faudra une longue période pour améliorer la vie de ces personnes. Mais nous pouvons convenir que le statu quo est insatisfaisant. Une entreprise parviendra à faire mieux que le statu quo.

Pour les personnes plus opérationnelles : chez Lokad, nous robotisons, ce qui est une discussion difficile. Êtes-vous prêt à adopter quelque chose qui rendra votre travail plus stimulant mais aussi plus intéressant ? La monotonie de plonger dans les tableurs procure une certaine forme de confort, mais c’est incroyablement ennuyeux.

Si vous êtes extrêmement à l’aise dans une tâche d’une monotonie épouvantable, ce n’est pas idéal. Si vous avez la volonté de relever des défis et d’améliorer votre travail, c’est l’opportunité unique de toute une vie de faire partie de la révolution qui mécanise le travail. Vous ferez partie de ceux qui accomplissent des tâches bien plus intelligentes, à un niveau supérieur à l’automatisation banale.

Cela fait partie de la vision de Lokad : robotiser la tâche et confier aux personnes le soin de superviser l’automatisation. Il existe un autre camp – rendre les personnes nettement plus productives. Deux perspectives valables pour rompre avec le statu quo de la monotonie des tableurs.

Conor Doherty : Knut, il est d’usage de confier la conclusion à l’invité. Pourriez-vous développer votre point de vue ? Joannes semble suggérer que le fait que l’IA prenne en charge le processus de decision-making pourrait être plus brutal que votre position. Pour ceux qui ne sont pas familiers avec votre approche, comment envisagez-vous l’évolution à court et à moyen terme ?

Knut Alicke : Mon espoir — laissez-moi vous donner deux versions : optimiste et pessimiste. La version optimiste : les modèles seront meilleurs ; ils seront capables d’apprendre grâce au contexte ou grâce à de nouvelles inventions. Avec cela, nous simplifierons grandement la vie des planificateurs et la qualité des décisions s’améliorera, ce qui entraînera un défi intellectuel bien plus important — ce que tout le monde n’appréciera pas. Cela se produira probablement dans les cinq prochaines années.

La version pessimiste — les pessimistes sont des optimistes expérimentés : en repensant à il y a 25 ans, avant McKinsey, je travaillais dans une startup développant des logiciels de planification pour l’électronique grand public. La qualité des logiciels et des décisions que nous avions à l’époque était, rétrospectivement, incroyable. J’ai encore beaucoup de clients qui ne s’en approchent pas. Cela étant dit, je dirais que, du point de vue du pessimiste, nous y parviendrons, mais probablement dans 20 ans.

Conor Doherty : Nous avons eu l’optimiste et le pessimiste ; l’apocalyptique serait Skynet demain — la semaine prochaine — serait-ce approprié ?

Knut Alicke : Skynet n’arrivera pas — du moins pas comme un événement.

Conor Doherty : Si vous regardez ceci depuis le futur, envoyez-moi un message ; faites-le moi savoir. Je n’ai plus de questions, messieurs. Joannes, merci de m’avoir rejoint. Knut, vous avez été charmant. Merci beaucoup de nous avoir rejoints en studio. Et à tous les autres, je dis : retournez travailler.