00:00:00 Discussion de l’importance des prévisions et du scepticisme.
00:00:40 Présentation des invités Jonathon Karelse et Joannes Vermorel.
00:01:37 L’inspiration derrière l’écriture de “Histories of the Future” et l’importance de remettre en question les méthodes de prévisions.
00:05:49 Définir les prévisions et leurs racines au début du 20e siècle.
00:08:53 Débattre de la pertinence d’étendre des séries de mesures pour prédire l’avenir.
00:09:40 Perspective classique de prévisions du 21e siècle et son attachement aux séries temporelles.
00:10:33 Recalibrage de la mesure du succès dans les prévisions et se concentrer sur la rentabilité en entreprise.
00:13:25 Les principes newtoniens et l’approche déterministe dans les prévisions et leur influence sur la pensée économique.
00:16:55 Les avancées européennes en mathématiques et en statistiques, et leur impact sur les méthodes de prévisions nord-américaines.
00:18:25 S’adapter aux inexactitudes inhérentes aux prévisions et accepter l’idée qu’elles ne seront jamais parfaitement précises.
00:19:29 Le problème des prévisions déterministes et l’adoption d’approches probabilistes.
00:20:36 Les premiers penseurs sur l’intelligence artificielle et leurs prédictions sur ses capacités.
00:21:55 L’influence de l’économie comportementale sur les prévisions et l’approche classique.
00:23:00 L’irrationalité des humains et l’émergence de l’économie comportementale.
00:26:34 Les heuristiques, leurs avantages évolutifs, et les inconvénients dans l’interprétation des données.
00:28:55 Examiner le comportement humain lors de la prise de décisions basées sur les données.
00:29:37 Comment encadrer les données avec une histoire influence la prise de décision.
00:31:13 L’impact des biais organisationnels sur les prévisions.
00:33:00 La question du sur-optimisme dans les prévisions de promotion.
00:36:23 Appliquer la raison par-dessus l’irrationalité et le potentiel de l’ingéniosité humaine.
00:38:53 L’importance de ne pas trop se fier aux modèles complexes pour les stratégies opérationnelles.
00:39:48 Les dangers des “prévisions nues” et la nécessité de liens tangibles avec l’entreprise.
00:42:34 Comment les processus bureaucratiques et les supply chain sont vulnérables aux problèmes de prévisions.
00:45:31 L’économie comportementale et les biais humains dans le processus de prévisions.
00:47:53 Maximiser la valeur du jugement humain dans les prévisions en comprenant les biais.
00:48:39 L’importance de reconnaître les biais et leur rôle dans les prévisions.
00:50:40 Les limites de la perspective des séries temporelles dans les prévisions.
00:52:00 Les problèmes humains dans les prévisions qui vont au-delà des biais.
00:54:53 L’avenir du développement de l’IA et son rôle pour aider ou remplacer les prévisionnistes humains.
00:57:01 L’importance de l’ingéniosité humaine et de poser les bonnes questions.
00:58:47 Discussion sur les recettes numériques et le rôle humain dans l’automatisation.
01:01:58 L’automatisation future dans la gestion de la supply chain.
01:04:11 Les sujets potentiels pour un deuxième livre.
01:05:22 Exploiter l’économie comportementale dans les réunions C-level.
01:08:46 Les limites des prévisions dans l’aviation et le commerce de détail.
01:09:30 Se concentrer sur les décisions et la nature étrange de la modélisation prédictive.
01:10:27 Comparer l’étrangeté des prédictions futures à la mécanique quantique.
01:11:12 Le conseil de Jonathon aux praticiens de la supply chain.
01:11:56 Conclusion et remerciements aux invités.

Résumé

Lors d’une interview, Joannes Vermorel, fondateur de Lokad, et Jonathon Karelse, CEO de NorthFind Management, discutent de l’importance de comprendre et de remettre en question le but des prévisions dans les entreprises. Ils prônent une approche sceptique, en soulignant que l’exactitude ne devrait pas être la seule mesure du succès. Les prévisions devraient être considérées comme un indicateur diagnostique pour identifier et corriger les erreurs en vue d’une amélioration continue. Les deux experts conviennent que les biais peuvent influencer les prévisions, et que les entreprises devraient se concentrer sur des techniques ayant un impact tangible. Ils abordent également le rôle de l’IA dans l’optimization de la supply chain, notant que si l’IA peut assister, l’ingéniosité humaine reste essentielle.

Résumé étendu

Dans cette interview, l’animateur Conor Doherty discute des prévisions avec Joannes Vermorel, fondateur de Lokad, et Jonathon Karelse, CEO de NorthFind Management. Karelse explique que son approche des prévisions est centrée sur la compréhension de leur impact sur les entreprises. De nombreuses organisations réalisent des prévisions parce qu’on estime que c’est “supposé” être fait, mais se demandent rarement pourquoi elles prévoient ou s’il existe des moyens d’améliorer le processus. Il souligne l’importance d’adopter un scepticisme sain et de remettre continuellement en question les pratiques pour améliorer les prévisions.

Karelse partage l’inspiration de son livre, “Histories of the Future,” qui découle de son désir d’examiner le contexte historique des prévisions et la validité de certains principes de prévisions. Il fait référence au travail de Bruno LaTour, qui remettait en question la certitude des principes scientifiques et prônait la compréhension du contexte historique dans lequel ils sont nés. Cette approche a inspiré Karelse à adopter une perspective similaire dans le domaine des prévisions.

Lorsqu’on lui demande de définir les prévisions, Karelse répond qu’il s’agit essentiellement de faire une estimation de ce à quoi ressemblera l’avenir. Bien que cette estimation puisse devenir plus scientifique et guidée, il est important de ne pas perdre de vue que les prévisions sont ultimement basées sur l’incertitude. Vermorel ajoute que la perspective classique des prévisions, qui remonte au début du 20e siècle, est centrée sur les séries temporelles et sur l’extension des mesures dans le temps. Cependant, il croit que de nouvelles manières d’envisager l’avenir continueront d’émerger au 21e siècle.

Karelse insiste sur le fait que l’exactitude des prévisions ne devrait pas être la seule mesure de réussite. Au contraire, l’exactitude des prévisions doit être considérée comme un indicateur diagnostique pouvant aider à identifier les causes profondes des erreurs et des sous-optimalités, qui pourront ensuite être utilisées pour recalibrer et optimiser en vue d’une amélioration continue. L’objectif des prévisions est de générer des profits, et la compréhension des besoins et des attentes spécifiques d’une entreprise est essentielle pour utiliser efficacement les prévisions.

Vermorel convient que les prévisions n’ont pas toujours été abordées avec scepticisme. Des partisans précoces comme Roger Babson croyaient en le pouvoir absolu de la science pour prédire et modéliser l’avenir. Cependant, tant Karelse que Vermorel préconisent une approche plus sceptique qui remet en question le savoir établi et cherche à améliorer les méthodes de prévisions de manière bénéfique pour les entreprises.

La discussion commence par une brève histoire des prévisions, en abordant spécifiquement les aspects culturels et géographiques qui ont joué un rôle dans leur développement. La conversation se tourne ensuite vers l’approche classique des prévisions, qui était fondée sur une philosophie déterministe s’appuyant sur des principes mathématiques et scientifiques pour obtenir des conclusions précises. Les limites de cette approche sont discutées, notamment le fait que les humains ne sont pas toujours des acteurs rationnels et que des biais inconscients peuvent influencer la prise de décision. Le concept d’heuristiques est introduit, et les avantages ainsi que les inconvénients de leur utilisation sont discutés. L’idée de la confiance excessive, qui est un prélude à une discussion sur l’économie comportementale, est également explorée. La conversation s’oriente ensuite vers l’importance des prévisions probabilistes et la manière dont elles peuvent aider les organisations à mieux comprendre les limites de leurs prédictions. La discussion se conclut par une brève mention de l’intelligence artificielle et de son potentiel pour aider dans les prévisions, tout en reconnaissant qu’il faut accepter que nos capacités de compréhension sont ultimement limitées.

La question du biais positif dans les prévisions, en particulier dans les organisations ayant des biais culturels et commerciaux en faveur de la croissance et des résultats positifs. Même sans biais manifestes, des recherches montrent que les gens sont quatre fois plus susceptibles d’apporter des ajustements positifs à une prévision que des ajustements négatifs. Ce biais est attribué à nos tendances évolutives vers l’aversion au risque et la matérialisation des possibilités de gains.

Joannes Vermorel a partagé son expérience avec des clients dans le commerce de détail où le biais en faveur d’une augmentation positive pour les promotions prévalait, menant à des prévisions insensées. Sa solution consistait à aborder les prévisions comme une technique parmi d’autres, plutôt que comme une approche centrale. Cela implique d’utiliser uniquement des techniques numériques qui permettent un impact tangible sur l’entreprise, comme produire quelque chose, déplacer quelque chose du point A au point B, ou utiliser des données directement liées à un élément tangible. Vermorel a insisté sur la nécessité de considérer les prévisions comme une technique parmi plusieurs et de ne pas recourir à des prévisions nues qui ne sont pas reliées à un élément tangible.

Jonathon Karelse a apporté à la discussion en ajoutant que tous les modèles sont faux, mais que certains sont utiles, et que l’objectif ultime est de viser la parcimonie et la sélection de modèle. Il a également mis en garde contre la microgestion des prévisions, car cela fait perdre du temps lorsque l’exactitude des prévisions sur un horizon de sept ou huit mois est déjà désastreuse. Il a suggéré que le recours à une capacité infinie d’ingéniosité dans des applications spécifiques où la probabilité de gains est la plus élevée est la voie à suivre.

Ils ont conclu en affirmant que les prévisions ne sont qu’une technique parmi d’autres et non la seule manière d’envisager l’avenir. Ils ont convenu qu’une meilleure compréhension de l’économie comportementale au sein d’une organisation peut améliorer les prévisions. En reconnaissant les biais qui peuvent influencer les prévisions, les organisations peuvent éviter de produire des prévisions insensées et se concentrer sur des techniques qui offrent un impact tangible sur l’entreprise.

La discussion porte sur l’utilisation de l’IA et des prévisions dans l’optimization de la supply chain. Ils explorent les sources et degrés de biais dans le jugement humain et comment cela affecte le processus. Vermorel soutient que l’accent devrait être mis sur la conception de recettes numériques qui fonctionnent à grande échelle et génèrent des décisions raisonnables. Il affirme que ces recettes devraient être entièrement automatisées dans l’exécution quotidienne, tandis que les humains devraient se concentrer sur des décisions à plus long terme nécessitant une capacité mentale accrue. Karelse est d’accord sur le fait que l’IA peut assister les personnes dans la réalisation des prévisions sans pour autant les remplacer, et que l’ingéniosité humaine reste essentielle pour poser des questions intéressantes et importantes que l’IA peut résoudre. La discussion se termine par l’espoir de Karelse que les organisations pourront équilibrer le potentiel des insights humains avec la fragilité qui affecte chacun en raison de l’imperfection de notre esprit.

L’avenir de l’optimization de la supply chain. Vermorel a exprimé sa conviction qu’avec de meilleurs outils et techniques, de grandes équipes de personnes dans la gestion de la supply chain pourraient devenir superflues, et il a décrit son expérience en constatant que des personnes persistent à faire des choses manifestement irrationnelles, malgré les preuves du contraire. Karelse est d’accord avec Vermorel et a ajouté qu’il utilise l’économie comportementale pour aider les cadres de niveau C à comprendre pourquoi leurs processus sont défaillants et comment mesurer leur valeur commerciale. Vermorel croit que se concentrer sur la modélisation prédictive dans la gestion de la supply chain deviendra de plus en plus étrange, et Karelse a recommandé aux praticiens de ne jamais se contenter de simplement savoir, mais de toujours se demander pourquoi. L’interview s’est terminée par la recommandation par Karelse du livre de Vermorel, et les deux invités ont remercié Doherty pour son temps.

Transcription complète

Conor Doherty: Bienvenue dans l’émission. Je suis votre animateur, Conor. Aujourd’hui, je suis accompagné de Joannes Vermorel, co-fondateur de Lokad, et nous avons un invité spécial, Jonathon Karelse, CEO et co-fondateur de NorthFind Management. Il est un chercheur publié dans le domaine des biais inconscients et il a écrit ce superbe livre, “Histories of the Future.” Jonathan, merci beaucoup de nous rejoindre.

Jonathon Karelse: Merci de m’avoir invité. Conor Doherty: D’accord, Jonathan, j’espère que tu es prêt pour une avalanche de compliments car j’ai en réalité lu le livre. Je l’ai vraiment apprécié. Je pense même que je fais peut-être partie de ton public cible, car je sais lire, mais j’ai aussi un intérêt pour ces sujets, tu sais, l’économie, les affaires, l’économie comportementale. Mais je n’ai pas vraiment cette formation académique; mon parcours, comme nous l’avons discuté auparavant, est la musique et la philosophie. Donc, j’ai réellement appris pas mal en parcourant l’histoire des prévisions. Tu as un ton très agréable, très accessible et lisible, alors merci beaucoup. Nous allons donc commencer par le début, je suppose. Quelle a été exactement l’inspiration pour écrire un livre sur les 100 dernières années de prévisions ? Jonathon Karelse: Eh bien, mon approche des prévisions et de la pratique a toujours consisté à comprendre ce qui va avoir un impact sur l’entreprise, et cela peut sembler évident. Mais dans de nombreuses organisations, les prévisions sont faites parce que c’est “supposé” être ainsi, sans qu’on ne se pose réellement la question du pourquoi. En conséquence, beaucoup de savoirs reçus sont transmis de génération en génération dans l’entreprise, et les gens se contentent d’effectuer le processus automatique de prévisions sans vraiment comprendre quels sont les éléments du processus qui impactent positivement l’entreprise. Y a-t-il des choses que nous pourrions améliorer, et surtout, pourquoi ?

La question du “pourquoi” est quelque chose que je suppose ne pas qualifier exactement de contrarien, mais je pense qu’il est toujours bon d’avoir un peu de cynisme ou de scepticisme sain. J’ai souvent demandé pourquoi, et un livre qui m’a vraiment marqué lorsque j’étais étudiant en économie a été écrit par Bruno LaTour. Il vient de cette famille LaTour. Il est essentiellement le mouton noir de la famille parce qu’il ne fait pas de vin, mais Bruno LaTour possède un doctorat en épistémologie de Le Cole de Mine, qui, pour ceux d’entre vous qui le connaissent, vous savez que ce n’est pas une université mal foutue. Il a passé beaucoup de temps à rechercher les modes d’apprentissage et les modes de connaissance, et il a écrit un livre intitulé “Science in Action.”

Ce livre “Science in Action” examine certains fondements en boîte noire de la science, comme la structure en double hélice de l’ADN, et les ramène à une époque antérieure où ils n’étaient pas encore des faits, avant qu’ils ne soient enfermés dans une boîte noire, nous aidant ainsi à comprendre le contexte historique dans lequel ils sont nés. Ce faisant, il illustre vraiment que bon nombre de ces certitudes scientifiques sont bien moins certaines que ce que nous pensons. C’est pratique

Conor Doherty: Donc, quand vous utilisez le terme prévision, que voulez-vous dire exactement ?

Jonathon Karelse: C’est une excellente question. Essentiellement, la prévision consiste à faire une estimation de ce à quoi ressemblera l’avenir. Cette estimation peut devenir plus scientifique et être guidée par des principes d’incertitude, mais au final, il ne s’agit que d’une supposition. Il est important de ne pas perdre de vue ce fait, puisque tout repose sur l’incertitude.

Conor Doherty: C’est un point intéressant. Et Johannes, un principe fondamental de Lokad est d’embrasser l’incertitude, n’est-ce pas ?

Joannes Vermorel: Oui, mais pour répondre à la question sur la prévision, je crois qu’il existe une perspective classique qui remonte au début du 20e siècle, popularisée par des personnes comme Roger Babson et Irving Fisher. Cette approche de la prévision s’appuie sur les séries temporelles. Vous disposez de mesures effectuées au fil du temps, telles que la quantité d’acier produite ou le nombre de pommes de terre récoltées. Vous obtenez une succession de mesures que vous pouvez représenter sous forme de séries temporelles. L’évidence consiste à prolonger la courbe et à observer où elle va ensuite. C’est l’essence même de la perspective classique de prévision qui a émergé au début du 20e siècle. Cependant, ce n’est qu’une manière de l’envisager.

La véritable question est de savoir s’il est judicieux d’aborder l’avenir en se contentant d’étendre une série de mesures. Ce n’est pas nécessairement faux, mais c’est une approche quelque peu partiale pour envisager l’avenir. Cette méthode a été très ancrée dans le 20e siècle, se développant et affinant ses méthodes tout au long de ce siècle. Cependant, de nouvelles approches pour envisager l’avenir devraient émerger au 21e siècle, dont certaines pourraient être bien plus étranges que l’approche classique.

Conor Doherty: Johannes, sur ce point concernant l’approche classique de la prévision, je veux en revenir à Jonathon. Quelque chose qui imprègne tout votre travail est une recalibration de la manière dont on mesure le succès d’une prévision. Votre thèse semble être que ce n’est pas la précision de la prévision en soi qui compte. Pourriez-vous développer cela, s’il vous plaît ?

Jonathon Karelse: J’espère que nous approfondirons l’idée de l’approche classique par rapport aux différentes philosophies de prévision à l’avenir. Mais, en attendant, l’une des choses qui m’étonne, c’est la manière dont les gens parlent souvent du fait de savoir que la prévision sera toujours erronée, comme si c’était une carte “sortez de prison gratuit”. Ils diront, “Vous me demandez de prévoir. Je ferai de mon mieux, mais la prévision est toujours erronée, alors ne me blâmez pas lorsqu’elle le sera.”

Conor Doherty: …mais ensuite ils calibrent quand même des stratégies opérationnelles et même des stratégies financières dans l’espoir d’une prévision très précise. Je tiens donc à être très clair, car j’en ai parlé lors de plusieurs conférences à Amsterdam la semaine dernière, et j’ai eu quelques personnes très en colère, en particulier des fournisseurs de logiciels durant ces sessions, qui disaient : “Eh bien, de quoi parlez-vous ? La prévision n’a pas d’importance.” Et je veux être clair : la prévision a absolument son importance dans certaines applications, car il existe des domaines où, d’un point de vue ROI, cela n’a pas d’importance.

Jonathon Karelse: Si vous êtes un tailleur sur mesure et que vous pouvez confectionner trois costumes par an et que vos clients sont prêts à attendre 10 ans, vous n’avez pas besoin de consacrer énormément de temps à prévoir la demande. Vous êtes à pleine capacité. Le ROI sera minimal. Pour tous les autres, il y a probablement un ROI, mais l’essentiel est que, pour moi, la précision de la prévision n’est pas le critère principal. La précision de la prévision n’est pas le but. Elle constitue plutôt une métrique diagnostique que nous pouvons utiliser pour identifier les causes profondes des erreurs et des sous-optimalités, ce qui nous permet ensuite de recalibrer et d’optimiser pour une amélioration continue. Le but de la prévision est de gagner de l’argent, car le but d’une entreprise est de gagner de l’argent, à moins que vous ne soyez dans une entreprise qui ne fait pas cela. Et la prévision est l’un des nombreux outils dont nous disposons pour y parvenir. Dans certains cas, utilisée correctement, c’est le meilleur outil dont nous disposions. Dans d’autres cas, c’est un outil accessoire, et parfois, ses bénéfices seront limités. Mais c’est la compréhension de votre entreprise pour savoir ce à quoi vous devez vous attendre d’une prévision qui, à mon sens, importe énormément.

Joannes Vermorel: La prévision est toujours erronée, et maintenant les gens l’utilisent comme une carte “sortez de prison gratuit”. J’adore vraiment cette expression. Ce qui est intéressant, c’est que ce n’était pas toujours la perspective dominante. Vous savez, Roger Babson était un immense admirateur du travail de Sir Isaac Newton, et même à cette époque, il y avait une incroyable croyance en le pouvoir absolu de la science, celle selon laquelle on serait capable de capturer des phénomènes et d’élaborer une modélisation numérique, de la même manière que l’on peut prédire, jusqu’à la dernière seconde, la position de Mars dans trois siècles.

Jonathon Karelse: Ils croyaient tous les deux, comme je le crois finalement, que les mathématiques sous-tendent tout et que, si nous avions la capacité et suffisamment de données, les mathématiques pourraient tout expliquer. Mais en pratique, nous n’en sommes pas encore là. Et je dirais que c’était quelque chose de mal compris au début du 20e siècle. Il existe des ordres de grandeur de difficulté qui ne sont tout simplement pas surmontables, et la formule ultime n’est pas à portée de main.

Joannes Vermorel: Je crois que l’une des découvertes majeures du 21e siècle est de réaliser à quel point, pour tout ce qui touche à la connaissance, il existe des domaines entiers de savoir qui nous échappent complètement. Il ne s’agit pas seulement de découvrir quelque chose d’équivalent à la loi de la gravité, où une seule équation pourrait expliquer une quantité énorme de phénomènes. C’était le genre de pensée qui prévalait à l’époque.

Conor Doherty: Pour le public, nous parlons de statisticiens nord-américains décrits dans le livre qui a émergé aux États-Unis en raison de l’apparition d’une classe moyenne…

Conor Doherty: Donc, ceux qui détiennent des stocks, pas des stock options, désolé, des stocks, et ils voulaient avoir une projection sur ce qui leur rapporterait les meilleurs rendements. Ils étaient très intéressés par toutes ces sortes de prévisions, et c’est ainsi que cela a vraiment émergé aux États-Unis et en Amérique du Nord. La composante culturelle, ou plutôt la composante géoculturelle, est essentielle.

Joannes Vermorel: C’est très important parce que ce n’était pas particulièrement axé sur la statistique en Amérique du Nord. Comme vous l’avez souligné, Babson aimait Newton et tout ce qui est newtonien. Il a pris ce qui était une compréhension assez superficielle des principes newtoniens et a tenté de l’appliquer à la prévision sans bénéficier d’une véritable compréhension statistique. Essentiellement, si quelque chose augmente pendant un certain temps, cela va diminuer pendant un certain temps, car c’est ce qui se passe avec la gravité.

Jonathon Karelse: Irving Fisher, qui a obtenu le premier doctorat en économie d’Amérique du Nord, a tenté d’appliquer son bagage mathématique à ce qui, jusque-là, était une science sociale. Il a commencé à intégrer certaines statistiques — qui, il faut bien le dire, étaient principalement développées en Europe plutôt qu’en Amérique du Nord — dans le domaine économique nord-américain. Mais en réalité, c’est en Europe, à cette époque, que nous voyons toutes les avancées en mathématiques qui, en fin de compte, seraient utilisées pour la prévision.

Joannes Vermorel: Il existait cette approche déterministe où l’on croyait que l’avenir pouvait être modélisé de manière mécaniste. Cette pensée a perduré longtemps. Même les œuvres de science-fiction des années 60, comme la série Fondation d’Isaac Asimov, ont adopté l’idée de la psychohistoire, une science capable de prédire l’avenir de manière très mécaniste.

Jonathon Karelse: C’est très intéressant, car c’est la perspective classique. Mais du fait que les gens fonctionnent depuis des décennies avec des prévisions assez inexactes, ils en sont venus à réaliser que la prévision est toujours erronée. Cependant, ils n’ont pas accepté la conséquence qu’elle ne sera jamais complètement juste.

Joannes Vermorel: C’est un point intéressant. Les gens ont moralement accepté que la prévision est toujours erronée et ils ne licencient pas les gens à cause de cela, ce qui est bien. Mais doit-on remettre en question en profondeur cet aspect de la prévision ? Pas vraiment.

Jonathon Karelse: Ce qui est très intéressant, c’est que vous avez mentionné le déterminisme à plusieurs reprises, et je pense que c’est fondamental. Une grande partie de la science qui émergeait au 19e et au début du 20e siècle, à l’échelle mondiale et pas seulement en Amérique du Nord, est essentiellement née de l’élan que nous avions commencé à prendre à la Renaissance. Nous sommes sortis du Moyen Âge et avons commencé à comprendre qu’en appliquant des principes scientifiques, nous pouvions éclairer ces zones d’ombre.

Conor Doherty: Des domaines de connaissance et une véritable élévation de nous-mêmes, et nous avons commencé à devenir, je pense, un peu arrogants quant à l’étendue de ce que nous pouvions accomplir. Au 19e et au début du 20e siècle, nous avons commencé à croire qu’avec suffisamment d’efforts, il n’y a vraiment rien que nous ne puissions apprendre. Et cela donne lieu à deux thèmes vraiment importants en matière de prévision. Le premier est qu’une approche déterministe a du sens dans cette philosophie, car cela signifie que, si je travaille assez dur et suis assez intelligent, j’atteindrai une conclusion précise plutôt que d’accepter que c’est une quête vaine. Je me tromperai toujours, et les approches probabilistes, qui d’ailleurs…

Jonathon Karelse: …et d’autres encore. Eh bien, Joannes Komagarov menait l’ensemble de ses travaux statistiques à peu près au même moment où ces premières approches déterministes émergeaient. Ce n’est donc pas comme si nous avions dû attendre encore cent ans pour la possibilité d’approches probabilistes. Les mathématiques étaient là. La deuxième idée est qu’en croyant qu’avec suffisamment d’efforts, avec une concentration suffisante, nous pourrions tout comprendre, nous aboutissons à ce qui est aujourd’hui un sujet très hot : l’IA. Maintenant, l’idée que l’IA peut résoudre des activités sans valeur ajoutée ou des tâches routinières pour les humains n’est pas nouvelle. En fait, il y eut une conférence dans les années 1950 au Dartmouth College où un groupe des premiers penseurs de l’IA énonça dix choses que l’IA pourrait accomplir dans les dix années suivantes. Et, 70 ans plus tard, aucune d’elles n’a été réalisée. Cela ne nous empêche pas d’essayer, et je pense que l’effort est important. Mais, en fin de compte, la leçon est que nous devons accepter qu’il existe des limites ultimes à notre capacité pour comprendre absolument tout. Et une fois cela accepté, nous devenons alors plus ouverts à d’autres approches comme, par exemple, la prévision probabiliste, qui nous prépare à la réalité selon laquelle nous savons que nous serons toujours dans l’erreur. Mais, en acceptant cela, comprenons ce que cela signifie en termes de résultats commerciaux réels et calibrons nos stratégies en partant du principe que nous aurons tort plutôt que sur l’espoir d’avoir raison d’une manière ou d’une autre.

Conor Doherty: Il me semble que vous avez glissé deux points très intéressants, l’un étant essentiellement un précurseur à une discussion sur l’économie comportementale — je pense que vous faites référence à l’excès de confiance — et l’autre sur l’IA. J’imaginais, dans le chapitre 6, je crois, cinq ou six, que nous aborderions ces sujets l’un après l’autre, si cela ne vous dérange pas. D’abord, concernant l’économie comportementale, je sais que c’est vraiment votre domaine. Pourriez-vous développer un peu comment l’économie comportementale influence ou interagit avec la prévision ?

Jonathon Karelse: Bien. Joannes, dès le début de cette conversation, vous avez mentionné à plusieurs reprises l’approche classique de la prévision. Et je dirais que cette approche classique est en quelque sorte un sous-produit de la manière classique — ou plus précisément néoclassique — de faire des affaires en général. Et cela provient, encore une fois, d’un point de vue très du 19e et du 18e siècle, selon lequel, si nous travaillons dur et appliquons des principes mathématiques et scientifiques, nous pouvons comprendre. Adam Smith, en 1776, a rédigé l’ouvrage fondamental “La Richesse des Nations”, et l’un de ses points clés est que pratiquement tout le commerce peut être compris par le principe de base selon lequel les humains sont des acteurs rationnels qui, lorsqu’on leur présente des choix clairs basés sur la valeur, se tournent naturellement vers celui qui offre la plus grande utilité. Et cela ne signifie pas nécessairement le plus d’argent, mais celui dont ils tirent le plus grand bénéfice d’une certaine manière. Et, intuitivement, cela semble correct. Le problème est que, pour tous ceux parmi les auditeurs qui ont étudié l’économie — en particulier l’économétrie…

Conor Doherty: Bien que, dans l’application pratique, certains principes de l’économie néoclassique tiennent, nous devons comprendre de manière plus globale comment ces systèmes de demande et d’offre, la fixation des prix et, en fin de compte, la prise de décision sont influencés par des impulsions inconscientes, des facteurs psychologiques inconscients qui, dans certains cas, sont environnementaux, dans d’autres, sont ancrés de manière évolutive, mais qui existent en tout cas. Quoi que l’on pense être affranchi de tout biais, qu’importe à quel point nous nous croyons objectifs, nous restons soumis à ces biais inconscients qui créent un prisme à travers lequel nous interprétons les données.

Conor Doherty: En fait, désolé, vous avez indiqué dans le livre que la personne moyenne prend environ 30 000 décisions par jour, et, évidemment, nous ne sommes pas conscients de toutes ces décisions. Nous ne pourrions tout simplement pas l’être.

Jonathon Karelse: Non, et c’est là l’avantage de ces processus heuristiques que nous possédons. Je veux dire, bien souvent, nous considérons les heuristiques de manière péjorative, comme s’il s’agissait d’un raccourci. Lorsque Joannes a évoqué dans les années 70 et 80 l’apparition de certaines approches scientifiques ou statistiques plus complexes de prévision, leurs partisans, tels que George Box et Willem Jenkins – que beaucoup de vos auditeurs sauront être les co-auteurs de la méthode ARIMA – ont en quelque sorte méprisé les méthodes plus simples comme le lissage exponentiel simple ou le lissage exponentiel triple Holt Winters, les jugeant trop simples et n’étant qu’une heuristique, un raccourci.

Jonathon Karelse: Mais ce que les quatre premières compétitions M ont montré, c’est que, dans de nombreux cas en pratique, être une heuristique n’est pas nécessairement négatif. Et maintenant, psychologiquement, il y a un immense avantage à pouvoir prendre des décisions très rapidement d’un point de vue évolutif. Si je remarque un tigre dans ma vision périphérique qui me traque dans les bois, si je m’arrête pour envisager toutes mes possibilités, penser à toutes les différentes choses que le tigre peut faire et à toutes les options dont je dispose, puis essayer d’évaluer celle qui me convient le mieux, il y a de fortes chances que je sois dévoré par ce tigre. Et cela signifie que je ne me reproduis pas, que mon ADN cesse d’exister. Ainsi, avec le temps, nous avons appris qu’il existe un certain nombre de processus heuristiques qui nous bénéficient d’un point de vue évolutionnaire.

Jonathon Karelse: L’un d’eux est l’heuristique de représentativité, qui consiste à penser « ça ressemble à quelque chose que j’ai déjà vu, la dernière fois que j’ai rencontré cela, j’ai obtenu un résultat favorable. C’est ce que j’ai fait. Je vais refaire la même chose. » Ainsi, nous n’avons pas besoin d’apprendre aux bébés à reculer face à ce qui ressemble à des serpents ; c’est inné. Nous n’avons pas besoin de nous arrêter pour réfléchir à ce qu’il faut faire lorsque nous voyons un bus arriver vers nous ; nous reculons d’instinct. Et parmi les 30 000 décisions que nous devons prendre par jour, la plupart sont guidées par une sorte d’heuristique. Si nous devions réfléchir objectivement à chacune d’elles, nous serions paralysés.

Jonathon Karelse: L’inconvénient des heuristiques est que ce que nous croyons être quelque chose que nous avons déjà vu ne représente pas toujours réellement cette chose. Et surtout en matière d’interprétation des données, nous sommes souvent victimes de ce qu’on appelle le biais de l’illusion de regroupement. Ainsi, lorsque nous rémunérons des personnes pour interpréter des données et établir une prévision, elles ressentent le besoin d’ajouter de la valeur. Nous les payons pour qu’elles trouvent des motifs, et elles les trouvent même lorsque ces motifs n’existent pas vraiment. Il est naturel que cela se produise ; on ne peut pas leur reprocher. Mais il existe toute une série de biais qui altèrent notre capacité à interpréter les données de façon rationnelle et objective.

Conor Doherty: Jonathan, à ce sujet, tu as en fait un exemple dans le livre issu de recherches publiées ailleurs. Tu as présenté à un groupe de personnes des données totalement épurées et aléatoires en leur demandant de deviner si la courbe allait monter, descendre, rester statique, ou s’ils ne savaient pas. Peux-tu expliquer cela ainsi que la signification de ce constat ?

Jonathon Karelse: Bien sûr. Le cadre de choix que nous avons présenté est un spoiler pour quiconque va finalement réaliser notre test de biais. Une grande partie des données présentées est stochastique. On nous a fourni plusieurs ensembles de données stochastiques et nous voulions nous assurer qu’il n’y avait, par inadvertance, ni tendance ni saisonnalité dans aucun d’eux. Ces ensembles sont aussi stochastiques que possible ; aucun logiciel statistique ne pourra détecter de tendance, de saisonnalité ou tout autre motif.

Lorsque nous avons présenté l’ensemble de données non édité et non encadré et demandé aux gens où ils pensaient que la demande irait, nous avons obtenu une répartition à peu près égale entre en hausse, en baisse et inchangée. Peu de personnes ont répondu « je ne sais pas », ce qui aurait été une réponse tout à fait appropriée, car cela indiquerait qu’elles ne comprenaient rien à la signification des données. Elles n’ont même pas l’avantage de pouvoir utiliser un outil statistique pour voir s’il y a une tendance ou une saisonnalité, et d’ailleurs, on ne peut pas prédire l’avenir. Ce serait la réponse correcte, mais très peu de personnes la donnent.

Nous avons ensuite présenté le même ensemble de données plus tard dans le test, entrecoupé d’une série d’autres questions, mais cette fois-ci accompagné d’une petite histoire. Les données restent les mêmes, et l’histoire contient des informations qui pourraient sembler utiles mais qui, en réalité, n’ont aucune incidence sur les données. Ce que nous avons constaté, c’est qu’environ 70 % des personnes se montrent plus sûres de la décision qu’elles vont prendre. Quiconque était en position de « je ne sais pas » quitte généralement ce camp, et la majorité de ceux qui étaient en position d’« inchangé » passent dans la catégorie « au-dessus » ou « en dessous ».

Cela dépend de la manière dont on encadre la situation. Si nous avons un cadre positif, nous voyons de nombreuses personnes se diriger dans cette direction. C’est une information très importante du point de vue de la prévision pratique, car les données n’ont pas changé. Dans le premier exemple, le résultat est probablement le plus proche du plus approprié que l’on pourrait attendre d’un être humain. Un ordinateur l’aurait fait immédiatement. Mais une fois que nous accompagnons cela d’une histoire, toute logique et rationalité disparaît subitement, et nous aboutissons à une vision des données extrêmement biaisée.

Le problème est que, dans la pratique, ce n’est pas si différent. Nous demandons aux gens de créer des plans de demande, mais ils le font dans le cadre plus large d’une organisation qui possède ses propres biais culturels et commerciaux en faveur de la croissance et des résultats positifs. Il n’est donc pas vraiment surprenant que, lorsque nous mesurons l’effet de l’intervention humaine sur les prévisions informatisées, nous constations le plus souvent une propension au biais positif. Dans certains cas, il existe même une pression manifeste dans les organisations pour adopter un biais positif, une pression pour prévoir, planifier et atteindre certains objectifs. On dit essentiellement aux gens de changer.

Conor Doherty: La prévision, mais même en écartant ces biais manifestes, certaines recherches de Len Tashman et, euh, oh je vais oublier tous leurs noms, Spheros Mocker Docus, euh, Paul Goodwin, montrent sur le long terme que nous sommes probablement environ quatre fois plus susceptibles d’apporter des ajustements positifs à une prévision que négatifs, ce qui n’a aucun sens si l’on part d’une prévision statistiquement pilotée. Le résidu devrait se distribuer normalement de part et d’autre de cette prévision. Si un ajustement humain était nécessaire au fil du temps, cela devrait se compenser. Mais en raison de ce biais inconscient, où nous sommes beaucoup plus averses au risque qu’attirées par la récompense – et encore une fois, il existe des raisons évolutives à cela – nous aimons matérialiser les possibilités à la hausse bien plus que nous souhaitons matérialiser le risque à la baisse, et nous nous retrouvons avec l’empreinte de chacun dans le biais positif des prévisions. Trouves-tu que cela corresponde à ce que tu fais en matière de prévision ?

Joannes Vermorel: Oui, je veux dire, il y a une décennie, lorsque Lokad faisait encore, je dirais, des prévisions classiques, nous avons débuté en tant que fournisseur de logiciels en réalisant des prévisions classiques. Aujourd’hui, je dirais que nous intégrons un élément de modélisation prédictive dans notre boîte à outils, mais notre mode de fonctionnement, nous pouvons en discuter. C’est très, très étrange et en dehors du contexte de ce qui serait jugé pertinent concernant ces arbres de votre futur, à moins que vous ne commenciez à parler de l’histoire du futur pour le 21ᵉ siècle. Mais revenons à ces expériences, c’est très intéressant car nous avons eu, euh, des expériences très similaires, notamment avec nos clients. Nous avons eu une série de clients – et nous en avons toujours dans le secteur du retail – et lorsqu’il s’agissait de prévoir des promotions, l’une des choses que nous constations fréquemment était que l’impact positif de la promotion était limité. Vous savez, oui, vous allez avoir, disons, un ordre de grandeur, comme dans un hypermarché, oui peut-être, vous savez, cela va augmenter les ventes de 30 à 50 %. C’est beaucoup, mais c’est largement en deçà de l’idée que « nous allons multiplier par 10 pour ce produit » que les gens attendaient.

Et ce qui était intéressant, c’est que, pour ces promotions, nous avons organisé une World Series de benchmarks avec des équipes qui modélisaient en réalité de manière super simpliste l’augmentation due à la promotion, par opposition à celles qui faisaient de la micro-optimisation en disant, « Ah, je connais exactement cette marque de chocolat », etc. Et regardez ce qui ressort en termes de précision avec, euh, je dirais des modèles ridiculement simples, du genre ceux qui s’apparentent à la complexité d’un lissage exponentiel, mais uniquement pour l’augmentation liée à une promotion, qui se résume à un facteur constant plus 50, et c’est fini. Et cela s’est avéré en réalité meilleur – bien meilleur que ceux qui pratiquaient la micro-optimisation. Et en effet, le biais était nettement en faveur du positif, où ils disaient, « Mais vous réalisez que cette marque, c’est la première fois depuis 10 ans qu’elle est promue ; elle va faire 10x ! » Et nous pensions, « Ouais, probablement pas. Ce sera sûrement plutôt autour de plus 50. Je sais que vous allez être déçus. »

Mais ensuite, on se retrouve avec des situations vraiment étranges où, par exemple, vous avez une prévision totalement absurde : vous dites que vous ferez 10x et vous ne le faites pas, mais acheter 10x s’avère être la bonne décision parce que le fournisseur offre en réalité au détaillant une remise massive. C’est donc en quelque sorte une spéculation sur la valeur des stocks. Et si votre fournisseur vous offre 25%

Conor Doherty: Vous vendrez au fil du temps, cela pourrait s’avérer être une décision judicieuse, mais vous voyez qu’il y avait quelque chose de très étrange dans cette manière de penser. C’était, je vais commencer par faire une prévision complètement absurde comme je le faisais autrefois, puis, du fait que généralement avec les promotions j’achète les stocks à un prix très réduit auprès du fournisseur afin de pouvoir appliquer une forte remise sur l’étiquette, je finis par réaliser une bonne opération sur le long terme.

Joannes Vermorel: Mais vous voyez, la déconstruction montre qu’il y a un élément de rationalité. Vous finissez par avoir raison pour les mauvaises raisons.

Jonathon Karelse: Exactement, et c’est très intéressant. Vous savez, ce sont ce genre de situations où, ce n’est pas, et encore une fois, le fait que les gens puissent être irrationnels ne signifie pas que l’on ne peut pas appliquer la raison par-dessus pour modéliser cette irrationalité. Certainement, c’est irrationnel, mais ce n’est pas tout, et c’est pourquoi je dirais, de mon point de vue, qu’il n’y a aucune limite à l’ingéniosité humaine. Apparemment, c’est ce en quoi je crois, ce n’est pas une question de science. Ma conviction profonde est qu’il n’existe aucune limite à la quantité d’ingéniosité humaine, mais ne vous y trompez pas, certaines problématiques nécessitent une quantité absolument immense d’ingéniosité humaine, et probablement, vous savez, des travaux se comptant en siècles. Ainsi, nous devons faire preuve de beaucoup de modestie dans ce grand voyage scientifique qui a commencé il y a quelques siècles. Ce n’est que le début, et il existe probablement des catégories entières de connaissances dont nous n’avons même pas encore le moindre soupçon qu’elles puissent exister.

Joannes Vermorel: Donc oui, et je suis entièrement d’accord avec toi, Jonathon. C’est aussi l’une de mes convictions fondamentales.

Jonathon Karelse: Je crois que c’est Pascal qui a dit, “S’il existe, il peut être quantifié.” Et bien sûr, il y a des limites à notre capacité de le faire, mais je pense qu’en fin de compte, avec une capacité suffisante, tout peut être quantifié et compris. Mais évidemment, le problème est que nous sommes bien trop éloignés de cette capacité pour qu’en pratique, entamer une démarche d’entreprise avec cette philosophie ne soit rationnel, car nous sommes trop éloignés de l’objectif. Toutefois, c’est une suite importante à l’idée selon laquelle la prévision est toujours erronée et au propos que Joannes a tenu sur la micro-gestion des prévisions. Lorsque George Box a dit, “Tous les modèles sont erronés, mais certains modèles sont utiles”, c’est en partie d’où vient l’idée que la prévision est toujours erronée. Il a ajouté deux autres éléments que la plupart des gens ignorent. Le premier était : “Puisque tous les modèles sont erronés, mais que certains sont utiles, privilégiez la parcimonie dans la sélection des modèles.” En d’autres termes, vous allez vous tromper quoi qu’il arrive, donc, surtout, les économistes construisant un modèle énorme et compliqué finiront toujours par se tromper dans une certaine mesure. Ne partez donc pas du principe qu’il faut un modèle complexe et énorme pour obtenir de la précision, car vous vous tromperez quand même. Mais le deuxième, et c’est à mon avis le plus important en pratique, est : “Ne vous embêtez pas avec les souris quand il y a des tigres autour.” Le nombre de fois où nous travaillons avec des organisations qui prétendent savoir que la prévision est toujours erronée, alors que leur précision réelle est abysse, mais où nous passons des heures à débattre d’un ou deux pour cent à un horizon de sept ou huit mois sur un SKU, c’est incroyable. Par exemple, votre précision au niveau du SKU à cet horizon est, disons, de 30 %.

Conor Doherty: Ajuster d’un ou deux pour cent est insignifiant. Vous allez vous tromper, et vous vous tromperez au point que le temps passé à faire cet ajustement de un ou deux pour cent sera une perte totale de temps. Vous ne devriez envisager que d’appliquer cette capacité infinie d’ingéniosité dont je crois aussi que les humains disposent dans des applications spécifiques où la probabilité de gains est la plus grande. Et c’est lorsque A) vous comprenez avec certitude quelque chose sur l’avenir qui n’est pas reflété dans l’histoire, B) la valeur de ce que vous touchez est suffisamment importante pour justifier l’intervention, et finalement C) l’ampleur de cette intervention est assez grande pour justifier sa mise en œuvre, sinon, vous restez dans les marges d’erreur et vous avez quand même recours à du safety stock ou à un autre mécanisme pour y remédier.

Joannes Vermorel: C’est très intrigant car cela reflète bien le parcours que Lokad a suivi. De nos jours, la manière d’aborder cela est d’abord de n’anticiper l’avenir que pour ses conséquences. C’est pourquoi, il est presque dogmatique dans le dogme de Lokad de dire que les prévisions nues ne sont pas autorisées. Vous n’avez donc pas le droit de le faire, et cela est fermement appliqué. Je peux le faire respecter chez Lokad, évidemment, en tant que PDG. L’idée est que, quand vous faites une prévision nue, vous êtes, par définition, isolé des répercussions dans le monde réel. La prévision en elle-même est une abstraction d’une mesure destinée à l’avenir. Elle ne dit rien sur la qualité de votre entreprise. Oui, vous pouvez ajuster les chiffres, mais en fin de compte, cela n’est même pas vraiment connecté à la réalité. C’est quelque chose de très abstrait.

Et encore, les gens n’acceptent de se lancer dans ce genre d’exercice que parce que la prévision classique est devenue quasiment rare. Il y a des personnes qui ont la prévision dans leur CV, du genre, “Je suis certifié pour faire des prévisions.” Il existe la prévision, et demand planner est une réalité. Ils occupent des postes et ont des processus. Ainsi, vous voyez que ces concepts très abstraits, autrefois une façon d’aborder l’avenir, ont été concrétisés au travers de postes et de composants logiciels. Vous payez de l’argent pour obtenir des licences, donc vous voyez, c’est une manière de rendre cela réel. Si vous payez pour quelque chose, cela existe assurément.

Et ainsi, l’approche, si je reviens à cette idée de prévision nue, était, selon Lokad, de considérer la prévision comme une technique parmi d’autres, des techniques numériques qui nous permettent simplement de prendre des décisions. Il existe une multitude de facteurs ayant un impact tangible sur l’entreprise. L’idée est que, si vous n’avez pas de lien direct avec quelque chose de très concret, comme produire un bien, déplacer quelque chose du point A vers le point B, ou fabriquer quelque chose afin de vous débarrasser de certaines matières et obtenir un résultat, alors vous n’êtes pas autorisé à pratiquer la modélisation prédictive. C’est cette tentation : dès que vous disposez d’une série temporelle ou de tout autre type de données, vous pouvez toujours concevoir un modèle.

Conor Doherty: Joannes, peux-tu nous éclairer sur les défis liés à l’utilisation de projections dans l’optimization de la supply chain ?

Joannes Vermorel: La beauté des projections, c’est qu’elles sont réalisables, qu’elles soient pertinentes ou judicieuses. Cependant, le problème est que, lorsque vous avez un marteau en main, tout vous semble être un clou. Si vous êtes certifié en techniques de prévision, vous pouvez prendre n’importe quel jeu de données et commencer à appliquer vos modèles. Notre politique chez Lokad est « pas de prévisions nues » car elles sont trop dangereuses. Si vous ne liez pas la prévision à quelque chose de très tangible, vous vous exposez à d’intenses biais, voire à des problèmes bureaucratiques. Lorsqu’on établit un indicateur, il est possible de voir au sein de l’organisation toutes sortes de tentatives d’optimisation par rapport à cet indicateur inventé. Étant donné que les supply chains sont bureaucratiques par nature, l’alignement de l’offre et de la demande constitue un exercice très bureaucratique. Il s’agit de synchroniser de nombreuses personnes, processus et logiciels. Si vous jetez de l’huile sur le feu, vous pouvez aboutir à quelque chose qui prend rapidement une ampleur considérable. Les supply chains sont des constructions humaines composées de nombreuses personnes, de logiciels et de processus, et cela crée un terrain fertile aux problèmes, notamment en matière de prévisions.

Conor Doherty: Jonathan, comment une meilleure compréhension de l’économie comportementale au sein de l’organisation améliore-t-elle concrètement le processus de prévision ?

Jonathon Karelse: Je dirais qu’il y a deux grandes manières dont cela améliore le processus. D’abord, de nombreuses organisations pensent que les humains n’ont pas d’influence sur le processus de prévision, et elles tentent donc de tenir le jugement humain le plus à l’écart possible de ce processus. Elles estiment ainsi être plus immunisées contre les biais et les manœuvres qui surviennent dans ce que Joannes a judicieusement qualifié de processus très bureaucratique. Cependant, je soutiendrais que même dans des situations où l’on pense avoir écarté l’humain du processus, il subsiste néanmoins des empreintes humaines partout. Il y a une influence humaine dans la sélection des données, le choix des logiciels et, surtout, dans les actions que nous entreprenons à la suite du processus de prévision.

La prévision elle-même n’est qu’une idée, un ensemble potentiel d’instructions ou une carte. Nous devons encore décider de ce qu’il convient d’en faire par la suite, et cela requiert que des humains de la supply chain passent à l’action. Comprendre dans quelle mesure, et de quelles manières, nous sommes biaisés nous aide à cerner les écueils potentiels de notre processus. Travailler à rebours, c’est-à-dire partir des résultats potentiels pour revenir au processus, plutôt que de supposer que le processus nous mènera à un résultat spécifique, permet de mieux comprendre les sources et l’ampleur des biais chez les personnes impliquées.

Conor Doherty: La supply chain et la planification nous aident à comprendre avec encore plus de perspicacité quels pourraient être ces résultats. Plus probablement, une organisation dispose d’un processus de prévision ou de planification de la demande qui comporte un certain degré d’automatisation et des éléments pilotés par ordinateur, mais aussi, par conception, l’intégration du jugement humain. Je crois, sous réserve de directives spécifiques, qu’il existe sur le long terme une valeur dans l’intégration du jugement, selon des critères spécifiques. Mais vous contribuez à maximiser le potentiel que ce jugement humain apporte en valeur si, encore une fois, vous comprenez dans quelle mesure les personnes qui l’exercent sont biaisées. C’est dans les organisations qui, soit refusent activement de reconnaître qu’elles sont biaisées, soit ignorent tout simplement ce fait, que vous êtes le plus susceptible d’introduire des biais dans le processus de planification de la demande, que ce soit par l’intégration active des jugements ou par ces empreintes humaines qui se retrouvent partout. Lorsque vous commencez à examiner les biais présents dans votre organisation, vous pouvez mettre en place des garde-fous pour atténuer leur impact. Ils seront toujours là. Le jugement humain sera toujours faillible, mais il s’agit de trouver l’équilibre entre le potentiel avantage des intuitions humaines dans certains cas et la certitude qu’avec ces intuitions viendra la fragilité qui nous affecte tous en raison de l’imperfection de notre esprit.

Joannes Vermorel: Je suis d’accord avec l’idée – qui correspond aussi à mon expérience – que si vous n’admettez même pas que vous pourriez avoir des biais, c’est une recette éprouvée pour maximiser ceux que vous rencontrez. Pour les organisations, c’est particulièrement vrai d’après mon expérience. Ce genre de choses, où je dirais – et si je dois déconstruire davantage cette approche de l’avenir – c’est que, lorsque les gens pensent aux biais, ils conservent toujours en tête cette perspective des séries temporelles. Et il est très difficile de se rendre compte de ce que je fais de travers dans mon activité de prévision sans avoir en tête une solution ou un mécanisme qui guide mon action. Le biais renvoie au fait que vous avez des valeurs trop élevées ou trop basses, et c’est une perspective très unidimensionnelle, fondée sur l’idée que vous opérez avec une série temporelle.

Les problèmes que j’ai observés – qui ont d’ailleurs façonné l’évolution technologique de Lokad – témoignent que, si vous souhaitez transmettre des informations sur l’avenir, il existe des catégories entières de phénomènes qui ne peuvent pas être exprimés par des séries temporelles. Cela ne veut pas dire qu’ils ne peuvent pas être exprimés avec des chiffres, c’est simplement qu’ils ne peuvent pas l’être avec des séries temporelles. Les séries temporelles constituent une méthode très simpliste : c’est littéralement une séquence de mesures qui s’étendent dans le futur. Pour donner un exemple, si j’examine les ventes d’un produit, je pourrais prévoir mes volumes de ventes, mais ces derniers dépendent du prix que je pratique, et le prix n’est pas une donnée acquise, c’est une décision de ma part. Ainsi, même si j’étais en mesure d’obtenir une prévision très précise, celle-ci resterait incomplète.

Conor Doherty: Quelque chose d’assez étrange devrait être, mathématiquement, une fonction indiquant que si je fixe tel prix, alors tel sera le résultat. Ici, nous abordons soudainement le fait que, même si nous adoptons une perspective très déterministe fondée sur l’existence de biais, je souligne simplement qu’il existe des éléments pour lesquels cette perspective des séries temporelles est nettement insuffisante pour tenir compte d’enjeux de grande ampleur. Il ne s’agit pas seulement d’avoir des valeurs trop élevées ou trop basses, c’est presque une dimension différente qui n’est tout simplement pas prise en compte. Ici, je suggère l’idée de pouvoir littéralement façonner le résultat par d’autres actions. Il ne s’agit pas simplement d’observer le mouvement des planètes ; je peux agir et modifier l’avenir du résultat. Mais même si nous restons de simples observateurs passifs, il existe des situations où les séries temporelles demeurent insuffisantes.

Joannes Vermorel: Par exemple, si je m’occupe de la maintenance aviation, je souhaite maintenir mes lignes d’engins. Je peux prévoir la demande de pièces, mais le fait est que, lorsque je répare un avion, il existe une liste de pièces à remplacer. Pour simplifier le schéma, un avion entre au hangar pour maintenance, on effectue un diagnostic, une liste de pièces à changer est dressée, et tant que chacune de ces pièces n’a pas été remplacée, l’avion ne peut pas reprendre son vol. Il est cloué au sol. Le fait de pouvoir prévoir les pièces individuellement ne m’indique rien sur leur disponibilité conjointe. En théorie, si toutes mes prévisions étaient absolument parfaites pour chacune des pièces, la connaissance globale serait également parfaite. Mais dès que vous avez, pour chaque pièce, une incertitude même très minime – et sachant qu’en moyenne, un avion se compose d’environ 300 000 pièces distinctes – une incertitude minime sur le besoin pour chaque pièce signifie que l’incertitude sur la disponibilité conjointe de toutes les pièces nécessaires à la réparation de l’avion est tout simplement gigantesque.

Joannes Vermorel: Et voilà un exemple où la perspective classique des séries temporelles n’est tout simplement pas assez expressive d’un point de vue mathématique. C’est donc une autre catégorie de problèmes où, si nous revenons aux biais, vous avez ce genre de biais consistant à prévoir trop haut ou trop bas, mais vous avez également d’autres catégories de problèmes purement humains qui ne regardent pas dans la bonne direction ou n’adoptent pas la structure qui pourrait fournir une réponse pertinente. Ce sont, dirais-je, des façons de voir typiquement du 21e siècle, et elles sont bien plus déroutantes.

Jonathon Karelse: Je suis tout à fait d’accord.

Conor Doherty: Eh bien, cela nous conduit, je pense, de manière cyclique à évoquer l’avenir, ou les cent prochaines années, l’avenir de l’avenir, l’avenir des futurs. Alors, Jonathon, je te passe la parole en premier. En ce qui concerne le développement et la technologie de l’IA, penses-tu que cela aide les gens dans la prévision ou qu’au final cela les remplacera ?

Jonathon Karelse: Quand on demande à Daniel Kahneman si l’IA va remplacer les humains, d’une part, il est optimiste que cela…

Conor Doherty: Nous sommes tellement mauvais pour porter des jugements objectifs, mais d’autre part, il est certain que cela n’arrivera jamais. Et encore, pour moi, c’est l’importance de dissocier le théorique ou le philosophique du pratique. Du côté théorique, cela devrait se produire à un moment donné dans le futur, quand notre capacité à traiter des données, notre aptitude à comprendre de façon bien plus nuancée et détaillée le fonctionnement de la pensée humaine et ce qu’est réellement l’intelligence, nous permettra de donner naissance à des systèmes complexes, à l’image de ce que les intervenants à la conférence de Dartmouth dans les années 50 envisageaient lorsqu’ils pensaient pouvoir répliquer le cerveau humain en l’espace de quelques décennies. C’est du côté théorique.

Dans la vie réelle, de mon vivant, de ton vivant, je ne crois pas que cela se produise. Et je peux l’affirmer avec un certain degré de certitude rien qu’en regardant la trajectoire des 70 dernières années d’IA. Certes, nous apprenons énormément aujourd’hui. La puissance de calcul augmente de façon exponentielle, tout comme la quantité de données disponibles, mais cela n’a toujours pas produit une percée en IA dans la pratique qui pourrait remplacer les humains. Peut-elle nous assister ? Certainement. Il existe aujourd’hui toutes sortes d’exemples où l’application naissante de l’IA apporte un bénéfice dans de nombreux domaines, mais le fossé entre remplacer les gens et les assister demeure un gouffre béant.

Pour revenir à quelque chose que Joannes a évoqué dès le début – et avec lequel je suis tout à fait d’accord – c’est que la capacité d’ingéniosité humaine est cet élément que, selon moi, nous ne risquons absolument pas de voir remplacé par les ordinateurs ou par l’IA. Je pense que la valeur de l’humanité ne réside pas dans le fait de pouvoir répondre à des questions complexes, parce que nous pouvons utiliser correctement les ordinateurs pour résoudre des problèmes complexes. Je pense que notre véritable valeur réside dans le fait de poser, dès le départ, des questions intéressantes et importantes. Ce n’est qu’en posant ces questions ambitieuses que nous pouvons mobiliser la somme des technologies actuelles pour trouver des réponses, et c’est en posant ces questions visionnaires que les humains restent une partie essentielle du processus.

Veux-tu ajouter quelque chose, Joannes ? Je te passe la parole.

Joannes Vermorel: Pour moi, la prévision, perçue comme une activité humaine au sens classique – à l’image d’une armée d’agents administratifs ou de compagnies dont les processus S&OP sont soutenus par des centaines de personnes traitant des tableurs et générant des chiffres – est vouée à disparaître au cours de ma vie. La pratique que nous avons instaurée chez Lokad me remplit d’espoir, car pour les clients que nous servons, nous l’avons pratiquement éliminée.

Mais la manière dont nous l’avons fait – et c’est de ce type de produit dont il s’agit – n’a pas consisté à éliminer des personnes ou à recourir à une forme quelconque d’intelligence artificielle. Nous l’avons réalisé en nous concentrant sur ces décisions et en faisant appel à des ingénieurs astucieux pour concevoir des recettes numériques. C’est le terme typique que j’emploie, car certaines peuvent relever d’heuristiques, d’autres être encore plus banales, simplement des filtres, et ainsi de suite. Et même cela n’est pas une simple heuristique, c’est quelque chose d’encore plus fondamental.

Conor Doherty: Alors, concevoir des recettes numériques qui fonctionnent à grande échelle pour ces entreprises, pour les tâches quotidiennes banales, et qui peuvent être entièrement automatisées aujourd’hui. Cela signifie-t-il que nous avons retiré l’humain de l’équation ?

Joannes Vermorel: Pas vraiment, car d’abord, les recettes numériques sont fondamentalement un produit humain. Il faut un ingénieur vraiment brillant pour les élaborer, et leur maintenance reste entièrement assurée par l’humain. Les recettes numériques représentent simplement un savoir-faire consistant à déterminer quels processus numériques fonctionnent à grande échelle pour générer des décisions raisonnables. Y a-t-il une intelligence dans ces recettes ? Absolument pas. La recette numérique est une affaire très mécanique. Certes, il peut y avoir quelques éléments d’apprentissage automatique, mais ce ne sont que des techniques statistiques. Elles demeurent d’une nature incroyablement mécanique.

Conor Doherty: Alors, qu’est-ce qui est vraiment intéressant ?

Joannes Vermorel: Si vous commencez avec cette perspective, ce que vous obtenez reste tout de même un processus qui automatise quelque chose qui occupe des centaines de personnes dans de grandes entreprises. Pourtant, à la fin de la journée, vous avez toujours une équipe de personnes qui est nettement responsable de ces recettes numériques qui ne fonctionnent pas d’elles-mêmes. L’essentiel est que les humains disposent de la capacité mentale pour réfléchir, et s’ils sont complètement submergés par les moindres détails de choses super complexes dans la supply chain, cela devient difficile.

Un exemple d’une chose super complexe dans la supply chain serait d’avoir 50 millions de SKU nécessitant une forme de micromanagement, où je dois choisir si je vais avoir une unité en stock, deux, trois, cinq, etc. Et j’ai 50 millions de ces niveaux de stocks à micromanager quotidiennement. Mon espoir est que les prévisions minutieuses nécessaires pour alimenter ce type de décision seront entièrement automatisées dans le sens de l’exécution quotidienne. Mais pour un horizon plus long, comme d’une année à l’autre, où l’entreprise elle-même évolue, où son marché évolue, où les bonnes questions à poser évoluent, je ne pense pas que nous verrons cela résolu par des machines de mon vivant.

Conor Doherty: Qu’est-ce que cela signifie concrètement pour les entreprises ?

Joannes Vermorel: Je pense que cette automatisation remplacera des couches de l’écosystème dans lesquelles des personnes effectuent des tâches ayant très peu de valeur ajoutée, notamment sous l’égide du S&OP. Certains diraient que ce n’est peut-être pas le vrai S&OP ou le bon S&OP, mais ce n’est pas le sujet de ma discussion. Ce que je remarque, c’est que dans l’industrie de la supply chain, de grandes entreprises disposent d’équipes d’une taille ahurissante qui se contentent de faire fluctuer des chiffres, et je soupçonne que cela pourrait disparaître. Non pas parce que nous disposerions d’un outil fantastique qui éliminerait le besoin des humains, mais parce qu’avec de meilleurs outils, nous pouvons améliorer l’efficacité de la gestion de la supply chain.

Jonathon Karelse: Je suis d’accord avec Joannes. À mesure que nous continuerons à développer de meilleurs outils et technologies, nous assisterons à un bouleversement des rôles joués par les humains dans la gestion de la supply chain. Bien que l’automatisation puisse prendre en charge de nombreuses tâches routinières et répétitives, l’expertise humaine restera cruciale pour la stratégie, l’innovation et l’adaptation aux conditions de marché en évolution.

Conor Doherty: Et avec de meilleures techniques, nous pouvons avoir quelques personnes intelligentes capables de concevoir des systèmes fonctionnant à très grande échelle. Eh bien, si je te renvoie la balle, Jonathan, as-tu quelque chose à ajouter à cela ? Parce que je voudrais te donner le dernier mot.

Jonathon Karelse: Je veux dire, je peux avoir le dernier mot, mais je suis globalement d’accord avec tout ce qu’il dit, c’est certain. Et je ne serai pas entraîné dans le débat “S&OP” non plus.

Conor Doherty: Nous allons donc poursuivre un peu. En regardant vers l’avenir, si tu devais écrire une seconde édition de “History’s Future Histories of the Future Part two of the 21st century,” y a-t-il des idées spécifiques sur lesquelles te concentrer ?

Jonathon Karelse: Non, mon deuxième livre ne sera pas une suite de ce livre. Mon deuxième livre devra attendre ma retraite, car il racontera toutes les choses insensées que j’ai vues se faire dans la supply chain au cours de ma carrière. Ceux qui, malgré toutes les montagnes de preuves illustrant combien il serait fou de le faire, persistent néanmoins à le faire. Mais évidemment, à vous tous, clients actuels, ne vous inquiétez pas, vous n’y figurerez pas. Enfin, nous n’en sommes qu’à quelques mois après la publication de ce livre, donc je ne pense pas qu’il existe de nouveaux systèmes de connaissances ou types de sciences – comme l’a dit Joannes – encore à découvrir sur lesquels je doive commencer à réfléchir.

Conor Doherty: Sur cette note, et c’est quelque chose que je n’ai pas eu l’occasion de demander plus tôt, Joannes, je te pose également la question. Dans ton expérience chez NorthFind, quand tu te trouves dans une salle avec des cadres dirigeants et que tu essaies de leur vendre ces idées dont nous parlons, et que tu rencontres ce niveau de résistance, conséquence de biais inconscients, comment utilises-tu l’économie comportementale pour faire passer le message, afin d’éviter les exemples insensés auxquels tu fais allusion ?

Jonathon Karelse: Je vais partiellement rejeter la prémisse de ta question. Je ne pense pas essayer particulièrement d’utiliser l’économie comportementale comme moyen d’aboutir à une conclusion souhaitée dans ces discussions. Je pense que je suis peut-être dans une position plus aisée pour naviguer sur ce terrain que, par exemple, un fournisseur de logiciels. Parce que pour moi, le succès en affaires ne se résume pas à vendre un piece of software. Et pour être clair, je ne dis pas que le logiciel n’est pas important ; il l’est absolument, c’est un facilitateur essentiel. Mais comme nous sommes dans le domaine de l’évaluation des processus et des problématiques, et en fin de compte de l’architecture des solutions, je ne suis pas souvent dans la position de pousser les cadres de la C-suite vers une direction particulière. Il s’agit plutôt de comprendre, compte tenu de la culture de leur entreprise et de leurs ressources disponibles – qu’il s’agisse de données, d’outils ou de personnes – quelle est la première étape la plus probable ou la plus optimale dans le chemin vers la transformation des processus. Et s’ils sont fermement opposés à l’idée de céder leur emprise sur une prévision et qu’ils veulent vraiment que 300 commerciaux passent chaque mois à ajuster une prévision, ce n’est pas nécessairement une bataille sur laquelle je veux mourir. Enfin, c’est alors acceptable. Si cela continue d’être notre réalité, intégrons cela dans le processus, mais surtout, mesurons la valeur commerciale de cette activité. Et ils finiront souvent par y parvenir eux-mêmes. La raison pour laquelle bon nombre de ces activités folles existent, c’est parce que

Conor Doherty: L’héritage dans ces organisations est une sorte de mesure qui leur permet de persister. C’est une mesure qui ne rend pas évident à quel point l’activité est folle. Les mesures elles-mêmes sont souvent extravagantes parce qu’il faut une mesure folle pour justifier un processus fou. Lorsque vous allez dans une organisation et que vous voyez l’exactitude de la mesure en valeur dollar au niveau supérieur, moyennée sur trois mois, vous savez que c’est le produit de leur refus de reconnaître à quel point le processus de prévision est défaillant. Parce que s’ils l’utilisaient dans son objectif premier, qui est d’être diagnostique plutôt que de servir de tableau de bord, vous n’agrégeriez jamais plusieurs mois, et vous n’agrégeriez jamais à un niveau aussi élevé dans une hiérarchie. Je divague un peu, mais en fin de compte, je n’essaie pas de les pousser à une conclusion s’ils restent accrochés à un processus fou. Nous les aidons simplement à comprendre, en mesurant le bénéfice commercial de ce processus fou, qu’ils souhaitent ou non continuer à le faire, et souvent ils finissent par y parvenir eux-mêmes.

Joannes Vermorel: De toute évidence, en me mettant à la place d’un modèle logiciel, mon approche est habituellement assez différente. Mon approche consiste généralement à présenter des exemples aussi simples que possible, où le type de prévision ne peut tout simplement pas fournir ce que l’on recherche. Parfois, il existe des situations très simples. En aviation, si vous agissez au niveau des pièces, cela ne vous donne toujours aucune information sur le fait que vous allez réparer l’avion. Si vous allez dans le commerce de détail et que vous dites que le magasin dispose d’une multitude de produits qui se substituent très bien les uns aux autres, vous rencontrez une autre catégorie de problèmes. Cela ne va pas me donner un bon indicateur du tout. Suis-je très performant avec ce genre d’organisation ? Je ne sais pas. Peut-être que votre propre approche, qui consiste à les laisser tracer leur propre parcours, pourrait être plus efficace. C’est un parcours difficile. L’un des points qui rend l’expérience Lokad intéressante – pas nécessairement plus aisée, mais intéressante – est qu’en se concentrant sur les décisions, le type de modélisation prédictive que nous réalisons devient tout simplement très étrange, en toute honnêteté. J’observe que les prévisions les plus utiles deviennent de plus en plus extraordinaires. Je soupçonne que les histoires du futur du XXIe siècle seront très étranges, un peu comme l’étrangeté que l’on retrouve en mécanique quantique. C’est tout un ensemble d’idées qui ne sont absolument pas intuitives. Elles s’accompagnent de mathématiques tout simplement bizarres. Quand on applique cela, on obtient des résultats encore plus étrange que prévu.

Jonathon Karelse: Eh bien, messieurs, je pense que je vais conclure. Mais avant de partir, Jonathan, si tu devais donner un conseil à tous ceux qui œuvrent dans la gestion de la supply chain ou à tous les praticiens de la supply chain, quel serait-il ?

Jonathon Karelse: Achetez le livre, disponible en librairies. C’est un conseil que peut-être mon comptable donnerait. Si je devais donner un seul conseil, ce serait de demander pourquoi. Ne vous contentez jamais de savoir ; essayez de comprendre pourquoi. Nous avons en fait une très belle citation, et je ne sais pas si c’est toi qui l’as écrite, mais c’était “Un mauvais prévisionniste avec des données est comme un ivrogne avec un lampadaire : il s’en sert pour se soutenir plutôt que pour s’éclairer.” Alors cherchez toujours la lumière.

Conor Doherty: Merci beaucoup. Eh bien, Jonathan, merci beaucoup pour ton temps. Joannes, merci pour le tien. Et merci à vous tous de nous avoir regardés. Nous vous disons à la prochaine fois.