00:00:00 Discussion sur l’importance de la prévision et du scepticisme.
00:00:40 Présentation des invités Jonathon Karelse et Joannes Vermorel.
00:01:37 Inspiration derrière l’écriture de “Les histoires du futur” et l’importance de remettre en question les méthodes de prévision.
00:05:49 Définition de la prévision et de ses origines au début du XXe siècle.
00:08:53 Débat sur la pertinence de prolonger les séries de mesures pour prédire l’avenir.
00:09:40 Perspective classique de la prévision au XXIe siècle et son attachement aux séries temporelles.
00:10:33 Recalibrage de la mesure du succès en matière de prévision et focalisation sur la réalisation de bénéfices dans les affaires.
00:13:25 Principes newtoniens et approche déterministe de la prévision et leur influence sur la pensée économique.
00:16:55 Avancées européennes en mathématiques et statistiques, et leur impact sur les méthodes de prévision nord-américaines.
00:18:25 Adaptation aux imprécisions inhérentes à la prévision et acceptation de l’idée qu’elle ne sera jamais parfaitement précise.
00:19:29 Le problème de la prévision déterministe et l’adoption d’approches probabilistes.
00:20:36 Les premiers penseurs de l’IA et leurs prédictions quant à ses capacités.
00:21:55 L’influence de l’économie comportementale sur la prévision et l’approche classique.
00:23:00 L’irrationalité des êtres humains et l’émergence de l’économie comportementale.
00:26:34 Les heuristiques, leurs avantages évolutifs et les inconvénients dans l’interprétation des données.
00:28:55 Examen du comportement humain lors de la prise de décisions basées sur des données.
00:29:37 Comment encadrer les données avec une histoire affecte la prise de décision.
00:31:13 L’impact des biais organisationnels sur la prévision.
00:33:00 Le problème de l’optimisme excessif dans la prévision des promotions.
00:36:23 Appliquer la raison par-dessus l’irrationalité et le potentiel de l’ingéniosité humaine.
00:38:53 L’importance de ne pas trop compter sur des modèles complexes pour les stratégies opérationnelles.
00:39:48 Les dangers des “prévisions nues” et la nécessité de liens tangibles avec l’entreprise.
00:42:34 Comment les processus bureaucratiques et les chaînes d’approvisionnement sont vulnérables aux problèmes de prévision.
00:45:31 L’économie comportementale et les biais humains dans le processus de prévision.
00:47:53 Maximiser la valeur du jugement humain dans la prévision en comprenant les biais.
00:48:39 L’importance de reconnaître les biais et leur rôle dans la prévision.
00:50:40 Limitations de la perspective des séries temporelles dans la prévision.
00:52:00 Problèmes humains dans la prévision qui vont au-delà des biais.
00:54:53 L’avenir du développement de l’IA et son rôle dans l’aide ou le remplacement des prévisionnistes humains.
00:57:01 L’importance de l’ingéniosité humaine et de poser les bonnes questions.
00:58:47 Discussion sur les recettes numériques et le rôle humain dans l’automatisation.
01:01:58 Automatisation future dans la gestion de la chaîne d’approvisionnement.
01:04:11 Sujets potentiels pour une deuxième édition du livre.
01:05:22 Tirer parti de l’économie comportementale lors des réunions de direction.
01:08:46 Limitations de la prévision dans l’aviation et la vente au détail.
01:09:30 Se concentrer sur les décisions et la nature étrange de la modélisation prédictive.
01:10:27 Comparaison de l’étrangeté des prédictions futures à la mécanique quantique.
01:11:12 Conseils de Jonathon aux praticiens de la chaîne d’approvisionnement.
01:11:56 Conclusion et remerciements aux invités.

Résumé

Dans une interview, Joannes Vermorel, fondateur de Lokad, et Jonathon Karelse, PDG de NorthFind Management, discutent de l’importance de comprendre et de remettre en question le but de la prévision dans les entreprises. Ils préconisent une approche sceptique, en soulignant que la précision ne devrait pas être la seule mesure du succès. La prévision devrait être considérée comme une mesure diagnostique pour identifier et résoudre les erreurs en vue d’une amélioration continue. Les deux experts conviennent que les biais peuvent influencer la prévision et que les entreprises devraient se concentrer sur des techniques ayant des impacts tangibles. Ils discutent également du rôle de l’IA dans l’optimisation de la chaîne d’approvisionnement, notant que si l’IA peut aider, l’ingéniosité humaine reste essentielle.

Résumé étendu

Dans cette interview, l’animateur Conor Doherty discute de la prévision avec Joannes Vermorel, fondateur de Lokad, et Jonathon Karelse, PDG de NorthFind Management. Karelse explique que son approche de la prévision est centrée sur sa répercussion sur les entreprises. De nombreuses organisations prévoient parce que c’est “supposé” être fait, mais elles ne se demandent souvent pas pourquoi elles prévoient, ou s’il existe des moyens d’améliorer le processus. Il souligne l’importance d’avoir un sain scepticisme et de remettre continuellement en question les pratiques pour améliorer la prévision.

Karelse partage l’inspiration de son livre, “Histories of the Future”, qui découle de son désir d’examiner le contexte historique de la prévision et la validité de certains principes de prévision. Il fait référence aux travaux de Bruno LaTour, qui remettait en question la certitude des principes scientifiques et préconisait de comprendre le contexte historique dans lequel ils sont nés. Cette approche a inspiré Karelse à appliquer une approche similaire au domaine de la prévision.

Lorsqu’on lui demande de définir la prévision, Karelse dit qu’il s’agit essentiellement de deviner à quoi ressemblera l’avenir. Bien que la supposition puisse devenir plus scientifique et guidée, il est important de ne pas perdre de vue le fait que la prévision est finalement basée sur l’incertitude. Vermorel ajoute que la perspective classique de la prévision, qui remonte au début du XXe siècle, est centrée sur les séries temporelles et l’extension des mesures dans le temps. Cependant, il estime que de nouvelles façons de regarder vers l’avenir continueront d’émerger au XXIe siècle.

Karelse souligne que la précision de la prévision ne devrait pas être la seule mesure du succès. Au lieu de cela, la précision de la prévision devrait être considérée comme une mesure diagnostique qui peut aider à identifier les causes profondes des erreurs et des sous-optimalités, qui peuvent ensuite être utilisées pour recalibrer et optimiser l’amélioration continue. L’objectif de la prévision est de gagner de l’argent, et comprendre les besoins et les attentes spécifiques d’une entreprise est essentiel pour utiliser efficacement les prévisions.

Vermorel convient que la prévision n’a pas toujours été abordée avec scepticisme. Les premiers partisans comme Roger Babson croyaient au pouvoir absolu de la science pour prédire et modéliser l’avenir. Cependant, Karelse et Vermorel plaident tous deux en faveur d’une approche plus sceptique qui remet en question les idées reçues et cherche à améliorer les méthodes de prévision de manière bénéfique pour les entreprises.

La discussion commence par un bref historique de la prévision, en particulier les aspects culturels et géographiques qui ont joué un rôle dans son développement. La conversation se tourne ensuite vers l’approche classique de la prévision, qui était basée sur une philosophie déterministe qui s’appuyait sur des principes mathématiques et scientifiques pour parvenir à des conclusions précises. Les limites de cette approche sont discutées, notamment le fait que les êtres humains ne sont pas toujours des acteurs rationnels et que des biais inconscients peuvent influencer la prise de décision. Le concept d’heuristique est introduit, et les avantages et les inconvénients de s’appuyer sur eux sont discutés. L’idée de surconfiance, qui est un prélude à une discussion sur l’économie comportementale, est également explorée. La conversation se tourne ensuite vers l’importance de la prévision probabiliste et de la manière dont elle peut aider les organisations à mieux comprendre les limites de leurs prédictions. La discussion se conclut par une brève mention de l’intelligence artificielle et de son potentiel pour aider à la prévision, mais aussi de la nécessité d’accepter qu’il existe des limites ultimes à notre capacité de tout comprendre.

La question du biais positif dans la prévision, en particulier dans les organisations ayant des biais culturels et commerciaux en faveur de la croissance et des résultats positifs. Même sans biais évident, la recherche montre que les gens sont quatre fois plus susceptibles d’apporter des ajustements positifs à une prévision que des ajustements négatifs. Ce biais est attribué à nos tendances évolutives envers l’aversion au risque et la matérialisation des possibilités positives.

Joannes Vermorel a partagé son expérience avec des clients du secteur de la vente au détail où le biais en faveur d’une augmentation positive des promotions était prédominant, ce qui conduisait à des prévisions absurdes. Sa solution a été d’aborder la prévision comme une technique parmi tant d’autres, plutôt que comme l’approche principale. Cela implique d’utiliser uniquement des techniques numériques qui permettent un impact tangible sur l’activité, telles que la production de quelque chose, le déplacement d’un élément d’un endroit à un autre, ou l’utilisation de données directement liées à quelque chose de tangible. Vermorel a insisté sur la nécessité de considérer la prévision comme l’une des nombreuses techniques et de ne pas avoir de prévisions nues qui ne sont pas liées à quelque chose de tangible.

Jonathon Karelse a contribué à la discussion en ajoutant que tous les modèles sont faux, mais certains modèles sont utiles, et l’objectif ultime est de viser la parcimonie et la sélection des modèles. Il a également mis en garde contre la microgestion des prévisions, car cela fait perdre du temps lorsque la précision des prévisions à un horizon de sept ou huit mois est déjà abyssale. Il a suggéré d’appliquer une capacité infinie d’ingéniosité dans des applications spécifiques où la probabilité de gains est la plus élevée.

Ils ont conclu en affirmant que la prévision n’est qu’une technique parmi tant d’autres et non la seule façon d’aborder l’avenir. Ils ont convenu qu’une meilleure compréhension de l’économie comportementale au sein d’une organisation peut améliorer la prévision. En reconnaissant les biais qui peuvent influencer la prévision, les organisations peuvent éviter de faire des prévisions absurdes et se concentrer sur des techniques qui ont un impact tangible sur l’activité.

La discussion porte sur l’utilisation de l’IA et de la prévision dans l’optimisation de la supply chain. Ils explorent les sources et les degrés de biais dans le jugement humain et comment cela affecte le processus. Vermorel soutient que l’accent devrait être mis sur l’élaboration de recettes numériques qui fonctionnent à grande échelle et génèrent des décisions raisonnables. Il affirme que de telles recettes devraient être entièrement automatisées dans l’exécution quotidienne, tandis que les humains devraient se concentrer sur les décisions à plus long terme qui nécessitent plus de ressources mentales. Karelse est d’accord pour dire que l’IA peut aider les personnes dans la prévision mais ne peut pas les remplacer, et que l’ingéniosité humaine est toujours essentielle pour poser des questions intéressantes et importantes que l’IA peut résoudre. La discussion se termine par l’espoir de Karelse que les organisations puissent équilibrer le potentiel de gains des idées humaines avec la fragilité qui affecte tout le monde en raison de l’imperfection de notre fonctionnement mental.

L’avenir de l’optimisation de la supply chain. Vermorel exprime sa conviction qu’avec de meilleurs outils et techniques, de grandes équipes de personnes dans la gestion de la supply chain pourraient devenir inutiles, et il décrit son expérience de voir des personnes persister à faire des choses qui sont clairement irrationnelles, malgré les preuves qui prouvent le contraire. Karelse est d’accord avec Vermorel et ajoute qu’il utilise l’économie comportementale pour aider les dirigeants de niveau C à comprendre pourquoi leurs processus sont défectueux et comment mesurer leur valeur commerciale. Vermorel estime que se concentrer sur la modélisation prédictive dans la gestion de la supply chain deviendra de plus en plus étrange, et Karelse recommande que les praticiens ne se contentent jamais de savoir, mais posent toujours la question du pourquoi. L’interview se termine par la recommandation de Karelse du livre de Vermorel, et les deux invités remercient Doherty pour son temps.

Transcription complète

Conor Doherty: Bienvenue dans l’émission. Je suis votre hôte, Conor. Aujourd’hui, je suis accompagné de Joannes Vermorel, co-fondateur de Lokad, et nous avons un invité spécial aujourd’hui, Jonathon Karelse, PDG et co-fondateur de NorthFind Management. Il est un chercheur publié dans le domaine des biais inconscients et il a écrit ce magnifique livre, “Histories of the Future”. Jonathan, merci beaucoup de nous rejoindre.

Jonathon Karelse: Merci de m’avoir invité.

Conor Doherty: Bien, Jonathan, j’espère que vous êtes prêt pour une avalanche de compliments car j’ai réellement lu le livre et je l’ai beaucoup apprécié. Je pense même être votre public cible car je suis lettré et j’ai également un intérêt pour ces sujets, tels que l’économie, les affaires et l’économie comportementale. Mais je n’ai pas une formation formelle dans ces domaines ; mon parcours, comme nous l’avons discuté précédemment, est axé sur la musique et la philosophie. J’ai donc réellement appris beaucoup de choses en parcourant l’histoire des prévisions. Vous avez un ton très agréable, très accessible et facile à lire, donc merci beaucoup. Commençons donc par le début, je suppose. Quelle a été exactement l’inspiration pour écrire un livre sur les 100 dernières années de prévisions ?

Jonathon Karelse: Eh bien, mon approche de la prévision et de la pratique a toujours été de comprendre ce qui aura un impact sur les affaires, et cela peut sembler évident. Mais dans de nombreuses organisations, la prévision est réalisée parce que c’est “ce qu’il faut faire”, sans vraiment réfléchir à pourquoi nous faisons des prévisions. Par conséquent, de nombreux savoirs reçus sont transmis de génération en génération dans l’entreprise, et les gens se contentent de suivre le processus de prévision sans vraiment comprendre les éléments du processus qui ont un impact positif sur les affaires. Y a-t-il des choses que nous pourrions faire pour l’améliorer, et surtout, pourquoi ?

La question du “pourquoi” est quelque chose qui, je suppose, ne me qualifierait pas de contestataire à proprement parler, mais je pense qu’il est toujours bon d’avoir un peu de saine cynisme ou de scepticisme. J’ai souvent posé la question du pourquoi, et un livre qui m’a vraiment marqué lorsque j’étais étudiant en économie a été écrit par Bruno LaTour. Il fait partie de la famille LaTour. Il est essentiellement le mouton noir de la famille car il n’est pas celui qui fait du vin, mais Bruno LaTour est titulaire d’un doctorat en épistémologie de l’École des Mines, qui, pour ceux qui la connaissent, est une université plutôt pas mal. Il a passé beaucoup de temps à étudier les modes d’apprentissage et les modes de connaissance, et il a écrit un livre intitulé “Science in Action”.

Ce livre “Science in Action” examine certaines des bases de la science, des choses comme la structure en double hélice de l’ADN, et les ramène avant qu’elles ne deviennent des faits, avant qu’elles ne soient enfermées dans une boîte noire, et nous aide à comprendre le contexte historique dans lequel elles sont nées. Ce faisant, il illustre vraiment que bon nombre de ces certitudes scientifiques sont beaucoup moins certaines que nous le pensons. C’est pratique

Conor Doherty: Donc, lorsque vous utilisez le terme “prévision”, que voulez-vous dire exactement ?

Jonathon Karelse: C’est une excellente question. Fondamentalement, la prévision consiste à deviner à quoi ressemblera l’avenir. Cette supposition peut devenir plus scientifique et guidée par des principes d’incertitude, mais en fin de compte, nous devinons. Il est important de ne pas perdre de vue ce fait, car il repose sur l’incertitude.

Conor Doherty: C’est un point intéressant. Et Johannes, un principe fondamental de Lokad est d’accepter l’incertitude, n’est-ce pas ?

Joannes Vermorel: Oui, mais pour répondre à la question sur la prévision, je pense qu’il existe une perspective classique de la prévision qui remonte au début du XXe siècle, popularisée par des personnes comme Roger Babson et Irving Fisher. Cette perspective aborde la prévision à travers les séries temporelles. Vous avez des mesures effectuées dans le temps, telles que la quantité d’acier produite ou le nombre de pommes de terre récoltées. Vous obtenez ainsi une séquence de mesures que vous pouvez représenter sous forme de séries temporelles. La chose évidente à faire est de prolonger la courbe et de voir où elle va ensuite. C’est l’essence de la perspective classique de la prévision qui a émergé au début du XXe siècle. Cependant, ce n’est qu’une façon de le voir.

La vraie question est de savoir s’il est judicieux d’aborder l’avenir en prolongeant simplement une série de mesures. Ce n’est pas nécessairement faux, mais c’est une façon d’aborder l’avenir qui repose sur une opinion. Cette approche a été très présente au XXe siècle, progressant et affinant les méthodes tout au long du siècle. Cependant, il est probable qu’il y aura de nouvelles façons de regarder vers l’avenir qui émergeront au XXIe siècle, certaines d’entre elles pouvant être beaucoup plus étranges que l’approche classique.

Conor Doherty: Johannes, à propos de cette approche classique de la prévision, je veux revenir à Jonathon. Quelque chose qui imprègne tout votre travail est une recalibration de la façon dont les gens mesurent le succès d’une prévision. Votre thèse semble être que ce n’est pas tant la précision de la prévision en soi qui compte. Pourriez-vous développer cela, s’il vous plaît ?

Jonathon Karelse: J’espère que nous reviendrons sur l’idée de l’approche classique par rapport aux différentes philosophies de la prévision à l’avenir. Mais en attendant, l’une des choses qui me surprend, c’est la façon dont les gens parlent souvent du fait de savoir que la prévision sera toujours fausse, comme s’il s’agissait d’une carte “sortez de prison”. Ils diront : “Vous me demandez de prévoir. Je ferai de mon mieux, mais la prévision est toujours fausse, donc ne me blâmez pas quand elle l’est.

Conor Doherty: … mais ils calibrent toujours les stratégies opérationnelles et même les stratégies financières dans l’espoir d’une prévision très précise. Je veux être très clair car j’ai parlé de cela lors de quelques conférences à Amsterdam la semaine dernière, et j’ai eu des personnes très en colère, notamment des fournisseurs de logiciels lors de ces sessions, qui disaient : “Eh bien, de quoi parlez-vous ? La prévision n’a pas d’importance.” Et je tiens à préciser : la prévision a absolument de l’importance dans certaines applications particulières, car il y a des endroits où cela n’a pas d’importance d’un point de vue ROI.

Jonathon Karelse: Si vous êtes un tailleur sur mesure et que vous pouvez fabriquer trois costumes par an et que vos clients sont prêts à attendre 10 ans, vous n’avez pas besoin de passer beaucoup de temps à prévoir la demande. Vous êtes à pleine capacité. Le ROI sera minimal. Pour tous les autres, il y a probablement un ROI, mais le point est que la précision de la prévision n’est pas la mesure de référence. La précision de la prévision n’est pas l’objectif. La précision de la prévision est une mesure diagnostique que nous pouvons utiliser pour identifier les causes profondes des erreurs et des sous-optimalités que nous pouvons ensuite utiliser pour recalibrer et optimiser l’amélioration continue. L’objectif de la prévision est de gagner de l’argent, car l’objectif de l’entreprise est de gagner de l’argent, à moins que vous ne soyez dans une entreprise qui ne le fait pas. Et la prévision est l’un des nombreux outils dont nous disposons pour le faire. Dans certains cas, utilisé correctement, c’est le meilleur outil dont nous disposons. Dans d’autres cas, c’est un outil de soutien, et dans d’autres cas, il ne produira probablement pas beaucoup de bénéfices. Mais comprendre votre entreprise pour comprendre ce que vous devez attendre d’une prévision est, selon moi, très important.

Joannes Vermorel: La prévision est toujours fausse, et maintenant les gens utilisent cela comme une “carte pour sortir de prison”. J’adore vraiment cette expression. La chose intéressante, c’est que ce n’était pas toujours la perspective prédominante. Vous savez, Roger Babson était un immense fan du travail de Sir Isaac Newton, et même à l’époque, il y avait cette incroyable croyance en la puissance absolue de la science, que vous seriez capable de capturer des choses et d’avoir une sorte de modélisation numérique, tout comme vous pouvez prédire jusqu’à la dernière seconde d’arc la position de Mars dans trois siècles.

Jonathon Karelse: Ils croyaient tous les deux, comme je le crois finalement, que les mathématiques sous-tendent tout et que si nous avions la capacité et suffisamment de données, les mathématiques pourraient tout expliquer. Mais en pratique, nous n’en sommes pas encore là. Et je dirais que c’est quelque chose qui n’était pas très bien compris au début du XXe siècle. Il y a des ordres de grandeur de difficulté qui ne sont tout simplement pas là, et donc ce n’est pas comme si la formule ultime était au coin de la rue.

Joannes Vermorel: Je crois que l’une des découvertes clés du XXIe siècle est de réaliser à quel point, pour toutes les choses liées à la connaissance, il existe des domaines entiers de connaissances qui nous échappent. Il ne s’agit pas seulement de trouver quelque chose d’équivalent à la loi de la gravité, où dans une seule équation vous pouvez expliquer énormément de choses. C’était le genre de pensée qui existait à l’époque.

Conor Doherty: Pour le public, nous parlons des statisticiens nord-américains décrits dans le livre qui ont émergé aux États-Unis en raison de l’émergence d’une classe moyenne…

Conor Doherty: Donc, qui possède des options d’achat d’actions, pas des options d’achat d’actions, désolé, des actions, et ils voulaient avoir une projection de ce qui leur donnerait les meilleurs rendements. Ils étaient très intéressés par toutes sortes de prévisions, et c’est ainsi que cela a vraiment émergé aux États-Unis et en Amérique du Nord. Le composant culturel ou géoculturel est essentiel.

Joannes Vermorel: C’est très important car ce n’était pas particulièrement axé sur les statistiques en Amérique du Nord. Comme vous l’avez souligné, Babson aimait Newton et tout ce qui était newtonien. Il a adopté une compréhension assez superficielle des principes newtoniens et a essayé de les appliquer sans bénéficier d’une compréhension statistique de la prévision. Essentiellement, si quelque chose monte pendant un certain temps, cela va redescendre pendant un certain temps car c’est ce qui se passe avec la gravité.

Jonathon Karelse: Irving Fisher, qui a obtenu le premier doctorat en économie en Amérique du Nord, a essayé d’appliquer ses connaissances mathématiques à ce qui était jusqu’alors une science sociale. Il a commencé à marier certaines des statistiques, qui étaient clairement développées en Europe plutôt qu’en Amérique du Nord, au domaine de l’économie nord-américaine. Mais c’est vraiment en Europe à cette époque que nous voyons toutes les avancées se produire dans les mathématiques qui seront ultérieurement utilisées pour la prévision.

Joannes Vermorel: Il y avait cette approche déterministe où les gens croyaient qu’ils pouvaient modéliser l’avenir de manière mécaniste. Cette façon de penser a duré longtemps. Même les œuvres de science-fiction des années 60, comme la série Fondation d’Isaac Asimov, ont adopté l’idée de la psychohistoire, une science qui peut prédire l’avenir de manière très mécanique.

Jonathon Karelse: C’est très intéressant car c’est la perspective classique. Mais étant donné que les gens ont travaillé pendant des décennies avec des prévisions assez inexactes, ils ont fini par réaliser que la prévision est toujours fausse. Cependant, ils n’ont pas encore accepté la conséquence selon laquelle elle ne sera jamais complètement exacte.

Joannes Vermorel: C’est un point intéressant. Les gens ont accepté moralement que la prévision est toujours fausse et ils ne licencient pas les gens à cause de cela, ce qui est bien. Mais devrions-nous remettre en question en profondeur pour embrasser cet aspect de la prévision ? Pas vraiment.

Jonathon Karelse: Ce qui est très intéressant, c’est que vous avez mentionné le déterminisme à plusieurs reprises, et je pense que c’est essentiel. Une grande partie de la science qui émergeait aux XIXe et XXe siècles, non seulement en Amérique du Nord, était essentiellement née de l’élan que nous avons commencé à prendre à la Renaissance. Nous sommes sortis du Moyen Âge et avons commencé à comprendre qu’en appliquant des principes scientifiques, nous pouvons commencer à éclairer ces zones sombres.

Conor Doherty: Les domaines de la connaissance et à vraiment nous élever, et nous avons commencé à devenir, je pense, un peu arrogants quant à la mesure dans laquelle nous pouvions le faire. Nous avons commencé à croire au XIXe et au début du XXe siècle que avec suffisamment d’efforts, il n’y a vraiment rien que nous ne puissions apprendre. Et cela informe deux thèmes très importants dans la prévision. Le premier est une approche déterministe qui a du sens avec cette philosophie car cela signifie que si je travaille assez dur et que je suis assez intelligent, j’arriverai à cette conclusion précise plutôt que d’accepter que c’est une tâche impossible. Je me tromperai toujours et les approches probabilistes, qui d’ailleurs…

Jonathon Karelse: …et n’importe lesquelles. Eh bien, Joannes Komagarov faisait tout son travail en statistiques à peu près à la même époque où ces premières approches déterministes sont nées. Donc ce n’est pas comme si nous devions attendre encore cent ans pour la possibilité d’approches probabilistes. Les mathématiques étaient là. La deuxième partie est que croire qu’avec suffisamment d’efforts, avec suffisamment de concentration, nous pourrions comprendre n’importe quoi. Cela nous amène à ce qui est aujourd’hui un sujet très chaud : l’IA. Maintenant, l’idée que l’IA puisse résoudre des activités non ajoutées de valeur ou des activités routinières pour les humains n’est pas nouvelle. En fait, il y a eu une conférence dans les années 1950 au Dartmouth College où un groupe de premiers penseurs de l’IA a énuméré 10 choses qu’ils pensaient que l’IA pourrait accomplir dans les 10 prochaines années. Et nous n’en avons fait aucune 70 ans plus tard. Cela ne nous empêche pas d’essayer, et je pense que l’essai est important. Mais je pense qu’en fin de compte, la leçon est que nous devons accepter qu’il y a des limites ultimes à notre capacité de tout comprendre. Et une fois que nous comprenons cela, nous sommes plus ouverts à d’autres approches comme, par exemple, la prévision probabiliste, ce qui nous prépare à la réalité que nous savons que nous aurons toujours tort. Mais maintenant, en acceptant cela, comprenons à quoi cela ressemble en termes de résultats commerciaux réels et calibrons nos stratégies sur la connaissance que nous aurons tort plutôt que sur l’espoir que nous aurons raison d’une manière ou d’une autre.

Conor Doherty: Il semble que vous ayez évoqué deux points très intéressants, l’un étant essentiellement un précurseur d’une discussion sur l’économie comportementale, je pense que vous faites référence à la surconfiance, et le deuxième sur l’IA. Je pense que cela se situe dans le chapitre 6, je pense cinq ou six, nous les aborderons donc tour à tour si cela ne vous dérange pas. Tout d’abord, en ce qui concerne l’économie comportementale, je sais que c’est vraiment votre métier. Pourriez-vous développer un peu sur la façon dont l’économie comportementale influence réellement ou interagit avec la prévision ?

Jonathon Karelse: Bien sûr. Joannes, dès le début de la conversation, a mentionné plusieurs fois l’approche classique de la prévision. Et je dirais que l’approche classique de la prévision est elle-même un peu le produit dérivé de l’approche économique classique ou, plus précisément, néoclassique des affaires en général. Et cela vient encore d’un point de vue très du XIXe et du XVIIIe siècle selon lequel si nous travaillons dur et appliquons des principes mathématiques et scientifiques à cela, nous pouvons comprendre. Et Adam Smith en 1776 a écrit l’œuvre fondamentale, La Richesse des Nations, et l’un de ses points clés est que fondamentalement tout le commerce peut être compris par le principe de base selon lequel les humains sont des acteurs rationnels qui, lorsqu’ils ont des choix clairs basés sur la valeur, se dirigeront naturellement vers celui qui a la plus grande utilité. Et cela ne signifie pas nécessairement le plus d’argent, mais celui dont ils ont le plus grand bénéfice d’une certaine sorte. Et intuitivement, cela semble correct. Le problème, c’est que pour tous les auditeurs qui ont étudié l’économie, vous le saurez, surtout l’économétrie

Conor Doherty: Bien que certainement, dans l’application, il y ait des principes de l’économie néoclassique qui tiennent, nous devons comprendre dans un sens plus large comment ces systèmes de demande et d’offre, de fixation des prix et finalement de prise de décision sont influencés par des facteurs inconscients, des facteurs psychologiques inconscients qui dans certains cas sont environnementaux, dans certains cas sont câblés de manière innée, mais existent dans tous les cas. Peu importe à quel point on pense être exempt de biais, peu importe à quel point on pense être objectif, on est toujours soumis à ces biais inconscients qui créent une lentille à travers laquelle on interprète les données.

Conor Doherty: En fait, désolé, vous avez en réalité dit dans le livre que la personne moyenne prend environ 30 000 décisions par jour, et je veux dire que nous ne sommes évidemment pas conscients de toutes ces décisions. Nous ne pourrions pas l’être.

Jonathon Karelse: Non, et c’est là l’avantage de ces processus heuristiques que nous avons. Je veux dire, souvent nous considérons les heuristiques comme péjoratives, comme un raccourci. Lorsque Joannes a mentionné dans les années 70 et 80 que certaines de ces approches scientifiques ou statistiques plus complexes de prévision ont commencé à émerger, leurs partisans comme George Box et Willem Jenkins, que beaucoup de vos auditeurs connaissent, étaient co-auteurs de la méthode ARIMA, ils ont un peu méprisé les méthodes plus simples comme le lissage exponentiel simple ou le lissage exponentiel triple de Holt Winters en les considérant trop simples et comme une simple heuristique, un raccourci.

Jonathon Karelse: Mais ce que les quatre premières compétitions M ont montré, c’est que, dans de nombreux cas en pratique, être une heuristique n’est pas nécessairement mauvais. Et maintenant, psychologiquement, il y a un énorme avantage à pouvoir prendre des décisions très rapidement d’un point de vue évolutif. Si je suis conscient d’un tigre dans mon champ de vision périphérique qui me traque dans les bois, si je m’arrête et considère toutes mes possibilités et que je réfléchis à toutes les différentes choses que le tigre peut faire et à toutes les différentes options que je peux avoir, puis essaie de peser la plus appropriée pour moi, je suis probablement mangé par un tigre. Et cela signifie que je ne me reproduis pas, et cela signifie que mon ADN cesse d’exister. Au fil du temps, nous avons appris qu’il existe un certain nombre de processus heuristiques qui nous sont bénéfiques sur le plan évolutif.

Jonathon Karelse: L’un d’eux est l’heuristique de représentativité, qui est “cela ressemble à quelque chose que j’ai déjà vu, la dernière fois que j’ai rencontré cela, j’ai obtenu un résultat positif. C’est ce que j’ai fait. Je vais refaire ça.” Donc, nous n’avons pas besoin d’apprendre aux bébés à reculer devant les choses qui ressemblent à des serpents ; c’est inné. Nous n’avons pas besoin de réfléchir à ce qu’il faut faire lorsque nous voyons un bus arriver vers nous ; nous reculons. Et les 30 000 décisions que nous devons prendre par jour, la plupart d’entre elles sont naviguées par une sorte d’heuristique. Si nous devions toutes les considérer objectivement, nous serions paralysés.

Jonathon Karelse: L’inconvénient des heuristiques est que la chose que nous pensons ressembler à quelque chose que nous avons déjà vu ne représente pas toujours réellement cette chose. Et surtout lorsqu’il s’agit d’interpréter des données, nous sommes souvent sujets à quelque chose appelé biais de l’illusion de regroupement. Ainsi, lorsque nous payons des personnes pour interpréter des données et faire des prévisions, elles ressentent le besoin d’ajouter de la valeur. Nous les payons pour trouver des motifs, et ils trouvent des motifs même lorsque les motifs n’existent pas réellement. C’est naturel que cela se produise ; on ne peut pas leur en vouloir. Mais il y a une multitude de biais qui influencent notre capacité à interpréter rationnellement et objectivement les données.

Conor Doherty: Jonathan, à ce sujet, vous avez en réalité un exemple dans le livre à partir de recherches que vous avez publiées ailleurs. Vous avez présenté des données aléatoires complètement sanitaires à un groupe de personnes et leur avez demandé de deviner si la ligne monterait, descendrait, serait statique ou s’ils ne savaient pas. Pouvez-vous expliquer cela et l’importance de cette découverte ?

Jonathon Karelse: Bien sûr. Le cadre de choix que nous avons présenté est un spoiler pour quiconque va finalement réaliser notre test de biais. Une grande partie des données présentées est stochastique. On nous a donné plusieurs ensembles de données stochastiques différents et nous voulions nous assurer de ne pas avoir involontairement de tendance ou de saisonnalité dans l’un d’entre eux. Ces données sont aussi stochastiques que possible ; il n’y a aucune possibilité pour un package statistique de trouver une tendance, une saisonnalité ou tout autre motif dans ces ensembles de données.

Lorsque nous avons présenté l’ensemble de données non édité et non encadré et que nous avons demandé aux gens où ils pensaient que la demande irait, nous avons eu une répartition assez équilibrée entre la hausse, la baisse et l’immobilisme. Nous n’avons pas eu beaucoup de personnes disant qu’elles ne savaient pas, ce qui serait une réponse tout à fait appropriée car cela représenterait le fait qu’elles ne savent rien de ce que signifient les données. Elles n’ont même pas l’avantage de pouvoir exécuter un outil statistique dessus pour voir s’il y a une tendance ou une saisonnalité, et d’ailleurs, on ne peut pas prédire l’avenir de toute façon. Ce serait la réponse correcte, mais très peu de personnes le disent réellement.

Nous avons ensuite présenté le même ensemble de données plus tard dans le test avec une série d’autres questions entre-temps, mais cette fois-ci il était accompagné d’une petite histoire. Les données sont les mêmes et l’histoire contient des informations qui pourraient sembler utiles mais qui n’ont en réalité aucune incidence sur les données. Ce que nous avons constaté, c’est qu’environ 70 % des personnes deviennent plus certaines de la décision qu’elles vont prendre. Toute personne qui était dans le camp des “je ne sais pas” sort généralement de ce camp, et la plupart des personnes qui étaient “immobiles” passent soit dans la catégorie “au-dessus” soit dans la catégorie “en dessous”.

Cela dépend de la manière dont nous le présentons. Si nous avons un cadre positif, nous voyons beaucoup de personnes pencher dans cette direction. C’est un aperçu vraiment important d’un point de vue pratique pour la prévision, car les données n’ont pas changé. Dans le premier exemple, le résultat est probablement le plus proche de ce que l’on pourrait attendre d’un être humain. Un ordinateur l’aurait fait immédiatement. Mais une fois que nous accompagnons cela d’une histoire, soudainement toute logique et rationalité disparaissent, et nous nous retrouvons avec une vision extrêmement biaisée des données.

Le problème, c’est qu’en pratique, ce n’est pas si différent. Nous demandons aux gens de créer des plans de demande, mais ils le font dans le contexte plus large d’une organisation qui a ses propres biais culturels et ses propres biais basés sur les affaires en faveur de la croissance et des résultats positifs. Il n’est donc pas vraiment surprenant que lorsque nous mesurons l’effet de l’intervention humaine sur les prévisions informatiques, nous constations le plus souvent un biais positif. Dans certains cas, il y a même une pression manifeste pour avoir un biais positif dans les organisations, une pression pour prévoir, planifier et atteindre certains objectifs. On dit aux gens de changer, en quelque sorte.

Conor Doherty: La prévision, mais même en dehors de ces biais manifestes, certaines recherches menées par Len Tashman et, euh, oh j’ai oublié tous leurs noms, Spheros Mocker Docus, euh, Paul Goodwin. Leurs recherches à long terme montrent que nous sommes probablement environ quatre fois plus susceptibles de faire des ajustements positifs à une prévision que des ajustements négatifs, ce qui n’a aucun sens si nous partons d’une prévision basée sur des statistiques. Le résidu devrait être distribué normalement de chaque côté de cette prévision. S’il fallait un ajustement humain au fil du temps, nous devrions nous équilibrer. Mais en raison de ce biais inconscient, où nous sommes beaucoup plus averses au risque qu’en recherche de récompense, et encore une fois il y a des raisons évolutives à cela, nous aimons beaucoup plus matérialiser les possibilités de hausse que nous aimerions matérialiser les risques à la baisse, et nous nous retrouvons avec les empreintes digitales des personnes sur le biais positif dans les prévisions. Trouvez-vous que cela doit être le cas lorsque vous faites des prévisions ?

Joannes Vermorel: Oui, je veux dire, il y a une décennie, lorsque Lokad faisait encore, je dirais, des prévisions classiques, nous avons commencé en tant que fournisseur de logiciels en faisant des prévisions classiques. À l’heure actuelle, je dirais que nous avons un élément de modélisation prédictive dans notre boîte à outils, mais la façon dont nous opérons, nous pouvons en discuter. C’est très, très étrange et en dehors du contexte de ce qui serait considéré comme pertinent concernant ces arbres de votre avenir, à moins que vous ne commenciez à parler de l’histoire du futur pour le XXIe siècle. Mais revenons à ces expériences, c’est très intéressant car nous avons eu, euh, des expériences très similaires, notamment avec nos clients. Nous avions une série de clients, euh, nous en avons toujours dans le secteur de la vente au détail, et en ce qui concerne les prévisions de promotions, l’une des choses que nous obtenions fréquemment, c’est que l’effet de la promotion est limité. Vous savez, oui, vous allez avoir, disons, une augmentation de 30 à 50% des ventes dans un hypermarché. C’est beaucoup, mais c’est bien en dessous du genre de “nous allons faire 10 fois plus pour ce produit” que les gens attendaient.

Et la chose intéressante, c’est que pour ces promotions, nous avons réalisé une série de benchmarks avec des équipes qui modélisaient en réalité, vous savez, une augmentation très simpliste pour la promotion par rapport à des personnes qui faisaient de la micro-optimisation, en disant : “Ah, je connais exactement cette marque de chocolat”, etc. Et regardez ce qui ressort en termes de précision avec, euh, je dirais des modèles ridiculement simples, vous savez, du genre de choses qui étaient de l’ordre de la complexité des moyennes mobiles exponentielles, mais juste pour l’augmentation d’une promotion, qui est juste un facteur constant plus 50, et c’est tout. Et c’était en fait mieux, mais beaucoup mieux que les personnes qui faisaient de la micro-optimisation. Et en effet, le biais était très positif, où ils disaient : “Mais tu réalises que cette marque, c’est la première fois depuis 10 ans qu’elle est en promotion ; elle va faire 10 fois plus !” Et nous pensons : “Oui, probablement pas. Cela va probablement être une augmentation de 50. Je sais que tu seras déçu.”

Mais ensuite, vous vous retrouvez avec des choses super étranges où, par exemple, vous avez une prévision qui est complètement absurde, comme, vous dites que vous allez faire 10 fois plus, et vous ne faites pas 10 fois plus, mais acheter 10 fois plus est en fait une bonne décision car le fournisseur accorde en réalité une remise massive au détaillant. Donc, en gros, c’est une sorte de spéculation sur la valeur des stocks. Et si votre fournisseur vous accorde une remise de 25%

Conor Doherty: Vous allez vendre au fil du temps, cela pourrait s’avérer être une décision intelligente, mais vous voyez qu’il y avait quelque chose de très bizarre dans cette façon de penser. C’était, je vais commencer par faire une prévision très absurde comme j’avais l’habitude de le faire, et ensuite, en raison du fait que généralement avec les promotions, j’achète le stock avec une remise importante du fournisseur afin de pouvoir appliquer une grosse remise sur le prix des articles, je finis par faire une bonne opération au fil du temps.

Joannes Vermorel: Mais vous voyez, la déconstruction est la suivante : il y a un élément de rationalité. Vous finissez par avoir raison pour de mauvaises raisons.

Jonathon Karelse: Exactement, et c’est très intéressant. Vous savez, c’est le genre de choses où, ce n’est pas, et encore une fois, le fait que les gens puissent être irrationnels ne signifie pas que vous ne pouvez pas appliquer la raison pour modéliser cette irrationalité. Absolument, c’est irrationnel, mais ce n’est pas, et c’est pourquoi je dirais, ma propre perspective serait qu’il n’y a pas de limite à l’ingéniosité humaine. Vous savez, apparemment, c’est ma croyance, ce n’est pas un élément de science. Ma conviction profonde est qu’il n’y a pas de limite à la quantité d’ingéniosité humaine, mais ne vous y trompez pas, certaines choses nécessitent une quantité absolument immense d’ingéniosité humaine, et probablement, vous savez, des choses qui relèvent de, et nous parlons de siècles de travail. Donc, nous devons être très modestes dans ce grand voyage de la science qui a commencé il y a quelques siècles. Ce n’est que le début, et il existe probablement des classes entières de connaissances dont nous n’avons même pas encore la suspicion qu’elles pourraient exister.

Joannes Vermorel: Oui, et je suis tout à fait d’accord avec vous, Jonathon. C’est aussi une conviction profonde de la mienne.

Jonathon Karelse: Je crois que c’est Pascal qui a dit : “Si cela existe, cela peut être quantifié.” Et bien sûr, il y a des limites à notre capacité à le faire, mais je crois qu’avec une capacité suffisante, tout peut être quantifié et compris. Mais évidemment, le problème est que nous sommes tellement loin de cette capacité que, en pratique, commencer n’importe quel type de parcours basé sur les affaires avec cette philosophie est insensé car nous sommes trop loin de l’objectif. Mais, c’est une suite importante de l’idée selon laquelle la prévision est toujours fausse et du point que Joannes a soulevé sur la microgestion des prévisions. Lorsque George Box a dit : “Tous les modèles sont faux, mais certains modèles sont utiles”, c’est un peu là que vient l’idée selon laquelle la prévision est toujours fausse. Il a dit deux autres choses que la plupart des gens ignorent. La première était : “Puisque tous les modèles sont faux, mais certains sont utiles, visez la parcimonie dans la sélection des modèles.” En d’autres termes, vous allez vous tromper quoi qu’il arrive, donc surtout, les économistes qui construisent un modèle compliqué vont quand même se tromper à un certain degré. Donc, ne prédéfinissez pas le besoin d’un modèle complexe énorme qui vous donnera de la précision car vous vous tromperez quand même. Mais la deuxième, et c’est, à mon avis, la plus importante en pratique, c’est “Ne vous préoccupez pas des souris quand il y a des tigres autour.” Le nombre de fois où nous travaillons avec des organisations qui disent savoir que la prévision est toujours fausse, leur précision de prévision en pratique est abyssale, mais nous passons des heures à débattre de un ou deux pour cent à un horizon de sept ou huit mois sur un SKU est fou. Votre précision de prévision à cet horizon au niveau du SKU est, par exemple, de 30 pour cent.

Conor Doherty: L’ajuster d’un ou deux pour cent est insignifiant. Vous allez vous tromper, et vous allez tellement vous tromper que le temps que vous avez pris pour faire cette ajustement d’un ou deux pour cent est une perte de temps totale. Vous devriez seulement envisager d’appliquer cette capacité d’ingéniosité infinie que je crois aussi que les humains ont dans des applications spécifiques où la probabilité de gain est la plus grande. Et c’est lorsque A) vous comprenez quelque chose avec certitude sur le futur qui n’est pas reflété dans l’histoire, B) la valeur de la chose que vous touchez est suffisamment précieuse pour justifier l’intervention, et en fin de compte C) l’ampleur de cette intervention est suffisamment grande pour la justifier car sinon, vous vous retrouvez toujours à l’intérieur des marges d’erreur et vous avez des stocks de sécurité ou un autre mécanisme qui s’en occupe de toute façon.

Joannes Vermorel: C’est très intrigant car cela reflète très bien le genre de parcours que Lokad a traversé. De nos jours, la façon d’aborder cela est d’abord de ne considérer l’anticipation du futur que pour ses conséquences. C’est pourquoi maintenant, c’est presque comme une partie dogmatique du dogme de Lokad de dire que les prévisions nues ne sont pas autorisées. Donc, vous n’êtes pas autorisé à le faire, et cela est renforcé. Je suis capable de l’imposer chez Lokad, évidemment, en tant que PDG. L’idée est que lorsque vous faites une prévision nue, vous êtes, par définition, isolé des conséquences du monde réel. La prévision en elle-même est une abstraction d’une mesure pour le futur. Elle ne dit rien sur la qualité de votre entreprise. Oui, vous pouvez ajuster les chiffres, mais en fin de compte, cela n’est même pas vraiment connecté à la réalité. C’est quelque chose de très abstrait.

Et encore une fois, les gens sont seulement prêts à se lancer dans ce genre d’exercice en raison du fait que la prévision classique a été pratiquement raréfiée. Il y a des gens qui ont la prévision dans leur CV, du genre “je suis certifié pour faire des prévisions”. Il y a la prévision, et le demand planner est une chose. Ils ont des postes et des processus. Donc, vous voyez ces choses qui sont très abstraites, qui étaient une façon d’aborder le futur, ont été rendues réelles grâce à des postes, des composants logiciels. Vous payez de l’argent pour obtenir des licences pour les obtenir, donc vous voyez, c’est une façon de le rendre réel. Si vous payez pour quelque chose, cela existe certainement.

Et donc, l’approche, si je reviens à cette idée de prévision nue, la réponse que Lokad a apportée était que non, nous devons traiter la prévision comme une technique parmi tant d’autres, des techniques numériques qui nous permettent simplement de prendre des décisions. Il y a des tonnes de choses qui ont un impact tangible sur l’entreprise. L’idée est que si vous n’avez pas de lien direct avec quelque chose de très tangible, comme produire quelque chose, déplacer quelque chose d’un endroit A à un endroit B, ou produire quelque chose pour vous débarrasser de certains matériaux et obtenir un résultat, alors vous n’êtes pas autorisé à avoir de modélisation prédictive. C’est la chose qui est très tentante ; dès que vous avez une série temporelle ou n’importe quel type de données, vous pouvez toujours concevoir un modèle.

Conor Doherty: Joannes, pouvez-vous nous donner un aperçu des défis liés à l’utilisation de projections dans l’optimisation de la supply chain ?

Joannes Vermorel: La beauté des projections, c’est qu’elles sont réalisables, qu’elles soient pertinentes ou judicieuses. Cependant, le problème est que lorsque vous avez un marteau dans la main, tout ressemble à des clous. Si vous avez une certification en techniques de prévision, vous pouvez prendre n’importe quel ensemble de données et commencer à appliquer vos modèles. Notre politique chez Lokad est “pas de prévisions nues” car elles sont trop dangereuses. Si vous ne reliez pas la prévision à quelque chose de très réel, vous serez soumis à des biais intenses, voire à des problèmes bureaucratiques. Lorsque vous proposez une métrique, vous pouvez avoir toutes sortes de choses au sein de l’organisation pour optimiser cette métrique inventée. Étant donné que les chaînes d’approvisionnement sont bureaucratiques par nature, aligner l’offre et la demande est un exercice très bureaucratique. Il s’agit de synchroniser de nombreuses personnes, processus et logiciels. Si vous ajoutez de l’huile sur le feu, vous pouvez vous retrouver avec quelque chose qui prend rapidement de grandes proportions. Les chaînes d’approvisionnement sont des constructions humaines composées de nombreuses personnes, de logiciels et de processus, ce qui crée un terrain fertile pour les problèmes, en particulier en ce qui concerne la prévision.

Conor Doherty: Jonathan, comment une meilleure compréhension de l’économie comportementale au sein de l’organisation améliore-t-elle concrètement le processus de prévision ?

Jonathon Karelse: Je dirais qu’il y a deux grandes façons dont cela améliore le processus. Tout d’abord, de nombreuses organisations pensent que les humains n’ont pas d’impact sur le processus de prévision, elles essaient donc de tenir le jugement humain aussi loin que possible du processus de prévision. Elles pensent qu’en conséquence, elles sont plus immunisées contre les biais et les jeux qui se déroulent dans ce que Joannes a justement appelé un processus très bureaucratique. Cependant, je soutiendrais que même dans les situations où nous pensons avoir écarté les humains du processus, il y a encore des empreintes humaines partout. Il y a une influence humaine dans la sélection des données, la sélection des logiciels et, surtout, les actions que nous entreprenons à la suite du processus de prévision.

La prévision elle-même n’est qu’une idée, un ensemble potentiel d’instructions ou une carte. Nous devons encore décider quoi en faire par la suite, et cela nécessite que les humains de la chaîne d’approvisionnement prennent des mesures. Comprendre dans quelle mesure, et de quelle manière, nous sommes biaisés nous aide à comprendre les écueils potentiels de notre processus. Travailler en remontant des résultats potentiels vers le processus, plutôt que de supposer que le processus nous amènera à un résultat spécifique, permet de mieux comprendre les sources et les degrés de biais chez les personnes impliquées.

Conor Doherty: La chaîne d’approvisionnement et la planification nous aident à comprendre avec encore plus de clarté ce que pourraient être ces résultats. Il est plus probable qu’une organisation dispose d’un processus de prévision ou de planification de la demande qui comporte un certain degré d’automatisation et d’éléments pilotés par ordinateur, mais également, par conception, l’intégration du jugement humain. Je crois, sous réserve de directives spécifiques, qu’il y a une valeur à intégrer le jugement au fil du temps, sous réserve de critères spécifiques. Mais vous aidez à maximiser le potentiel de valeur ajoutée du jugement humain si, encore une fois, vous comprenez dans quelle mesure les personnes fournissant ce jugement sont biaisées. C’est dans les organisations qui ne veulent pas croire qu’elles ont des biais ou qui sont inconscientes du fait qu’elles ont des biais que vous êtes le plus susceptible de transmettre des biais dans le processus de planification de la demande, soit par l’intégration active de jugements, soit avec ces empreintes humaines qui existent partout ailleurs. Lorsque vous commencez à examiner les biais présents dans votre organisation, vous pouvez commencer à mettre en place des garde-fous pour atténuer leur impact. Ils seront toujours présents. Je veux dire, le jugement humain sera toujours défectueux, mais il s’agit d’équilibrer le potentiel de bénéfices des idées humaines dans des cas particuliers par rapport à la certitude que ces idées seront accompagnées de la fragilité qui nous affecte tous en raison de l’imperfection de notre fonctionnement mental.

Joannes Vermorel: Je suis d’accord avec l’idée, qui est aussi mon expérience, que si vous ne reconnaissez même pas le fait que vous pourriez avoir des biais, c’est une recette très éprouvée pour maximiser la quantité de biais que vous avez. Pour les organisations, c’est très largement mon expérience personnelle. Les choses dont je parlerais, et si je dois déconstruire davantage cette idée d’approcher l’avenir, lorsque les gens réfléchissent à ces biais, ils ont encore cette perspective de séries temporelles à l’esprit. Et il est très difficile de réfléchir à ce que je fais de mal dans mon activité de prévision sans avoir à l’esprit le genre de solution ou de mécanisme par lequel je le fais. Le biais fait référence au fait que vous avez des choses qui sont trop élevées ou trop basses, et c’est une perspective très unidimensionnelle avec l’idée que vous travaillez avec une série temporelle.

Les problèmes que j’ai constatés, et qui ont été l’évolution technologique de Lokad, c’est que si vous voulez transmettre des informations sur l’avenir, il existe des catégories entières de choses qui ne peuvent pas être exprimées avec des séries temporelles. Cela ne signifie pas que cela ne peut pas être exprimé avec des chiffres ; cela ne peut simplement pas être exprimé avec des séries temporelles. Les séries temporelles sont une façon très simpliste, c’est littéralement une séquence de mesures qui s’étend dans le futur. Juste pour donner un exemple, si je regarde mes ventes d’un produit, je pourrais prévoir mes volumes de ventes, mais mes volumes de ventes dépendent du prix que je pratique, et le prix n’est pas quelque chose qui est donné, c’est une décision pour moi. Donc même si j’étais capable d’avoir une prévision très précise, elle serait toujours incomplète.

Conor Doherty: Quelque chose qui serait un peu étrange devrait être mathématiquement une fonction qui dit que si je fais cela pour le prix, alors cela serait le résultat. Donc, ici, nous touchons soudainement le fait que même si nous regardons cette perspective très déterministe d’avoir simplement un biais et autres, je souligne simplement qu’il y a des éléments où cette perspective de séries temporelles est très faible pour prendre en compte des choses qui sont très importantes. Il ne s’agit pas seulement d’avoir quelque chose qui est trop élevé ou trop bas, c’est presque une dimension différente qui n’est tout simplement pas prise en compte. Donc, ici, je donne simplement l’idée de pouvoir littéralement façonner le résultat par d’autres actions. Il ne s’agit pas seulement d’observer le mouvement des planètes ; je peux agir et modifier l’avenir du résultat. Mais même si nous restons avec un simple observateur passif, il y a des situations où les séries temporelles sont encore insuffisantes.

Joannes Vermorel: Par exemple, si je me lance dans la maintenance aéronautique, je veux garder mes lignes d’appareils. Je peux prévoir la demande de pièces, mais le problème est que lorsque je répare un avion, il y a une liste de pièces que je dois réparer. Donc, je simplifie le schéma, un avion entre dans le hangar pour la maintenance, les gens font un diagnostic, il y a une liste de pièces qu’ils doivent changer, et tant que chacune de ces pièces n’a pas été changée, l’avion ne peut pas voler à nouveau. Il est cloué au sol. Le fait que je puisse prévoir toutes les pièces indépendamment ne me dit rien sur la disponibilité conjointe de toutes les pièces. En théorie, si toutes mes prévisions étaient absolument parfaites pour toutes les pièces, alors oui, la connaissance conjointe serait également parfaite. Mais dès que vous avez même une très petite incertitude sur chaque pièce, sachant que pour le public, un avion est composé d’environ 300 000 pièces distinctes, même une très petite incertitude sur le type de besoin que vous avez pour chaque pièce signifie que l’incertitude que vous avez pour la disponibilité conjointe de toutes les pièces dont vous avez besoin pour réparer l’avion est absolument gigantesque.

Joannes Vermorel: Et c’est un exemple où la perspective classique des séries temporelles n’est tout simplement pas assez expressive mathématiquement. Donc, c’est une autre classe de problèmes où les problèmes que nous avons, si nous revenons aux biais, c’est que vous avez le genre de biais comme prévoir trop haut ou trop bas, mais vous avez aussi d’autres classes de problèmes très humains qui ne regardent même pas dans la bonne direction ou ne regardent même pas avec la sorte de structure qui vous donnerait une réponse pertinente. Et ce sont, je dirais, des façons de regarder très 21e siècle, et elles sont beaucoup plus déconcertantes.

Jonathon Karelse: Je suis tout à fait d’accord.

Conor Doherty: Eh bien, cela nous amène alors, je pense, à discuter de l’avenir, ou des cent prochaines années, de l’avenir de l’avenir, de l’avenir des futurs. Donc, Jonathon, je vais d’abord m’adresser à vous. En ce qui concerne le développement de l’IA et de la technologie, pensez-vous que cela aide les gens à prévoir ou finira par les remplacer ?

Jonathon Karelse: Lorsqu’on demande à Daniel Kahneman si l’IA va remplacer les gens, il est d’un côté optimiste que cela

Conor Doherty: Nous sommes si mauvais pour prendre des jugements objectifs, mais d’un autre côté, certains qu’il ne se produira jamais. Et encore une fois, c’est, pour moi, l’importance de séparer le théorique ou le philosophique du pratique. Du côté théorique, cela devrait se produire à un moment donné dans le futur, à un moment où notre capacité à traiter les données, notre capacité à comprendre de manière beaucoup plus nuancée et granulaire comment fonctionne la pensée humaine et ce qu’est réellement l’intelligence, nous permettra de donner naissance à des systèmes complexes comme ceux visés par les participants à la conférence de Dartmouth dans les années 50, lorsqu’ils pensaient pouvoir reproduire le cerveau humain en quelques décennies. C’est du côté théorique.

Dans la vie réelle, de mon vivant, de votre vivant, je ne crois pas que cela se produira. Et je peux le dire avec une certaine certitude en regardant la trajectoire de ce que nous avons vu au cours des 70 dernières années en matière d’IA. Certes, nous apprenons beaucoup aujourd’hui. La puissance de calcul informatique augmente de manière exponentielle, tout comme la quantité de données disponibles, mais cela n’a toujours pas donné lieu à une percée en matière d’IA pratique qui remplacerait les humains. Peut-elle nous aider ? Certainement. Il existe aujourd’hui toutes sortes d’exemples où l’application naissante de l’IA apporte des avantages dans de nombreux domaines différents, mais l’écart entre le remplacement des personnes et l’assistance aux personnes reste béant aujourd’hui.

Revenons à quelque chose que Joannes a dit au début et avec lequel je suis tout à fait d’accord, c’est que la capacité d’ingéniosité humaine est cette partie que je pense que nous ne risquons pas de voir remplacée par des ordinateurs ou par l’IA. Je pense que la valeur de l’humanité ne réside pas dans sa capacité à répondre à des questions complexes, car nous pouvons correctement utiliser les ordinateurs pour résoudre des questions complexes. Je pense que là où nous sommes le plus précieux, c’est lorsque nous posons des questions intéressantes et importantes en premier lieu. Ce n’est qu’en posant ces questions que nous pouvons mobiliser l’ensemble de la technologie d’aujourd’hui pour trouver la réponse, mais c’est en posant ces questions de l’ordre de l’utopie que les humains restent une partie essentielle du processus.

Voulez-vous ajouter quelque chose, Joannes ? Je vous laisse la parole.

Joannes Vermorel: Je pense que ce que les gens considèrent comme la prévision en tant qu’activité humaine, dans le sens classique, comme avoir une armée de commis ou des entreprises ayant leurs processus de S&OP soutenus par des centaines de personnes traitant des feuilles de calcul et générant des chiffres, je suis très optimiste quant au fait que de mon vivant, je verrai cela disparaître. La sorte de pratique que nous avons chez Lokad me rend très optimiste car, pour les clients que nous servons, nous avons pratiquement éliminé cela.

Mais la façon dont nous l’avons fait, et c’est le genre de produit, ce n’est pas en éliminant les gens ou en ayant une sorte d’intelligence artificielle. La façon dont nous l’avons fait, c’est en nous concentrant sur ces décisions et en faisant en sorte que des ingénieurs intelligents conçoivent des recettes numériques. C’est le terme typique que j’utilise car certaines peuvent être des heuristiques, certaines peuvent être encore plus banales, juste des filtres et autres. Même cela n’est même pas une heuristique, c’est quelque chose de encore plus basique.

Conor Doherty: Donc, concevoir des recettes numériques qui fonctionnent simplement à grande échelle pour ces entreprises, les tâches quotidiennes banales, et cela peut être entièrement automatisé maintenant. Cela signifie-t-il que nous avons éliminé les humains de l’équation ?

Joannes Vermorel: Pas vraiment, car d’abord, les recettes numériques sont vraiment le produit d’un être humain. Il faut un ingénieur humain très intelligent pour les concevoir, et la maintenance est également entièrement pilotée par des humains. Les recettes numériques sont simplement une sorte de savoir-faire sur les processus numériques qui fonctionnent à grande échelle pour générer des décisions raisonnables. Y a-t-il une intelligence dans les recettes numériques ? Absolument pas. La recette numérique est une affaire très mécanique. Oui, il peut y avoir des éléments d’apprentissage automatique, mais ce ne sont que des techniques statistiques. Elles restent extrêmement mécaniques par nature.

Conor Doherty: Alors où est-ce très intéressant ?

Joannes Vermorel: Si vous partez de cette perspective, vous vous retrouvez toujours avec un processus qui automatise quelque chose qui occupe des centaines de personnes dans les grandes entreprises. Pourtant, à la fin de la journée, vous avez toujours une équipe de personnes qui sont très responsables de ces recettes numériques qui ne fonctionnent pas toutes seules. La clé est que les humains aient la capacité mentale de réfléchir, et s’ils sont complètement submergés par les détails minutieux de choses super complexes dans la supply chain, cela devient difficile.

Un exemple de chose super complexe dans la supply chain serait d’avoir 50 millions de références d’articles qui nécessitent une sorte de micromanagement, où je dois choisir si je vais avoir une unité en stock, deux, trois, cinq, etc. Et j’ai 50 millions de ces niveaux de stock à gérer au quotidien. J’espère que les prévisions minutieuses nécessaires pour alimenter ce genre de décision seront entièrement automatisées dans le sens de l’exécution quotidienne. Mais pour un horizon plus long, comme d’une année à l’autre, où l’entreprise elle-même évolue, où son marché évolue, où les bonnes questions à répondre évoluent, je ne pense pas que nous verrons cela résolu par des machines de mon vivant.

Conor Doherty: Alors, qu’est-ce que cela signifie pour les entreprises en pratique ?

Joannes Vermorel: Je crois que cette automatisation remplacera des couches de l’écosystème où les gens font des choses qui ont très peu de valeur ajoutée, notamment dans le cadre de la S&OP. Certaines personnes pourraient soutenir que ce n’est peut-être pas le véritable S&OP ou le bon S&OP, mais ce n’est pas mon débat. Mon point est que j’ai observé, dans l’industrie de la supply chain, qu’il y a beaucoup de grandes entreprises avec des équipes de personnes incroyablement nombreuses qui ne font que manipuler des chiffres, et je soupçonne que cela pourrait disparaître. Non pas parce que nous avons des outils fantastiques qui élimineraient le besoin d’humains, mais parce qu’avec de meilleurs outils, nous pouvons améliorer l’efficacité de la gestion de la supply chain.

Jonathon Karelse: Je suis d’accord avec Joannes. À mesure que nous développons de meilleurs outils et technologies, nous verrons un changement dans les rôles que jouent les humains dans la gestion de la supply chain. Alors que l’automatisation peut gérer bon nombre des tâches banales et répétitives, l’expertise humaine restera essentielle pour la stratégie, l’innovation et l’adaptation aux conditions du marché en évolution.

Conor Doherty: Et avec de meilleures techniques, nous pouvons avoir quelques personnes intelligentes qui peuvent concevoir des choses qui fonctionnent à très grande échelle. Eh bien, si je vous renvoie la balle, Jonathan, avez-vous quelque chose à répondre à cela ? Parce que je veux vous donner le dernier mot là-dessus.

Jonathon Karelse: Je veux bien avoir le dernier mot, mais je suis largement d’accord avec tout ce qu’il dit, c’est certain. Et je ne vais pas non plus me laisser entraîner dans le débat sur le “S&OP”.

Conor Doherty: Nous allons donc continuer un peu. En ce qui concerne l’avenir, si vous deviez écrire une deuxième édition de “Histoire des futurs de l’histoire du futur - Deuxième partie du XXIe siècle”, y aurait-il des idées spécifiques sur lesquelles vous vous concentreriez ?

Jonathon Karelse: Non, mon deuxième livre ne sera pas une suite à ce livre. Mon deuxième livre devra être écrit après ma retraite, car il racontera toutes les choses insensées que j’ai vues des gens faire dans la supply chain au cours de ma carrière. Des gens qui, malgré toutes les preuves montrant à quel point cela serait fou de le faire, persistent à le faire quand même. Mais évidemment, tous mes clients actuels, ne vous inquiétez pas, vous n’y serez pas. Mais non, je veux dire, nous ne sommes qu’à quelques mois après la publication de ce livre, donc je ne pense pas qu’il y ait de nouveaux systèmes de connaissances ou types de sciences encore inconnus, comme l’a dit Joannes, auxquels je doive commencer à réfléchir.

Conor Doherty: Eh bien, sur cette note, et c’est quelque chose que je n’ai pas eu l’occasion de demander plus tôt, Joannes, je vais vous poser la même question. Dans votre expérience chez NorthFind, lorsque vous êtes en présence de cadres de haut niveau et que vous essayez de leur vendre ces idées dont nous parlons, et que vous rencontrez ce niveau de résistance dont nous avons parlé plus tôt en raison de biais inconscients, comment utilisez-vous l’économie comportementale pour surmonter cela, afin d’éviter les exemples insensés auxquels vous venez de faire allusion ?

Jonathon Karelse: Je vais partiellement rejeter la prémisse de votre question. Je ne pense pas particulièrement essayer d’utiliser l’économie comportementale comme moyen d’arriver à une conclusion souhaitée dans ces discussions. Je pense que je suis peut-être dans une position plus facile pour naviguer sur ce terrain que, par exemple, un fournisseur de logiciels. Parce que pour moi, le succès commercial ne consiste pas à vendre un logiciel. Et pour être clair, je ne dis pas que le logiciel n’est pas important ; il l’est absolument, c’est un élément essentiel. Mais parce que nous sommes dans le domaine de l’évaluation des processus et des problèmes, et finalement de l’architecture des solutions, je ne suis pas souvent dans la position d’essayer de pousser les dirigeants de haut niveau dans une certaine direction. Il s’agit plutôt de comprendre, compte tenu de la culture de leur entreprise, compte tenu de leurs ressources disponibles - qu’il s’agisse de données, d’outils ou de personnes - quel est le premier pas le plus probable ou le plus optimal sur le chemin de la transformation des processus ? Et s’ils sont fermement opposés à l’idée de renoncer à leurs prévisions et qu’ils veulent vraiment que 300 commerciaux passent du temps chaque mois à ajuster une prévision, ce n’est pas nécessairement une bataille sur laquelle je vais mourir. Je veux dire, c’est alors d’accord. Si cela continue d’être notre réalité, faisons-en partie du processus, mais surtout, mesurons la valeur commerciale de cette activité. Et ils en viendront souvent eux-mêmes à cette conclusion. La raison pour laquelle bon nombre de ces activités folles existent est parce que

Conor Doherty: L’héritage dans ces organisations est une sorte de mesure qui leur permet de persister. C’est une mesure qui ne montre pas clairement à quel point l’activité est folle. Les mesures elles-mêmes sont souvent folles car il faut une mesure folle pour justifier un processus fou. Lorsque vous allez dans une organisation et que vous voyez la précision de la mesure au niveau du montant en dollars et moyennée sur trois mois, vous savez que c’est le résultat de leur refus de reconnaître à quel point le processus de prévision est mauvais. Car s’ils l’utilisaient à des fins diagnostiques plutôt que comme un tableau de bord, ils ne regrouperaient jamais plusieurs mois et ne le feraient jamais à un niveau aussi élevé dans une hiérarchie. Je m’égare un peu, mais en fin de compte, je n’essaie pas de les pousser à une conclusion s’ils sont vraiment bloqués sur un processus fou. Nous les aidons simplement à comprendre en mesurant les avantages commerciaux de ce processus fou, qu’ils souhaitent ou non continuer à le faire, et souvent ils en viennent eux-mêmes à cette conclusion.

Joannes Vermorel: Évidemment, en tant que modèle logiciel, mon approche est généralement assez différente. Mon approche consiste généralement à donner des exemples aussi simples que possible, où le type de prévision ne peut tout simplement pas fournir ce qu’ils recherchent. Parfois, il y a des situations très simples. Dans l’aviation, si vous faites des choses au niveau des pièces, cela ne vous donne toujours aucune information sur la réparation de l’avion. Si vous allez dans le commerce de détail et que vous dites que le magasin a des tonnes de produits qui sont de très bons substituts les uns des autres, vous avez un autre type de problèmes. Cela ne me donnera pas du tout un bon indicateur. Suis-je très réussi avec ce genre d’organisation ? Je ne sais pas. Peut-être que votre propre approche, qui consiste à les faire faire leur propre parcours, pourrait être plus efficace. C’est un voyage difficile. L’un des points qui rendent l’expérience Lokad intéressante, pas nécessairement plus facile, mais intéressante, c’est qu’en se concentrant sur les décisions, le genre de choses que nous faisons en termes de modélisation prédictive est tout simplement très étrange, positivement. Il y a ce voyage que je vois où les prévisions les plus utiles deviennent de plus en plus étranges. Je soupçonne que les histoires du futur du XXIe siècle seront très étranges, un peu comme le genre d’étrangeté qui se produit avec la mécanique quantique. C’est tout un ensemble d’idées qui ne sont absolument pas intuitives. Elles s’accompagnent de mathématiques tout à fait bizarres. Lorsque vous les appliquez, vous obtenez des choses encore plus bizarres que prévu.

Jonathon Karelse: Eh bien, messieurs, je pense que je vais conclure ici. Mais avant de partir, Jonathan, si vous aviez un conseil à donner à tous les professionnels de la gestion de la chaîne d’approvisionnement ou à tous les praticiens de la chaîne d’approvisionnement, quel serait-il ?

Jonathon Karelse: Achetez le livre, disponible en magasin. C’est un conseil que mon comptable donnerait peut-être. S’il ne devait y avoir qu’un seul conseil, ce serait de se demander pourquoi. Ne vous contentez jamais de savoir ; essayez de comprendre pourquoi. Nous avons en fait une très belle citation, et je ne sais pas si vous l’avez écrite, mais c’était “un mauvais prévisionniste avec des données est comme un ivrogne avec un réverbère : il l’utilise pour se soutenir plutôt que pour éclairer.” Alors cherchez toujours la lumière.

Conor Doherty: Merci beaucoup. Eh bien, Jonathan, merci beaucoup pour votre temps. Joannes, merci pour le vôtre. Et merci à tous de nous avoir regardés. Nous vous verrons tous la prochaine fois.