00:00:00 Introduction de l’interview
00:00:42 La carrière de Meinolf Sellmann et la prise de décision chez InsideOpt
00:03:47 Perturbations et optimisme excessif dans l’optimisation
00:06:18 La découverte de l’optimisation stochastique par Vermorel et ses influences
00:08:10 L’exécution du e-commerce et la prévision de la supply chain
00:09:56 L’approche « predict then optimize » et ses conséquences
00:11:41 L’amélioration des résultats opérationnels et les coûts de l’entreprise
00:14:08 L’imprévisibilité et le chaos dans la supply chain
00:16:16 L’attrait des prévisions et la prise de décision rationnelle
00:18:43 La prise de décision rationnelle et le surbooking
00:21:55 Exemple de produit de supermarché et disponibilité des stocks
00:24:27 Optimisation stochastique et variabilité saisonnière des ventes
00:28:53 Impact des variations de prix et distribution postérieure conjointe
00:30:39 Heuristiques de résolution de problèmes et abordage de la complexité
00:33:10 Défis liés aux produits périssables et distribution postérieure
00:36:01 Difficultés de raisonnement et sensibilisation à la solution
00:38:40 Problème de torréfaction de café et planification de la production
00:42:20 Modélisation commerciale et réalité des variables complexes
00:45:34 Préoccupations ignorées dans l’optimisation et recherche de l’arme miracle
00:49:00 Conseils du CEO et compréhension des processus de l’entreprise
00:51:58 Capacité d’entrepôt et incertitude sur la livraison des fournisseurs
00:54:38 Perception du taux de service et exercice de briefing
00:57:33 Les pertes financières des compagnies aériennes et l’adoption de la technologie
01:00:10 Avantages de la recherche basée sur l’IA et compatibilité matérielle
01:03:05 La convexité dans l’optimisation et l’utilité plutôt que la preuve
01:06:06 La convergence du machine learning avec les techniques d’optimisation
01:09:34 Caractéristiques d’exécution et élargissement de l’horizon de recherche
01:12:22 Micro-ajustements et risques liés au fonctionnement de l’entrepôt
01:16:09 Trouver un bon compromis et se prémunir contre l’incertitude
01:19:11 Hausse du profit attendu grâce à l’optimisation stochastique
01:22:23 Exemple de l’industrie aérospatiale
01:24:30 Accepter de bonnes décisions et gestion des dégâts
01:25:19 L’efficacité de la supply chain
01:26:22 Retour d’information des clients et importance de la technologie
01:26:56 Fin de l’interview

À propos de l’invité

Dr. Meinolf Sellmann est fondateur et CTO chez InsideOpt, une startup américaine qui produit des logiciels polyvalents pour automatiser la prise de décision en situation d’incertitude. Il est l’ancien Directeur de l’optimisation réseau chez Shopify, Directeur de laboratoire pour les Machine Learning et les laboratoires de Représentation des Connaissances au Global Research Center de General Electric, Senior Manager pour le Cognitive Computing chez IBM Research, et Assistant Professor en informatique à l’Université Brown. Meinolf a conçu des systèmes tels que le système de règlement des opérations de l’ECB, qui gère plus d'1 trillion d’euros par nuit, a publié plus de 80 articles dans des conférences et revues internationales, détient six brevets et a remporté plus de 22 premiers prix dans des compétitions internationales de programmation.

Résumé

Dans une récente interview sur LokadTV, Conor Doherty, Joannes Vermorel et l’invité Meinolf Sellmann ont discuté du rôle de l’optimisation stochastique dans la gestion de la supply chain. Ils ont souligné l’importance de prendre en compte la variabilité et l’incertitude dans les processus de prise de décision. Les méthodes déterministes traditionnelles sont souvent insuffisantes dans des scénarios réels, menant à des plans d’optimisation trop optimistes. Tant Vermorel que Sellmann ont critiqué l’approche « predict then optimize », suggérant que les entreprises peuvent obtenir de meilleurs résultats en prenant en compte la variabilité des prévisions lors de l’optimisation. Ils ont insisté sur la nécessité de disposer de plans exécutables et d’une efficacité mesurable dans tout modèle d’optimisation.

Résumé Étendu

Dans une récente interview animée par Conor Doherty, Responsable de la Communication chez Lokad, le Dr. Meinolf Sellmann, CTO d’InsideOpt, et Joannes Vermorel, CEO de Lokad, ont abordé les complexités de la prise de décision en situation d’incertitude dans la gestion de la supply chain. La conversation s’est articulée autour du concept d’optimisation stochastique, une méthode qui prend en compte la variabilité et l’imprévisibilité inhérentes aux processus de supply chain.

Dr. Sellmann, informaticien primé et chercheur en IA, a commencé par partager son parcours professionnel à travers IBM, GE, Shopify, et désormais InsideOpt. Il a souligné comment le machine learning est devenu une part de plus en plus importante de son travail, et comment les méthodes d’optimisation traditionnelles, déterministes, sont souvent insuffisantes dans des scénarios réels. Il a insisté sur le fait que la prise de décision en situation d’incertitude est un aspect nécessaire de la gestion de la supply chain, et c’est l’objectif chez InsideOpt.

Utilisant l’industrie aérienne comme exemple, le Dr Sellmann a illustré les défis de l’optimisation en situation d’incertitude. Il a expliqué que, bien que les plans d’optimisation puissent paraître excellents sur le papier, ils échouent souvent en pratique en raison d’imprévus. Cela conduit à la prise de conscience que l’optimisation souffre d’un optimisme excessif.

Vermorel a adhéré à la perspective du Dr Sellmann, partageant sa propre expérience de la découverte du concept d’optimisation stochastique. Il a noté que l’idée d’incertitude est souvent absente de la littérature sur l’optimisation traditionnelle. Vermorel a également évoqué l’idée de maîtriser l’avenir pour éliminer l’incertitude, un concept qui séduit depuis près d’un siècle. Il a mentionné la tentative de l’Union Soviétique de prévoir et de tarifer 30 millions de produits cinq ans à l’avance, qui fut un échec. Malgré cela, l’idée continue de séduire les universitaires et certains types de gestion en raison de son approche descendante.

Le Dr Sellmann a critiqué l’approche traditionnelle « predict then optimize », où un département fait une prévision et un autre utilise cette prévision pour l’optimisation. Il a soutenu que cette approche ignore la variabilité des prévisions et a suggéré que les entreprises peuvent obtenir des résultats opérationnels nettement meilleurs en prenant en compte la variabilité des prévisions lors de l’optimisation.

Vermorel a utilisé l’exemple de la surréservation dans le secteur aérien pour illustrer la non-linéarité de certains problèmes, où de légères déviations peuvent rapidement conduire à des enjeux importants. Le Dr Sellmann a pris l’exemple d’un supermarché vendant du beurre et des kits de crème solaire pour démontrer l’importance de la variabilité de la demande. Il a soutenu qu’il est crucial d’avoir l’ensemble des stocks disponibles au bon moment, notamment pour des produits saisonniers comme la crème solaire.

La conversation a également abordé le fossé entre le bon sens et l’utilisation de logiciels dans la gestion de la supply chain, l’importance de prévoir des scénarios potentiels pour tous les produits, ainsi que les complexités de la planification de la production. Le Dr Sellmann a expliqué que, bien qu’une précision parfaite serait idéale, cela n’est pas possible en raison des incertitudes inhérentes aux prévisions. À la place, la meilleure alternative est d’apprendre comment les prévisions se trompent et d’utiliser cette information pour prendre de meilleures décisions.

En conclusion, l’interview a mis en lumière l’importance de l’optimisation stochastique dans la gestion de la supply chain. Tant le Dr Sellmann que Vermorel ont souligné la nécessité de prendre en compte la variabilité et l’incertitude des prévisions lors de la prise de décision, ainsi que l’importance de ne pas simplifier à l’excès les modèles. Ils ont suggéré que tout modèle d’optimisation peut être considéré comme une simulation de ce qui se passerait dans certaines conditions et qu’il est crucial de s’assurer que le plan est exécutable et que son efficacité peut être mesurée.

Transcription complète

Conor Doherty: Bon retour. L’incertitude et la stochasticité sont l’essence même de la supply chain. L’invité d’aujourd’hui, le Dr. Meinolf Sellman, n’est pas étranger à cela. C’est un informaticien primé, un chercheur en IA décoré, et il est le CTO d’InsideOpt. Aujourd’hui, il va nous parler, à Joannes et à moi, de la prise de décision en situation d’incertitude. Meinolf, soyez le bienvenu chez Lokad.

Meinolf Sellman: Merci beaucoup, Conor, et enchanté de vous rencontrer, Joannes. J’ai hâte de participer à la discussion.

Conor Doherty: Eh bien, merci beaucoup de vous être joints à nous. Excusez-moi pour cette brève introduction. J’aime bien aller droit au but avec l’invité, mais cela signifie que je ne rends pas justice au parcours de la personne à qui nous avons affaire. Pourriez-vous donc, tout d’abord, m’excuser, puis combler certains blancs concernant votre parcours?

Meinolf Sellman: Bien sûr. Je pense que vous en avez saisi l’essentiel. Je suis avant tout une personne axée sur l’optimisation. C’est en quelque sorte ce qui a motivé mon mémoire de fin d’études. Le système allemand est très similaire au système français. Mon mémoire consistait à construire un solveur de programmation en nombres entiers mixtes pour un système d’algèbre informatique. Ainsi, dès mes débuts d’étudiant, je me suis intéressé à la prise de décision, en explorant comment utiliser les ordinateurs pour parvenir à de meilleures décisions.

I’ve been a postdoc at Cornell, a professor at Brown, then a senior manager at IBM, a technology director at GE, then a director at Shopify, and now CTO at InsideOpt. Through this journey, you can see that more and more machine learning has crept into the mix.

Traditionnellement, l’optimisation est déterministe. On suppose tout savoir de ce qui se passe, on cherche simplement à trouver la meilleure ligne de conduite. Mais aussitôt que vous vous confrontez à la pratique, vous vous rendez compte que ce n’est pas le cas. Il faut intégrer de plus en plus de technologies permettant de prendre des décisions en situation d’incertitude, et c’est exactement ce qui nous enthousiasme ici chez InsideOpt.

Conor Doherty: Merci. Encore une fois, vous avez mentionné de grands noms en ce qui concerne votre parcours chez IBM, General Electric et Shopify. Sans violer d’éventuels accords de confidentialité, quels détails ou expériences ont le plus influencé votre perspective sur les prévisions et la prise de décision maintenant que vous êtes chez InsideOpt ?

Meinolf Sellman: Regardez une industrie comme celle du transport aérien. Traditionnellement, on y investit énormément dans l’optimisation. C’est l’un des domaines, ou l’une des industries qui a probablement investi le plus tôt et le plus intensément au fil des décennies dans la technologie d’optimisation. Et puis regardez comme il est amusant de gérer une compagnie aérienne. Ils obtiennent des plannings impressionnants, n’est-ce pas ? Ils disposent de plannings d’équipage. Ils doivent décider quel pilote se rend sur quel avion, quelle hôtesse sur quel avion, quels avions utiliser pour quels tronçons. Ils doivent également déterminer quels types de tronçons offrir, quels vols directs proposer et comment les transformer en routes, et ils doivent faire de la gestion des revenus. Pour toutes ces décisions, décisions opérationnelles, ils utilisent l’optimisation et, sur le papier, ces plans semblent fantastiques. Ils peuvent généralement être présentés, sinon avec une optimalité prouvable, alors avec une garantie de performance.

Mais ensuite, si vous exploitez une compagnie aérienne, vous savez que vous prenez de gros risques le jour de l’opération, car les choses se déroulent légèrement différemment. Le temps n’est pas celui que vous attendiez, les contrôleurs aériens en France ont l’impression de ne pas être suffisamment rémunérés, la porte est pleine, certains équipements tombent en panne. Toutes ces choses peuvent mal tourner. Et si vous avez déjà pris l’avion, vous savez que la devise de la compagnie aérienne est : “Si aujourd’hui ça foire, alors aujourd’hui ça foire. Assurons-nous que demain ne foire pas.” Et c’est de cette manière qu’ils vous traitent. Ils se fichent que vous arriviez où il faut aujourd’hui, ils veulent être de retour dans le planning demain, car si demain se présente mal, alors demain aussi sera fichu.

Qu’est-ce que cela vous dit ? Cela vous indique que l’optimisation souffre d’un optimisme excessif, partant du principe que tout se déroulera comme prévu. Et c’est ce que nous voulons changer.

Conor Doherty: Merci. Joannes, est-ce que cela correspond à votre point de vue ?

Joannes Vermorel: Absolument. Pour moi, c’était très intrigant car je n’ai découvert que relativement tard la notion même d’optimisation stochastique. J’étais très familier dans la vingtaine avec l’optimisation classique, vous savez, l’optimisation convexe, j’ai lu des livres entiers sur ce genre de choses. Et donc ce type d’optimisation classique qui commence avec l’algèbre linéaire et l’algorithme du simplexe, entre autres, ces sujets ne sont littéralement pas enseignés au lycée mais juste après.

Ensuite, j’ai étudié pendant quelques années, lorsque j’étais étudiant, la recherche opérationnelle, c’est le nom traditionnel donné à ce sujet. Et encore, vous pouvez parcourir littéralement des centaines de pages de cas où l’on retrouve des usines, des avions, toutes sortes d’allocation d’actifs, de machines, de personnes, et ainsi de suite. Et pourtant, à aucun moment, ils n’évoquent l’éléphant dans la pièce, à savoir que les choses peuvent mal tourner. On se contente d’une modélisation de la situation qui peut être incorrecte et ensuite, tout ce que vous optimisez finit par être extrêmement fragile.

Le moment où j’ai réalisé à quel point le terrier du lapin était profond, c’était en lisant le livre “Antifragile” de Nassim Nicholas Taleb. Cela remonte à un certain temps, mais j’ai ensuite compris qu’il existait un paradigme manquant, véritablement omniprésent. Et puis j’ai commencé à m’intéresser de manière générale à ce type d’optimisation. Pour moi, le plus surprenant, c’est à quel point il est absent de littéraux ensembles de littérature qui traitent l’idée d’incertitude, de ne pas connaître parfaitement votre loss function, comme s’il s’agissait littéralement d’une dimension manquante. Il y a une dimension manquante et il est plus difficile de voir ce que l’on ne voit pas. Ce n’est pas que ce soit faux, c’est plutôt comme s’il y avait une dimension entière absente d’un domaine d’études très vaste, très étendu et très ancien.

Conor Doherty: Eh bien, en fait, si je peux rebondir là-dessus. Lorsque vous avez évoqué l’idée de paradigmes manquants et de choses totalement absentes, cela se juxtapose joliment avec l’une des raisons pour lesquelles nous avons effectivement contacté Meinolf. Votre perspective sur ce que nous pourrions appeler la planification, la prévision et les politiques de stocks traditionnelles tombe généralement dans une approche du type “prévision d’abord, décisions ensuite”, qui est paradigmaticalement très différente de ce que, je pense, tout le monde dans la salle prônerait. Alors, d’abord, je vous passe la parole, Meinolf. Pourriez-vous exposer les différences entre l’approche traditionnelle et les paradigmes manquants que vous et Joannes constatez ?

Meinolf Sellman: Oui, je veux dire, comme vous pouvez l’imaginer, si vous gérez un système de traitement des commandes, vous avez un le e-commerce et vous devez placer quelque part dans votre warehouse les produits que vous espérez que les gens achèteront. Le problème inhérent auquel vous faites face, c’est que vous ne savez pas combien sera acheté où. Vous devez donc formuler une attente, disons. Il faut donc établir une prévision ou une prédiction de manière plus générale. Et il y a des personnes qui font cela pour vous, et il s’agit typiquement de votre département de machine learning. Ces gars savent tout sur, “Oh, il y a des valeurs manquantes par ici.” N’est-ce pas ? Par exemple, disons que vous avez connu des stockouts à un moment donné, ce qui signifie que vous ne savez pas vraiment combien aurait été vendu parce que vous étiez en rupture. Donc, vous ne savez pas réellement combien vous auriez pu vendre si vous en aviez eu davantage. Ils gèrent les valeurs aberrantes, les valeurs manquantes, le bruit et tout ce qui est incertain, et à partir de cela, ils font une prévision, une prédiction.

Et ensuite, vous avez ce deuxième département, qui, comme Joannes le disait à juste titre, ces personnes ne traitent généralement pas l’incertitude. Ils se disent : “Oh, super prévision. Injectons cela dans mon modèle d’optimisation comme si cela venait de l’Oracle de Delphes ou autre.” C’est donc comme si vous aviez une connaissance parfaite de l’avenir. Vous prenez simplement ces chiffres que vous avez et vous dites : “Oh, ma demande de crème solaire la semaine prochaine est de 20 tubes. Alors, mettons-les sur l’étagère,” sans prendre en compte la moindre variabilité existante.

Ce “prédire puis optimiser”, c’est ainsi que cela s’appelle, est en partie dû au fait que vous disposez de deux départements très différents ayant des compétences radicalement opposées. Il serait très difficile de dire, “Oh, les experts en machine learning doivent désormais tout apprendre de l’optimisation,” ou peut-être que les spécialistes de l’optimisation doivent en apprendre davantage sur le machine learning. C’est donc typiquement ce à quoi les entreprises rechignent. Voilà l’une des raisons pour lesquelles cette séparation existe.

Le hic, c’est que si vous transmettez l’incertitude d’un département à l’autre, celle-ci ne disparaît pas. En l’ignorant, vous laissez en réalité beaucoup d’argent sur la table. Et c’est la deuxième raison pour laquelle les gens n’examinent pas cela de plus près, car pour eux, il semble que les experts en machine learning aient fait leur travail. Ils reviennent, font des choses comme, après avoir construit un modèle, tester leur dispositif via ce qu’on appelle, par exemple, une cross-validation. Vous iriez alors dans des données connues et vous diriez : “Hé, si je n’avais qu’un extrait de ces données et que je devais faire une prédiction pour l’autre partie, quelle performance cela aurait-il donnée ?” De cette manière, vous pouvez vous convaincre que vous allez obtenir d’excellentes prévisions du département de machine learning.

Et ils font cela, vous contrôlez cela et vous vous dites : “Oh, c’est génial. Ils font de bonnes prévisions.” Ensuite, les spécialistes de l’optimisation interviennent de toute façon et ils diront, “Soit j’ai une limite de performance, soit j’ai ici une solution probablement optimale.” Vous ne vous attendriez donc pas, en dirigeant une entreprise, à une marge d’amélioration en faisant mieux collaborer ces départements. Or, en réalité, vous pouvez très facilement obtenir des résultats opérationnels supérieurs de 15 %, 20 % voire 25 % si vous prenez en compte la variabilité dans la prévision lors de l’optimisation. Mais les gens ne voient pas cela.

Donc, en partie, c’est structurel que cette approche “prédire puis optimiser” persiste tant que vous ne voulez pas mélanger les compétences. L’autre aspect, c’est que vous ne voyez pas qu’en rapprochant ces compétences, vous laissez en réalité beaucoup sur la table. Parce que cela ressemble à : “Hé, super prévision, optimalité prouvée, génial. Le reste n’est que le coût de faire des affaires.” Or, ce n’est pas le cas. C’est, je pense, ce que Joannes et moi sommes ici pour dire au public aujourd’hui. Ce n’est pas le coût de faire des affaires.

Conor Doherty: Alors Joannes, est-ce le coût de faire des affaires ? Meinolf a-t-il raison ?

Joannes Vermorel: Oui, et je pense aussi qu’il y a une autre dimension. L’idée de maîtriser, de conquérir le futur afin d’éliminer complètement l’incertitude a été pendant près d’un siècle une idée très séduisante. L’Union soviétique s’est effondrée, mais l’idée d’établir un plan quinquennal et d’orchestrer le tout n’est pas morte avec l’Union soviétique. À un moment donné, je crois qu’ils avaient environ 30 millions de produits qu’ils devaient tarifer et prévoir cinq ans à l’avance. C’était un échec complet sur le plan pragmatique.

L’attrait de cette idée n’a pas disparu avec l’Union soviétique. Elle a toujours du succès, en particulier auprès des universitaires. L’idée que vous puissiez encadrer le futur du monde de telle manière que votre prévision devienne la vérité, et qu’il ne reste plus qu’à orchestrer, continue de séduire. Cela résonne également auprès de certains types de management, car cela adopte une approche très descendante.

Elle a cet attrait de simplicité. Évidemment, c’est une erreur de penser ainsi, car vous n’êtes pas aux commandes. Vos clients ont leurs propres agendas, ils peuvent décider autrement. Votre fournisseur fait de son mieux, mais parfois, son meilleur ne suffit pas. De plus, il y a des chocs. Parfois, c’est quelque chose de très dramatique comme une guerre, parfois, c’est quelque chose de vraiment bête, comme un navire coincé dans le canal de Suez, et tous vos imports sont retardés à cause d’un événement stupide. Mais quelle que soit la cause, l’avenir est chaotique.

Il est très difficile de rationaliser ce genre de chaos. Il est encore plus dur d’en raisonner. Raisonner sur un futur parfait est simple. C’était le type de retour que nous recevions dans les premières années de Lokad. “Monsieur Vermorel, donnez-nous simplement des prévisions précises. Tenez-vous à une erreur de 3 % et le tour est joué.” Et évidemment, si nous avions pu fournir cela, il n’y aurait eu aucun véritable avantage à combiner prévision et optimisation.

Mais nous y voilà, 15 ans plus tard. Même si Lokad réalise d’excellentes prévisions, pour la plupart des entreprises, une inexactitude de 3 % est tout simplement ridicule. Nous n’en sommes même pas proches. Ce n’est jamais le cas au niveau du SKU.

Meinolf Sellmann: Oui, cela paraît dur de comparer la pratique industrielle avec l’Union soviétique, mais j’ai vu une publicité pour un solveur MIP l’autre jour où ils disaient, “En utilisant notre solveur MIP, cette compagnie aérienne a optimisé son plan quinquennal.” Et je pense avoir laissé un commentaire indiquant que Khrouchtchev en serait fier. Il est vrai qu’il y a beaucoup d’attrait à dire, “Je peux prévoir l’avenir, l’IA est géniale, puis j’optimise en fonction et maintenant, tout va bien.”

Joannes Vermorel: Je pense que l’attrait de cette idéologie est fort. Je pense que les gens rejetteraient cela en disant, “Oh non, je suis pro-marché, je ne suis pas communiste.” Mais ils passent à côté de ce qui rendait cette idéologie si séduisante. L’idée de maîtriser son futur est extrêmement attrayante. L’idée de pouvoir appliquer, d’en haut, une sorte de méthodes scientifiques et de raisonner avec un grand plan, c’est entièrement rationnel de haut en bas. Sur le papier, cela ressemble au management moderne. Il s’avère toutefois que ce n’est pas du tout du management moderne, mais plutôt une mauvaise gestion moderne, néanmoins, je ressens l’attrait et l’apparence de rationalité.

Mais cela s’accompagne d’effets secondaires iatrogènes, des conséquences non intentionnées qui compromettent fondamentalement ces plans. Vous vous retrouvez avec des décisions censées être optimales qui s’avèrent être d’une fragilité incroyable, où la moindre déviation vous explose littéralement au visage de manière assez surprenante.

Meinolf Sellmann: C’est probablement le sophisme le plus courant. Les gens pensent, “Peut-être que je ne peux pas prévoir l’avenir parfaitement, mais même s’il y a de légères déviations, mes décisions resteront plus ou moins les mêmes.” C’est exactement ce qui n’est pas vrai. Ce type de changement continu que vous attendez n’existe tout simplement pas en pratique. C’est pourquoi, même si cela semble si rationnel de faire une prévision puis de fonder une décision sur celle-ci, c’est en réalité la chose la plus irrationnelle que l’on puisse faire. Vous devez vous attendre à ne pas avoir accès à toutes les informations auxquelles vous devriez pouvoir prétendre.

En réalité, l’approche rationnelle consiste à faire ce que Lokad fait, ce pour quoi nous concevons notre logiciel insideOpt, à savoir prendre en compte la variabilité que vous devez anticiper dans votre prévision lors de la prise de vos décisions.

Joannes Vermorel: Oui, et juste un exemple pour le public. Si vous voulez jouer au jeu de l’overbooking dans les compagnies aériennes, c’est acceptable. Il y a toujours quelques passagers qui ne se présentent pas, vous pouvez donc vendre quelques billets de plus que le nombre de sièges dans l’avion. Mais le problème, c’est qu’à un moment donné, il manque vraiment de sièges. Vous aviez seulement 200 sièges, vous en avez vendu 220 en pensant que 20 passagers ne se présenteraient pas, mais en réalité, 205 personnes se sont présentées. Vous vous retrouvez donc avec environ cinq personnes qui, quoi qu’il arrive, ne pourront pas être logées dans l’avion. Certes, vous pouvez leur offrir une compensation et jouer toutes sortes de tours, mais au final, vous avez cinq personnes qui auront une qualité de service épouvantable pour le vol qu’elles ont acheté.

Donc, c’est une affaire très non linéaire : pour les premiers sièges, oui, vous pouvez surbooker l’avion, mais ensuite il y a une limite – et atteindre cette limite est brutal, surtout pour ces personnes qui avaient quelque chose de vraiment important à faire. Ce n’est absolument pas comme un problème linéaire doux où il s’agit simplement d’un peu plus de la même chose. Non, il y a comme une coupure, et ensuite cela devient un véritable problème, très rapidement.

Conor Doherty: Pour enchaîner et relier quelques idées, car vous avez tous deux dit des choses vraiment intéressantes menant au point suivant. Joannes, votre exemple d’overbooking, et Meinolf, votre exemple de mesure de la demande. Par exemple, j’ai vendu 20 unités de crème pour la peau le mois dernier. Enfin, vous l’avez fait, mais vous avez connu une rupture de stocks, donc vous ne savez pas réellement ce qu’aurait été la demande.

Lorsque vous réfléchissez rationnellement au problème, cela vous conduit naturellement à l’optimisation stochastique, à accepter cette incertitude. Il n’y a pas de réponse parfaite, et je pense que vous avez dans vos conférences YouTube une expression du type “Je vais la bâcler maintenant, car une bonne solution immédiate vaut mieux qu’une solution parfaite trop tard”, ou quelque chose dans ce goût-là.

Meinolf Sellmann: Oui, c’est un autre point, celui du fait que le temps dont vous disposez pour trouver une bonne réponse influence la qualité de la réponse elle-même. Oui, c’est absolument nécessaire. Mais pour en venir à votre question, pourquoi la variabilité est-elle importante ? Expliquons cela par un exemple. Supposons que vous dirigiez un supermarché à Paris et que vous ayez différents produits sur vos étagères. Il y a du beurre et il y a des kits de crème solaire. Deux produits très différents. Si vous avez une prévision indiquant que vous allez vendre 300 de ces kits dans les 30 prochains jours, devez-vous alors dire que c’est 10 par jour ? Non. Pour le beurre, c’est possible car il a une demande constante et votre prévision tourne essentiellement autour de sa moyenne, avec quelques légères fluctuations. Mais pour la crème solaire, c’est plutôt comme si, en ce moment, le temps est mauvais, mauvais, mauvais, puis arrive un week-end où le soleil est de retour et tout le monde se prépare et achète la crème solaire pour tout l’été. Si vous ne disposez pas de l’ensemble de l’approvisionnement dans le supermarché à ce moment-là, vous l’avez tout simplement raté. Ce n’est pas comme si, parce que vous n’aviez que 10 de ces kits en stock aujourd’hui, vous alliez compenser avec les 290 restants demain. Non, dès lundi, vous ne vendrez plus aucun de ces produits.

Et c’est là toute la différence, n’est-ce pas ? La valeur attendue peut être identique, mais il importe énormément de savoir si la variabilité est étroitement répartie autour de cette valeur attendue ou s’il existe un énorme écart, de sorte qu’il y ait soit rien, soit une valeur très élevée. Et si vous ne prenez pas cela en compte dans vos décisions, vous passez à côté, non ? Vous laissez ainsi beaucoup d’argent sur la table si vous traitez les produits de cette manière. J’espère que cela illustre bien ce dont nous parlons ici. Les valeurs attendues restent des valeurs attendues, mais ce qu’il faut savoir, c’est quels scénarios examiner réellement. Et c’est ce que fait l’optimisation stochastique. Elle envisage différents futurs potentiels et tente de trouver aujourd’hui une décision de compromis.

Donc, pour les décisions à prendre aujourd’hui, lorsque vous ne pouvez pas attendre de voir à quoi ressemblera le futur, elle essaie de trouver une bonne position de départ afin que vous puissiez ensuite agir de manière optimale une fois l’avenir révélé. Voilà ce qu’est l’optimisation stochastique, et c’est, à mon sens, ce que fait chaque être humain chaque jour. Parce que nous oublions de le faire dès que nous utilisons un ordinateur pour ces tâches.

Conor Doherty: Merci, Meinolf. Joannes, comment cela s’aligne-t-il avec votre compréhension de l’optimisation stochastique ?

Joannes Vermorel: Oui, c’est le cas d’avoir, comme Meinolf l’a mentionné, un schéma pour la crème solaire qui est très saisonnier, mais le début de la saison varie en fonction de la météo d’une année à l’autre. C’est très classique. Il existe une multitude de produits qui relèvent de cette catégorie. Un autre type de produit, dans lequel on peut prendre un exemple similaire en distribution, serait le magasin de bricolage (DIY) où les gens achèteraient, par exemple, quatre ou huit unités en même temps parce qu’il s’agit d’interrupteurs et qu’ils ne veulent pas avoir quatre ou huit interrupteurs dans leur appartement qui soient tous différents. Ainsi, lors de leurs achats, ils voudront avoir quatre ou huit exemplaires identiques au même moment.

Si vous pensez qu’avoir trois articles sur l’étagère signifie que vous n’avez pas de risque de stock, c’est faux. En effet, la personne entre dans le magasin, déclare « je veux quatre », il n’y en a que trois, alors elle se rend ailleurs où elle peut trouver quatre unités identiques. Ainsi, l’irrégularité de la demande est vraiment importante, et c’est précisément dans ce genre de cas que la structure fine de cette irrégularité compte plus que quelque chose qui est moyenné sur une longue période.

Et effectivement, c’est ce que sait instinctivement la personne qui gère le magasin. Ces interrupteurs, en avoir un seul est inutile. Il me faut soit un lot complet d’interrupteurs identiques, soit mieux vaut ne pas en avoir du tout, car les gens ne daigneront même pas jeter un coup d’œil à un produit isolé. Un marteau isolé, ça se fait, car les gens n’achètent pas, par exemple, quatre marteaux identiques, mais ce n’est pas le cas des interrupteurs. Et cela n’a rien de très compliqué, ce n’est pas de la mathématique de fusée quand on y pense.

Je pense que vous avez tout à fait raison. J’ai été témoin de la même chose. Les gens, en particulier les praticiens de la supply chain, le savent instinctivement. Ils n’ont pas besoin des mathématiques, mais dès qu’ils entrent dans le domaine du enterprise software, soudainement, une moyenne mobile et un peu de lissage exponentiel sont censés résoudre le problème. Et ils vous disent : « Ne vous inquiétez pas, si la moyenne mobile ne suffit pas, nous avons les classes ABC pour affiner le tout. » Et je me dis que cela n’aide toujours pas. Et je suis d’accord, il y a ce décalage où, supposément, dès qu’on entre dans cet univers logiciel, les gens laissent leur bon sens à la porte en se disant que la machine fait tout, que c’est trop compliqué. Ainsi, évidemment, s’ils utilisent le lissage exponentiel, il y a bien « exponentiel » dans le terme, cela doit être scientifique et avancé, n’est-ce pas ?

Meinolf Sellmann: Nous aimons décomposer les problèmes. C’est pourquoi j’apprécie ce terme « lumpiness » que vous avez mentionné. Il est délicieusement non technique, mais il va même jusqu’au produit croisé. Si vous gérez un supermarché et que vous augmentez vos prix du lait, soudainement, moins de gens viennent dans votre magasin parce qu’ils n’y trouvent plus leurs produits de base. Soudainement, les kayaks ou tout autre produit saisonnier que vous vendez ne se vendent plus non plus, car vous avez tout simplement beaucoup moins de fréquentation dans le magasin. Ainsi, ce dont vous avez réellement besoin, c’est d’une distribution postérieure conjointe dans laquelle vous prévoyez des scénarios potentiels sur la manière dont tout s’écoule.

Conor Doherty: Cette description, spécifiquement pour ce qui est des produits de base et de leur interdépendance, ressemble remarquablement à la perspective du panier dont nous parlons. Vous entrez, vous pourriez vouloir acheter un marteau ; eh bien, s’il n’y a pas de marteau, je pars. J’entre, je veux acheter de nombreux articles, je veux faire une liste de courses complète, et il manque le lait, alors d’accord, je vais ailleurs où je pourrai obtenir du lait ainsi que tout le reste. Ainsi, la pénalité liée à l’absence de lait ne se limite pas à la vente perdue du lait, elle englobe tout. Car avoir le lait aurait signifié vendre le beurre, le pain, la confiture, la glace, le bacon, etc. Mais encore, et cela nous amène à la question suivante, destinée à Meinolf, pour défendre avec le principe de charité ceux qui pourraient ne pas être d’accord, les gens aiment les heuristiques. Quand vous parliez de décomposer les problèmes, les gens aiment les heuristiques. Ainsi, l’idée d’une classe ABC, du lissage exponentiel, ce sont des choses plus faciles à comprendre, des règles empiriques. L’optimisation stochastique est plus complexe que cela, pour être juste. Non ?

Meinolf Sellmann: Eh bien, je suppose qu’il est juste de dire qu’autrefois, nous n’avions pas les outils nécessaires pour aborder cela de manière ordonnée pour un département, tout en conservant ces séparations de préoccupations entre le machine learning et l’optimisation. Vous ne voulez pas obliger tout le monde de votre équipe à se recycler pour faire ces choses. Ainsi, cela aurait été acceptable jusqu’à, je ne sais pas, peut-être il y a cinq ans. Mais avec la technologie d’aujourd’hui, je ne dirais pas nécessairement que c’est plus complexe pour les personnes qui doivent mettre en place ces solutions.

Conor Doherty: Alors, la suite, et encore une fois, je m’adresserai spécifiquement à Joannes sur cette question, mais, par ailleurs, en parlant plus tôt de l’exactitude, comment l’exactitude, ce qui est traditionnellement considéré comme l’indicateur KPI de référence absolu pour toute prévision, intervient-elle dans l’optimisation stochastique ? Ou bien est-ce simplement une autre heuristique qui se met de côté lorsque l’on passe à la prise de décisions ?

Meinolf Sellmann: Oui, donc évidemment, si quelqu’un pouvait vous dire quels seront les numéros gagnants de la loterie samedi prochain, ce serait génial. Le problème, c’est que vous devez faire des prévisions qui comportent une incertitude inhérente. Vous ne savez pas tout du monde pour pouvoir prévoir ce qui va se passer. Ainsi, si vous êtes un magasin et que vous devez décider quels types de plats de sushi vous allez proposer, des produits périssables, en quelque sorte, tout s’applique, comme ce que Joannes évoquait précédemment à propos du surbooking des sièges dans un avion. Si vous ne vendez pas les sushi, vous devez les jeter. Et cela signifie que le coût total de production, de transport, de tarification et de mise en rayon est simplement perdu si vous ne les vendez pas. Donc, vous ne voulez pas surstocker ces produits, qui ont une marge relativement faible comparée au coût que vous perdez lorsqu’ils sont périssables.

Savez-vous s’il y a ces cinq jeunes mères qui ont décidé « Génial, nous pouvons manger des sushi à nouveau » et qui vont organiser une fête en envahissant votre magasin ? Vous ne le savez pas, vous n’avez aucune idée qu’elles apparaîtront et achèteront soudainement quarante de ces plats de sushi. Et il est tout simplement impossible de prévoir ces choses. Il y a donc de l’incertitude. Si vous aviez une prévision parfaite, ce serait génial. Mais puisque ce n’est pas le cas, vous faites le mieux possible, c’est-à-dire que vous essayez de comprendre comment vos prévisions se trompent. Et c’est ce que nous appelons une distribution a posteriori. Nous disons donc : « D’accord, est-ce que cela signifie que si je mets ces plats de sushi en vente, ma valeur attendue sera, disons, de 50 plats, la plupart des jours c’est 50 plats, parfois 48, parfois 42, c’est parfait ? » Ou bien 50 plats signifient-ils, eh bien, soit 25, soit 75 ? Grande différence. L’exactitude est la même, la valeur attendue est de 50, n’est-ce pas ? Mais les scénarios que vous devez examiner et les décisions que vous devez en déduire quant à ce que vous allez mettre en rayon sont très, très différents. C’est un peu trompeur. L’exactitude serait formidable si vous pouviez atteindre 100 %. Sinon, il faut faire le mieux possible, c’est-à-dire prévoir et évaluer comment vous vous trompez.

Joannes Vermorel: Oui, et pour rebondir sur le commentaire de Meinolf concernant la complexité ou la complexité perçue, mon point de vue est que, très souvent, lorsqu’on aborde une situation, l’instinct est de commencer par une solution. Il est très difficile de concevoir un problème avant d’avoir la solution. C’est très étrange. Vous savez, encore une fois, la pensée cartésienne voudrait que l’on considère d’abord le problème et que l’on cherche ensuite la solution, mais ce n’est absolument pas comme cela que les gens, moi y compris, fonctionnent. C’est plutôt comme si j’avais un éventail de solutions que je peux imaginer et qu’à partir de là, je reconstruis un problème que je peux résoudre. Vous savez, c’est typiquement l’inverse.

Ainsi, vous partez d’une solution ou d’un éventail de solutions que vous êtes prêt à considérer, puis, sur cette base, vous choisissez le problème que vous pensez pouvoir résoudre. Car il existe de nombreux problèmes qui seraient fantastiques, mais que vous ne pouvez tout simplement pas résoudre. Vous savez, avoir des voitures volantes, je ne sais pas comment fabriquer un moteur antigravité, donc je ne passe même pas du temps à envisager quel serait le meilleur design pour une voiture volante, car c’est tellement éloigné de ce qui est réalisable que ce n’est même pas un problème qui vaille la peine d’être traité.

Revenant à cela, je pense que lorsqu’il s’agit d’incertitude dans la prévision et de gérer, d’analyser cette incertitude du côté de l’optimisation, c’est ce qu’on appelle l’optimisation stochastique. Je pense que l’élément – et je suis d’accord avec vous concernant les progrès technologiques – c’est que cela requiert des ingrédients technologiques, des concepts, des paradigmes, quelques éléments. Ils ne sont pas intrinsèquement extrêmement difficiles, mais si vous vivez initialement sans ces éléments, il est très difficile de les imaginer ex nihilo. Fondamentalement, ils ne sont pas très compliqués, mais ils sont très étranges.

De nos jours, les gens prennent pour acquis qu’ils peuvent passer un appel avec quelqu’un situé à l’autre bout du monde, et c’est évident. Dites cela à une personne il y a 200 ans, et elle penserait que c’est de la pure magie. Vous savez, l’idée que vous puissiez faire une telle chose était tout simplement inconcevable. Alors, les gens peuvent-ils le faire aujourd’hui ? Oui, assez facilement. Mais encore, ils connaissent la solution, donc réfléchir au problème est beaucoup plus aisé.

Donc, revenant à cela, je crois que le défi est que, tant que vous n’avez pas la solution, il est très difficile de raisonner à ce sujet. Et si l’on en vient, peut-être, au type de produit que vous développez chez InsideOpt avec Seeker, c’est que si tout ce dont vous disposez, ce sont des outils d’optimisation qui ne traitent aucune forme d’incertitude, alors tous les problèmes d’optimisation que vous êtes prêt à considérer sont, par conception – à cause de votre outil – ceux pour lesquels vous avez en quelque sorte éliminé, de manière paradigmatique, l’incertitude.

Ceci est ma solution miracle, donc j’ai besoin d’un problème adapté. Et voilà. C’est là que je vois le plus grand défi, qui consiste parfois simplement à créer la prise de conscience de l’existence de cette catégorie de solutions pour que les gens puissent même envisager cette catégorie de problèmes. Je sais, je suis très méta ici.

Conor Doherty: Eh bien, en fait, pour enchaîner – car c’est une transition parfaite, peut-être involontaire – mais je vous rends quand même hommage. Lorsque vous parlez des principes de base, en partant du problème pour ensuite arriver à la solution, dans l’une de vos conférences, vous évoquez le problème de la torréfaction du café. Pourriez-vous le présenter brièvement, s’il vous plaît ? Parce qu’encore une fois, c’est un exemple très vivant, très agréable. Définissez ce qu’est le problème, puis expliquez comment, de manière stochastique, nous pourrions le résoudre ou comment, grâce à l’optimisation stochastique, nous pourrions résoudre ce problème.

Meinolf Sellmann: C’est en fait un problème très classique en optimisation. On l’appelle la planification de la production. Si vous avez déjà suivi un cours standard – le fameux cours de référence pour tout en optimisation, à savoir la programmation en nombres entiers mixtes – vous avez probablement rencontré un exemple de planification de la production.

Alors, qu’est-ce que la planification de la production ? Vous disposez de ressources limitées pour fabriquer les produits que vous souhaitez produire, et vous avez un profit attendu associé à la fabrication de chaque unité de chaque produit. Mais ces produits partagent ces capacités de production. Par exemple, des machines qui peuvent fabriquer plusieurs produits différents, la ligne d’emballage, les torréfacteurs dans le cas du café, et parfois ils partagent les ingrédients. Différents types de café peuvent utiliser le même type de grains. C’est généralement un mélange de grains qui entre en jeu.

La question devient donc : que vais-je produire, sur quelle capacité de production, et à quel moment ? C’est une tâche à accomplir quotidiennement pour produire du café. Il faut qu’il y ait quelqu’un sur place pour dire : « Faisons torréfier ces grains bruts ici, rangeons-les dans ce silo là-bas, car vous ne pouvez pas les utiliser immédiatement. Ils doivent refroidir avant de les emballer. »

Et ensuite, vous les sortez à nouveau. Vous devez également décider quand vous allez retirer quoi de quel silo puis le transférer vers les lignes d’emballage, qui ont des capacités limitées. Jusqu’ici, tout va bien.

Si vous saviez exactement combien de temps prend la torréfaction du café, la vie serait bien plus simple. De même, si vous connaissiez exactement combien de temps il faut pour que les grains refroidissent, la vie serait également plus facile. Le problème, c’est que vous n’avez que des estimations pour les deux. Ainsi, selon la sécheresse des grains qui arrivent à l’usine de torréfaction, le temps de torréfaction sera plus court ou plus long pour parvenir à la perfection. Et cela, bien sûr, chamboule tout, car vous ne pouvez pas simplement laisser le torréfacteur fonctionner seul.

Si vous ne torréfiez rien pendant plus d’une dizaine de minutes, il faut l’éteindre, et si vous l’éteignez, il faut une demi-heure pour le remettre en marche. Vous vous retrouvez donc soudainement confronté à ces non-linéarités quand, par exemple, le torréfacteur s’est éteint de lui-même et qu’il vaudra maintenant mieux espérer pouvoir torréfier pendant la prochaine demi-heure.

Vous pourriez alors dire : « Quel mal y a-t-il à commencer à torréfier le prochain produit plus tôt ? » Eh bien, vous ne savez pas où ranger ces produits, car les silos sont pleins et l’emballage ne suit pas. Ainsi, pour libérer de l’espace pour le prochain produit qui sortira du torréfacteur, vous devez dégager cette capacité, ce qui implique de créer une contrainte sur une autre partie du système.

Et maintenant, vous restez là et vous devez élaborer un plan. Je veux dire, vous constatez que les torréfacteurs restent en fait inactifs pendant un certain laps de temps, tout simplement parce qu’ils ne savent pas où stocker le produit fini mais non emballé. Et cela représente, bien entendu, une contrainte énorme sur les coûts opérationnels d’une telle entreprise.

Joannes Vermorel: Je pense que cela reflète le fait qu’il faut se méfier d’une modélisation simpliste. Le niveau de détail dans le métier est très élevé et cela appelle également à autre chose. La plupart des modèles publiés dans la littérature et la plupart de ce que l’on voit dans les cours, vous offrent une solution directe, plus ou moins sophistiquée, à un problème bien comporté.

Donc, vous avez un problème qui possède une belle structure, quelque chose qui, comme pour les enseignants — j’enseigne à l’université — vous ne voulez pas passer deux heures à simplement écrire toutes les variables. Vous allez donc présenter le problème de manière à ce qu’il comporte au maximum environ 10 variables afin de ne pas passer deux heures à présenter tous les facteurs du problème. Vous voulez donc quelque chose avec au maximum 10 variables, au maximum trois équations, le finaliser et passer à autre chose.

Ce qui est trompeur, car la réalité vient avec beaucoup de détails et, par conséquent, qu’est-ce que cela vous laisse ? Cela vous laisse le fait que se voir remettre une solution, un modèle, est en quelque sorte inutile. Ce n’est pas suffisant. Ce n’est pas suffisant parce que, eh bien, vous ne connaissez jamais exactement votre situation. Vous l’essayez de la modéliser, puis vous découvrez quelque chose et ensuite vous réviser votre modélisation.

Et peut-être direz-vous, d’accord, cette chose est tout simplement trop complexe à modéliser, j’abandonne. Mais il me faut réintroduire cette autre variable que j’avais ignorée, car en fait, c’était une erreur de l’ignorer. Elle impacte vraiment mon opération. Et donc le modèle lui-même, encore une fois, si l’on se place dans la perspective typique du milieu universitaire, est considéré comme acquis. Il y aura une preuve, il y aura ce qu’on appelle des formes canoniques, etc.

Et c’est exactement ce que vous obtenez avec la programmation en nombres entiers mixtes, où l’on dispose d’une série de problèmes pouvant être résolus rapidement avec des formes canoniques, etc. Mais la réalité est que, lorsque vous traitez avec une véritable supply chain, vous avez un problème en perpétuel changement et vous apprenez en appliquant l’outil, quel qu’il soit, au problème, puis vous réviser.

Et soudainement, vous réalisez que ce qui compte, c’est d’avoir quelque chose d’encore plus abstrait, quelque chose qui vous permette de passer rapidement et efficacement d’une instance du problème à l’instance suivante et de continuer ainsi. Ce qui implique toutes sortes de choses. Il doit être computationnellement rapide, polyvalent afin que vous puissiez exprimer toutes sortes de solutions diverses. Il devrait être assez pratique à brancher dans le reste de votre paysage applicatif.

Donc, cela s’accompagne de nombreuses préoccupations supplémentaires qui — encore une fois —, si l’on se réfère à la littérature typique sur l’optimisation mathématique, ne sont même pas mentionnées. Vous pouvez passer de la première page à la dernière du livre et à aucun moment ils ne discuteraient, au fait, que cette méthode est super lente, impraticable ou que cette approche est si rigide que, dès la moindre révision du modèle, vous devriez l’abandonner complètement et recommencer.

Ou bien cette approche est si sujette aux erreurs que, oui, en théorie, vous pourriez la réaliser de cette manière si vous étiez, par exemple, la NASA et que vous disposiez d’ingénieurs super brillants et d’une décennie pour aborder le problème. Mais en pratique, si vous êtes pressé, cela ne marchera jamais. Il existe donc de nombreuses préoccupations méta qui sont très, très importantes. Et encore une fois, je crois que cela pourrait être lié au genre de choses que vous faites avec Seeker et à la manière dont vous envisagez ce type de problèmes.

Meinolf Sellman: Oui. Et je veux dire, si vous revenez à ce que vous disiez auparavant, que nous recherchons toujours une solution miracle, n’est-ce pas ? Vous avez donc tout à fait raison, Joannes, que lorsque les gens modélisent l’entreprise — et c’est probablement ce qui intéresse le public ici —, c’est de dire : “Hé, comment obtenons-nous de meilleurs résultats, plus tangibles pour l’entreprise ?”

Dans une certaine mesure, vous êtes contraint de faire une approximation de la vie réelle dans l’ordinateur et de la simuler, n’est-ce pas ? C’est-à-dire, d’une manière ou d’une autre, vous pouvez considérer tout modèle d’optimisation comme une simulation de : “Hé, que se passerait-il si je faisais ceci ?” Et ensuite, vous calculez ce qui se passerait, n’est-ce pas ? Est-ce encore quelque chose que le plan peut exécuter, ce que nous appelons faisable dans la terminologie de l’optimisation ?

Donc, respecte-t-il toutes les contraintes secondaires ? C’est exécutable. Mais ensuite, deuxièmement, à quel point est-il réellement efficace, n’est-ce pas ? Ce que nous appelons la fonction objectif — c’est ainsi que nous mesurons le KPI que nous essayons d’optimiser. Vous pourriez vous dire, “Ainsi, ce serait mieux.” Mais le point ici est que, si vous ne connaissez qu’un seul outil, celui du marteau, vous finirez par enfoncer des clous sur vos fenêtres pour y accrocher vos rideaux à un moment donné.

Et c’est une très, très mauvaise idée. Et c’est en quelque sorte ce que font les experts en MIP lorsqu’ils traitent des questions comme la supply chain et l’optimisation dans l’incertitude en général. Parce qu’ils utilisent un outil conçu pour l’optimisation déterministe — et pour cela, il est absolument fabuleux —. Mais il vous force à faire des approximations à la fois du côté du déterminisme et du non-déterminisme, ou plutôt de l’incertitude, car le non-déterminisme a une autre signification dans ce contexte.

En linéarisant tout, il y a tellement de relations dans une entreprise qui ne sont tout simplement pas linéaires. Et puis la question se pose : d’accord, pouvez-vous en quelque sorte approximativer cela ? Pouvez-vous ajuster une fonction linéaire par morceaux à votre fonction non linéaire ? Pouvez-vous binariser certaines choses ? Est-ce ce qui se passe ?

Maintenant, pour rendre cela plus tangible pour le public, si vous dirigez une entreprise, disons que vous êtes le PDG d’une société, bien sûr, vous pouvez simplement aller chez Lokad et dire : “Hé, on va vous l’acheter,” et ils s’occuperont de vous. Mais disons que vous avez une autre entreprise qui fait cela pour vous, ou que vous disposez de votre propre département qui s’en occupe, que devriez-vous faire pour obtenir de meilleures opérations ?

Vous pourriez donc être intrigué et penser : “Oh, il y a tout un autre truc et, vous savez, une réduction de 20 % des coûts opérationnels semble géniale. Comment obtenir cela ?” La première chose à faire est de vous demander : “Quel est notre processus ? S’agit-il d’un processus de prévision et d’optimisation ?” Mais ensuite, il faut aussi se demander : “Quelles libertés avons-nous prises en modélisant le système réel auquel nous sommes réellement confrontés ? Où faisons-nous des approximations ?”

Et donc, ce que vous devriez faire dans les deux cas, afin de voir quelle est la divergence, c’est de dire : “D’accord, regardez, votre modèle d’optimisation avait une fonction objectif. Il indiquait que je privilégiais cette solution plutôt qu’une autre parce que ma fonction objectif, qui est censée approcher le véritable KPI, est meilleure pour cette solution par rapport à l’autre. Maintenant, dites-moi, pour la solution optimale, quel est mon KPI attendu ?”

Et ensuite, suivez cela, suivez-le et comparez-le aux solutions et résultats réels que vous obtenez dans votre système. Donc, si vous minimisez les coûts, suivez ces coûts et examinez la différence entre ce que la programmation MIP estimait que les coûts allaient être et ce qu’ils sont réellement. Ou, si vous maximisez le profit, suivez celui-ci. Mais l’essentiel ici est le suivant : suivez-le, et comparez la différence entre ce qui a servi à prendre la décision et ce qui se matérialise réellement.

Et il y a deux sources pour toute divergence. La première est que vous avez été forcé d’adapter votre système à un cadre de modélisation trop restrictif. C’est une mauvaise chose. L’autre, c’est que vous avez tout simplement complètement ignoré qu’il y avait de l’incertitude, et c’est de là que provient la divergence. Si vous observez une divergence de plus de 5 % de ce côté, vous devez en parler à l’un d’entre nous.

Joannes Vermorel: Et j’ajouterais à votre recette, et je suis d’accord avec le raisonnement que vous venez de présenter, que j’ajouterais même quelque chose que je recommande typiquement, même avant ce processus. Quelque chose qui, dès le tout début — car il y avait déjà le problème des mauvais outils —, me semble même plus important que d’avoir de mauvais concepts, de mauvaises idées.

Pour vous donner un exemple, la notion de faisabilité que l’on trouve dans la littérature classique sur l’optimisation. Les gens diraient : “Oh, il y a une solution qui est faisable ou non faisable.” D’accord, prenons un exemple concret. Est-ce vraiment quelque chose de clairement défini en noir et blanc ?

Pour donner un exemple, nous sommes dans un entrepôt et nous passons des commandes aux fournisseurs de manière routinière. Et l’entrepôt a une capacité de réceptions limitée. Ainsi, un jour donné, disons qu’il peut recevoir au maximum 1 000 unités. Au-delà, ce n’est pas possible. Et des choses s’accumulent devant l’entrepôt tout simplement parce que les gens ne peuvent pas faire entrer les cartons, etc.

Le problème est le suivant : disons que vous passez des bons de commande à des fournisseurs étrangers. Vous ne contrôlez pas exactement les dates de livraison. Vous savez que, si vous organisez les choses, en moyenne, vous devriez respecter vos contraintes. Mais malgré tout, vous pouvez avoir de la malchance et, par exemple, une commande est reportée, une autre arrive un peu plus rapidement, et puis, bam, vous vous retrouvez un lundi avec 2 000 unités arrivant le même jour. Pourtant, ces commandes ont été passées environ un mois à l’avance.

Donc ici, vous voyez qu’il s’agit d’une solution où, pour chaque décision que vous prenez, il existe une probabilité de vous retrouver dans une situation non faisable. Ce n’est pas entièrement sous votre contrôle. C’est donc, encore une fois, ce genre de situation où je dis que de mauvais concepts sont très dangereux, car lorsque vous analysez la situation avec des concepts quelque peu dépassés, trop rigides ou inappropriés, le problème est que vous ne parvenez même pas à adopter l’état d’esprit intellectuel qui vous permet d’apprécier ce que le meilleur outil pourra réellement vous apporter.

Donc, vous êtes coincé entre faisable et non faisable. Eh bien, une fois que vous comprenez qu’en réalité la faisabilité ne dépend pas entièrement de vous — évidemment, certains éléments vont entrer en collision —, par exemple, si vous passez commande à des fournisseurs de la même région, le même jour, en quantités identiques avec les mêmes ports, etc., la probabilité que tout arrive à votre porte le même jour est assez élevée. Vous devriez donc répartir, mais même là, il existe un certain risque.

Et cela se produit dans de nombreux contextes. C’est un exemple. Ici, nous voyons donc que ce qui est pris pour acquis — la faisabilité, une solution faisable, une solution non faisable —, ce n’est pas exactement ainsi. Vous voyez, le concept est un peu décalé.

Une autre approche serait taux de service. Les gens penseraient en termes de taux de service, oui, mais est-ce vraiment ce que perçoivent les gens ? C’est typiquement là que j’interviens dans la discussion sur la qualité de service. Et la qualité de service peut inclure la possibilité de cannibalisation par substitution ou même la propension des gens à reporter. Et soudain, on se retrouve avec quelque chose de très différent.

Et lorsque vous vous attaquez directement au problème avec les concepts que vous aviez dans ce monde où l’incertitude n’existe pas, où votre optimiseur est toujours classique, donc non stochastique, alors, à mon avis, la démarche que vous proposez semblera très probablement incompréhensible. C’est pourquoi, typiquement, j’encourage mes propres prospects à simplement faire une pause, à réaliser un exercice de briefing et à commencer à regarder le monde sous différents angles, et prendre le temps de considérer ces éléments avec une sorte de feeling intuitif avant de se lancer dans des technicités qui peuvent être très distrayantes parce qu’elles sont un peu techniques, sans compter que c’est du logiciel, un peu de maths, etc. Et cela peut constituer une énorme distraction, surtout si vous avez des fournisseurs concurrents qui balancent des tonnes de non-sens, du genre : “Oh, vous voulez faire tout cela ? Vous savez quoi, j’ai la solution pour vous, les LLMs. Et vous savez quoi, vous aviez cette incertitude mais nous avons les LLMs, Large Language Models. Ces prévisions, vous n’allez pas croire à quel point elles seront bonnes. Et l’optimisation avec les LLMs, c’est si bon.”

Est-ce le cas ? Évidemment, quand les gens pensent : “D’accord, je suis juste…” Oui, je veux dire, car, du moins chez Lokad, lorsque nous parlons aux prospects, le problème est que nous ne parlons jamais uniquement au prospect. Il y a environ une demi-douzaine d’autres fournisseurs qui présentent également leurs produits et, fréquemment, ils présentent beaucoup de non-sens. Et donc, les prospects se retrouvent tout simplement submergés par toutes ces choses tape-à-l’œil et ces revendications extravagantes.

Conor Doherty: Eh bien, il me semble que vous venez tous les deux d’esquisser l’un des problèmes clés pour amener les gens à adhérer à l’optimisation stochastique et à toute autre technologie en boîte noire. Cela pourrait être la prévision probabiliste ou toute autre chose impliquant des mathématiques — fondamentalement, il y a une barrière à l’entrée dans une certaine mesure. Et donc, Meinolf, pour revenir à vous, d’après votre expérience, comment faites-vous, puisque vous êtes très doué pour enseigner, pour rendre les gens à l’aise face à l’incertitude dont nous avons parlé pendant une heure ?

Meinolf Sellman: Il se peut qu’il y ait actuellement un décalage cognitif avec le public, où ils se disent : “D’accord, vous nous avez dit que les compagnies aériennes perdaient leur chemise le jour de l’exploitation, mais pour une raison ou une autre, elles utilisent cette technologie depuis des décennies. Pourquoi diable n’utilisent-elles pas ce dont parlent Lokad et InsideOpt ?” Et la raison est exactement ce à quoi vous faites allusion.

Si vous vouliez faire de l’optimisation stochastique pour quelque chose comme une compagnie aérienne, vous augmenteriez la taille du problème à un point tel que vous ne seriez plus capable de le résoudre. Les personnes qui travaillent dans l’industrie aérienne et qui font de l’optimisation pour elle sont très astucieuses et connaissent, bien sûr, l’optimisation stochastique ainsi que l’optimisation traditionnelle, mais cette dernière a toujours été basée sur le MIP.

Je ne veux pas être trop technique ici, mais essentiellement, lorsque vous cherchez quelque chose, il y a deux façons d’aborder la question. L’une consiste à dire : “Oh, j’ai trouvé quelque chose qui est déjà bon. Voyons si je peux l’améliorer.” L’autre est de dire : “Je ne trouverai jamais rien par ici.” Le MIP fonctionne en disant : “Oh, je sais qu’il ne peut rien y avoir,” puis il cherche ailleurs.

Maintenant, si votre espace de recherche est vaste, et si cette approche qui vous dit “Vous n’avez pas besoin de chercher par ici” ne fonctionne pas très bien — c’est un peu comme, “Oui, cela ne semble pas être le cas, mais je ne peux pas l’exclure non plus” — alors vous continuez à chercher partout, et il devient beaucoup plus efficace d’aller chercher là où l’on présume déjà trouver quelque chose, pour ainsi dire.

Ainsi, si vous essayez de faire de l’optimisation stochastique avec la programmation en nombres entiers mixtes, qui fonctionne d’une manière où vous dites : “Oh, je sais qu’il ne peut rien y avoir,” vos soi-disant bornes duales ne seront jamais suffisantes pour réduire l’espace de recherche à un point où vous pourrez réellement vous permettre de le parcourir. Et c’est là que les gens sont restés bloqués pendant 20-25 ans.

Et maintenant, il existe cette nouvelle façon de faire les choses, qui est essentiellement une recherche basée sur l’IA, qui dit, “Écoutez, je me fiche de savoir si je vais obtenir une sorte de limite de qualité pour la solution que je vais obtenir, mais à la place, je vous assure que je vais passer tout mon temps à essayer de trouver la meilleure solution possible dans le temps dont je dispose pour faire le travail.” C’est très pragmatique et pratique, et cela existe désormais.

Dans ce cadre, vous vous libérez soudainement de toutes les autres contraintes auxquelles vous deviez faire face auparavant, comme le fait de devoir linéariser et binariser tout. Toutes ces contraintes disparaissent. Vous pouvez effectuer une optimisation non différentiable et non convexe avec un outil comme InsideOpt Seeker, et la modélisation de ces problèmes n’est plus vraiment un problème.

Il y a quelques autres avantages que vous en retirez, notamment la parallélisation de la programmation en nombres entiers mixtes. Cette approche de branch and bound est très difficile à réaliser. Les accélérations que vous obtenez sont limitées. Vous avez de la chance si vous obtenez une accélération par un facteur de cinq sur une machine raisonnablement grande. Cette recherche basée sur l’IA bénéficie vraiment de l’utilisation de 40-100 cœurs pour un problème.

Ainsi, avec le développement du matériel, cette technologie pourrait en réalité être la meilleure à utiliser. Mais en fin de compte, en utilisant une méthode différente pour explorer ces vastes espaces, vous permettez aux utilisateurs de modéliser le système réel de manière beaucoup plus aisée, par opposition à une approximation grossière.

Et en même temps, gérer des choses comme l’optimisation multi-objective. Ce n’est généralement jamais qu’un seul KPI qui compte, il y en a plusieurs. Gérez des situations du type, “Oh, je veux surtout que cette règle soit respectée ici, mais il est acceptable qu’elle soit enfreinte de temps en temps.” Ainsi, il est acceptable qu’il existe un scénario où cette visibilité n’est pas assurée. Vous pouvez modéliser cela très facilement.

Et bien sûr, vous pouvez faire de l’optimisation stochastique, non seulement dans le sens où vous optimisez les rendements attendus, mais vous pouvez même optimiser activement, contraindre, réduire le risque associé à vos solutions. Et c’est ce changement de paradigme. C’est ce que je pense qui motive Lokad et InsideOpt, pour dire, “Hé, regardez, il existe un tout nouveau paradigme que nous pouvons adopter, ce qui nous permet de faire toutes ces choses qui étaient tout simplement impensables durant les trois dernières décennies.”

Conor Doherty : Joannes, même question.

Joannes Vermorel : Merci. Oui, et je voudrais également souligner qu’au début des années 2000, lorsque j’ai commencé mon doctorat, que je n’ai jamais terminé, l’intéressant était que la croyance de la communauté du machine learning et de la communauté de l’optimisation concernant les problèmes fondamentaux de l’optimisation s’est avérée complètement erronée.

Lorsque j’étais en doctorat, la croyance était la malédiction de la dimensionnalité. Si vous avez un problème à très haute dimension, vous ne pouvez pas optimiser. Et maintenant, avec les modèles de deep learning, nous traitons des modèles qui possèdent des milliards, voire des trillions de paramètres. Apparemment, oui, nous pouvons optimiser des problèmes, sans aucun souci.

Ensuite, ils pensaient que, si ce n’est pas convexe, vous ne pouvez rien faire. Il s’avère que non, vous pouvez en réalité faire beaucoup de choses même si ce n’est pas convexe. Et en effet, nous n’avons aucune preuve, mais si vous avez quelque chose qui est, selon d’autres critères, assez bon et utile, cela importe peu de ne pas pouvoir prouver que c’est l’optimal, tant que vous avez d’autres moyens de raisonner sur la solution et que vous pourriez dire, eh bien, je ne peux pas démontrer l’optimalité, mais je peux tout de même affirmer que c’est une solution excellente même sans preuve mathématique.

Et il y avait toute une série de choses où, pendant longtemps, la seule façon, quand je m’intéressais à l’optimisation stochastique, les gens disaient, “Oh, c’était ce dont vous parliez en évoquant l’augmentation de la dimension. Disons, d’accord, vous allez énumérer mille scénarios et écrire ces mille scénarios comme une seule situation que vous souhaitez optimiser simultanément.”

C’est simplement une expansion macro. Vous prenez votre problème, vous l’élargissez en le développant en mille instances, ce qui vous donne un problème mille fois plus grand. Et puis vous dites, “D’accord, maintenant je repars de zéro. Je peux en fait simplement optimiser cela.” Mais en faisant cela, vous aviez déjà, avec les anciens paradigmes de branch and bound, une scalabilité terrible.

Donc, si votre première étape consiste à étendre votre problème par un facteur de 1 000, cela sera absolument extrêmement lent. Et ce qui a surpris, je crois, par exemple, la communauté du deep learning, c’est l’efficacité incroyable de la descente de gradient stochastique, où vous pouvez simplement observer des situations et ajuster légèrement les paramètres à chaque observation.

Et il y a eu de nombreuses découvertes. Et ce qui m’a semblé intéressant au cours des deux dernières décennies, c’est que le machine learning et l’optimisation ont progressé côte à côte, principalement en renversant des croyances antérieures. Ce fut un processus très intéressant.

La plupart des avancées du deep learning sont venues grâce à de meilleurs outils d’optimisation, à une meilleure utilisation de l’algèbre linéaire et des GPUs, à des types particuliers de matériel informatique, et à l’optimisation mathématique. De plus en plus, on utilise des techniques issues du machine learning qui évitent une recherche aléatoire.

Il y a des moments où vous dites, “Eh bien, ces éléments ici, je ne peux rien prouver, mais ils semblent vraiment mauvais.” Donc, et cela donne l’impression d’être franchement médiocre, tout ce voisinage est super nul, alors je dois regarder ailleurs. Et aussi, d’autres considérations, comme “J’ai déjà passé beaucoup de temps à explorer cette zone, donc peut-être, même si c’est une bonne zone en général, y avoir passé autant de temps, alors je devrais chercher ailleurs.”

Et c’est donc ce genre de technique d’optimisation, qui est très orientée machine learning dans sa conception. Et selon moi, dans peut-être 20 ans, il pourrait même y avoir un domaine fusionné, qui serait comme l’optimisation par machine learning, et où vous ne feriez plus vraiment la distinction entre les deux.

C’est l’une des choses que j’avais en ligne de mire pendant deux décennies, et chaque année qui passe, je constate cette convergence progressive. Et c’est très intrigant car j’ai le sentiment qu’il manque encore certains concepts.

Meinolf Sellman : Oui, et je vais m’attarder sur une chose que vous avez dite là-bas. Le machine learning est génial lorsqu’on a des jeux répétés. C’est comme compter les cartes au blackjack. Vous ne pouvez pas garantir que vous allez gagner, il y a toujours une chance que la prévision soit erronée, mais si vous jouez ce jeu de manière répétée, vous obtenez soudainement un avantage considérable.

Et c’est en quelque sorte pourquoi j’ai dit précédemment, “Regardez, tracez vos résultats opérationnels, votre profit, vos coûts, ou quoi que vous fassiez sur une certaine période.” Parce que, un jour, la solution que vous avez exécutée peut être décalée. C’est un peu comme quelqu’un qui dirait, “Oh, je vais lancer ce dé, et s’il affiche un quatre, vous perdez et vous devez me payer un dollar pour jouer. Mais si c’est autre chose qu’un quatre, je vais vous donner un million de dollars.” Et puis vous lui donnez le dollar, vous lancez le dé et c’est un quatre. C’était la bonne décision de faire cela, n’est-ce pas ? Parce que si vous jouez ce jeu de manière répétée avec cette stratégie d’accepter le jeu en raison de la valeur espérée, bien sûr, si élevée, et de la perte, de toute manière très supportable, vous obtenez soudainement un véritable avantage. Et c’est en quelque sorte le principe lorsque vous utilisez le machine learning dans l’optimisation. C’est exactement ce paradigme de recherche basée sur l’IA. Nous l’appelons la recherche hyperréactive. Je ne sais pas comment vous l’appelez chez Lokad, mais c’est exactement cette idée, n’est-ce pas ?

Puis-je, pour vos problèmes, dire que c’est en quelque sorte ce qui motive InsideOpt Seeker. C’est ce que le solveur fera pour vous une fois que vous saurez quel est votre modèle et quels problèmes vous résolvez. Et maintenant, chaque jour, vous avez ces problèmes opérationnels sur lesquels vous devez prendre une décision. Qu’est-ce que je vais rôtir et où aujourd’hui ? Combien de stocks vais-je relocaliser aujourd’hui et vers où ? Et vous avez ces instances que vous devez traiter au cours de plusieurs semaines et jours de production.

Ensuite, vous allez demander au solveur, “Hé, regardez, examinez vos stratégies de recherche dans cet espace. Auriez-vous pu trouver de meilleures solutions si vous aviez recherché différemment ?” Et puis il examinera exactement des caractéristiques en temps réel, comme celle que vous avez mentionnée, Joannes, du type, “Oh, depuis combien de temps n’ai-je pas exploré un autre endroit ?” Ainsi, il semble que j’ai exploré en profondeur toute cette idée ici. Voyons si je peux faire autre chose.

Et d’autres du même genre, n’est-ce pas ? Et ces caractéristiques en temps réel influencent alors d’autres décisions, telles que le nombre de choses que je suis prêt à modifier simultanément, n’est-ce pas ? Dois-je réellement effectuer une investigation ? Ainsi, si je viens très récemment d’explorer un espace de recherche, il pourrait être une très, très bonne idée d’être très gourmand, en se disant, “Hé, toute manœuvre amélioratrice que je peux entreprendre, je vais la saisir immédiatement pour trouver une bonne solution dans cet espace.”

Mais après un certain temps, une fois que vous y êtes resté un moment, vous vous dites : “Eh bien, je dois élargir un peu mes horizons ici, car il se peut que je sois coincé dans une solution seulement localement optimale, alors qu’à l’échelle globale, j’aurais pu ajuster d’autres variables de manière beaucoup plus efficace, me permettant ainsi de faire mieux ici dans l’ensemble.” Et c’est en quelque sorte le changement de paradigme actuel, n’est-ce pas ? On passe d’une réflexion du type, “Pouvez-vous détecter rapidement qu’il n’y a rien ici ?” à “Puis-je apprendre à mieux rechercher ?” Et c’est là la révolution.

Joannes Vermorel : Pour revenir à la recherche basée sur l’IA. Oui, absolument. Et surtout avec le type de problème que Lokad résout pour ses clients, la plupart des supply chain peuvent être abordées de manière gourmande de façon extensive, pas entièrement, mais de manière étendue. Et il y a une sorte de raisons darwiniennes à cela. Si vous aviez des situations de supply chain qui étaient vraiment, je dirais, antithétiques à une approche gourmande, elles ont déjà été purgées, éliminées, car les entreprises n’avaient pas le luxe de disposer d’outils d’optimisation super sophistiqués.

Ils avaient donc besoin, et très fréquemment c’était littéralement un critère de conception, à savoir, “Puis-je configurer ma supply chain et mes processus de manière à pouvoir évoluer dans la bonne direction tout en restant correct ?” C’était donc typiquement le principe directeur au niveau de la conception. Et ensuite, en regardant de plus près, on se rend compte que, oui, on peut se retrouver coincé dans de mauvaises situations même si, directionnellement, tout va bien.

Ainsi, en général, oui, Lokad s’appuierait largement sur la perspective gourmande, allant même jusqu’à utiliser les gradients quand c’est disponible. Puis, effectivement, procéder aux ajustements locaux une fois arrivé à la phase finale où vous souhaitez effectuer de micro-ajustements et peut-être obtenir un peu plus de résilience. Ainsi, si vous pouvez effectuer un ajustement qui ne vous coûte pas cher mais qui peut vous offrir beaucoup plus de marge dans vos opérations, ce serait pour rendre les choses plus concrètes pour l’audience.

Disons, par exemple, que vous gérez un entrepôt. Vous pensez qu’il y a environ 0,1 % de chances de manquer de carton d’emballage pour expédier vos produits. Cela peut sembler un événement de faible probabilité, mais d’un autre côté, cela paraît vraiment insensé de fermer l’entrepôt une fois tous les quelques ans simplement parce qu’il manque de carton ultra bon marché. Vous diriez donc, “D’accord, c’est si peu que, oui, prenons quelques mois de cartons en supplément.”

Parce qu’ils sont pliés, ils prennent pratiquement aucun espace et sont super bon marché. C’est donc le genre de situation où un peu d’optimisation supplémentaire amènerait les gens à dire, “Oh, nous avons un délai de lead time de trois jours pour ces cartons. Nous avons déjà un mois de stock.” Les gens diraient, “Oh, c’est suffisant. Nous n’en avons pas besoin.” Et ensuite, vous réalisez la simulation et dites, “Vous savez quoi ? Vous avez toujours ce risque de 0,1 %. C’est assez stupide. Vous devriez avoir environ trois mois.”

Et dire, “D’accord, c’est très bon marché, mais cela semble vraiment être beaucoup.” Mais dire, “Eh bien, c’est super bon marché. Cela ne prend pas tellement de place. Et pourquoi prendre le risque ?” Vous savez, c’est ce genre de choses légèrement contre-intuitives où vous réalisez que oui, c’est un événement qui ne se produit qu’une fois tous les quelques ans. Mais ensuite, de nombreuses choses se produisent une fois tous les quelques ans.

Et c’est là qu’une bonne optimisation, qui vous permettra de couvrir ces événements si rares qu’ils semblent appartenir à une autre vie pour l’esprit humain, entre en jeu. Je veux dire, les gens changent. Ils restent rarement deux décennies dans le même poste. Donc, probablement, quelque chose qui se produit une fois tous les trois ans, le responsable de l’entrepôt ne l’a jamais vu. Les équipes, la plupart des gens ne se souviennent même pas l’avoir vu.

Il y a donc une limite à ce que vous pouvez percevoir lorsqu’une chose est en dessous du seuil de perception parce qu’elle est trop rare. Et pourtant, elle est extrême. Il y a tant de facteurs différents qui, mis ensemble, vous font réaliser que non, je veux dire, c’est 0,1 % plus un autre élément qui est à 0, plus un autre élément. Et vous en ajoutez des dizaines et des dizaines, et au final, vous vous retrouvez avec quelque chose où, chaque mois, il y a l’un de ces problèmes qui auraient pu être évités si vous aviez vraiment pris en compte le risque.

Mais c’est un peu contre-intuitif, car cela implique un peu plus de dépenses dans toutes sortes d’endroits. Pourquoi cette dépense supplémentaire ? Eh bien, elle l’est parce que, bien que ce soit rare, vous rencontrez presque inévitablement des problèmes si vous ne le faites pas.

Meinolf Sellman : Oui, et c’est en réalité le piège dans lequel vous tombez lorsque vous disposez d’une solution optimalement prouvée. Cela ressemble à, “D’accord, regardez, vous savez, c’est ma solution optimalement prouvée, et j’ai de bonnes prévisions.” Mais maintenant, si les prévisions sont légèrement erronées, cette solution optimalement prouvée, puisqu’elle a extrait chaque dernière goutte de performance, devient extrêmement fragile. Et de part et d’autre de cette prévision, la performance chute et devient abyssale.

Et vous voulez une technologie qui vous permette de dire, “Regardez, oui, votre profit attendu est inférieur de 80 centimes, mais maintenant votre risque de devoir fermer l’entrepôt est réduit de 75 %. Pas mal, n’est-ce pas ?” C’est un bon compromis à réaliser. Et ce sont exactement le type de compromis que vous voulez que la technologie vous aide à trouver, car il est très, très difficile de dire, “D’accord, regardez, laissez-moi contraindre l’un et optimiser l’autre,” car ensuite vous tombez dans un autre piège de trade-off.

Vous voulez être en mesure de dire, “Regardez, j’ai toutes ces préoccupations. Essayez de trouver un bon compromis. Trouvez-moi l’assurance la moins chère contre un événement tel et tel.” Et cela, en quelque sorte, vous savez, conclut peut-être la boucle sur la manière dont nous avons commencé en évoquant la difficulté de saisir la prise de décision et l’incertitude.

Mais en essence, c’est ce que c’est. L’idée fausse est que si vous aviez une solution optimale pour un futur prédit, elle fonctionnerait probablement aussi raisonnablement pour des futurs qui ne sont que de légères variations de ce dernier. Et ce n’est tout simplement pas vrai. Vous devez activement rechercher un excellent plan opérationnel de compromis qui soit efficace face à une grande masse de probabilités de futurs susceptibles de se réaliser. Et vous le souhaitez de manière à équilibrer raisonnablement votre risque et vos rendements attendus.

Conor Doherty: Corrigez-moi si je me trompe, mais le but ultime de l’optimisation stochastique serait de trouver, je suppose, le compromis optimal ou la décision optimale qui équilibre toutes les contraintes et tous les compromis que vous devez réaliser. Et ce n’est pas la décision parfaite, mais ce serait le meilleur compromis pour satisfaire toutes les décisions ou tous les problèmes séparés, n’est-ce pas ?

Meinolf Sellman: Correct. Nous pourrions le faire mathématiquement, mais je ne souhaite pas entraîner les gens sur cette voie. Le fait est le suivant : si vous aviez su exactement ce qui allait se passer, il y aurait, dans la plupart des cas, une solution meilleure que vous auriez pu mettre en œuvre. Mais en l’absence d’une connaissance parfaite du futur — et je veux dire parfaitement, pas seulement, vous savez, à 99,9% — vous devez opter pour un compromis qui soit essentiellement bon dans l’ensemble pour toutes les éventualités.

Et c’est exactement ce que l’optimisation stochastique fait pour vous. Et par là, elle élimine la fragilité. On pourrait dire qu’il s’agit d’optimisation robuste, mais c’est un terme technique particulier, donc nous ne pouvons pas réellement l’utiliser. Mais c’est bien ce que l’on entend, non ? Vous voulez éliminer la vulnérabilité, vous voulez supprimer la fragilité dans vos opérations. Obtenez des résultats très fiables, continus, et répétés. C’est ce que l’optimisation stochastique vous apportera. Et en même temps, vos profits attendus augmenteront au-delà de ce que vous pensiez possible.

Parce que si vous vous fiez uniquement à la performance de validation croisée et à l’optimalité prouvable, vous manquez totalement le point. Ce que vous pensez être le coût de ne pas connaître parfaitement le futur, c’est le coût d’assumer, dans l’optimisation, que vous connaissiez le futur parfaitement. C’est ce qui la rend fragile, car vous supposez que cette prévision était correcte à 100%. Et c’est ainsi que fonctionne la technologie traditionnelle d’optimisation, que vous devez abandonner au profit des technologies modernes pour récolter ces 20 %, facilement 20 %, de réduction des coûts opérationnels dans vos opérations.

Conor Doherty: Eh bien, merci. Je pense que nous arrivons à la fin. Joannes, je vais te laisser un dernier commentaire avant de passer la parole à Meinolf pour conclure. As-tu quelque chose à ajouter ?

Joannes Vermorel: Je veux dire, oui, l’aspect fascinant est que la meilleure supply chain, ou du moins son apparence, et les meilleures décisions ajustées en fonction du risque sont celles où l’entreprise fonctionne en douceur, où il n’y a, je dirais, aucune décision absolument critique et désastreuse qui soit prise et qui fasse tout dérailler.

Et c’est là que les gens s’attendraient, vous savez, à ce que le plan supply chain le plus brillant de tous les temps consisterait à identifier ce produit complètement ignoré par le marché et à dire, vous savez quoi, nous devons tout miser sur ce produit ultra de niche et bam, vendre un million d’unités pendant que personne ne prête attention. Je dis que c’est de la magie. Non, je veux dire, peut-être qu’il existe des entrepreneurs à la manière de Steve Jobs capables de faire cela, mais c’est tout simplement presque impossible.

Ainsi, l’idée que vous pouvez saisir le futur, identifier la pépite d’or, l’opportunité façon bitcoin, tout miser dessus et faire fortune, c’est très absurde. Ce à quoi cela ressemble, je dirais, c’est qu’une excellente gestion de supply chain se traduit par un fonctionnement en douceur. Vous prenez des décisions en étant conscient des risques, de sorte que, quand c’est mauvais, c’est en réalité assez modéré. Quand c’est bon, c’est la plupart du temps très bon, de sorte que c’est très solidement rentable. Et lorsque c’est mauvais, c’est limité et ce n’est pas catastrophique.

Et quand vous réexaminez une décision, vous savez, vous revenez en arrière et vous la regardez, en vous disant, oui, si j’avais su, j’aurais agi différemment. Mais si je fais l’exercice honnête de revenir sur ce que je connaissais à l’époque, je me dis que c’était une solution raisonnable à ce moment-là. Et ne laissez pas le recul altérer votre jugement à ce sujet, car cela pourrait être bien pire.

Et je savais, par exemple, que certains de nos clients — ils ne font plus cela maintenant, mais dans l’aérospatiale, par exemple, après chaque incident AOG (aircraft on ground), c’est-à-dire lorsqu’il manque une pièce et que l’avion ne peut plus voler — menaient une enquête post-mortem complète. Mais la réalité était que, lorsque vous avez environ 300 000 SKU que vous devez garder en stock pour maintenir les avions en vol en permanence, le fait de ne pas avoir immédiatement toutes les pièces disponibles, surtout quand certaines coûtent plus d’un demi-million de dollars l’unité, est assez acceptable.

Donc, ce que nous avons constaté, c’est que, par exemple, pour ces incidents AOG, les résultats correspondaient exactement aux attentes en fonction de la structure de risque de leurs stocks. Il n’y avait donc aucun intérêt à mener une enquête. Et ce serait ma conclusion : le point de vente le plus difficile de l’optimisation stochastique, c’est qu’elle est assez peu impressionnante. Vous savez, c’est simplement quelque chose qui fonctionne tranquillement. Les problèmes y sont beaucoup moins graves, les succès un peu moins spectaculaires mais beaucoup plus fréquents.

Mais encore, qu’est-ce que vous retenez ? Vous souvenez-vous d’une équipe de football qui gagne de manière constante 60 à 70 % de ses matchs depuis 30 ans ? Ou vous rappelez-vous de cette équipe qui perd pratiquement tous ses matchs mais qui, d’un coup, enchaîne 10 victoires contre les équipes les plus prestigieuses ? Évidemment, vous retiendriez cette série extrême de succès en vous disant, oh, c’était incroyable. Et vous oublieriez complètement ce genre de bilan ennuyeux où c’est simplement excellent en moyenne, mais c’est juste la moyenne, donc vous ne vous en souvenez pas.

Vous voyez, c’est l’ambiance que je veux dire. Et je pense que cela fait partie de l’acceptation que ce que vous obtiendrez de l’optimisation stochastique, ce sont des décisions discrètes et peu impressionnantes qui s’avèrent être assez bonnes en moyenne. Quand elles sont mauvaises, elles le sont légèrement, rien d’extraordinaire, vous savez, vous n’allez pas perdre la chemise. Il y a, en somme, beaucoup de contrôle des dégâts.

Et donc, ce qui est amusant, c’est qu’à Lokad, lorsque nous discutons avec nos clients, très souvent, lorsqu’ils sont en production depuis quelques années, ils n’ont en réalité pas grand-chose à dire. Vous savez, le pire— enfin, pas le pire, mais le meilleur compliment possible—, c’est de dire, vous savez quoi, votre supply chain est tellement sans surprise que nous la dépriorisons dans notre liste de préoccupations. C’est comme avoir accès à de l’eau courante, vous savez, ça fonctionne sans incident, donc vous n’avez pas à y prêter trop d’attention. Et c’est acceptable, vous savez, ce n’est pas que nous soyons meilleurs, évidemment, les supply chain ne sont pas aussi incolores que l’approvisionnement en eau, pas encore tout à fait, mais il y a cette ambiance.

Conor Doherty: Eh bien, merci Joannes. Meinolf, comme d’habitude, nous donnons la dernière parole à l’invité. La parole vous est donc donnée, puis nous conclurons, s’il vous plaît.

Meinolf Sellman: Oui, eh bien, merci encore de m’avoir invité, Conor et Joannes. Juste pour rebondir sur ce que disait Joannes, nous constatons fréquemment que nos équipes opérationnelles sont surprises, tandis que leurs clients ne le sont pas. Et c’est exactement ce que vous souhaitez. Les équipes opérationnelles sont étonnées que, soudainement, les choses fonctionnent de manière si fluide, alors qu’auparavant, c’était toujours, vous savez, une fois par semaine, une journée d’enfer, puis tout à coup, c’est comme si pendant deux mois tout roulait sans accroc, sans folie, rien d’extravagant.

Mais ce qui est plus important, c’est que leurs clients ne sont plus surpris car ils se retrouvent soudainement sans service ou quelque chose du genre. Et c’est pour cela que votre entreprise existe, et c’est pourquoi vous devriez utiliser ce type de technologie pour gérer vos opérations, car vous ne voulez pas sérieusement surprendre négativement vos clients. Ensuite, vous pourrez boire une margarita bien fade sur une belle île et profiter de vos rendements moyens qui s’accompagnent d’une très faible variance.

Conor Doherty: Eh bien, messieurs, je n’ai plus de questions. Joannes, merci beaucoup pour votre temps. Meinolf, un plaisir absolu, et merci de nous avoir rejoints. Et merci à tous d’avoir regardé. Nous espérons vous revoir la prochaine fois.